KR20200083338A - Hand gesture recognition apparatus and method using an artificial neural network learning - Google Patents
Hand gesture recognition apparatus and method using an artificial neural network learning Download PDFInfo
- Publication number
- KR20200083338A KR20200083338A KR1020190176799A KR20190176799A KR20200083338A KR 20200083338 A KR20200083338 A KR 20200083338A KR 1020190176799 A KR1020190176799 A KR 1020190176799A KR 20190176799 A KR20190176799 A KR 20190176799A KR 20200083338 A KR20200083338 A KR 20200083338A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- motion
- hand
- neural network
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- A61B5/04—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6846—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
- A61B5/6847—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 손동작 인식 기술에 관한 것으로, 보다 상세하게는 인공신경망 학습을 이용하는 손동작 인식 방법 및 장치에 관한 것이다.The present invention relates to a hand gesture recognition technology, and more particularly, to a hand gesture recognition method and apparatus using artificial neural network learning.
인체 삽입형 전극 또는 웨어러블 전극을 이용하여 신호를 측정하여 동작을 인식 또는 보조하는 기기에 있어서, 개개인에 따라 그 신호의 패턴이 다르고 동작을 보조함에 있어서 보정하기 위한 조건이 다른 어려움이 있다.In a device for recognizing or assisting an operation by measuring a signal using a human body implantable electrode or a wearable electrode, the pattern of the signal is different for each individual, and there are different difficulties in correcting conditions in assisting the operation.
이러한 개개인의 차이를 보정하기 위하여, 종래의 프로그램을 기반으로 하는 판정보다 인공신경망을 이용하여 신호의 패턴을 학습시키고 이를 이용하여 동작을 인식하거나 동작을 보조하는 기술은 개개인의 다양성에 유연하게 대응하고 보다 정확한 인식 또는 보조를 할 수 있게 한다.In order to correct such individual differences, a technology that learns a signal pattern using an artificial neural network and recognizes motions using the artificial neural network rather than a judgment based on a conventional program, and assists motions flexibly responds to individual diversity. It enables more accurate recognition or assistance.
하지만, 동작 인식 또는 보조를 위한 인공신경망 학습을 위해서는 특정 기간 동안 발생하는 신호를 구분하여 인공신경망 학습에 적합하게 변환하거나 전처리할 필요가 있다.However, in order to learn artificial neural networks for motion recognition or assistance, it is necessary to classify signals that occur during a specific period and convert or preprocess them appropriate for artificial neural network learning.
특히, 로봇 의수 또는 전동 의수는 단순히 손의 형태만을 모방한 의수와는 달리 사용자의 의사에 따라 로봇 의수를 작동시켜 손동작을 하는 것이므로, 인간의 손의 기능을 어느 정도 보충하는 역할을 할 수 있도록 해야 한다. 하지만, 아직까지 관련 연구 결과는 많이 부족한 상태이며, 따라서 로봇 의수를 사용자의 의도에 따라 손쉽게 제어하기 위한 방안이 요구되고 있다.In particular, the robot prosthesis or the electric prosthesis is a hand gesture by operating the robot prosthesis according to the user's intention, unlike a prosthesis that simply mimics the shape of the hand, so it should be able to supplement the function of the human hand to some extent. do. However, the related research results are still insufficient, and a method for easily controlling the number of robots according to a user's intention is required.
본 발명은 기존 기술의 요구에 부응하기 위한 것으로, 본 발명의 목적은 별도의 외부장치를 연결하여 신호를 발생시키거나 특정한 모션을 이용하여 노이즈 패턴을 발생시켜 로봇의수나 전동의수의 손동작을 효과적으로 인식하여 인공신경망 학습을 위한 입력 신호로 활용할 수 있도록 하는, 인공신경망 학습을 이용하는 손동작 인식 방법 및 장치를 제공하는데 있다.The present invention is to meet the needs of the existing technology, the object of the present invention is to generate a signal by connecting a separate external device or generate a noise pattern using a specific motion to effectively handle the hand movement of a robot or electrician. An object of the present invention is to provide a method and apparatus for recognizing hand gestures using artificial neural network learning, which can be recognized and used as an input signal for artificial neural network learning.
본 발명의 다른 목적은 전동의수, 로봇의수 혹은 이와 유사한 장치(팔에 착용하는 장치)의 동작을 인식하여 효과적으로 라벨링함으로써 인식 신호를 인공신경망 학습에 효과적으로 이용하고 이를 통해 로봇의수의 동작을 사용자 의도에 따라 정확하게 그리고 정밀하게 제어할 수 있는 손동작 인식 방법 및 장치를 제공하는데 있다.Another object of the present invention is to recognize and effectively label the motion of an electric prosthesis, a robot prosthesis, or a similar device (a device worn on an arm) to effectively use the recognition signal for artificial neural network learning and thereby control the motion of the robot prosthesis. It is to provide a method and apparatus for hand gesture recognition that can be accurately and precisely controlled according to a user's intention.
본 발명의 또 다른 목적은 전술한 본 발명의 실시예는 인공신경망 학습을 이용하는 손동작 인식 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium in which a program for implementing a hand gesture recognition method using artificial neural network learning is described.
상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 인공신경망 학습을 이용하는 손동작 인식 방법은, 외부 신호 발생 또는 특정 노이즈 발생에 따라 학습모드를 시작하는 단계; 상기 학습 모드의 시작에 따라 센서부를 통해 획득한 감지신호에 대하여 모션 기반 라벨링을 수행하는 단계; 상기 모션 기반 라벨링을 토대로 동작 학습을 수행하는 단계; 상기 동작 학습의 결과에 따라 동작 구간 인식을 수행하는 단계; 외부 신호 발생 혹은 특정 노이즈 발생에 따라 상기 동작 구간 인식을 종료하는 단계; 및 상기 동작 구간 인식에 따른 손동작 구간 인식 데이터에 기초하여 인공신경망 학습을 수행하는 단계를 포함한다.A hand gesture recognition method using artificial neural network learning according to an aspect of the present invention for solving the above technical problem includes: starting a learning mode according to an external signal generation or specific noise generation; Performing motion-based labeling on the detection signal acquired through the sensor unit according to the start of the learning mode; Performing motion learning based on the motion-based labeling; Performing an operation section recognition according to a result of the operation learning; Ending the recognition of the operation section according to the occurrence of an external signal or a specific noise; And performing artificial neural network learning based on the hand motion section recognition data according to the motion section recognition.
일실시예에서, 상기 손동작 인식 방법은, 상기 인공신경망 학습을 수행하는 단계 후에, 입력되는 모드 선택 신호에 따라 상기 손동작 구간 인식 데이터에 기초한 상기 인공신경망 학습의 학습 결과를 토대로 센서부를 통해 획득한 감지신호에 대한 손동작 인식을 위한 추론 모드를 실행하는 단계를 더 포함할 수 있다.In one embodiment, the hand gesture recognition method, after the step of performing the artificial neural network learning, sensing acquired through the sensor unit based on the learning result of the artificial neural network learning based on the hand gesture section recognition data according to the input mode selection signal The method may further include executing an inference mode for hand gesture recognition of the signal.
일실시예에서, 상기 손동작 인식 방법은, 상기 추론 모드의 추론 결과에 따라 전동의수 또는 로봇의수의 손동작을 제어를 위한 제어신호를 생성하는 단계를 더 포함할 수 있다.In one embodiment, the hand gesture recognition method may further include generating a control signal for controlling the hand gesture of the electric number or robot number according to the reasoning result of the reasoning mode.
일실시예에서, 상기 센서부는 관성센서와 근전도센서를 포함하고, 상기 관성센서는 상기 전동의수 또는 상기 로봇의수의 손등 부분에 설치되고, 상기 근전도센서는 상기 전동의수 또는 상기 로봇의수에 연결되는 사용자의 팔뚝과 팔꿈치를 포함한 팔의 특정 부위 상에 설치된다.In one embodiment, the sensor unit includes an inertial sensor and an electromyography sensor, the inertial sensor is installed on the back of the hand or the number of robots, and the electromyography sensor is the number of motors or the number of robots. It is installed on a specific part of the arm, including the user's forearm and elbow, which is connected to.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 인공신경망 학습을 이용하는 손동작 인식 장치로서, 손동작의 구간 인식을 시작하고 종료하기 위한 외부 신호 발생 또는 특정 노이즈 발생를 감지하는 트리거신호감지부; 센서부를 통해 입력되는 구간감지신호에 대하여 모션 기반 라벨링을 수행하는 라벨링부; 상기 모션 기반 라벨링을 거친 구간감지신호를 토대로 동작 학습을 수행하는 학습부; 모드 선택에 따라 학습 모드에서 노멀 모드로 전환된 상태에서 상기 모션 기반 라벨링을 거친 구간감지신호와 상기 학습부의 학습 결과를 토대로 동작 인식을 수행하는 동작 인식부; 및 상기 동작 인식부의 손동작 인식 결과에 따라 전동의수 또는 로봇의수를 제어하기 위한 제어신호를 발생시키는 신호발생부를 포함한다.A hand gesture recognition apparatus using artificial neural network learning according to another aspect of the present invention for solving the above technical problem, comprising: a trigger signal detection unit detecting an external signal occurrence or a specific noise occurrence for starting and ending a hand gesture section recognition; A labeling unit that performs motion-based labeling on the section detection signal input through the sensor unit; A learning unit performing motion learning based on the section detection signal that has been subjected to the motion-based labeling; A motion recognition unit performing motion recognition based on a section detection signal that has undergone the motion-based labeling and a learning result of the learning unit in a state of being switched from a learning mode to a normal mode according to a mode selection; And a signal generator for generating a control signal for controlling the number of electric motors or robots according to the result of the hand motion recognition of the motion recognition unit.
일실시예에서, 상기 센서부는 관성센서와 근전도센서를 포함하고, 상기 관성센서는 상기 전동의수 또는 상기 로봇의수의 손등 부분에 설치되고, 상기 근전도센서는 상기 전동의수 또는 상기 로봇의수에 연결되는 사용자의 팔뚝과 팔꿈치를 포함한 팔의 특정 부위 상에 설치될 수 있다.In one embodiment, the sensor unit includes an inertial sensor and an electromyography sensor, the inertial sensor is installed on the back of the hand or the number of robots, and the electromyography sensor is the number of motors or the number of robots. It can be installed on a specific part of the arm, including the user's forearm and elbow connected to it.
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 손동작 인식 장치는, 전술한 실시예들 중 어느 하나의 인공신경망 학습을 이용하는 손동작 인식 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 포함한다.A hand gesture recognition apparatus according to another aspect of the present invention for solving the above technical problem includes a computer readable recording medium recording a program implementing a hand gesture recognition method using artificial neural network learning in any one of the above-described embodiments do.
전술한 인공신경망 학습을 이용하는 손동작 인식 방법 및 장치를 사용하는 경우에는, 별도의 외부장치를 연결하여 신호를 발생시키거나 특정한 모션을 이용하여 노이즈 패턴을 발생시켜 로봇의수나 전동의수의 손동작을 효과적으로 인식하여 인공신경망 학습을 위한 입력 신호로 활용할 수 있다.In the case of using the hand gesture recognition method and apparatus using the above-described artificial neural network learning, a signal is generated by connecting a separate external device or a noise pattern is generated using a specific motion to effectively effect the hand gesture of the robot or electrician. It can be recognized and used as an input signal for learning the artificial neural network.
즉, 외부 장치를 이용한 신호 발생이나 회로의 단락 또는 개통을 통해 리셋 모드, 학습 모드 및 노멀 모드 간의 모드 전환을 수행할 수 있다. 예를 들어, 기 학습된 특정 노이즈 패턴을 발행하게 하여 학습 모드로 전환하는 것이 가능하다. 또한, 특정 노이즈 패턴 발생을 위해 신체의 일부를 루프로 만들어서 사용할 수 있다. 일례로 오른팔의 특정 부위를 왼손으로 잡아서 신체의 일부를 루프로 만들어서 노이즈를 생성할 수 있다. 그리고 학습 모드로 전환된 후, 각각의 다른 모션으로 라벨링을 수행할 수 있는데, 예를 들어 가위, 바위, 보를 이용하여 각각의 분류에 대하여 라벨링을 수행할 수 있다. 학습을 수행한 후, 다시 외부장치에서 발생되는 신호 또는 특정 노이즈 패턴을 통하여 해당 모드를 종료할 수 있다.That is, the mode switching between the reset mode, the learning mode, and the normal mode may be performed through signal generation using an external device or short circuit or opening of the circuit. For example, it is possible to switch to a learning mode by causing a specific noise pattern to be learned. In addition, a part of the body can be made into a loop to generate a specific noise pattern. For example, it is possible to generate noise by grabbing a specific part of the right arm with the left hand and making a part of the body into a loop. Then, after switching to the learning mode, labeling may be performed with different motions, for example, labeling may be performed for each classification using scissors, rocks, and beams. After learning, the mode may be terminated again through a signal generated by an external device or a specific noise pattern.
또한, 본 발명에 의하면, 전동의수, 로봇의수 혹은 이와 유사한 장치(팔에 착용하는 장치)의 동작을 인식하여 효과적으로 라벨링함으로써 인식 신호를 인공신경망 학습에 효과적으로 이용하고 이를 통해 로봇의수의 동작을 사용자 의도에 따라 정확하게 그리고 정밀하게 제어할 수 있는 손동작 인식 방법 및 장치를 제공할 수 있다.In addition, according to the present invention, by recognizing and effectively labeling the motion of the electric number, the number of robots, or a similar device (a device worn on the arm), the recognition signal is effectively used for learning the artificial neural network and through this, the number of robots is operated It is possible to provide a method and apparatus for recognizing hand gestures that can accurately and precisely control according to a user's intention.
도 1은 본 발명의 일실시예에 따른 인공신경망 학습을 이용하는 손동작 인식 장치의 광의의 구성을 설명하기 위한 개략적인 블록도이다.
도 2는 도 1의 손동작 인식 장치에 채용할 수 있는 협의의 구성을 설명하기 위한 개략적인 블록도이다.
도 3은 도 2의 손동작 인식 장치의 모드 선택 과정을 설명하기 위한 흐름도이다.
도 4는 도 2의 손동작 인식 장치의 인공신경망 학습 과정을 설명하기 위한 흐름도이다.
도 5는 도 2의 손동작 인식 장치의 인공신경망 학습 과정의 다른 실시예를 설명하기 위한 흐름도이다.
도 6은 도 1의 손동작 인식 장치에 채용할 수 있는 제어부의 상세 구성을 나타낸 블록도이다.
도 7은 본 발명의 다른 실시예에 따른 인공신경망 학습을 이용하는 손동작 인식 장치의 구성을 설명하기 위한 개략적인 블록도이다.
도 8은 도 7의 손동작 인식 장치의 센서부의 구성을 설명하기 위한 도면이다.
도 9는 도 7의 손동작 인식 장치의 인공신경망 학습 과정을 설명하기 위한 흐름도이다.
도 10은 본 실시예의 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.1 is a schematic block diagram for explaining the configuration of a wide range of a hand gesture recognition apparatus using artificial neural network learning according to an embodiment of the present invention.
FIG. 2 is a schematic block diagram for explaining a configuration of consultation that can be employed in the hand gesture recognition device of FIG. 1.
3 is a flowchart illustrating a mode selection process of the hand gesture recognition device of FIG. 2.
4 is a flowchart for explaining an artificial neural network learning process of the hand gesture recognition device of FIG. 2.
5 is a flowchart for explaining another embodiment of the artificial neural network learning process of the hand gesture recognition device of FIG. 2.
FIG. 6 is a block diagram showing a detailed configuration of a control unit employable in the hand gesture recognition device of FIG. 1.
7 is a schematic block diagram illustrating a configuration of a hand gesture recognition apparatus using artificial neural network learning according to another embodiment of the present invention.
8 is a view for explaining the configuration of the sensor unit of the hand gesture recognition device of FIG. 7.
FIG. 9 is a flowchart for explaining an artificial neural network learning process of the hand gesture recognition device of FIG. 7.
10 is a structural diagram of a convolutional neural network employable in the method and apparatus of the present embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are exemplified only for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention It can be implemented in various forms and is not limited to the embodiments described herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can be applied to various changes and can have various forms, so the embodiments will be illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosure forms, and includes all modifications, equivalents, or substitutes included in the spirit and scope of the present invention.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함한다" 또는 "가진다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “comprises” or “haves” are intended to indicate the presence of features, numbers, steps, operations, elements, parts, or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.
이하 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일실시예에 따른 인공신경망 학습을 이용하는 손동작 인식 장치의 광의의 구성을 설명하기 위한 개략적인 블록도이다.1 is a schematic block diagram for explaining the configuration of a wide range of a hand gesture recognition apparatus using artificial neural network learning according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예에 따른 손동작 인식 장치(100)는 센서부(10) 및 제어부(20)를 포함한다. 센서부(10)는 관성센서를 포함한 관성센서부를 포함할 수 있다. 관성센서는 전동의수에 탑재되어 전동의수의 움직임에 따른 가속도를 측정할 수 있다. 전동의수는 다수의 손가락 관절을 구비하는 로봇의수를 포함할 수 있다.Referring to FIG. 1, the hand
또한, 손동작 인식 장치(100)가 전동의수 또는 로봇의수에 탑재되는 경우, 손동작 인식 장치(100)는 전동의수의 동작을 위한 힘을 제공하는 구동부(50) 또는 액추에이터를 더 구비할 수 있다. 이 경우, 제어부(20)는 의수제어부(30)를 구비하고, 의수제어부(30)에서 제어신호를 발생시켜 구동부(50)의 동작을 제어할 수 있다. 아울러, 손동작 인식 장치(100)는 인공신경망 학습을 통해 손동작을 학습하거나 인식할 때 센서부(10)의 감지신호를 구간감지신호로서 구분하여 획득하기 위한 버튼부(60)를 더 구비할 수 있다. 버튼부(60)는 제어부(20)의 하드웨어에 결합하거나 전동의수에 설치될 수 있다.In addition, when the hand
이와 같이, 본 실시예에 있어서, 인공신경망 학습 플랫폼(200)은 넓은 의미에서 손동작 인식 장치(100)에 포함될 수 있다. 그 경우, 손동작 인식 장치는 전동의수 또는 로봇의수에 센서부(10), 제어부(20), 구동부(50) 및 인공신경망 학습 플랫폼(200)을 일체로 탑재한 형태를 구비할 수 있다. 인공신경망 학습 플랫폼(200)은 제어부(20)에 결합되어 인공신경망 학습 기능을 수행하는 수단이나 이러한 수단에 상응하는 기능을 수행하는 구성부를 포함한다. 인공신경망 학습 플랫폼(200)은 데이터베이스 시스템을 포함할 수 있다.As such, in this embodiment, the artificial neural
전술한 인공신경망 학습 플랫폼(200)에 탑재되는 인공신경망은 기계학습(machine learning)을 위해 생물학적 신경망과 유사한 형태로 구현되는 통계학적 학습 알고리즘이다. 즉, 생물학적 신경망의 뉴런(neuron)을 모방한 노드들이 네트워크를 구성하고, 학습을 통해 시냅스(synapse)의 결합 세기를 나타내는 가중치(weight)를 변화시켜 문제 해결 능력을 가지는 모델을 가리킨다. 구체적으로 인공신경망은 하나의 함수를 구현하는 것으로, 그 내부에는 노드인 뉴런과 시냅스들로 이루어진 연결망이 존재하며, 각 뉴런에 연결된 시냅스의 가중치와의 곱셈 값들의 합을 바탕으로 뉴런의 출력이 활성화(activation)된다. 이들 입력과 저장된 가중치의 곱셈은 곱셈기로 구현이 된다. 인공신경망을 통해 최종 출력의 손실함수가 최소화되도록 역전파(backpropagation) 기반의 학습법칙(learning rule)에 따라 가중치를 바꾸는 작업이 학습이며, 학습된 인공신경망 모델을 가지고 입력에 대한 출력을 얻는 과정이 추론이다. 출력의 형태는 시스템의 응용 분야와 목적에 따라 다르다. 예를 들어, 이미지가 입력인 추론에서는 이미지가 무엇을 나타내는지에 대한 레이블의 인덱스(index)가 출력될 수 있다. 인공신경망에 특수한 노드들을 추가함으로써 신호 분류 혹은 손동작 인식의 성능을 향상시킬 수 있다. 이러한 인공신경망 학습 플랫폼(200)은 중앙처리장치(CPU)나 그래픽처리장치(GPU) 기반으로 구현되어 모델의 파라미터를 계산하고 출력을 생성하도록 이루어질 수 있다.The artificial neural network mounted on the aforementioned artificial neural
전술한 제어부(20)는 마이크로프로세서, 연산처리장치 등에 대응할 수 있고, 중앙처리장치(CPU)나 코어(core)를 포함할 수 있으며, 메모리에 저장되는 프로그램이나 소프트웨어 모듈을 실행하여 본 실시예에 따른 인공신경망 학습을 이용하는 손동작 인식 방법을 실행하도록 구현될 수 있다.The above-described
도 2는 도 1의 손동작 인식 장치에 채용할 수 있는 협의의 구성을 설명하기 위한 개략적인 블록도이다.FIG. 2 is a schematic block diagram for explaining a configuration of consultation that can be employed in the hand gesture recognition device of FIG. 1.
도 2를 참조하면, 본 실시예에 따른 손동작 인식 장치(40)는 착용형인 센서부의 센서로부터 손동작에 의한 관성정보를 고유한 숫자로 라벨링하여 인공신경망 학습에 활용한다.Referring to FIG. 2, the hand
본 실시예에 따른 손동작 인식 장치(40)는 관성센서부(12) 및 제어부를 포함하고 전동의수에 탑재될 수 있다. 제어부는 상태제어부(21), 신호기록부(22) 및 신호처리부(23)를 구비한다. 제어부는 내장된 통신부를 통해 전동부(도 1의 50 참조)에 연결되고 인공신경망 학습 플랫폼(도 1의 200 참조)에 연결되어 신호 또는 데이터를 송수신할 수 있다.The hand
관성센서부(12)는 1개의 관성센서를 통해 3차원 공간 상의 손 또는 전동의수의 움직임을 측정한다. 이를 위해 관성센서는 가속도를 측정하는 가속도계(acceleometer)와 각속도를 측정하는 자기계(magnetometer)를 구비할 수 있다.The
상태제어부(21)는 버튼부(60)에서 입력되는 신호에 따라 관성센서의 감지신호를 구간감지신호로서 획득한다. 즉, 상태제어부(21)는 버튼부(도 1의 60 참조)의 제1 신호에 따라 관성센서의 감지신호를 측정하거나 저장하기 시작하고 버튼부의 제2 신호에 따라 관성센서의 감지신호에 대한 측정 혹은 저장 동작을 중지할 수 있다. 이를 위해, 상태제어부(21)는 버튼부로부터 서로 다른 신호들을 입력받을 수 있다.The
버튼부(도 1의 60 참조)는 예를 들어 N(임의의 자연수)개의 라벨링 버튼과 1개의 손동작 버튼으로 구성될 수 있다. 그 경우, N개의 라벨링 버튼은 라벨링할 번호 N을 입력하는 기능을 수행하고, 나머지 1개의 손동작 버튼은 손동작의 시작-완료(ON-OFF) 시점을 결정하기 위한 신호를 입력하는 기능을 수행할 수 있다.The button portion (see 60 in FIG. 1) may be configured of, for example, N (arbitrary natural number) labeling buttons and one hand gesture button. In that case, the N labeling buttons perform a function of inputting the number N to be labeled, and the other one hand gesture button may perform a function of inputting a signal for determining a start-complete (ON-OFF) time point of the hand gesture. have.
신호기록부(22)는 센서부에서 측정한 신호를 메모리나 기록장치에 버퍼 형태로 저장할 수 있다.The
신호처리부(23)는 버퍼 형태로 저장된 신호를 고유 번호로 라벨링하여 인공신경망 학습을 위한 데이터를 생성할 수 있다. 예를 들어, 인공신경망 학습을 위한 데이터는 특정 손동작에 대하여 미리 설정된 라벨링 넘버와 이에 대응하는 일련의 구간감지신호 혹은 일정 그룹의 구간감지신호를 매칭시키도록 학습하는데 이용될 수 있다.The
도 3은 도 2의 손동작 인식 장치의 모드 선택 과정을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a mode selection process of the hand gesture recognition device of FIG. 2.
도 3을 참조하면, 본 실시예에 따른 손동작 인식 장치는 전원 입력 등에 의해 작동이 시작되면 손동작 인식을 위한 통신속도가 40㎳ 이상이 되도록 통신속도 설정 확인 혹은 통신속도 제어를 수행한다(S31).Referring to FIG. 3, when the hand gesture recognition apparatus according to the present embodiment starts operation by power input or the like, the communication speed setting check or the communication speed control is performed so that the communication speed for hand gesture recognition is 40 Hz or more (S31).
다음, 센서부에서 측정되는 신호를 센서 읽기를 통해 읽어내어 버퍼에 저장할 수 있다(S32).Next, the signal measured by the sensor unit can be read through the sensor reading and stored in a buffer (S32).
다음, 작동 모드가 특정 모드로 선택되어 있거나 작동 모드가 특정 모드로 선택되면(S33), 해당 모드로 진행한다. 작동 모드는 리셋 모드(S34), 모멀 모드(S35) 및 학습 모드(S36)를 포함할 수 있다. 리셋 모드(S34)는 작동 모드를 초기화하여 메모리 또는 버퍼에 저장된 데이터를 전부 삭제하는 것을 포함할 수 있다. 노멀 모드(S35)는 센서부의 구간감지신호와 학습 모드에서의 학습 결과에 기초하여 감지신호에 대응하는 손동작을 추론하는 동작을 포함할 수 있다. 노멀 모드(S35)는 일반 모드, 손동작 인식 모드 등으로 지칭될 수 있다. 그리고 학습 모드(S36)는 센서부의 구간감지신호와 버튼부(60)의 특정 모션에 대한 특정 라벨링 신호에 기초하여 일련의 구간감지신호 혹은 소정 그룹이나 데이터셋의 구간감지신호를 인공신경망을 통해 추론하고 학습한다.Next, when the operation mode is selected as a specific mode or when the operation mode is selected as a specific mode (S33), the process proceeds to the corresponding mode. The operation mode may include a reset mode (S34), a normal mode (S35), and a learning mode (S36). The reset mode S34 may include deleting all data stored in the memory or buffer by initializing the operation mode. The normal mode S35 may include an operation of inferring a hand gesture corresponding to the sensing signal based on the section sensing signal of the sensor unit and the learning result in the learning mode. The normal mode S35 may be referred to as a normal mode or a hand gesture recognition mode. In addition, the learning mode (S36) deduces a series of section detection signals or section detection signals of a predetermined group or dataset through an artificial neural network based on a section detection signal of the sensor unit and a specific labeling signal of a specific motion of the
다음, 센서부의 감지신호와, 인식결과, 학습결과, 모드 상태 등을 블루투스(bluetooth)나 직렬(serial) 통신을 통해 제어부에 전달할 수 있다(S37).Next, the detection signal of the sensor unit, the recognition result, the learning result, the mode status, etc. may be transmitted to the control unit through Bluetooth or serial communication (S37).
다음, 인덱스(index)를 증가시켜 버퍼와 모드 상태를 관리할 수 있다(S38). 인덱스를 일정 개수씩(예컨대 하나씩) 증가시킴으로써 특정 모드에서 일정 횟수의 구간감지신호를 획득하고, 미리 설정된 횟수가 경과될 때 미리 설정된 다른 모드로 변경하는 것이 가능하다.Next, the index and the mode state can be managed by increasing the index (S38 ). It is possible to acquire a certain number of section detection signals in a specific mode by increasing the number of indexes by a predetermined number (for example, one by one), and to change to another preset mode when a preset number of times has elapsed.
도 4는 도 2의 손동작 인식 장치의 인공신경망 학습 과정을 설명하기 위한 흐름도이다.4 is a flowchart for explaining an artificial neural network learning process of the hand gesture recognition device of FIG. 2.
도 4를 참조하면, 본 실시예의 손동작 인식 장치의 학습 모드에서(S36), 제어부 또는 제어부와 연동하는 센서부는 통신속도를 유지하도록 상태값을 관리한다(S361).Referring to FIG. 4, in the learning mode of the hand gesture recognition device of the present embodiment (S36), the control unit or the sensor unit interlocking with the control unit manages the state value to maintain the communication speed (S361).
다음, 손동작 버튼을 눌러 온(ON) 신호 입력 시점에서 손동작 인식 장치의 작동 시작 여부를 판단한다(S352). 한편, 버튼부가 생략되는 경우, 특정 손동작은 엄지손가락을 손등 쪽으로 세우거나, 엄지손가락과 검지손가락을 접촉시키거나, 손가락 전체를 완전히 펴는 동작 등과 같이 미리 설정된 동작을 포함할 수 있다.Next, it is determined whether the hand gesture recognition device starts to operate at the time when the ON signal is input by pressing the hand gesture button (S352). On the other hand, when the button portion is omitted, the specific hand gesture may include a preset gesture, such as placing the thumb on the back of the hand, contacting the thumb with the index finger, or extending the entire finger completely.
작동 시작 여부의 판단 결과, 예(yes)이면, N(임의의 자연수)번째 손동작 버튼으로 고유의 손동작에 대한 고유의 번호 N을 라벨링한다(S363). 이러한 라벨링은 이후에 측정되는 구간감지신호에 대하여 수행될 수 있다.As a result of determining whether to start the operation, if yes, label the unique number N for the unique hand action with the N (any natural number) hand action button (S363). Such labeling may be performed on the section detection signal measured later.
다음, 작동 시작 상태에서 라벨링 신호가 설정되어 있으면, 손동작 인식을 시작할 수 있다(S364). 관성센서로부터 측정한 신호를 버퍼에 저장한다(S365).Next, when the labeling signal is set in the operation start state, hand gesture recognition may be started (S364). The signal measured from the inertial sensor is stored in a buffer (S365).
다음, 손동작 버튼을 눌러 오프(OFF) 신호 입력 시점에서 손동작 구간 인식 동작을 완료한다(S366). 일정 시간 동안 동작 완료가 입력되지 않으면, 타이머 등을 통해 구간 동작 인식을 미리 설정된 시간이 경과할 때 해당 손동작 구간 인식 동작을 완료할 수 있다.Next, a hand gesture section recognition operation is completed at the time of an OFF signal input by pressing a hand gesture button (S366). If the operation completion is not input for a predetermined time, the corresponding hand movement section recognition operation may be completed when a predetermined time elapses through the timer or the like.
다음, 손동작 구간 인식에 따른 구간감지신호에 기초하여 인공신경망 학습을 수행한다(S367). 인공신경망 학습은 라벨링된 구간감지신호를 통해 전동의수의 손가락의 동작을 신뢰성있게 제어하기 위한 제어신호를 생성하는데 이용될 수 있다.Next, artificial neural network learning is performed based on a section detection signal according to hand gesture section recognition (S367). Artificial neural network learning may be used to generate a control signal for reliably controlling the motion of the electrician's finger through the labeled section detection signal.
다음, 센서 정보와 상태 정보를 제어부로 전송한다. 전송 형태는 블루투스 또는 직렬통신 방식을 이용할 수 있다.Next, sensor information and status information are transmitted to the control unit. The transmission type may be Bluetooth or serial communication.
한편, 관리되는 상태값 하에서 센서부를 통해 측정되는 감지신호는 라벨링 동작이나 인공신경망 학습 과정을 거치지 않는 경우에도 버퍼에 저장되고 원시데이터로서 저장부에 저장될 수 있다(S362, S362, S365, S366, S368). 이 경우, 원시데이터는 센서 측정 결과값의 하나의 형태에 대응될 수 있다.Meanwhile, the sensing signal measured through the sensor unit under the managed state value may be stored in the buffer and stored in the storage unit as raw data even when the labeling operation or the artificial neural network learning process is not performed (S362, S362, S365, S366, S368). In this case, the raw data may correspond to one form of sensor measurement results.
도 5는 도 2의 손동작 인식 장치의 인공신경망 학습 과정의 다른 실시예를 설명하기 위한 흐름도이다.5 is a flowchart for explaining another embodiment of the artificial neural network learning process of the hand gesture recognition device of FIG. 2.
도 5를 참조하면, 본 실시예 따른 인공신경망 학습을 이용하는 손동작 인식 방법은, 외부 신호 발생(S362a) 또는 특정 노이즈 발생(S362b)을 감지한다. 그리고 외부 신호 발생 또는 특정 노이즈 발생에 따라 학습모드를 시작한다(S362c).Referring to FIG. 5, in the hand gesture recognition method using artificial neural network learning according to the present embodiment, an external signal generation S362a or a specific noise generation S362b is detected. Then, the learning mode is started according to the occurrence of an external signal or a specific noise (S362c).
다음, 학습 모드의 시작에 따라 모션 기반 라벨링을 수행한다(S363a).Next, motion-based labeling is performed according to the start of the learning mode (S363a).
다음, 모션 기반 라벨링을 토대로 동작 학습을 수행한다(S364a).Next, motion learning is performed based on motion-based labeling (S364a).
다음, 또 다른 외부 신호 발생(S366a) 혹은 또 다른 특정 노이즈 발생(S366b)을 감지한다. 그리고 또 다른 외부 신호 발생 또는 특정 노이즈 발생에 따라 학습모드를 종료한다(S366c).Next, another external signal generation (S366a) or another specific noise generation (S366b) is detected. Then, the learning mode is terminated according to another external signal generation or specific noise generation (S366c).
또한, 손동작 인식 방법은, 학습 모드를 종료한 후 추론 모드를 실행할 수 있다(S367). 여기서, 추론 모드는 인공신경망 학습 플랫폼(200)에서 외부 신호 발생이나 특정 노이즈 발생에 따라 구획되는 라벨링딘 구간감지신호의 데이터셋에 기초하여 수행될 수 있다.In addition, the hand gesture recognition method may execute a reasoning mode after ending the learning mode (S367). Here, the reasoning mode may be performed based on the dataset of the labeling section detection signal segmented according to the occurrence of an external signal or specific noise in the artificial neural
도 6은 도 1의 손동작 인식 장치에 채용할 수 있는 제어부의 상세 구성을 나타낸 블록도이다.FIG. 6 is a block diagram showing a detailed configuration of a control unit employable in the hand gesture recognition device of FIG. 1.
도 6을 참조하면, 본 실시예에 따른 손동작 인식 장치의 제어부(20)는 모드전환부(24), 트리거신호감지부(25), 라벨링부(26), 학습부(27), 동작인식부(28) 및 신호발생부(29)를 포함할 수 있다.Referring to FIG. 6, the
모드전환부(24)는 리셋 모드, 노멀 모드 및 학습 모드를 설정하거나 미리 설정된 조건에 따라 특정 동작 모드에서 다른 동작 모드로 자동 전환되는 동작을 관리하거나 제어한다.The
트리거신호감지부(25)는 외부 신호, 특정 노이즈 등에 따라 손동작 인식 동작이나 라벨링 동작을 시작하거나 종료하도록 관리한다. 트리거신호감지부(25)는 버튼부의 신호 입력에 따라 작동할 수 있다. 또한, 트리거신호감지부(25)는 버튼부가 생략된 상태에서 특정 움직임이나 모션에 따라 미리 설정된 동작을 시작하거나 종료하도록 기능할 수 있다. 이러한 트리거신호감지부(25)는 MEMS(micro electro mechanical system) 관성센서로 가속, 진동, 충격, 기울기, 회전 또는 이들의 조합에 의해 형성되는 모션을 트리거(trigger) 신호로 감지할 수 있다.The trigger
라벨링부(26)는 버튼부 중 특정 버튼의 입력신호나 미리 설정된 손이나 팔의 움직임이나 모션에 따라 미리 설정된 특정 라벨링을 설정할 수 있다. 라벨링은 손의 움직임이나 손가락 모양에 대한 라벨링일 수 있다. 예를 들어, 라벨링은 가위, 바위 및 보를 표현하는 손가락 형태에 대한 일련의 라벨링 번호를 포함할 수 있다. 또한, 라벨링은 엄지손가락과 검지손가락으로 물건을 집는 형태, 엄지손가락과 나머지 4개의 손가락들로 물건을 잡는 형태 등에 대한 일련의 라벨링 번호를 추가로 포함할 수 있다.The
학습부(27)는 인공신경망 학습을 수행하는 소프트웨어 및 하드웨어를 포함할 수 있다. 학습부(27)는 라벨링부(26)를 통해 일련의 특정 번호나 기호로 라벨링된 구간감지신호의 데이터셋에 기초하여 손동작 인식 결과를 추론한다.The
동작인식부(28)는 학습부(27)의 학습 결과를 토대로 라벨링된 특정 구간감지신호에 대한 손동작을 인식한다.The
신호발생부(29)는 동작인식부(28)에서 인식된 손동작에 대응하는 제어신호를 발생시킨다. 제어신호는 전동의수의 구동부에 전달되어 전동의수가 인식된 손동작에 대응하는 손가락 형태로 움직이도록 기능한다. 이러한 신호발생부(29)는 의수제어부(30)의 적어도 일부의 기능부 혹은 구성부에 대응할 수 있다.The
도 7은 본 발명의 다른 실시예에 따른 인공신경망 학습을 이용하는 손동작 인식 장치의 구성을 설명하기 위한 개략적인 블록도이다. 도 8은 도 7의 손동작 인식 장치의 센서부의 구성을 설명하기 위한 도면이다.7 is a schematic block diagram illustrating a configuration of a hand gesture recognition apparatus using artificial neural network learning according to another embodiment of the present invention. 8 is a view for explaining the configuration of the sensor unit of the hand gesture recognition device of FIG. 7.
도 7을 참조하면, 본 실시예에 따른 손동작 인식 장치(40)는 착용형인 센서부의 관성센서로부터 획득되는 손동작에 의한 관성정보와 근전도센서로부터 획득되는 전완부 둘레의 근육들의 특정 근육신호의 조합을 고유한 숫자로 라벨링하여 인공신경망 학습에 활용한다.Referring to FIG. 7, the hand
본 실시예에 따른 손동작 인식 장치(40)는 관성센서부(12), 근전도센서부(14) 및 제어부를 포함하고 전동의수에 탑재될 수 있다. 도 8에 도시한 바와 같이 관성센서부(12)의 관성센서(12a)는 전동의수(100a)의 손등 부분에 설치될 수 있고, 근전도센서부(14)의 근전도센서(14a)는 전완부 둘레의 근육들에 접하도록 신체 절단부위 상에 결합하는 전동의수(100a)의 표면에 설치될 수 있다.The hand
제어부는 상태제어부(21), 신호기록부(22) 및 신호처리부(23)를 구비한다. 제어부는 내장된 통신부를 통해 전동부(도 1의 50 참조)에 연결되고 인공신경망 학습 플랫폼(도 1의 200 참조)에 연결되어 유선 또는 무선 네트워크를 통해 신호 또는 데이터를 송수신할 수 있다.The control unit includes a
본 실시예의 손동작 인식 장치(40)는 근전도센서부(14)가 추가되고 관련 구성부가 이를 이용하도록 구현되는 것을 제외하고 도 2를 참조하여 앞서 설명한 실시예의 손동작 인식 장치와 실질적으로 동일하다. 따라서, 중복 구성요소와 그에 대한 상세설명은 생략하기로 한다.The hand
근전도센서부(14)는 전동의수가 장착되는 신체의 절단부위의 잔존근육에서 발생하는 미세한 생체신호인 근전도 신호를 측정하도록 설치된다. 근전도센서부(14)는 전동의수에 탑재되는 근전도센서를 포함하거나 별도의 센서 어셈블리 형태로 신체의 절단부위에 착용되는 근전도센서를 포함할 수 있다.The
본 실시예에 의하면, 상태제어부(21)를 통해 버튼부에서 입력되는 신호에 따라 관성센서의 감지신호와 근전도센서의 근전도신호를 구간감지신호로서 획득하고, 획득한 구간감지신호를 메모리나 저장장치에 버퍼 형태로 저장하고, 버퍼 형태로 저장된 구간감지신호를 고유 번호로 라벨링하여 인공신경망 학습을 위한 데이터셋을 생성할 수 있다. 생성된 데이터셋은 관성신호와 근전도신호를 포함한 라벨링된 구간감지신호를 포함하고 인공신경망에 입력되어 손동작 인식을 위한 학습에 이용될 수 있다.According to the present embodiment, the sensing signal of the inertial sensor and the EMG signal of the EMG sensor are acquired as the section sensing signal according to the signal input from the button unit through the
도 9는 도 7의 손동작 인식 장치의 인공신경망 학습 과정을 설명하기 위한 흐름도이다.FIG. 9 is a flowchart for explaining an artificial neural network learning process of the hand gesture recognition device of FIG. 7.
도 9를 참조하면, 본 실시예에 따른 손동작 인식 장치에 있어서, 학습 모드가 시작된 상태에서(S90), 제어부는 관성센서를 통해 소정의 관성력 또는 관성력에 따른 관성 신호를 측정한다(S91). 측정된 관성 신호가 임계치 이상의 가속도 혹은 각속도를 가지면, 제어부는 손동작 버튼의 조작이나 특정 손동작 모션에 대응하는 트리거 신호로 인식한다. 측정된 관성 신호가 임계치 이상의 가속도 혹은 각속도를 가지지 아니하면, 제어부는 이전 모드(예컨대, 일반모드) 상태를 유지하거나 학습모드 대기상태를 유지할 수 있다.Referring to FIG. 9, in the hand gesture recognition apparatus according to the present embodiment, in a state in which the learning mode is started (S90), the controller measures an inertial signal according to a predetermined inertial force or inertial force through an inertial sensor (S91). If the measured inertia signal has an acceleration or angular velocity above a threshold value, the control unit recognizes the trigger signal corresponding to the manipulation of the hand gesture button or the specific hand gesture motion. If the measured inertia signal does not have an acceleration or angular velocity above a threshold, the control unit may maintain a previous mode (eg, a normal mode) state or a standby mode in a learning mode.
트리거 신호의 인식에 응답하여, 제어부는 손동작 인식을 시작하고(S93), 그에 따라 손동작 인식을 위한 근전도를 측정하고(S94), 팔 움직임 인식을 위한 관성력을 측정한다(S95).In response to the recognition of the trigger signal, the controller starts hand gesture recognition (S93), accordingly measures the EMG for hand gesture recognition (S94), and measures the inertial force for arm motion recognition (S95).
손동작 인식을 위한 센서 신호의 측정 동작 중에, 제어부는 관성센서를 통해 소정의 관성력 또는 관성력에 따른 관성 신호를 측정하고, 측정된 관성력이 임계치 이상의 가속도 혹은 각속도를 가지는지를 판단한다(S96).During the measurement operation of the sensor signal for hand gesture recognition, the control unit measures the inertial signal according to the predetermined inertia force or inertia force through the inertial sensor, and determines whether the measured inertia force has an acceleration or angular velocity above a threshold (S96).
판단 결과, 측정된 관성력이 임계치 이상의 가속도 혹은 각속도를 가지면, 현재의 손동작 인식 작업을 종료하고(S97), 일정 시간 동안 측정한 구간감지신호에 대하여 손동작 번호를 할당한다(S98). 라벨링된 구간감지신호는 인공신경망 학습에 입력되어 손동작을 추론하는데 이용될 수 있다.As a result of the determination, if the measured inertial force has an acceleration or angular velocity above a threshold, the current hand gesture recognition task is terminated (S97), and a hand gesture number is assigned to the section detection signal measured for a certain time (S98). The labeled section detection signal may be input to artificial neural network learning and used to infer hand motion.
한편, 상기의 단계(S96)에서의 판단 결과, 측정된 관성력이 임계치 이상의 가속도 혹은 각속도를 가지지 않으면, 근전도 측정 및 관력성 측정 과정을 계속 수행할 수 있다.On the other hand, as a result of the determination in step S96, if the measured inertial force does not have an acceleration or angular velocity above a threshold value, the EMG measurement and the inertia measurement process may be continuously performed.
그리고 상기의 판단 단계(S96)는 타이머 등에 의해 미리 설정된 시간으로 대체되거나 카운터 등에 의해 미리 설정된 단위 구간 시간의 반복 횟수로 대체될 수 있다.In addition, the determination step S96 may be replaced with a preset time by a timer or the like, or may be replaced by a number of repetitions of a unit interval time preset by a counter or the like.
도 10은 본 실시예의 방법 및 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.10 is a structural diagram of a convolutional neural network employable in the method and apparatus of the present embodiment.
본 실시예에 따른 인공신경망 학습을 위한 손동작 인식 장치는 인공신경망으로 딥러닝 아키텍처를 이용할 수 있다. 딥러닝 아키텍처는 입력신호에 대하여 합성곱 신경망(convolutional neural network, CNN), 디컨볼루션(deconvolution), 스킵 컨넥션(skip connection) 등을 사용하여 모션 기반 라벨링에 따라 동작 감지신호를 학습하도록 구현될 수 있다.The hand gesture recognition apparatus for learning an artificial neural network according to the present embodiment may use a deep learning architecture as an artificial neural network. The deep learning architecture can be implemented to learn motion detection signals according to motion-based labeling by using a convolutional neural network (CNN), deconvolution, skip connection, etc. on the input signal. have.
일례로, 딥러닝 아키텍처는 컨볼루션 네트워크와 디컨볼루션 네트워크 및 숏컷(shortcut)을 포함한 형태를 구비할 수 있다. 도 10에 도시한 바와 같이, 딥러닝 아키텍처는 입력 데이터(X)의 국소적인 특징을 추출하기 위하여 3x3 크기의 컬러 컨볼루션 레이어(convolution layer)와 액티베이션 레이어(ReLU)를 쌓고 2x2 크기의 필터를 스트라이드(stride) 1로 적용하여 다음 하위 깊이 레벨로 연결되는 컨볼루션 블록의 연산을 4회 반복하여 수행하고, 그 다음에 2x2 크기의 디컨볼루션 레이어(deconvolution layer)와 액티베이션 레이어(ReLU)를 적용하여 다음 상위 깊이 레벨로 연결한 후 3x3 크기의 컬러 컨볼루션 레이어와 액티베이션 레이어를 쌓는 역컨볼루션 블록의 연산을 4회 반복하여 수행하며, 여기서 각 레벨의 컨볼루션 블록의 연산을 포함한 컨볼루션 네트워크의 각 레벨의 컨볼루션 블록의 감지신호에 동일 레벨의 역컨볼루션 네트워크의 대응 레벨의 컨볼루션 결과를 갖다 붙이고(copy and contatenate) 각 블록에서 컨볼루션 연산을 각각 수행하도록 이루어질 수 있다.As an example, the deep learning architecture may have a form including a convolutional network, a deconvolutional network, and a shortcut. As shown in FIG. 10, the deep learning architecture stacks a 3x3 color convolution layer and an activation layer (ReLU) and extracts a 2x2 size filter to extract local characteristics of the input data (X). (stride) is applied to 1 to perform the operation of the convolution block that is connected to the next lower depth level 4 times, and then a 2x2 size deconvolution layer and activation layer (ReLU) are applied. After connecting to the next higher depth level, the operation of the inverse convolution block, which stacks a 3x3 size color convolution layer and an activation layer, is repeated 4 times, where each of the convolution networks including the operation of the convolution block of each level is performed. The convolution operation may be performed by attaching the convolution result of the corresponding level of the inverse convolution network of the same level to the detection signal of the convolution block of the level (copy and contatenate) and performing convolution operations in each block.
컨볼루션 네트워크와 디컨볼루션 네트워크 내 컨볼루션 블록은 conv-ReLU-conv 레이어들의 조합으로 구현될 수 있다. 그리고, 딥러닝 아키텍처의 출력은 컨볼루션 네트워크이나 디컨볼루션 네트워크에 연결되는 분류기를 통해 얻어질 수 있으나, 이에 한정되지는 않는다. 분류기는 FCN(fully connectivity network) 기법을 이용하여 구간감지신호에서 국소적인 특징을 추출하는데 이용될 수 있다.The convolution block in the convolution network and the deconvolution network may be implemented by a combination of conv-ReLU-conv layers. Further, the output of the deep learning architecture may be obtained through a classifier connected to a convolutional network or a deconvolutional network, but is not limited thereto. The classifier may be used to extract a local feature from the section detection signal using a fully connectivity network (FCN) technique.
또한, 딥러닝 아키텍처는 구현에 따라서 컨볼루션 블록 내에 인셉션 모듈(inseption module) 또는 멀티 필터 경로(multi filter pathway)를 추가로 사용하도록 구현될 수 있다. 인셉션 모듈 또는 멀티 필터 경로 내 서로 다른 필터는 1x1 필터를 포함할 수 있다.Further, the deep learning architecture may be implemented to additionally use an insulation module or a multi filter pathway in a convolution block depending on the implementation. Different filters in the inception module or multi-filter path may include 1x1 filters.
참고로, 딥러닝 아키텍처에서 입력신호 즉 입력(input)이 넓이 32, 높이 32, 그리고 소정 개수(N)의 라벨링 채널을 가지는 경우, 입력신호(X)의 크기는 [32x32xN]일 수 있다. 딥러닝 아키텍처의 CNN(convloultional neural network)에서 콘볼루션(convolutional, CONV) 레이어는 입력신호의 일부 영역과 연결되며, 이 연결된 영역과 자신의 가중치의 내적 연산(dot product)을 계산하도록 설계될 수 있다.For reference, in a deep learning architecture, when an input signal, that is, an input 32 has a width 32, a height 32, and a predetermined number N of labeling channels, the size of the input signal X may be [32x32xN]. In a deep learning architecture convolutional neural network (CNN), a convolutional (CONV) layer is connected to a portion of an input signal and can be designed to calculate a dot product of the connected region and its weight. .
여기서, ReLU(rectified linear unit) 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. ReLU 레이어는 볼륨의 크기를 변화시키지 않는다. POOLING 레이어는 (가로, 세로)로 표현되는 차원에 대해 다운샘플링(downsampling) 또는 서브샘블링(subsampling)을 수행하여 감소된 볼륨을 출력할 수 있다.Here, the ReLU (rectified linear unit) layer is an activation function applied to each element, such as max(0,x). The ReLU layer does not change the size of the volume. The POOLING layer may output a reduced volume by performing downsampling or subsampling on a dimension represented by (horizontal, vertical).
그리고, 전연결(fully-connected, FC) 레이어는 클래스 점수들을 계산하여 예컨대 [1x1x10]의 크기를 갖는 볼륨을 출력할 수 있다. 이 경우, 10개 숫자들은 10개 카테고리에 대한 클래스 점수에 해당한다. 전연결 레이어는 이전 볼륨의 모든 요소와 연결된다. 거기서, 어떤 레이어는 모수(parameter)를 갖지만 어떤 레이어는 모수를 갖지 않을 수 있다. CONV/FC 레이어들은 액티베이션 함수로서 단순히 입력 볼륨만이 아니라 가중치(weight)와 바이어스(bias)를 포함할 수 있다. 한편, ReLU/POOLING 레이어들은 고정된 함수로서, CONV/FC 레이어의 모수들은 각 입력신호에 대한 클래스 점수가 해당 입력신호의 레이블과 같아지도록 그라디언트 디센트(gradient descent)로 학습될 수 있다.Then, the fully-connected (FC) layer may calculate class scores and output a volume having a size of [1x1x10], for example. In this case, 10 numbers correspond to class scores for 10 categories. The pre-connection layer is connected to all elements of the previous volume. There, some layers may have parameters, while some layers may not. CONV/FC layers may include weight and bias as an activation function, not just input volume. Meanwhile, the ReLU/POOLING layers are fixed functions, and the parameters of the CONV/FC layer can be learned with a gradient descent so that the class score for each input signal is the same as the label of the corresponding input signal.
전술한 손동작 인식 장치에 채용가능한 인공신경망은 별도의 전처리기, 인식기, 학습기 또는 이들이 조합된 독립적인 기능부 혹은 구성부로서 분류 시스템에 연결되는 형태를 구비하거나 각 구성부에 부분 탑재되어 연결되는 형태를 구비할 수 있다. 인공신경망은 기계학습(machine learning) 또는 딥러닝를 포함하도록 설계될 수 있다. 딥러닝은 합성곱 신경망 등을 포함할 수 있다. 이러한 인공신경망이나 이를 포함하는 인공지능 시스템은 학습 수단을 포함한 손동작 인식 장치 등으로 지칭될 수 있다.The artificial neural network employable in the above-described hand gesture recognition device is a separate pre-processor, a recognizer, a learner, or an independent functional unit or a combination thereof, which has a form connected to the classification system, or is partially mounted and connected to each constituent part. It may be provided. The artificial neural network may be designed to include machine learning or deep learning. Deep learning may include a convolutional neural network. Such an artificial neural network or an artificial intelligence system including the same may be referred to as a hand gesture recognition device including a learning means.
또한, 전술한 손동작 인식 장치의 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수 있다. 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다.In addition, although all the components of the above-described hand gesture recognition device may be embodied as one independent hardware, some or all of the components are selectively combined to partially or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a program module for performing the. The codes and code segments constituting the computer program may be easily inferred by those skilled in the art of the present invention. Such a computer program is stored in a computer readable storage medium (Computer Readable Media) and read and executed by a computer, thereby implementing an embodiment of the present invention.
본 발명은 도면을 참조한 실시예를 중심으로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점은 자명하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been mainly described with reference to the embodiments with reference to the drawings, it is only an example, and it is obvious that various modifications and equivalent other embodiments are possible from those skilled in the art. Therefore, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.
Claims (6)
상기 학습 모드의 시작에 따라 센서부를 통해 획득한 감지신호에 대하여 모션 기반 라벨링을 수행하는 단계;
상기 모션 기반 라벨링을 토대로 동작 학습을 수행하는 단계;
상기 동작 학습의 결과에 따라 동작 구간 인식을 수행하는 단계;
외부 신호 발생 혹은 특정 노이즈 발생에 따라 상기 동작 구간 인식을 종료하는 단계; 및
상기 동작 구간 인식에 따른 손동작 구간 인식 데이터에 기초하여 인공신경망 학습을 수행하는 단계를 포함하는 손동작 인식 방법.Starting a learning mode according to an external signal generation or specific noise generation;
Performing motion-based labeling on the detection signal acquired through the sensor unit according to the start of the learning mode;
Performing motion learning based on the motion-based labeling;
Performing an operation section recognition according to a result of the operation learning;
Ending the recognition of the operation section according to the occurrence of an external signal or a specific noise; And
And performing artificial neural network learning based on the hand motion section recognition data according to the motion section recognition.
상기 인공신경망 학습을 수행하는 단계 후에, 입력되는 모드 선택 신호에 따라 상기 손동작 구간 인식 데이터에 기초한 상기 인공신경망 학습의 학습 결과를 토대로 센서부를 통해 획득한 감지신호에 대한 손동작 인식을 위한 추론 모드를 실행하는 단계를 더 포함하는, 손동작 인식 방법.The method according to claim 1,
After the step of performing the artificial neural network learning, an inference mode for recognizing the hand gesture for the detection signal obtained through the sensor unit is executed based on the learning result of the artificial neural network learning based on the hand gesture section recognition data according to the input mode selection signal. The gesture recognition method further comprising the step of.
상기 추론 모드의 추론 결과에 따라 전동의수 또는 로봇의수의 손동작을 제어를 위한 제어신호를 생성하는 단계를 더 포함하는 손동작 인식 방법.The method according to claim 2,
And generating a control signal for controlling the hand motion of the electric hand or the robot hand according to the result of the reasoning of the reasoning mode.
상기 센서부는 관성센서와 근전도센서를 포함하고, 상기 관성센서는 상기 전동의수 또는 상기 로봇의수의 손등 부분에 설치되고, 상기 근전도센서는 상기 전동의수 또는 상기 로봇의수에 연결되는 사용자의 팔뚝과 팔꿈치를 포함한 팔의 특정 부위 상에 설치되는, 손동작 인식 방법.The method according to claim 3,
The sensor unit includes an inertial sensor and an EMG sensor, wherein the inertial sensor is installed on the back of the hand of the motorized or robotic robot, and the EMG sensor is connected to the motorized or robotic user. A method of hand gesture recognition that is installed on a specific part of the arm, including the forearm and elbow.
손동작의 구간 인식을 시작하고 종료하기 위한 외부 신호 발생 또는 특정 노이즈 발생를 감지하는 트리거신호감지부;
센서부를 통해 입력되는 구간감지신호에 대하여 모션 기반 라벨링을 수행하는 라벨링부;
상기 모션 기반 라벨링을 거친 구간감지신호를 토대로 동작 학습을 수행하는 학습부;
모드 선택에 따라 학습 모드에서 노멀 모드로 전환된 상태에서 상기 모션 기반 라벨링을 거친 구간감지신호와 상기 학습부의 학습 결과를 토대로 동작 인식을 수행하는 동작 인식부; 및
상기 동작 인식부의 손동작 인식 결과에 따라 전동의수 또는 로봇의수를 제어하기 위한 제어신호를 발생시키는 신호발생부를 포함하는 손동작 인식 장치.A hand gesture recognition device using artificial neural network learning,
A trigger signal detection unit that detects external signal generation or specific noise generation to start and end the hand gesture section recognition;
A labeling unit that performs motion-based labeling on the section detection signal input through the sensor unit;
A learning unit performing motion learning based on the section detection signal that has been subjected to the motion-based labeling;
A motion recognition unit performing motion recognition based on a section detection signal that has undergone the motion-based labeling and a learning result of the learning unit in a state of being switched from a learning mode to a normal mode according to a mode selection; And
A hand motion recognition device including a signal generating unit for generating a control signal for controlling the number of electric motors or robots according to the hand motion recognition result of the motion recognition unit.
상기 센서부는 관성센서와 근전도센서를 포함하고, 상기 관성센서는 상기 전동의수 또는 상기 로봇의수의 손등 부분에 설치되고, 상기 근전도센서는 상기 전동의수 또는 상기 로봇의수에 연결되는 사용자의 팔뚝과 팔꿈치를 포함한 팔의 특정 부위 상에 설치되는, 손동작 인식 장치.The method according to claim 5,
The sensor unit includes an inertial sensor and an EMG sensor, wherein the inertial sensor is installed on the back of the hand of the motorized or robotic robot, and the EMG sensor is connected to the motorized or robotic user. A hand gesture recognition device installed on a specific part of the arm, including the forearm and elbow.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180171183 | 2018-12-27 | ||
KR20180171183 | 2018-12-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200083338A true KR20200083338A (en) | 2020-07-08 |
Family
ID=71601416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190176799A KR20200083338A (en) | 2018-12-27 | 2019-12-27 | Hand gesture recognition apparatus and method using an artificial neural network learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200083338A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132925A1 (en) * | 2019-12-27 | 2021-07-01 | (주)제이엘케이 | Method and system for controlling electric hand prosthesis by using forearm electromyogram and inertia information |
-
2019
- 2019-12-27 KR KR1020190176799A patent/KR20200083338A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021132925A1 (en) * | 2019-12-27 | 2021-07-01 | (주)제이엘케이 | Method and system for controlling electric hand prosthesis by using forearm electromyogram and inertia information |
KR20210084782A (en) * | 2019-12-27 | 2021-07-08 | (주)제이엘케이 | Methods and systems for controlling electrical artificial hand using forearm EMG and inertia information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Controlling object hand-over in human–robot collaboration via natural wearable sensing | |
Pape et al. | Learning tactile skills through curious exploration | |
KR20190100090A (en) | Robot and method for recognizing mood using same | |
JP2010112927A (en) | Tactile action recognition device and tactile action recognition method, information processor, and computer program | |
Leoni et al. | Implementing robotic grasping tasks using a biological approach | |
WO2009027486A2 (en) | Methods and systems for data processing and their applications | |
Yanik et al. | A gesture learning interface for simulated robot path shaping with a human teacher | |
Yanik et al. | Use of kinect depth data and growing neural gas for gesture based robot control | |
Huang et al. | Grasping novel objects with a dexterous robotic hand through neuroevolution | |
De Rengervé et al. | On-line learning and planning in a pick-and-place task demonstrated through body manipulation | |
Li et al. | A survey of multifingered robotic manipulation: Biological results, structural evolvements, and learning methods | |
Juett et al. | Learning and acting in peripersonal space: Moving, reaching, and grasping | |
KR20200083338A (en) | Hand gesture recognition apparatus and method using an artificial neural network learning | |
Andrade et al. | A hybrid approach for the actuation of upper limb prostheses based on computer vision | |
Robertsson et al. | Perception modeling for human-like artificial sensor systems | |
WO2020105309A1 (en) | Information processing device, information processing method, and program | |
Shimizu et al. | Robust sensorimotor representation to physical interaction changes in humanoid motion learning | |
KR102334111B1 (en) | A tactile identification robot and method for identificating object using the same | |
Hassan et al. | Tactile sensors for Material recognition in Social and Collaborative Robots: A brief review | |
Pardowitz et al. | Gestalt-based action segmentation for robot task learning | |
KR102396232B1 (en) | Methods and systems for controlling electrical artificial hand using forearm EMG and inertia information | |
KR102314385B1 (en) | Robot and contolling method thereof | |
Rodriguez et al. | Development and Implementation of an AI-Embedded and ROS-Compatible Smart Glove System in Human-Robot Interaction | |
Asghar | Fusion of Estimated Depth and RGB Features for Improved Grasp-Type Selection of Novel Objects | |
Hashiguchi et al. | A Task Estimation Method Based on Image Recognition and Its Application to EMG Prosthetic Hand Control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application |