KR20200080419A - Hand gesture recognition method using artificial neural network and device thereof - Google Patents

Hand gesture recognition method using artificial neural network and device thereof Download PDF

Info

Publication number
KR20200080419A
KR20200080419A KR1020180165334A KR20180165334A KR20200080419A KR 20200080419 A KR20200080419 A KR 20200080419A KR 1020180165334 A KR1020180165334 A KR 1020180165334A KR 20180165334 A KR20180165334 A KR 20180165334A KR 20200080419 A KR20200080419 A KR 20200080419A
Authority
KR
South Korea
Prior art keywords
neuron
hand gesture
neural network
data
learning
Prior art date
Application number
KR1020180165334A
Other languages
Korean (ko)
Other versions
KR102179999B1 (en
Inventor
정윤호
김민우
조재찬
정우재
Original Assignee
한국항공대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공대학교산학협력단 filed Critical 한국항공대학교산학협력단
Priority to KR1020180165334A priority Critical patent/KR102179999B1/en
Publication of KR20200080419A publication Critical patent/KR20200080419A/en
Application granted granted Critical
Publication of KR102179999B1 publication Critical patent/KR102179999B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

An embodiment of the present invention relates to a method and an apparatus for recognizing a hand gesture based on an artificial neural network. An objective of the present invention is to provide a method and an apparatus for efficiently recognizing a hand gesture by combining a restricted coulomb energy (REC) neural network algorithm, which may be learned in real-time, and a dynamic time warping (DTW) distance measuring algorithm which may measure the likelihood by reflecting the characteristic of data varying on a time axis. To this end, according to the present invention, disclosed is the method for recognizing the hand gesture based on the artificial neural network, including: a feature data extracting step of extracting feature data from input data of the hand gesture; and a learning and recognizing step of learning and recognizing the hand gesture by inputting feature data, wherein the learning and recognizing step of the hand gesture includes: a hand gesture learning step including a feature data input step to sequentially input the feature data, learning the hand gesture, and a DTW distance measuring step of calculating a distance between the feature data and a neural central point through a DTW distance measuring algorithm; and a hand gesture recognizing step including a DTW distance measuring step for measuring the distance between the feature data and the neural central point through the DTW algorithm, an activated neuron determining step of determining a neuron having a feature present inside a radius of the relevant neuron, as an activated neuron, and a neural level output step of outputting a label of a neuron having the minimum distance value, among neurons activated, and a method thereof.

Description

인공신경망 기반 손동작 인식 방법 및 장치{Hand gesture recognition method using artificial neural network and device thereof} Hand gesture recognition method using artificial neural network and device thereof

본 발명의 실시예는 인공신경망 기반 손동작 인식 방법 및 장치에 관한 것이다.An embodiment of the present invention relates to a method and apparatus for recognizing a hand gesture based on an artificial neural network.

최근 스마트폰 시장의 성장세가 둔화되면서 IoT(internet of things) 산업을 이끌어갈 새로운 성장 동력으로 웨어러블 디바이스가 부상하고 있다. 몸에 부착하거나 착용하여 사용하는 웨어러블 디바이스는 센서를 통해 사용자와 관련된 정보나 사용자 주변 정보를 데이터화 및 처리하여 원하는 정보를 취득하는 장치로, 시계나 안경, 헤드셋 같은 다양한 형태로 상용화 되고 있다 . 웨어러블 디바이스의 응용에는 수면시간, 심장 박동 수, 스트레스 레벨 등의 데이터 기반 운동 및 건강관리와 생체 인식, 사용자 행동의 데이터를 결합한 안전-보안 장비, 사람의 움직임을 인지하고 기계를 다루는 HMI(human machine interaction) 등이 있다. 이 중 사용자의 주의를 분산시키지 않으면서 움직임만으로 기기를 자유롭게 제어할 수 있는 HMI 시스템은 스마트 카, 스마트 홈과 같은 다양한 응용에서 필요성이 대두되고 있으며, 특히, 손동작을 학습 및 인식하여 효율적으로 기기를 제어할 수 있는 손동작 인식 시스템에 대한 연구가 활발히 진행되고 있다.Recently, as the growth of the smart phone market has slowed, wearable devices are emerging as a new growth engine to lead the Internet of Things (IoT) industry. Wearable devices that are attached to or worn on the body are devices that acquire information by processing and processing user-related information or user-related information through sensors, and have been commercialized in various forms such as watches, glasses, and headsets. The application of the wearable device includes safety-security equipment that combines data-based exercise such as sleep time, heart rate, and stress level with data from health management, biometrics, and user behavior, and a human machine that recognizes human movements and handles the machine. interaction). Among them, the HMI system that can freely control the device with only movement without distracting the user's attention is becoming a necessity in various applications such as smart cars and smart homes. Research on a hand gesture recognition system that can be controlled is actively being conducted.

손동작 인식 시스템은 카메라를 이용하여 영상 정보로부터 사용자의 움직임 정보를 획득하는 비 접촉식 방식과 센서나 장치를 신체에 부착해 데이터를 획득하는 접촉식 방식으로 구분된다. 카메라를 이용한 비 접촉식 방식은 영상의 깊이 정보를 이용하여 인식하는 방식으로, 다양한 연구가 수행되었다. 그러나, 카메라의 영상 정보는 주변 환경에 민감하므로 모든 환경에서 신뢰할 수 있는 시스템을 설계하는데 어려움이 따른다. 이에 비해 웨어러블 디바이스를 활용하는 접촉식 방식은 센서를 직접 부착하기 때문에 비교적 정확한 동작 정보를 얻을 수 있으며, 카메라와 같이 시야, 날씨 등 주변 환경에 대한 제약이 없는 장점을 갖는다. The hand gesture recognition system is divided into a non-contact method of acquiring user's motion information from image information using a camera and a contact method of acquiring data by attaching a sensor or device to the body. The non-contact method using a camera is a method of recognizing using depth information of an image, and various studies have been performed. However, since the video information of the camera is sensitive to the surrounding environment, it is difficult to design a reliable system in all environments. On the other hand, the contact method using a wearable device can obtain relatively accurate motion information because the sensor is directly attached, and has the advantage that there is no restriction on the surrounding environment, such as the field of view and weather, like a camera.

센서 기반의 손동작 인식 시스템에는 여러 가지 센서가 사용되는데, 대표적으로 관성 측정 센서, 근전도 센서, 뇌파 센서, 심전도 센서, 레이더 센서가 있다. 이 중, 관성 측정 센서의 경우 환경에 제약 받지 않을 뿐 아니라, 스마트 장치, 스마트 워치, 관성 펜 등 여러 웨어러블 디바이스에 내장되어 있어 여타 센서 기반 시스템에 비해 손동작 인식 시스템에 적합한 특성을 갖는다. 관성 측정 센서로 추출된 손동작 데이터는 사용자의 신체적 특성 및 사용하는 환경에 따라 다양하고 광범위한 패턴을 갖는다. 따라서, 센서의 상태 및 환경뿐만 아니라 다양한 사용자에 대응하기 위해 실시간 학습 및 인식이 가능한 기계학습 기반의 알고리즘이 필요하다.Various sensors are used in the sensor-based hand gesture recognition system. Representatively, there are an inertial measurement sensor, an EMG sensor, an EEG sensor, an ECG sensor, and a radar sensor. Among them, the inertial measurement sensor is not limited by the environment, and is embedded in various wearable devices such as a smart device, a smart watch, and an inertial pen, and thus has characteristics suitable for a hand gesture recognition system as compared to other sensor-based systems. The hand motion data extracted by the inertial measurement sensor has various and extensive patterns according to the user's physical characteristics and environment. Therefore, a machine learning based algorithm capable of real-time learning and recognition is needed to respond to various users as well as the state and environment of the sensor.

관성 센서 기반 손동작 인식에 활용되는 기계학습 알고리즘에는 템플리트(template) 기반 DTW(dynamic time warping) 알고리즘과 MLP(multiple layer perceptron) 등이 있다. DTW는 대표패턴과 주어진 입력패턴을 비교하여 두 패턴 사이의 유사성을 판별하는 알고리즘으로, 우수한 인식 성능으로 인해 다양한 응용 시스템이 제안되었다. 또한, MLP를 활용한 시스템은 높은 인식 성능을 지원하며 손동작 인식 응용에 활용 가능함이 제시되었다. 그러나, DTW, MLP의 경우 복잡한 최적화 기법 기반의 학습 알고리즘을 요구하거나 최적의 템플리트를 찾아야하는 과정에서 많은 시간이 소요되기 때문에 실시간 학습이 불가능한 단점이 있다.Machine learning algorithms used for inertial sensor-based hand gesture recognition include template-based dynamic time warping (DTW) algorithms and multiple layer perceptrons (MLPs). DTW is an algorithm that determines the similarity between two patterns by comparing a representative pattern with a given input pattern, and various application systems have been proposed due to its excellent recognition performance. In addition, it was suggested that the system using MLP supports high recognition performance and can be used for hand gesture recognition applications. However, in the case of DTW and MLP, real-time learning is impossible because it requires a lot of time in the process of requiring a complex optimization technique-based learning algorithm or finding an optimal template.

반면, RCE(restricted coulomb energy) 신경망 알고리즘은 학습 방법이 비교적 간단하여 실시간 학습을 지원할 수 있는 장점이 있다. RCE 신경망은 입력된 특징 데이터와 저장된 중심점과의 거리 정보를 기반으로 주어진 특징 공간에서 분류 가능한 결정 경계를 생성하는 알고리즘으로, 네트워크의 구조가 고정되어 있지 않고, 학습 과정에 따라 능동적으로 네트워크 구조를 변형 가능하여 다양한 센서 응용을 지원할 수 있다.On the other hand, the RCE (restricted coulomb energy) neural network algorithm has an advantage of being able to support real-time learning because the learning method is relatively simple. The RCE neural network is an algorithm that generates a classification boundary that can be classified in a given feature space based on the input feature data and the distance information between the stored center points. The network structure is not fixed, and the network structure is actively modified according to the learning process. It is possible to support various sensor applications.

하지만, 기존의 RCE 신경망 알고리즘은 시간 축 상에서의 데이터 간 유사성을 고려하지 않고 단순 차이 값으로 거리 정보를 측정하기 때문에, 시간에 따라 변화도가 큰 관성센서 기반 손동작 인식 응용에서는 성능이 저하되는 단점이 있다. However, since the existing RCE neural network algorithm measures distance information with a simple difference value without considering similarity between data on a time axis, in the inertial sensor-based hand gesture recognition application with a large change over time, performance is deteriorated. have.

이러한 발명의 배경이 되는 기술에 개시된 상술한 정보는 본 발명의 배경에 대한 이해도를 향상시키기 위한 것뿐이며, 따라서 종래 기술을 구성하지 않는 정보를 포함할 수도 있다.The above-described information disclosed in the technology that is the background of the present invention is only to improve the understanding of the background of the present invention, and thus may include information that does not constitute the prior art.

본 발명의 실시예에 따른 해결하고자 하는 과제는 실시간 학습이 가능한 RCE 신경망 알고리즘과 시간 축 상에서 변화하는 데이터의 특성을 반영하여 유사도를 측정하는 DTW 거리 측정 알고리즘을 결합한 효율적인 손동작 인식 방법 및 장치를 제공하는데 있다.The problem to be solved according to an embodiment of the present invention is to provide an efficient hand gesture recognition method and apparatus that combines an RCE neural network algorithm capable of real-time learning and a DTW distance measurement algorithm that measures similarity by reflecting the characteristics of data changing on a time axis. have.

본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 방법은 손동작 입력 데이터로부터 특징 데이터를 추출하는 특징 추출 단계; 및 특징 데이터를 입력하여 손동작을 학습 및 인식하는 학습 및 인식 단계를 포함하고, 학습 및 인식 단계는 특징 데이터를 순차적으로 입력받는 특징 데이터 입력 단계; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 DWT 거리 측정 단계를 갖는 손동작 학습 단계; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하는 DWT 거리 측정 단계; 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하는 활성화된 뉴런 판단 단계; 및 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 뉴런 라벨 출력 단계를 갖는 손동작 인식 단계를 포함할 수 있다.An artificial neural network based hand gesture recognition method according to an embodiment of the present invention includes a feature extraction step of extracting feature data from hand gesture input data; And a learning and recognition step of learning and recognizing hand gestures by inputting feature data, wherein the learning and recognition step comprises: feature data input step of sequentially receiving feature data; And a DWT distance measurement step of calculating a distance between the feature data and the neuron center point using a dynamic time warping (DTW) distance measurement algorithm; And a DWT distance measurement step of calculating a distance between the feature data and the neuron center point using a DTW distance measurement algorithm. An activated neuron determination step of determining a neuron having a characteristic inside a radius of the corresponding neuron as an activated neuron; And a hand gesture recognition step having a neuron label output step of outputting a label of a neuron having a minimum distance value among activated neurons.

손동작 학습 단계는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성 단계를 더 포함할 수 있다.The hand gesture learning step may further include a new neuron generation step of generating a new neuron when there is no learned neuron or no activated neuron.

손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소 단계를 더 포함할 수 있다.The hand gesture learning step may further include a neuron radius reduction step of reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.

손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않을 수 있다.In the hand gesture learning step, when the label of the input data and the label of the activated neuron are the same, a new neuron may not be generated.

학습 및 인식 단계는 RCE(restricted coulomb energy) 신경망에서 수행될 수 있다.The learning and recognition step may be performed in a restricted coulomb energy (RCE) neural network.

RCE 신경망은 특징 데이터로 구성되는 입력층; 입력층에 병렬로 연결되고, 특정 모델을 형성하는 중심점과 반경을 갖는 다수의 뉴런으로 구성되며, 뉴런은 각각 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고, 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하여 결과를 전달하는 은닉층; 및 은닉층으로부터 전달받은 정보를 이용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력하는 출력층을 포함할 수 있다.The RCE neural network comprises an input layer composed of characteristic data; It is connected in parallel to the input layer, and consists of a number of neurons having a center point and a radius forming a specific model, and each neuron calculates the distance between the feature data received and the center point of the neuron, and compares the radius with the input data. A hidden layer that determines whether the neuron is included and delivers the result; And an output layer that outputs the class value of the model closest to the input feature data using information received from the hidden layer.

뉴런의 특정 모델은 원 또는 가우시안으로 특징 공간에서 데이터를 구분하기 위한 결정 경계를 생성할 수 있다.Certain models of neurons can create decision boundaries for classifying data in a feature space in a circle or Gaussian.

은닉층은 뉴런 집합

Figure pat00001
을 포함하고, 뉴런
Figure pat00002
는 아래 수학식을 만족하는 중심점
Figure pat00003
와 반경
Figure pat00004
를 포함할 수 있다.The hidden layer is a set of neurons
Figure pat00001
Containing, neurons
Figure pat00002
Is the center point that satisfies the following equation
Figure pat00003
And radius
Figure pat00004
It may include.

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
는 각 뉴런의 인덱스이고,
Figure pat00007
은 학습 과정에서 생성된 뉴런의 총 개수이며,
Figure pat00008
는 입력된 특징 벡터의 차원이다.here,
Figure pat00006
Is the index of each neuron,
Figure pat00007
Is the total number of neurons generated during the learning process,
Figure pat00008
Is the dimension of the input feature vector.

각 뉴런

Figure pat00009
는, 입력된 특징 벡터의 차원이
Figure pat00010
일 때, 반경
Figure pat00011
와 특징 벡터의 차원과 같은
Figure pat00012
차원의 중심점
Figure pat00013
를 저장할 수 있다.Each neuron
Figure pat00009
Is, the dimension of the input feature vector
Figure pat00010
When, radius
Figure pat00011
Such as the dimension of the feature vector and
Figure pat00012
Center of dimension
Figure pat00013
Can be saved.

은닉층은 학습 과정에서 입력되는

Figure pat00014
차원의 특징 벡터의 개수를
Figure pat00015
이라 할때, 특징 벡터 집합
Figure pat00016
을 포함하고, 특징 벡터
Figure pat00017
는 아래 수학식을 포함할 수 있다.The hidden layer is entered in the learning process
Figure pat00014
The number of dimensional feature vectors
Figure pat00015
Set of feature vectors
Figure pat00016
Features vector
Figure pat00017
May include the following equation.

Figure pat00018
Figure pat00018

여기서,

Figure pat00019
는 특징 벡터
Figure pat00020
를 포함하는
Figure pat00021
번째 특징 데이터이다.here,
Figure pat00019
Features vector
Figure pat00020
Containing
Figure pat00021
The second feature data.

은닉층은 입력층을 통하여 특징 벡터가 각 뉴런

Figure pat00022
에 순차적으로 입력되면, 특징 벡터와 뉴런 중심점 사이의 거리 값을 DWT 거리 측정 알고리즘을 이용하여 연산할 수 있다.The hidden layer has a feature vector through each input layer.
Figure pat00022
If sequentially input to, the distance value between the feature vector and the neuron center point can be calculated using the DWT distance measurement algorithm.

DWT 거리 측정 알고리즘은 적어도 두개의 시퀀스 데이터 사이의 유사도가 측정됨으로써, 데이터 사이의 최적 거리가 연산될 수 있다.In the DWT distance measurement algorithm, the similarity between at least two sequence data is measured, so that the optimum distance between data can be calculated.

두개의 시퀀스 데이터는 각각

Figure pat00023
Figure pat00024
이고, 두개의 시퀀스 데이터에 대한 유사도는 아래 수학식을 이용하여 행렬을 만들고, 행렬로부터
Figure pat00025
값을 구하여 측정될 수 있다.Each of the two sequence data
Figure pat00023
And
Figure pat00024
, And the similarity between two sequence data creates a matrix using the following equation,
Figure pat00025
It can be measured by obtaining a value.

Figure pat00026
Figure pat00026

연산된 거리값

Figure pat00027
와 반경
Figure pat00028
를 아래 수학식과 같이 비교하여, 해당 특징 벡터가 각 뉴런
Figure pat00029
를 활성화시켰는지 여부를 판단할 수 있다.Calculated distance value
Figure pat00027
And radius
Figure pat00028
Is compared to the following equation, and the corresponding feature vector is for each neuron.
Figure pat00029
It can be determined whether or not activated.

Figure pat00030
Figure pat00030

특정 뉴런

Figure pat00031
에서
Figure pat00032
를 만족하는 경우 해당 뉴런이 활성화되었다고 판단할 수 있다.Specific neurons
Figure pat00031
in
Figure pat00032
If is satisfied, it can be determined that the corresponding neuron is activated.

특징 벡터

Figure pat00033
에 대해 모든 뉴런이
Figure pat00034
를 만족하지 않는 경우 중심점
Figure pat00035
를 갖는 새로운 뉴런
Figure pat00036
을 생성하고, 총 뉴런 개수
Figure pat00037
을 1 증가시킬 수 있다.Feature vector
Figure pat00033
About all neurons
Figure pat00034
If not satisfied, the center point
Figure pat00035
New neurons having
Figure pat00036
And the total number of neurons
Figure pat00037
Can be increased by 1.

손동작 입력 데이터는 관성 측정 센서로부터 얻어질 수 있다.Hand gesture input data can be obtained from an inertial measurement sensor.

손동작 입력 데이터는 스마트 장치, 스마트 워치 또는 관성 펜에 장착된 관성 측정 센서로부터 얻어질 수 있다.The gesture input data can be obtained from a smart device, a smart watch or an inertial measurement sensor mounted on an inertial pen.

본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 방법은 특징 데이터를 순차적으로 입력받고, 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 손동작 학습 단계; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하고, 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하며, 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 손동작 인식 단계를 포함할 수 있다.A method for recognizing a gesture based on an artificial neural network according to an embodiment of the present invention includes a gesture learning step of sequentially receiving feature data and calculating a distance between the feature data and the central point of a neuron with a dynamic time warping (DTW) distance measurement algorithm; And the distance between the feature data and the central point of the neuron is calculated with a DTW distance measurement algorithm, and a neuron having a feature inside the radius of the neuron is determined as an activated neuron, and a label of a neuron having a minimum distance value among the activated neurons is output. It may include a gesture recognition step.

손동작 학습 단계는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성 단계를 더 포함할 수 있다.The hand gesture learning step may further include a new neuron generation step of generating a new neuron when there is no learned neuron or no activated neuron.

손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소 단계를 더 포함할 수 있다.The hand gesture learning step may further include a neuron radius reduction step of reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.

손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않을 수 있다.In the hand gesture learning step, when the label of the input data and the label of the activated neuron are the same, a new neuron may not be generated.

손동작 학습 단계는 RCE(restricted coulomb energy) 신경망에서 수행될 수 있다.The hand gesture learning step may be performed in a restricted coulomb energy (RCE) neural network.

본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 장치는 손동작 입력 데이터로부터 특징 데이터를 추출하는 특징 추출부; 및 특징 데이터를 입력하여 손동작을 학습 및 인식하는 학습 및 인식부를 포함하고, 학습 및 인식부는 특징 데이터를 순차적으로 입력받는 특징 데이터 입력부; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 DWT 거리 측정부를 갖는 손동작 학습부; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하는 DWT 거리 측정부; 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하는 활성화된 뉴런 판단부; 및 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 뉴런 라벨 출력부를 갖는 손동작 인식부를 포함할 수 있다.An apparatus for recognizing a hand gesture based on an artificial neural network according to an embodiment of the present invention includes a feature extracting unit for extracting feature data from hand gesture input data; And a learning and recognition unit for learning and recognizing hand gestures by inputting feature data, wherein the learning and recognition unit sequentially receives feature data; And a DWT distance measuring unit that calculates a distance between the feature data and the neuron center point using a dynamic time warping (DTW) distance measuring algorithm. And a DWT distance measuring unit that calculates a distance between the feature data and the neuron center point using a DTW distance measurement algorithm. An activated neuron judging unit for determining a neuron having a characteristic inside a radius of the corresponding neuron as an activated neuron; And a hand gesture recognition unit having a neuron label output unit for outputting a label of a neuron having a minimum distance value among activated neurons.

손동작 학습부는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성부를 더 포함할 수 있다.The hand gesture learning unit may further include a new neuron generating unit that generates new neurons when there is no learned neuron or no activated neurons.

손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소부를 더 포함할 수 있다.The hand gesture learning unit may further include a neuron radius reduction unit that reduces the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.

손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않을 수 있다.The hand gesture learning unit may not generate a new neuron if the label of the input data and the label of the activated neuron are the same.

학습 및 인식부는 RCE(restricted coulomb energy) 신경망을 포함할 수 있다.The learning and recognition unit may include a restricted coulomb energy (RCE) neural network.

RCE 신경망은 특징 데이터로 구성되는 입력층; 입력층에 병렬로 연결되고, 특정 모델을 형성하는 중심점과 반경을 갖는 다수의 뉴런으로 구성되며, 뉴런은 각각 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고, 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하여 결과를 전달하는 은닉층; 및 은닉층으로부터 전달받은 정보를 이용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력하는 출력층을 포함할 수 있다.The RCE neural network comprises an input layer composed of characteristic data; It is connected in parallel to the input layer, and consists of a number of neurons having a center point and a radius forming a specific model, and each neuron calculates the distance between the feature data received and the center point of the neuron, and compares the radius with the input data. A hidden layer that determines whether the neuron is included and delivers the result; And an output layer that outputs the class value of the model closest to the input feature data using information received from the hidden layer.

뉴런의 특정 모델은 원 또는 가우시안으로 특징 공간에서 데이터를 구분하기 위한 결정 경계를 생성할 수 있다.Certain models of neurons can create decision boundaries for classifying data in a feature space in a circle or Gaussian.

은닉층은 뉴런 집합

Figure pat00038
을 포함하고, 뉴런
Figure pat00039
는 아래 수학식을 만족하는 중심점
Figure pat00040
와 반경
Figure pat00041
를 포함할 수 있다.The hidden layer is a set of neurons
Figure pat00038
Containing, neurons
Figure pat00039
Is the center point that satisfies the following equation
Figure pat00040
And radius
Figure pat00041
It may include.

Figure pat00042
Figure pat00042

여기서,

Figure pat00043
는 각 뉴런의 인덱스이고,
Figure pat00044
은 학습 과정에서 생성된 뉴런의 총 개수이며,
Figure pat00045
는 입력된 특징 벡터의 차원이다.here,
Figure pat00043
Is the index of each neuron,
Figure pat00044
Is the total number of neurons generated during the learning process,
Figure pat00045
Is the dimension of the input feature vector.

각 뉴런

Figure pat00046
는, 입력된 특징 벡터의 차원이
Figure pat00047
일 때, 반경
Figure pat00048
와 특징 벡터의 차원과 같은
Figure pat00049
차원의 중심점
Figure pat00050
를 저장할 수 있다.Each neuron
Figure pat00046
Is, the dimension of the input feature vector
Figure pat00047
When, radius
Figure pat00048
Such as the dimension of the feature vector and
Figure pat00049
Center of dimension
Figure pat00050
Can be saved.

은닉층은 학습 과정에서 입력되는

Figure pat00051
차원의 특징 벡터의 개수를
Figure pat00052
이라 할때, 특징 벡터 집합
Figure pat00053
을 포함하고, 특징 벡터
Figure pat00054
는 아래 수학식을 포함할 수 있다.The hidden layer is entered in the learning process
Figure pat00051
The number of dimensional feature vectors
Figure pat00052
Set of feature vectors
Figure pat00053
Features vector
Figure pat00054
May include the following equation.

Figure pat00055
Figure pat00055

여기서,

Figure pat00056
는 특징 벡터
Figure pat00057
를 포함하는
Figure pat00058
번째 특징 데이터이다.here,
Figure pat00056
Features vector
Figure pat00057
Containing
Figure pat00058
The second feature data.

은닉층은 입력층을 통하여 특징 벡터가 각 뉴런

Figure pat00059
에 순차적으로 입력되면, 특징 벡터와 뉴런 중심점 사이의 거리 값을 DWT 거리 측정 알고리즘을 이용하여 연산할 수 있다.The hidden layer has a feature vector through each input layer.
Figure pat00059
If sequentially input to, the distance value between the feature vector and the neuron center point can be calculated using the DWT distance measurement algorithm.

DWT 거리 측정 알고리즘은 적어도 두개의 시퀀스 데이터 사이의 유사도가 측정됨으로써, 데이터 사이의 최적 거리가 연산될 수 있다.In the DWT distance measurement algorithm, the similarity between at least two sequence data is measured, so that the optimum distance between data can be calculated.

두개의 시퀀스 데이터는 각각

Figure pat00060
Figure pat00061
이고, 두개의 시퀀스 데이터에 대한 유사도는 아래 수학식을 이용하여 행렬을 만들고, 행렬로부터
Figure pat00062
값을 구하여 측정될 수 있다.Each of the two sequence data
Figure pat00060
And
Figure pat00061
, And the similarity between two sequence data creates a matrix using the following equation,
Figure pat00062
It can be measured by obtaining a value.

Figure pat00063
Figure pat00063

연산된 거리값

Figure pat00064
와 반경
Figure pat00065
를 아래 수학식과 같이 비교하여, 해당 특징 벡터가 각 뉴런
Figure pat00066
를 활성화시켰는지 여부를 판단할 수 있다.Calculated distance value
Figure pat00064
And radius
Figure pat00065
Is compared to the following equation, and the corresponding feature vector is for each neuron.
Figure pat00066
It can be determined whether or not activated.

Figure pat00067
Figure pat00067

특정 뉴런

Figure pat00068
에서
Figure pat00069
를 만족하는 경우 해당 뉴런이 활성화되었다고 판단할 수 있다.Specific neurons
Figure pat00068
in
Figure pat00069
If is satisfied, it can be determined that the corresponding neuron is activated.

특징 벡터

Figure pat00070
에 대해 모든 뉴런이
Figure pat00071
를 만족하지 않는 경우 중심점
Figure pat00072
를 갖는 새로운 뉴런
Figure pat00073
을 생성하고, 총 뉴런 개수
Figure pat00074
을 1 증가시킬 수 있다.Feature vector
Figure pat00070
About all neurons
Figure pat00071
If not satisfied, the center point
Figure pat00072
New neurons having
Figure pat00073
And the total number of neurons
Figure pat00074
Can be increased by 1.

손동작 입력 데이터는 관성 측정 센서로부터 얻어질 수 있다.Hand gesture input data can be obtained from an inertial measurement sensor.

손동작 입력 데이터는 스마트 장치, 스마트 워치 또는 관성 펜에 장착된 관성 측정 센서로부터 얻어질 수 있다.The gesture input data can be obtained from a smart device, a smart watch or an inertial measurement sensor mounted on an inertial pen.

본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 장치는 특징 데이터를 순차적으로 입력받고, 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 손동작 학습부; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하고, 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하며, 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 손동작 인식부를 포함할 수 있다.The apparatus for recognizing a hand motion based on an artificial neural network according to an embodiment of the present invention includes a hand motion learning unit that sequentially receives feature data and calculates a distance between the feature data and a central point of a neuron by a dynamic time warping (DTW) distance measurement algorithm; And the distance between the feature data and the central point of the neuron is calculated with a DTW distance measurement algorithm, and a neuron having a feature inside the radius of the neuron is determined as an activated neuron, and a label of a neuron having a minimum distance value among the activated neurons is output. It may include a hand gesture recognition unit.

손동작 학습부는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성부를 더 포함할 수 있다.The hand gesture learning unit may further include a new neuron generating unit that generates new neurons when there is no learned neuron or no activated neurons.

손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소부를 더 포함할 수 있다.The hand gesture learning unit may further include a neuron radius reduction unit that reduces the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.

손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않을 수 있다.The hand gesture learning unit may not generate a new neuron if the label of the input data and the label of the activated neuron are the same.

손동작 학습부는 RCE(restricted coulomb energy) 신경망을 포함할 수 있다.The hand gesture learning unit may include a restricted coulomb energy (RCE) neural network.

본 발명의 실시예는 실시간 학습이 가능한 RCE 신경망 알고리즘과 시간 축 상에서 변화하는 데이터의 특성을 반영하여 유사도를 측정하는 DTW 거리 측정 알고리즘을 결합한 효율적인 손동작 인식 방법 및 장치를 제공할 수 있다.An embodiment of the present invention can provide an efficient hand gesture recognition method and apparatus combining a RCE neural network algorithm capable of real-time learning and a DTW distance measurement algorithm that measures similarity by reflecting the characteristics of data changing on a time axis.

일례로 본 발명의 실시예는 3D 숫자 데이터 셋에 대하여 5-폴드 크로스 밸리데이션(fold cross validation)으로 성능 평가를 수행하였으며, 성능 평가 결과 대략 97.10%의 인식 정확도를 나타내었고, 기존 RCE 신경망 알고리즘과 유사한 수의 뉴런으로 대략 4.1% 향상된 인식 정확도를 보였다.As an example, an embodiment of the present invention performed a performance evaluation with 5-fold cross validation on a 3D numeric data set, and the performance evaluation result showed a recognition accuracy of approximately 97.10%, similar to the existing RCE neural network algorithm. Veterinary neurons showed an improved recognition accuracy of approximately 4.1%.

또한, 본 발명의 실시예는 다른 인공 신경망 구조에 비해 저전력 및 저면적으로 구현 가능하기 때문에 시스템온칩(SoC) 집적이 가능하여 웨어러블(wearable) 및 IoT 디바이스에 응용 가능하다.In addition, since the embodiment of the present invention can be implemented with low power and low area compared to other artificial neural network structures, system-on-chip (SoC) integration is possible, and thus it is applicable to wearable and IoT devices.

더불어, 본 발명의 실시예는 실시간 학습 기능으로 인해 사용자 및 응용 환경에 최적화된 손동작 학습이 가능하여 스마트 가전, 차량 첨단 운전자 지원 시스템(ADAS), 가상현실, 개인정보 관련 서비스 등 손동작 제어가 가능한 모든 분야에서 활용 가능하다.In addition, the embodiments of the present invention are capable of learning hand gestures optimized for a user and an application environment due to a real-time learning function, so that hand gestures can be controlled, such as smart appliances, advanced vehicle driver assistance systems (ADAS), virtual reality, and personal information related services. It can be used in the field.

도 1은 RCE 신경망 구조의 예를 도시한 개략도이다.
도 2는 DTW 알고리즘에 의한 거리 측정 방식의 예를 도시한 표이다.
도 3은 본 발명의 실시예에 따른 손동작 인식 방법의 예를 도시한 학습 순서도이다.
도 4는 본 발명의 실시예에 따른 손동작 인식 방법의 예를 도시한 인식 순서도이다.
도 5는 본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 장치의 예를 도시한 블럭도이다.
도 6은 종래 RCE 기법 기반 손동작 인식 방법의 정확도를 도시한 표이다.
도 6은 본 발명의 실시예에 따른 RCE 기법 기반 손동작 인식 방법의 정확도를 도시한 표이다.
1 is a schematic diagram showing an example of an RCE neural network structure.
2 is a table showing an example of a distance measurement method by the DTW algorithm.
3 is a learning flowchart illustrating an example of a hand gesture recognition method according to an embodiment of the present invention.
4 is a recognition flowchart illustrating an example of a hand gesture recognition method according to an embodiment of the present invention.
5 is a block diagram showing an example of an artificial neural network based hand gesture recognition device according to an embodiment of the present invention.
6 is a table showing the accuracy of a conventional hand gesture recognition method based on RCE technique.
6 is a table showing the accuracy of the hand gesture recognition method based on the RCE technique according to an embodiment of the present invention.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted as meanings generally understood by a person having ordinary knowledge in the technical field to which the present invention belongs, unless otherwise defined in the present invention. It should not be interpreted as a meaning or an excessively reduced meaning. In addition, when the technical term used in the present invention is a wrong technical term that does not accurately represent the spirit of the present invention, it should be understood as being replaced by a technical term that can be correctly understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or in context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plural expression unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed to include all of the various components, or various stages, described in the invention, including some of the components or some stages It may or may not be construed as further comprising additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Further, terms including ordinal numbers such as first and second used in the present invention may be used to describe elements, but the elements should not be limited by terms. The terms are only used to distinguish one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar elements will be given the same reference numbers regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, when it is determined that detailed descriptions of related known technologies may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention and should not be interpreted as limiting the spirit of the present invention by the accompanying drawings.

특히, 본 발명은 논리적 구조를 가지는 인공신경망의 학습장치에 관한 것으로, 이러한 인공신경망과 이를 학습시키는 학습장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 제어기로 통칭되는 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.In particular, the present invention relates to an artificial neural network learning device having a logical structure, and the artificial neural network and a learning device for learning the same are implemented by hardware components, software components, and/or combinations of hardware components and software components. Can be. For example, the systems, devices, and components described in the embodiments include, for example, a processor commonly referred to as a controller, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and an FPA. (field programmable array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 물리적인 하드디스크(hard disk), SSD(Solid State Drive), 웹하드(web hard), 클라우드 저장소와 같은 대용량 데이터 저장 수단, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include physical hard disks, solid state drives (SSDs), web hards, mass storage means such as cloud storage, magnetic media such as floppy disks and magnetic tapes ( magnetic media, optical media such as CD-ROMs, DVDs, magneto-optical media such as floptical disks, and ROM, RAM, Hardware devices specifically configured to store and execute program instructions, such as flash memory, are included. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes made by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

도 1을 참조하면, RCE 신경망 구조(10)의 예가 도시되어 있다.1, an example of an RCE neural network structure 10 is shown.

도 1에 도시된 바와 같이, RCE 신경망(10)은 입력층(12), 은닉층(13), 출력층(14)으로 총 3개의 층으로 구성될 수 있다. 입력층(12)은 특징 세트(11)가 입력되는 특징 데이터로 구성되며, 은닉층(13)의 각 뉴런에 병렬로 연결될 수 있다. 은닉층(13)은 특정 모델을 형성하는 중심점과 반경을 보유한 뉴런으로 구성될 수 있다. 각 뉴런의 모델은 원, 가우시안 등 특징 공간에서 데이터를 구분하기 위한 결정 경계를 생성할 수 있다. 각 뉴런은 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하며, 출력층(14)에 결과를 전달할 수 있다. 이 후 출력층(14)은 전달받은 정보들을 활용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력할 수 있다.As illustrated in FIG. 1, the RCE neural network 10 may be composed of a total of three layers: an input layer 12, a hidden layer 13, and an output layer 14. The input layer 12 is composed of feature data into which the feature set 11 is input, and may be connected in parallel to each neuron of the hidden layer 13. The hidden layer 13 may be composed of neurons having a center point and a radius forming a specific model. The model of each neuron can generate a decision boundary for classifying data in a feature space such as a circle or Gaussian. Each neuron calculates the distance between the input feature data and the center point of the neuron and compares it with a radius to determine whether the input data is included in the neuron and deliver the result to the output layer 14. Thereafter, the output layer 14 may output the class value of the model closest to the input feature data by using the received information.

은닉층(13)은 뉴런 집합, 예를 들면,

Figure pat00075
로 구성될 수 있으며, 각 뉴런
Figure pat00076
는 아래의 수학식 1의 정보(즉, 중심점
Figure pat00077
와 반경
Figure pat00078
)를 포함할 수 있다.The hidden layer 13 is a set of neurons, for example,
Figure pat00075
May consist of, each neuron
Figure pat00076
Is the information in Equation 1 below (that is, the center point)
Figure pat00077
And radius
Figure pat00078
).

Figure pat00079
Figure pat00079

여기서,

Figure pat00080
는 각 뉴런의 인덱스이고,
Figure pat00081
은 학습 과정에서 생성된 뉴런의 총 개수이며,
Figure pat00082
는 입력된 특징 벡터의 차원일 수 있다.here,
Figure pat00080
Is the index of each neuron,
Figure pat00081
Is the total number of neurons generated during the learning process,
Figure pat00082
May be the dimension of the input feature vector.

또한, 여기서, 각 뉴런

Figure pat00083
는, 입력된 특징 벡터의 차원이
Figure pat00084
일 때, 반경
Figure pat00085
와 특징 벡터의 차원과 같은
Figure pat00086
차원의 중심점
Figure pat00087
를 저장할 수 있다.Also, here, each neuron
Figure pat00083
Is, the dimension of the input feature vector
Figure pat00084
When, radius
Figure pat00085
Such as the dimension of the feature vector and
Figure pat00086
Center of dimension
Figure pat00087
Can be saved.

한편, RCE 신경망(10)에 의한 학습 알고리즘에 대해 설명하면 다음과 같다.Meanwhile, the learning algorithm by the RCE neural network 10 will be described as follows.

학습 과정에서 입력되는

Figure pat00088
차원의 특징 벡터 수를
Figure pat00089
이라 할 때, 특징 벡터 집합은
Figure pat00090
으로 표현할 수 있다. 여기서
Figure pat00091
는 특징 벡터를 나타내며, 특징 벡터는 수학식 2와 같이 구성될 수 있다.Being entered in the learning process
Figure pat00088
The number of dimensional feature vectors
Figure pat00089
This set of feature vectors
Figure pat00090
Can be expressed as here
Figure pat00091
Denotes a feature vector, and the feature vector may be configured as in Equation 2.

Figure pat00092
Figure pat00092

Figure pat00093
는 특징 벡터
Figure pat00094
를 포함하는
Figure pat00095
번째 특징 데이터일 수 있다.
Figure pat00093
Features vector
Figure pat00094
Containing
Figure pat00095
It may be the second feature data.

특징 벡터는 각 뉴런

Figure pat00096
에 순차적으로 입력되며 아래 수학식 3과 같이 뉴런 중심점과의 거리 값을 연산할 수 있다. Feature vector for each neuron
Figure pat00096
It is sequentially input to and the distance value from the neuron center point can be calculated as shown in Equation 3 below.

Figure pat00097
Figure pat00097

이 후, 아래 수학식 4와 같이 연산된 거리 값과 반경

Figure pat00098
를 비교함으로써, 해당 특징 벡터가 각 뉴런
Figure pat00099
영역에 활성화되는지 여부를 판단할 수 있다.Then, the calculated distance value and radius as shown in Equation 4 below
Figure pat00098
By comparing, the corresponding feature vector is for each neuron.
Figure pat00099
It can be determined whether or not the region is activated.

Figure pat00100
Figure pat00100

특정 뉴런

Figure pat00101
에서 수학식 4를 만족하는 경우, 해당 뉴런이 활성화되었다고 판단하는 반면, 특징 벡터
Figure pat00102
에 대해 모든 뉴런이 수학식 4를 만족하지 못하는 경우 중심점
Figure pat00103
을 갖는 새로운 뉴런
Figure pat00104
을 생성하고, 총 뉴런 개수
Figure pat00105
을 1 증가시킬 수 있다.Specific neurons
Figure pat00101
In Equation 4, it is determined that the corresponding neuron is activated, whereas the feature vector
Figure pat00102
For all neurons that do not satisfy Equation 4, the center point
Figure pat00103
New neurons having
Figure pat00104
And the total number of neurons
Figure pat00105
Can be increased by 1.

그런데, 관성 센서를 사용하여 추출한 데이터는 손동작을 수행하는 속도와 방법에 따라 데이터 값이 시간 축 상에서 쉬프트(shift)되거나 스케일링(scaling)될 수 있다. 하지만, 상기 RCE 신경망(10)의 알고리즘은 수학식 3과 같이 단순 차이 값으로 거리 정보를 측정하기 때문에 관성 센서 데이터의 특성에 대응하지 못하여 인식 성능이 저하될 수 있다.However, data extracted using the inertial sensor may be shifted or scaled on the time axis depending on the speed and method of performing the hand motion. However, since the algorithm of the RCE neural network 10 measures distance information with a simple difference value as shown in Equation 3, the recognition performance may be deteriorated because it does not correspond to the characteristics of the inertial sensor data.

따라서, 본 발명의 실시예에서는 손동작 인식에서의 관성 센서 데이터 특성을 고려하여, 일반적인 RCE 신경망(10)의 거리 측정 방식 대신 DTW 거리 측정 알고리즘을 사용한다. Therefore, in the embodiment of the present invention, considering the characteristics of the inertial sensor data in hand gesture recognition, a DTW distance measurement algorithm is used instead of the distance measurement method of the general RCE neural network 10.

이러한 DTW 거리 측정 알고리즘은 두개의 시퀀스 데이터 사이의 유사도를 측정하는 방법으로 시간 축에 대해 데이터 시퀀스를 확장하거나 축소 할 수 있도록 하여 데이터 간의 최적 거리를 찾아내는 알고리즘이다. 따라서, DTW 거리 측정 알고리즘은 시간 축 상에서 쉬프트되거나 스케일링되는 데이터의 유사도를 측정하기에 적합하다.This DTW distance measurement algorithm is a method of measuring the similarity between two sequence data, and it is an algorithm that finds the optimal distance between data by allowing the data sequence to be expanded or reduced on the time axis. Therefore, the DTW distance measurement algorithm is suitable for measuring the similarity of data shifted or scaled on the time axis.

일례로, 두개의 시퀀스 데이터는 각각

Figure pat00106
Figure pat00107
일 수 있고, 두개의 시퀀스 데이터에 대한 유사도는 아래 수학식 5을 이용하여 도 2에 도시된 것과 같은 혼동 행렬(confusion matrix, contingency tabel 또는 an error matrix)을 만들고, 그 행렬로부터
Figure pat00108
값을 구하여 측정할 수 있다.As an example, the two sequence data are each
Figure pat00106
And
Figure pat00107
It can be, the similarity of the two sequence data is to create a confusion matrix (confusion matrix, contingency tabel or an error matrix) as shown in Figure 2 by using Equation 5 below, from the matrix
Figure pat00108
It can be measured by obtaining a value.

Figure pat00109
Figure pat00109

여기서, 일반적인 DTW 거리 측정 알고리즘을 사용한 손동작 인식 방법의 경우 학습 과정에서 각 라벨을 대표하는 하나의 시퀀스 데이터를 찾는 과정을 수행한다. 이 후, 인식 과정에서 DTW 거리 측정 알고리즘을 사용하여 각 라벨의 시퀀스 데이터와 입력 데이터 사이의 유사도를 측정하고, 가장 유사한 시퀀스 데이터의 라벨을 출력한다. Here, in the case of a hand gesture recognition method using a general DTW distance measurement algorithm, a process of finding one sequence data representing each label is performed in the learning process. Thereafter, in the recognition process, a similarity between sequence data and input data of each label is measured using a DTW distance measurement algorithm, and the label of the most similar sequence data is output.

이때, 높은 인식 성능을 얻기 위해서는 학습 과정에서 각 라벨을 대표할 수 있는 최적의 시퀀스 데이터를 선택해야한다. 즉, 사전에 준비된 다수의 손동작 데이터를 기반으로 대표하는 시퀀스 데이터를 변경해가며 최적의 시퀀스 데이터를 찾는 과정이 필요하므로, 많은 시간이 소요되어 실시간 학습이 불가능하다.At this time, in order to obtain high recognition performance, it is necessary to select optimal sequence data that can represent each label in the learning process. That is, since it is necessary to find the optimal sequence data while changing the representative sequence data based on a plurality of hand gesture data prepared in advance, it takes a lot of time and real-time learning is impossible.

이에 본 발명의 실시예에서는 실시간 학습이 가능한 RCE 신경망(10)의 알고리즘에 시퀀스 데이터의 유사도 측정에 적합한 DTW 거리 측정 알고리즘을 결합한 손동작 인식 방법 및 그 장치를 제공한다.Accordingly, an embodiment of the present invention provides a hand gesture recognition method and apparatus that combines an algorithm of a RCE neural network 10 capable of real-time learning with a DTW distance measurement algorithm suitable for measuring similarity of sequence data.

도 3을 참조하면, 본 발명의 실시예에 따른 손동작 인식 방법의 예가 도시되어 있다. 여기서,

Figure pat00110
, 학습 뉴런 반경은
Figure pat00111
로 정의되고,
Figure pat00112
로부터
Figure pat00113
까지 반복 수행된다.Referring to FIG. 3, an example of a hand gesture recognition method according to an embodiment of the present invention is illustrated. here,
Figure pat00110
, The learning neuron radius is
Figure pat00111
Is defined as,
Figure pat00112
from
Figure pat00113
Until it is repeated.

단계(S1)에서, 특징 데이터

Figure pat00114
가 입력층(12)을 통하여 은닉층(13)에 순차적으로 전달되고, 이때 데이터 라벨
Figure pat00115
도 함께 전달된다.In step S1, feature data
Figure pat00114
Is sequentially transmitted to the hidden layer 13 through the input layer 12, wherein the data label
Figure pat00115
Is also delivered.

단계(S2)에서,

Figure pat00116
인지 판단된다.
Figure pat00117
이면 단계(S3)를 수행하고,
Figure pat00118
이 아니면 단계(S6-1)가 수행된다.In step S2,
Figure pat00116
Is judged.
Figure pat00117
Perform the back side step (S3),
Figure pat00118
Otherwise, step S6-1 is performed.

단계(S3)에서 활성화된 뉴런이 존재하는지의 여부가 판단되는데, 활성화된 뉴런이 존재하는 것으로 판단되면 종료 처리하고, 활성화된 뉴런이 존재하지 않는 것으로 판단되면 단계(S4)가 수행된다.In step S3, it is determined whether an activated neuron exists. If it is determined that the activated neuron exists, the process is terminated. If it is determined that the activated neuron does not exist, step S4 is performed.

단계(S4)에서는 새로운 뉴런을 생성한다(

Figure pat00119
).In step S4, a new neuron is generated (
Figure pat00119
).

그런 후, 단계(S5)에서는

Figure pat00120
을 수행한다.Then, in step S5,
Figure pat00120
To perform.

한편, 단계(S6-1)에서는

Figure pat00121
로부터
Figure pat00122
까지 반복되는데, 우선 단계(S6-1)에서 DWT 기반 거리 측정이 수행된다(
Figure pat00123
). 단계(S6-2)에서, 뉴런 중심점 거리가 반경 내에 존재하는지 판단한다(
Figure pat00124
). 뉴런 중심점 거리가 반경 내에 있으면, 단계(S6-3)을 수행하고, 뉴런 중심점 거리가 반경 내에 있지 않으면 종료처리한다. 단계(S6-3)에서, 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은지의 여부를 판단한다(
Figure pat00125
). 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같으면 종료 처리하고 다르면 단계(S6-4)를 수행한다. 단계(S6-4)에서, 해당 뉴런(
Figure pat00126
)의 반경을 줄여준다.Meanwhile, in step S6-1,
Figure pat00121
from
Figure pat00122
It is repeated until, first, DWT-based distance measurement is performed in step S6-1 (
Figure pat00123
). In step S6-2, it is determined whether the neuron center point distance is within a radius (
Figure pat00124
). If the neuron center point distance is within a radius, step S6-3 is performed, and if the neuron center point distance is not within a radius, processing is terminated. In step S6-3, it is determined whether the label of the input data is the same as the label of the activated neuron (
Figure pat00125
). If the label of the input data and the label of the activated neuron are the same, the process is terminated, and if different, step S6-4 is performed. In step (S6-4), the corresponding neuron (
Figure pat00126
).

즉, 본 발명의 실시예에 따른 손동작 학습 방법은 손동작을 통해 추출된 특징 데이터를 순차적으로 입력받아 뉴런 중심점간의 거리를 DTW 거리 측정 알고리즘으로 구하되, 이때, 학습된 뉴런이 존재하지 않거나 활성화되는 뉴런이 없는 경우 새로운 뉴런을 생성하고, 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 줄여준다. 반면에 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 새로운 뉴런을 생성하지 않는다. That is, in the hand gesture learning method according to an embodiment of the present invention, the feature data extracted through the hand gesture is sequentially input to obtain a distance between the neuron center points using a DTW distance measurement algorithm, wherein the learned neuron does not exist or is activated. In the absence of this, a new neuron is created, and when the label of the input data is different from the label of the activated neuron, the radius of the corresponding neuron is reduced. On the other hand, if the label of the input data and the label of the activated neuron are the same, no new neuron is generated.

도 4를 참조하면, 본 발명의 실시예에 따른 손동작 인식 방법의 예가 도시되어 있다. 4, an example of a hand gesture recognition method according to an embodiment of the present invention is shown.

단계(S11)에서, 특징 데이터(

Figure pat00127
)가 입력층(12)을 통하여 은닉층(13)에 전달된다. 이하에서,
Figure pat00128
부터
Figure pat00129
까지 반복된다.In step S11, the feature data (
Figure pat00127
) Is transferred to the hidden layer 13 through the input layer 12. Below,
Figure pat00128
from
Figure pat00129
Repeat until

단계(S12-1)에서 특징 데이터와 뉴런 중심점 사이의 거리가 DTW 거리 측정 알고리즘에 의해 의해 계산되고, 이어서 뉴런 중심점 거리가 반경 내에 존재하는지 판단한다(

Figure pat00130
). 뉴런 중심점 거리가 반경 내에 존재한다면 단계(S12-2)가 수행된다. 단계(S12-2)에서, 최소 거리값이 계산된다.In step S12-1, the distance between the feature data and the neuron center point is calculated by the DTW distance measurement algorithm, and then it is determined whether the neuron center point distance is within the radius (
Figure pat00130
). If the neuron center point distance is within a radius, step S12-2 is performed. In step S12-2, the minimum distance value is calculated.

단계(S13)에서 최소 거리값을 갖는 뉴런의 라벨이 출력층(14)을 통해 출력된다.In step S13, the label of the neuron having the minimum distance value is output through the output layer 14.

즉, 본 발명의 실시예에 따른 손동작 인식 방법은 손동작을 통해 추출된 특징 데이터와 뉴런 중심점 간의 거리를 DTW 거리 측정 알고리즘을 적용하여 구하고, 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하며, 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력한다.That is, in the hand gesture recognition method according to an embodiment of the present invention, the distance between the feature data extracted through the hand gesture and the central point of the neuron is obtained by applying a DTW distance measurement algorithm, and the neuron having the feature inside the radius of the neuron is activated as the activated neuron. It determines, and outputs the label of the neuron having the minimum distance value among the activated neurons.

도 5를 참조하면, 본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 장치(100)의 예가 도시되어 있다.Referring to FIG. 5, an example of an artificial neural network based hand gesture recognition apparatus 100 according to an embodiment of the present invention is illustrated.

도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 인공신경망 기반 손동작 인식 장치(100)는 특징 추출부(110)와, 학습 및 인식부(120)를 포함할 수 있다.As illustrated in FIG. 5, the apparatus 100 for recognizing a hand gesture based on an artificial neural network according to an embodiment of the present invention may include a feature extraction unit 110 and a learning and recognition unit 120.

특징 추출부(110)는 손동작 입력 데이터에 전처리 과정을 수행하여 인식에 용이한 특징 데이터로 변환하고 추출할 수 있다. 일부 예들에서, 특징 추출부(110)는 관성 센서인 IMU-센서와, 전처리 부재인 데이터 획득 유닛 및 데이터 예비 프로세서를 포함할 수 있다.The feature extraction unit 110 may perform pre-processing on the hand gesture input data to convert and extract feature data for easy recognition. In some examples, the feature extraction unit 110 may include an IMU-sensor that is an inertial sensor, a data acquisition unit that is a preprocessing member, and a data preprocessor.

학습 및 인식부(120)는 특징 데이터를 입력하여 손동작을 학습 및 인식한다. 일부 예들에서, 학습 및 인식부(120)는 수신 모듈(UART RX 모듈), 메모리(FPGA 메모리), 그리고 RCE 신경망(10, 도 1 참조)을 포함할 수 있다.The learning and recognition unit 120 inputs feature data to learn and recognize hand gestures. In some examples, the learning and recognition unit 120 may include a receiving module (UART RX module), a memory (FPGA memory), and an RCE neural network 10 (see FIG. 1 ).

또한, 학습 및 인식부(120)는 손동작 학습부(121)와 손동작 인식부(126)를 포함할 수 있다. In addition, the learning and recognition unit 120 may include a hand gesture learning unit 121 and a hand gesture recognition unit 126.

손동작 학습부(121)는 특징 데이터 입력부(122)와, DWT 거리 측정부(123)를 포함할 수 있다. 특징 데이터 입력부(122)는 특징 데이터를 순차적으로 입력받는 역할을 하고, DWT 거리 측정부(123)는 특징 데이터와 뉴런 중심점 사이의 거리를 상술한 DTW 거리 측정 알고리즘으로 계산할 수 있다.The hand gesture learning unit 121 may include a feature data input unit 122 and a DWT distance measurement unit 123. The feature data input unit 122 serves to sequentially receive feature data, and the DWT distance measurement unit 123 can calculate the distance between the feature data and the central point of the neuron by the DTW distance measurement algorithm described above.

손동작 학습부(121)는 신규 뉴런 생성부(124) 및 뉴런 반경 감소부(125)를 더 포함할 수 있다. 신규 뉴런 생성부(124)는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성할 수 있다. 뉴런 반경 감소부(125)는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시킬 수 있다. The hand gesture learning unit 121 may further include a new neuron generation unit 124 and a neuron radius reduction unit 125. The new neuron generating unit 124 may generate a new neuron when there is no learned neuron or no activated neuron. The neuron radius reduction unit 125 may reduce the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.

여기서, 손동작 학습부(121)는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않는다.Here, the hand gesture learning unit 121 does not generate a new neuron when the label of the input data and the label of the activated neuron are the same.

한편, 손동작 인식부(126)는 DWT 거리 측정부(127)와, 활성화된 뉴런 판단부(128) 및 뉴런 라벨 출력부(129)를 포함할 수 있다. DWT 거리 측정부(127)는 특징 데이터와 뉴런 중심점 사이의 거리를 상술한 DTW 거리 측정 알고리즘으로 계산할 수 있다. 활성화된 뉴런 판단부(128)는 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단할 수 있다. 뉴런 라벨 출력부(129)는 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력할 수 있다.Meanwhile, the hand gesture recognition unit 126 may include a DWT distance measurement unit 127, an activated neuron determination unit 128, and a neuron label output unit 129. The DWT distance measurement unit 127 may calculate the distance between the feature data and the neuron center point using the DTW distance measurement algorithm described above. The activated neuron determination unit 128 may determine a neuron having a characteristic within a radius of the corresponding neuron as an activated neuron. The neuron label output unit 129 may output a label of a neuron having a minimum distance value among activated neurons.

상술한 바와 같이, 학습 및 인식부(120)는 RCE 신경망(10, 도 1 참조)을 포함할 수 있다. RCE 신경망(10)은 특징 데이터로 구성되는 입력층(12); 입력층(12)에 병렬로 연결되고, 특정 모델을 형성하는 중심점과 반경을 갖는 다수의 뉴런으로 구성되며, 뉴런은 각각 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고, 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하여 결과를 전달하는 은닉층(13); 및 은닉층(13)으로부터 전달받은 정보를 이용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력하는 출력층(14)을 포함할 수 있다.As described above, the learning and recognition unit 120 may include an RCE neural network 10 (see FIG. 1 ). The RCE neural network 10 includes an input layer 12 composed of characteristic data; It is connected in parallel to the input layer 12 and is composed of a plurality of neurons having a center point and a radius forming a specific model, and the neurons calculate the distance between the input characteristic data and the center point of the neuron, respectively, and compare it with the radius. A hidden layer 13 that determines whether input data is included in the corresponding neuron and delivers the result; And an output layer 14 that outputs the class value of the model closest to the input feature data using the information received from the hidden layer 13.

이와 같은 실시간 학습이 가능한 RCE 신경망(10)의 알고리즘과 시간 축상에서 데이터의 유사성을 반영한 DTW 거리 측정 알고리즘의 결합에 의한 손동작 인식 방법은 위에서 설명하였으므로, 여기서는 생략한다.The hand gesture recognition method by combining the algorithm of the RCE neural network 10 capable of real-time learning and the DTW distance measurement algorithm reflecting the similarity of data on the time axis has been described above, and thus is omitted here.

본 발명의 실시예에 따른 손동작 인식 장치(100)를 이용하여 관성 센서 기반 3D 숫자 데이터 셋을 생성하였으며, 생성된 데이터 셋으로 일반적인 거리 측정 방식 기반 RCE 신경망(10)의 알고리즘과 본 발명의 실시예에 따른 손동작 인식 방법에 대한 성능 평가를 수행 및 비교 분석 하였다.An inertial sensor-based 3D numeric data set was generated using the hand gesture recognition apparatus 100 according to an embodiment of the present invention, and the algorithm of the general distance measurement method-based RCE neural network 10 and an embodiment of the present invention are generated using the generated data set Performance evaluation of the hand gesture recognition method was performed and compared.

학습된 뉴런 개수 및 인식 정확도를 5-폴드 크로스 밸리데이션(fold cross validation)으로 평가를 수행하였으며, 성능 평가 결과 일반적인 RCE 신경망 알고리즘은 평균 11.36개의 뉴런을 사용하여 도 6의 혼동 행렬과 같이 평균 93.0%의 인식 정확도를 보였고, 본 발명의 실시예에 따른 손동작 인식 방법은 평균 11.96개의 뉴런으로 도 7의 혼동 행렬과 같이 평균 97.10%의 인식 정확도를 보였다. The number of trained neurons and recognition accuracy were evaluated by 5-fold cross validation, and as a result of performance evaluation, a typical RCE neural network algorithm uses 11.36 neurons on average, as shown in the confusion matrix of FIG. 6, with an average of 93.0%. Recognition accuracy was shown, and the hand gesture recognition method according to an embodiment of the present invention showed an average recognition accuracy of 97.10% as in the confusion matrix of FIG. 7 with an average of 11.96 neurons.

즉, 본 발명의 실시예에 따른 손동작 인식 방법/장치는 3차원 숫자 데이터 셋에 대해 비슷한 수의 뉴런으로 약 4.1%의 인식 성능 향상을 보였다.That is, the hand gesture recognition method/device according to an embodiment of the present invention showed a recognition performance improvement of about 4.1% with a similar number of neurons for a 3D numeric data set.

이와 같이 하여, 본 발명의 실시예에서는 실시간 학습이 가능한 RCE 신경망(10)의 알고리즘과 시간 축 상에서 데이터의 유사성을 반영한 DTW 거리 측정 알고리즘을 결합한 손동작 인식 방법을 구현하였다. 본 발명의 실시예에 따른 손동작 인식 방법의 성능을 평가하기 위해 손동작 인식 장치(100)를 구성하였으며, 손동작 인식 장치(100)로 생성한 3D 숫자 데이터 셋에 대하여 5-폴드 크로스 밸리데이션으로 성능 평가를 수행하다. 성능 평가 결과 97.10%의 인식 정확도를 나타내었으며, 일반적인 RCE 신경망(10)의 알고리즘과 유사한 수의 뉴런으로 약 4.1% 향상된 인식 정확도를 보이는 것을 확인하였다.In this way, in the embodiment of the present invention, a hand gesture recognition method is implemented that combines the algorithm of the RCE neural network 10 capable of real-time learning and the DTW distance measurement algorithm reflecting the similarity of data on the time axis. In order to evaluate the performance of the hand gesture recognition method according to an embodiment of the present invention, the hand gesture recognition device 100 is configured, and performance evaluation is performed by 5-fold cross validation on the 3D numeric data set generated by the hand gesture recognition device 100. Conduct. As a result of the performance evaluation, it was found that the recognition accuracy was 97.10%, and that the number of neurons similar to the algorithm of the general RCE neural network 10 was improved by about 4.1%.

이상에서 설명한 것은 본 발명에 따른 인공신경망 기반 손동작 인식 방법 및 장치를 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing the artificial neural network-based hand gesture recognition method and apparatus according to the present invention, and the present invention is not limited to the above-described embodiment, as claimed in the following claims Without departing from the gist of the present invention, any person having ordinary knowledge in the field to which the present invention pertains will have the technical spirit of the present invention to the extent that various changes can be implemented.

10; RCE 신경망 11; 특징 세트
12; 입력층 13; 은닉층
14; 출력층
100; 인공신경망 기반 손동작 인식 장치
110; 특징 추출부 120; 학습 및 인식부
121; 손동작 학습부 122; 특징 데이터 입력부
123; DWT 거리 측정부 124; 신규 뉴런 생성부
125; 뉴련 반경 감소부 126; 손동작 인식부
127 DWT 거리 측정부 128; 활성화된 뉴런 판단부
129; 뉴런 라벨 출력부
10; RCE neural network 11; Feature set
12; Input layer 13; Hidden
14; Output layer
100; Hand gesture recognition device based on artificial neural network
110; Feature extraction unit 120; Learning and Recognition Department
121; Hand gesture learning unit 122; Features data input
123; DWT distance measuring unit 124; New neuron generation
125; New Year radius reduction portion 126; Hand gesture recognition
127 DWT distance measuring unit 128; Activated neuron judgment
129; Neuron label output

Claims (46)

손동작 입력 데이터로부터 특징 데이터를 추출하는 특징 추출 단계; 및 특징 데이터를 입력하여 손동작을 학습 및 인식하는 학습 및 인식 단계를 포함하고,
학습 및 인식 단계는
특징 데이터를 순차적으로 입력받는 특징 데이터 입력 단계; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 DWT 거리 측정 단계를 갖는 손동작 학습 단계; 및
특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하는 DWT 거리 측정 단계; 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하는 활성화된 뉴런 판단 단계; 및 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 뉴런 라벨 출력 단계를 갖는 손동작 인식 단계를 포함하는, 인공신경망 기반 손동작 인식 방법.
A feature extraction step of extracting feature data from hand gesture input data; And a learning and recognition step of learning and recognizing hand gestures by inputting feature data,
Learning and recognition stages
A feature data input step of sequentially receiving feature data; And a DWT distance measurement step of calculating a distance between the feature data and the neuron center point using a dynamic time warping (DTW) distance measurement algorithm; And
DWT distance measurement step of calculating the distance between the feature data and the neuron center point with a DTW distance measurement algorithm; An activated neuron determination step of determining a neuron having a characteristic inside a radius of the corresponding neuron as an activated neuron; And a hand gesture recognition step having a neuron label output step of outputting a label of a neuron having a minimum distance value among activated neurons.
제 1 항에 있어서,
손동작 학습 단계는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성 단계를 더 포함하는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The hand gesture learning step further includes a new neuron generation step of generating a new neuron when there is no learned neuron or there is no activated neuron.
제 1 항에 있어서,
손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소 단계를 더 포함하는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The gesture learning step further includes a neuron radius reduction step of reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.
제 1 항에 있어서,
손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The hand gesture learning step does not generate a new neuron when the label of the input data and the label of the activated neuron are the same.
제 1 항에 있어서,
학습 및 인식 단계는 RCE(restricted coulomb energy) 신경망에서 수행되는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The learning and recognition step is performed in a restricted coulomb energy (RCE) neural network, an artificial neural network based hand gesture recognition method.
제 5 항에 있어서,
RCE 신경망은 특징 데이터로 구성되는 입력층; 입력층에 병렬로 연결되고, 특정 모델을 형성하는 중심점과 반경을 갖는 다수의 뉴런으로 구성되며, 뉴런은 각각 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고, 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하여 결과를 전달하는 은닉층; 및 은닉층으로부터 전달받은 정보를 이용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력하는 출력층을 포함하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 5,
The RCE neural network comprises an input layer composed of characteristic data; It is connected in parallel to the input layer and consists of a number of neurons with a center point and a radius forming a specific model, the neurons each calculate the distance between the input feature data and the center point of the neuron, and compare the radius with the input data A hidden layer that determines whether the neuron is included and delivers the result; And an output layer that outputs the class value of the model closest to the input feature data using the information received from the hidden layer.
제 6 항에 있어서,
뉴런의 특정 모델은 원 또는 가우시안으로 특징 공간에서 데이터를 구분하기 위한 결정 경계를 생성하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 6,
A method of recognizing a gesture based on an artificial neural network, in which a specific model of a neuron generates a decision boundary for classifying data in a feature space in a circle or Gaussian.
제 6 항에 있어서,
은닉층은 뉴런 집합
Figure pat00131
을 포함하고, 뉴런
Figure pat00132
는 아래 수학식을 만족하는 중심점
Figure pat00133
와 반경
Figure pat00134
를 포함하는, 인공신경망 기반 손동작 인식 방법.
Figure pat00135

여기서,
Figure pat00136
는 각 뉴런의 인덱스이고,
Figure pat00137
은 학습 과정에서 생성된 뉴런의 총 개수이며,
Figure pat00138
는 입력된 특징 벡터의 차원이다.
The method of claim 6,
The hidden layer is a set of neurons
Figure pat00131
Containing, neurons
Figure pat00132
Is the center point that satisfies the following equation
Figure pat00133
And radius
Figure pat00134
Including, artificial neural network based hand gesture recognition method.
Figure pat00135

here,
Figure pat00136
Is the index of each neuron,
Figure pat00137
Is the total number of neurons generated during the learning process,
Figure pat00138
Is the dimension of the input feature vector.
제 8 항에 있어서,
각 뉴런
Figure pat00139
는, 입력된 특징 벡터의 차원이
Figure pat00140
일 때, 반경
Figure pat00141
와 특징 벡터의 차원과 같은
Figure pat00142
차원의 중심점
Figure pat00143
를 저장하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 8,
Each neuron
Figure pat00139
Is, the dimension of the input feature vector
Figure pat00140
When, radius
Figure pat00141
Such as the dimension of the feature vector and
Figure pat00142
Center of dimension
Figure pat00143
Storing, artificial neural network based hand gesture recognition method.
제 9 항에 있어서,
은닉층은 학습 과정에서 입력되는
Figure pat00144
차원의 특징 벡터의 개수를
Figure pat00145
이라 할때, 특징 벡터 집합
Figure pat00146
을 포함하고, 특징 벡터
Figure pat00147
는 아래 수학식을 포함하는, 인공신경망 기반 손동작 인식 방법.
Figure pat00148

여기서,
Figure pat00149
는 특징 벡터
Figure pat00150
를 포함하는
Figure pat00151
번째 특징 데이터이다.
The method of claim 9,
The hidden layer is entered in the learning process
Figure pat00144
The number of dimensional feature vectors
Figure pat00145
Set of feature vectors
Figure pat00146
Features vector
Figure pat00147
A method of recognizing a gesture based on artificial neural network, which includes the following equation.
Figure pat00148

here,
Figure pat00149
Features vector
Figure pat00150
Containing
Figure pat00151
The second feature data.
제 10 항에 있어서,
은닉층은 입력층을 통하여 특징 벡터가 각 뉴런
Figure pat00152
에 순차적으로 입력되면, 특징 벡터와 뉴런 중심점 사이의 거리 값을 DWT 거리 측정 알고리즘을 이용하여 연산하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 10,
The hidden layer has a feature vector through each input layer.
Figure pat00152
When sequentially input to the, the distance between the feature vector and the central point of the neuron is calculated using a DWT distance measurement algorithm, artificial neural network based hand gesture recognition method.
제 11 항에 있어서,
DWT 거리 측정 알고리즘은 적어도 두개의 시퀀스 데이터 사이의 유사도가 측정됨으로써, 데이터 사이의 최적 거리가 연산되는, 인공신경망 기반 손동작 인식 방법.
The method of claim 11,
The DWT distance measurement algorithm is an artificial neural network-based hand gesture recognition method in which an optimum distance between data is calculated by measuring the similarity between at least two sequence data.
제 12 항에 있어서,
두개의 시퀀스 데이터는 각각
Figure pat00153
Figure pat00154
이고, 두개의 시퀀스 데이터에 대한 유사도는 아래 수학식을 이용하여 행렬을 만들고, 행렬로부터
Figure pat00155
값을 구하여 측정되는, 인공신경망 기반 손동작 인식 방법.
Figure pat00156
The method of claim 12,
Each of the two sequence data
Figure pat00153
And
Figure pat00154
, And the similarity between two sequence data creates a matrix using the following equation,
Figure pat00155
A method for recognizing hand gestures based on artificial neural networks, which is measured by obtaining a value.
Figure pat00156
제 13 항에 있어서,
연산된 거리값
Figure pat00157
와 반경
Figure pat00158
를 아래 수학식과 같이 비교하여, 해당 특징 벡터가 각 뉴런
Figure pat00159
를 활성화시켰는지 여부를 판단하는, 인공신경망 기반 손동작 인식 방법.
Figure pat00160
The method of claim 13,
Calculated distance value
Figure pat00157
And radius
Figure pat00158
Is compared to the following equation, and the corresponding feature vector is for each neuron.
Figure pat00159
To determine whether or not to activate, artificial neural network based hand gesture recognition method.
Figure pat00160
제 14 항에 있어서,
특정 뉴런
Figure pat00161
에서
Figure pat00162
를 만족하는 경우 해당 뉴런이 활성화되었다고 판단하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 14,
Specific neurons
Figure pat00161
in
Figure pat00162
If it satisfies, it is determined that the neuron is activated, artificial neural network based hand gesture recognition method.
제 14 항에 있어서,
특징 벡터
Figure pat00163
에 대해 모든 뉴런이
Figure pat00164
를 만족하지 않는 경우 중심점
Figure pat00165
를 갖는 새로운 뉴런
Figure pat00166
을 생성하고, 총 뉴런 개수
Figure pat00167
을 1 증가시키는, 인공신경망 기반 손동작 인식 방법.
The method of claim 14,
Feature vector
Figure pat00163
About all neurons
Figure pat00164
If not satisfied, the center point
Figure pat00165
New neurons having
Figure pat00166
And the total number of neurons
Figure pat00167
A method for recognizing hand gestures based on an artificial neural network, which increases 1.
제 1 항에 있어서,
손동작 입력 데이터는 관성 측정 센서로부터 얻어지는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The hand motion input data is obtained from an inertial measurement sensor, and the artificial neural network based hand motion recognition method.
제 1 항에 있어서,
손동작 입력 데이터는 스마트 장치, 스마트 워치 또는 관성 펜에 장착된 관성 측정 센서로부터 얻어지는, 인공신경망 기반 손동작 인식 방법.
According to claim 1,
The gesture input data is obtained from an inertial measurement sensor mounted on a smart device, a smart watch, or an inertial pen.
특징 데이터를 순차적으로 입력받고, 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 손동작 학습 단계; 및
특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하고, 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하며, 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 손동작 인식 단계를 포함하는, 인공신경망 기반 손동작 인식 방법.
A hand gesture learning step of sequentially receiving feature data and calculating a distance between the feature data and the neuron center point with a dynamic time warping (DTW) distance measurement algorithm; And
The distance between the feature data and the central point of a neuron is calculated by a DTW distance measurement algorithm, and a neuron having a feature within a radius of the neuron is determined as an activated neuron, and a label of a neuron having a minimum distance value among the activated neurons is output. A gesture recognition method based on an artificial neural network including a gesture recognition step.
제 19 항에 있어서,
손동작 학습 단계는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성 단계를 더 포함하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 19,
The hand gesture learning step further includes a new neuron generation step of generating a new neuron when there is no learned neuron or there is no activated neuron.
제 19 항에 있어서,
손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소 단계를 더 포함하는, 인공신경망 기반 손동작 인식 방법.
The method of claim 19,
The gesture learning step further includes a neuron radius reduction step of reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.
제 19 항에 있어서,
손동작 학습 단계는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않는, 인공신경망 기반 손동작 인식 방법.
The method of claim 19,
The hand gesture learning step does not generate a new neuron when the label of the input data and the label of the activated neuron are the same.
제 19 항에 있어서,
손동작 학습 단계는 RCE(restricted coulomb energy) 신경망에서 수행되는, 인공신경망 기반 손동작 인식 방법.
The method of claim 19,
The hand gesture learning step is performed in a restricted coulomb energy (RCE) neural network.
손동작 입력 데이터로부터 특징 데이터를 추출하는 특징 추출부; 및 특징 데이터를 입력하여 손동작을 학습 및 인식하는 학습 및 인식부를 포함하고,
학습 및 인식부는
특징 데이터를 순차적으로 입력받는 특징 데이터 입력부; 및 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 DWT 거리 측정부를 갖는 손동작 학습부; 및
특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하는 DWT 거리 측정부; 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하는 활성화된 뉴런 판단부; 및 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 뉴런 라벨 출력부를 갖는 손동작 인식부를 포함하는, 인공신경망 기반 손동작 인식 장치.
A feature extraction unit for extracting feature data from hand gesture input data; And a learning and recognition unit for learning and recognizing hand gestures by inputting feature data,
Department of Learning and Recognition
A feature data input unit that sequentially receives feature data; And a DWT distance measuring unit that calculates a distance between the feature data and the neuron center point using a dynamic time warping (DTW) distance measuring algorithm. And
DWT distance measuring unit for calculating the distance between the feature data and the neuron center point with a DTW distance measurement algorithm; An activated neuron judging unit for determining a neuron having a characteristic inside a radius of the corresponding neuron as an activated neuron; And a hand gesture recognition unit having a neuron label output unit for outputting a label of a neuron having a minimum distance value among activated neurons.
제 24 항에 있어서,
손동작 학습부는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성부를 더 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The hand gesture learning unit further includes a new neuron generating unit that generates a new neuron when there is no learned neuron or there is no activated neuron.
제 24 항에 있어서,
손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소부를 더 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The gesture learning unit further includes a neuron radius reduction unit for reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.
제 24 항에 있어서,
손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The hand motion learning unit does not generate new neurons when the label of the input data and the label of the activated neuron are the same.
제 24 항에 있어서,
학습 및 인식부는 RCE(restricted coulomb energy) 신경망을 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The learning and recognition unit includes an artificial neural network-based hand gesture recognition device including a restricted coulomb energy (RCE) neural network.
제 28 항에 있어서,
RCE 신경망은 특징 데이터로 구성되는 입력층; 입력층에 병렬로 연결되고, 특정 모델을 형성하는 중심점과 반경을 갖는 다수의 뉴런으로 구성되며, 뉴런은 각각 입력받은 특징 데이터와 뉴런의 중심점 사이의 거리를 연산하고, 반경과 비교하여 입력 데이터가 해당 뉴런에 포함되는지 판단하여 결과를 전달하는 은닉층; 및 은닉층으로부터 전달받은 정보를 이용하여 입력된 특징 데이터와 가장 근접한 모델의 클래스 값을 출력하는 출력층을 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 28,
The RCE neural network comprises an input layer composed of characteristic data; It is connected in parallel to the input layer and consists of a number of neurons with a center point and a radius forming a specific model, the neurons each calculate the distance between the input feature data and the center point of the neuron, and compare the radius with the input data A hidden layer that determines whether the neuron is included and delivers the result; And an output layer outputting the class value of the model closest to the input feature data using the information received from the hidden layer.
제 29 항에 있어서,
뉴런의 특정 모델은 원 또는 가우시안으로 특징 공간에서 데이터를 구분하기 위한 결정 경계를 생성하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 29,
A specific model of a neuron is an artificial neural network-based hand gesture recognition device that generates a decision boundary for classifying data in a feature space in a circle or Gaussian.
제 29 항에 있어서,
은닉층은 뉴런 집합
Figure pat00168
을 포함하고, 뉴런
Figure pat00169
는 아래 수학식을 만족하는 중심점
Figure pat00170
와 반경
Figure pat00171
를 포함하는, 인공신경망 기반 손동작 인식 장치.
Figure pat00172

여기서,
Figure pat00173
는 각 뉴런의 인덱스이고,
Figure pat00174
은 학습 과정에서 생성된 뉴런의 총 개수이며,
Figure pat00175
는 입력된 특징 벡터의 차원이다.
The method of claim 29,
The hidden layer is a set of neurons
Figure pat00168
Containing, neurons
Figure pat00169
Is the center point that satisfies the following equation
Figure pat00170
And radius
Figure pat00171
Including, artificial neural network based hand gesture recognition device.
Figure pat00172

here,
Figure pat00173
Is the index of each neuron,
Figure pat00174
Is the total number of neurons generated during the learning process,
Figure pat00175
Is the dimension of the input feature vector.
제 31 항에 있어서,
각 뉴런
Figure pat00176
는, 입력된 특징 벡터의 차원이
Figure pat00177
일 때, 반경
Figure pat00178
와 특징 벡터의 차원과 같은
Figure pat00179
차원의 중심점
Figure pat00180
를 저장하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 31,
Each neuron
Figure pat00176
Is, the dimension of the input feature vector
Figure pat00177
When, radius
Figure pat00178
Such as the dimension of the feature vector and
Figure pat00179
Center of dimension
Figure pat00180
Hand gesture recognition device based on artificial neural network for storing.
제 32 항에 있어서,
은닉층은 학습 과정에서 입력되는
Figure pat00181
차원의 특징 벡터의 개수를
Figure pat00182
이라 할때, 특징 벡터 집합
Figure pat00183
을 포함하고, 특징 벡터
Figure pat00184
는 아래 수학식을 포함하는, 인공신경망 기반 손동작 인식 장치.
Figure pat00185

여기서,
Figure pat00186
는 특징 벡터
Figure pat00187
를 포함하는
Figure pat00188
번째 특징 데이터이다.
The method of claim 32,
The hidden layer is entered in the learning process
Figure pat00181
The number of dimensional feature vectors
Figure pat00182
Set of feature vectors
Figure pat00183
Features vector
Figure pat00184
A gesture recognition device based on an artificial neural network including the following equation.
Figure pat00185

here,
Figure pat00186
Features vector
Figure pat00187
Containing
Figure pat00188
The second feature data.
제 33 항에 있어서,
은닉층은 입력층을 통하여 특징 벡터가 각 뉴런
Figure pat00189
에 순차적으로 입력되면, 특징 벡터와 뉴런 중심점 사이의 거리 값을 DWT 거리 측정 알고리즘을 이용하여 연산하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 33,
The hidden layer has a feature vector through each input layer.
Figure pat00189
When sequentially input to the, the neural network-based hand gesture recognition device calculates the distance value between the feature vector and the neuron center point using a DWT distance measurement algorithm.
제 34 항에 있어서,
DWT 거리 측정 알고리즘은 적어도 두개의 시퀀스 데이터 사이의 유사도가 측정됨으로써, 데이터 사이의 최적 거리가 연산되는, 인공신경망 기반 손동작 인식 장치.
The method of claim 34,
The DWT distance measurement algorithm is an artificial neural network-based hand gesture recognition device in which an optimum distance between data is calculated by measuring the similarity between at least two sequence data.
제 35 항에 있어서,
두개의 시퀀스 데이터는 각각
Figure pat00190
Figure pat00191
이고, 두개의 시퀀스 데이터에 대한 유사도는 아래 수학식을 이용하여 행렬을 만들고, 행렬로부터
Figure pat00192
값을 구하여 측정되는, 인공신경망 기반 손동작 인식 장치.
Figure pat00193
The method of claim 35,
Each of the two sequence data
Figure pat00190
And
Figure pat00191
, And the similarity between two sequence data creates a matrix using the following equation,
Figure pat00192
An artificial neural network-based hand gesture recognition device that is measured by obtaining a value.
Figure pat00193
제 36 항에 있어서,
연산된 거리값
Figure pat00194
와 반경
Figure pat00195
를 아래 수학식과 같이 비교하여, 해당 특징 벡터가 각 뉴런
Figure pat00196
를 활성화시켰는지 여부를 판단하는, 인공신경망 기반 손동작 인식 장치.
Figure pat00197
The method of claim 36,
Calculated distance value
Figure pat00194
And radius
Figure pat00195
Is compared to the following equation, the corresponding feature vector is each neuron
Figure pat00196
Hand gesture recognition device based on the artificial neural network to determine whether or not to activate.
Figure pat00197
제 37 항에 있어서,
특정 뉴런
Figure pat00198
에서
Figure pat00199
를 만족하는 경우 해당 뉴런이 활성화되었다고 판단하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 37,
Specific neurons
Figure pat00198
in
Figure pat00199
If it satisfies, it is determined that the neuron is activated, artificial neural network based hand gesture recognition device.
제 37 항에 있어서,
특징 벡터
Figure pat00200
에 대해 모든 뉴런이
Figure pat00201
를 만족하지 않는 경우 중심점
Figure pat00202
를 갖는 새로운 뉴런
Figure pat00203
을 생성하고, 총 뉴런 개수
Figure pat00204
을 1 증가시키는, 인공신경망 기반 손동작 인식 장치.
The method of claim 37,
Feature vector
Figure pat00200
About all neurons
Figure pat00201
If not satisfied, the center point
Figure pat00202
New neurons having
Figure pat00203
And the total number of neurons
Figure pat00204
A gesture recognition device based on artificial neural network that increases 1
제 24 항에 있어서,
손동작 입력 데이터는 관성 측정 센서로부터 얻어지는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The hand gesture input data is obtained from an inertial measurement sensor.
제 24 항에 있어서,
손동작 입력 데이터는 스마트 장치, 스마트 워치 또는 관성 펜에 장착된 관성 측정 센서로부터 얻어지는, 인공신경망 기반 손동작 인식 장치.
The method of claim 24,
The gesture input data is obtained from an inertial measurement sensor mounted on a smart device, a smart watch or an inertial pen, and an artificial neural network-based gesture recognition device.
특징 데이터를 순차적으로 입력받고, 특징 데이터와 뉴런 중심점 사이의 거리를 DTW(dynamic time warping) 거리 측정 알고리즘으로 계산하는 손동작 학습부; 및
특징 데이터와 뉴런 중심점 사이의 거리를 DTW 거리 측정 알고리즘으로 계산하고, 해당 뉴런의 반경 내부에 특징이 들어오는 뉴런을 활성화된 뉴런으로 판단하며, 활성화된 뉴런 중 최소 거리 값을 갖는 뉴런의 라벨을 출력하는 손동작 인식부를 포함하는, 인공신경망 기반 손동작 인식 장치.
A hand gesture learning unit that sequentially receives feature data and calculates a distance between the feature data and the neuron center point by a dynamic time warping (DTW) distance measurement algorithm; And
The distance between the feature data and the central point of a neuron is calculated by a DTW distance measurement algorithm, and a neuron having a feature within a radius of the neuron is determined as an activated neuron, and a label of a neuron having a minimum distance value among the activated neurons is output. An artificial neural network based hand gesture recognition device including a hand gesture recognition unit.
제 42 항에 있어서,
손동작 학습부는 학습된 뉴런이 존재하지 않거나 활성화된 뉴런이 없는 경우 신규 뉴런을 생성하는 신규 뉴런 생성부를 더 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 42,
The hand gesture learning unit further includes a new neuron generating unit for generating a new neuron if there is no learned neuron or there is no activated neuron.
제 42 항에 있어서,
손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 다른 경우 해당 뉴런의 반경을 감소시키는 뉴런 반경 감소부를 더 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 42,
The gesture learning unit further includes a neuron radius reduction unit for reducing the radius of the corresponding neuron when the label of the input data is different from the label of the activated neuron.
제 42 항에 있어서,
손동작 학습부는 입력 데이터의 라벨과 활성화된 뉴런의 라벨이 같은 경우 신규 뉴런을 생성하지 않는, 인공신경망 기반 손동작 인식 장치.
The method of claim 42,
The hand motion learning unit does not generate new neurons when the label of the input data and the label of the activated neuron are the same.
제 42 항에 있어서,
손동작 학습부는 RCE(restricted coulomb energy) 신경망을 포함하는, 인공신경망 기반 손동작 인식 장치.
The method of claim 42,
The hand motion learning unit includes an artificial neural network-based hand motion recognition device including a restricted coulomb energy (RCE) neural network.
KR1020180165334A 2018-12-19 2018-12-19 Hand gesture recognition method using artificial neural network and device thereof KR102179999B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180165334A KR102179999B1 (en) 2018-12-19 2018-12-19 Hand gesture recognition method using artificial neural network and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180165334A KR102179999B1 (en) 2018-12-19 2018-12-19 Hand gesture recognition method using artificial neural network and device thereof

Publications (2)

Publication Number Publication Date
KR20200080419A true KR20200080419A (en) 2020-07-07
KR102179999B1 KR102179999B1 (en) 2020-11-17

Family

ID=71602831

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180165334A KR102179999B1 (en) 2018-12-19 2018-12-19 Hand gesture recognition method using artificial neural network and device thereof

Country Status (1)

Country Link
KR (1) KR102179999B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446296A (en) * 2020-10-30 2021-03-05 杭州易现先进科技有限公司 Gesture recognition method and device, electronic device and storage medium
CN113705507A (en) * 2021-09-02 2021-11-26 上海交通大学 Mixed reality open set human body posture recognition method based on deep learning
KR20230029330A (en) * 2021-08-24 2023-03-03 세종대학교산학협력단 A signal processing method for spectrogram extraction from micro doppler radar

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481039B2 (en) 2020-08-28 2022-10-25 Electronics And Telecommunications Research Institute System for recognizing user hand gesture and providing virtual reality content based on deep learning using transfer learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940902B1 (en) * 2009-05-14 2010-02-08 동국대학교 산학협력단 The biometrics using finger geometry information
WO2011159258A1 (en) * 2010-06-16 2011-12-22 Agency For Science, Technology And Research Method and system for classifying a user's action
KR101836346B1 (en) * 2016-11-09 2018-03-08 재단법인대구경북과학기술원 Apparatus for distinguishing similarity, and calculation method for calculation matrix correlation distance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100940902B1 (en) * 2009-05-14 2010-02-08 동국대학교 산학협력단 The biometrics using finger geometry information
WO2011159258A1 (en) * 2010-06-16 2011-12-22 Agency For Science, Technology And Research Method and system for classifying a user's action
KR101836346B1 (en) * 2016-11-09 2018-03-08 재단법인대구경북과학기술원 Apparatus for distinguishing similarity, and calculation method for calculation matrix correlation distance

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"A Restricted Coulomb Energy (RCE) neural network system for hand image segmentation", 2011 Canadian Conference on Computer and Robot Vision IEEE(pp. 270-277), 2011.* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446296A (en) * 2020-10-30 2021-03-05 杭州易现先进科技有限公司 Gesture recognition method and device, electronic device and storage medium
KR20230029330A (en) * 2021-08-24 2023-03-03 세종대학교산학협력단 A signal processing method for spectrogram extraction from micro doppler radar
CN113705507A (en) * 2021-09-02 2021-11-26 上海交通大学 Mixed reality open set human body posture recognition method based on deep learning
CN113705507B (en) * 2021-09-02 2023-09-19 上海交通大学 Mixed reality open set human body gesture recognition method based on deep learning

Also Published As

Publication number Publication date
KR102179999B1 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
US11455807B2 (en) Training neural networks for vehicle re-identification
US11829858B2 (en) Method of training neural network by selecting data to be used in a subsequent training process and identifying a cluster corresponding to a feature vector
KR102179999B1 (en) Hand gesture recognition method using artificial neural network and device thereof
US20220004935A1 (en) Ensemble learning for deep feature defect detection
US20180144185A1 (en) Method and apparatus to perform facial expression recognition and training
US10572072B2 (en) Depth-based touch detection
KR20230021043A (en) Method and apparatus for recognizing object, and method and apparatus for learning recognizer
KR102410820B1 (en) Method and apparatus for recognizing based on neural network and for training the neural network
CN110969257A (en) Embedding human annotator impacts in a machine learning interface in a computing environment
JP2020155129A (en) Gesture recognition method, gesture recognition device, electronic device, and storage medium
WO2017176356A2 (en) Partitioned machine learning architecture
CN110069129B (en) Determination system and determination method
KR102060719B1 (en) System and method for face detection and emotion recognition based deep-learning
JP6905079B2 (en) Detection and representation of objects in images
KR102637133B1 (en) On-device activity recognition
KR102152120B1 (en) Automated Facial Expression Recognizing Systems on N frames, Methods, and Computer-Readable Mediums thereof
KR20200071990A (en) Electronic device and method for displaying three dimensions image
EP3674974A1 (en) Apparatus and method with user verification
US11775851B2 (en) User verification method and apparatus using generalized user model
US20210110197A1 (en) Unsupervised incremental clustering learning for multiple modalities
US20220004904A1 (en) Deepfake detection models utilizing subject-specific libraries
EP3955166A2 (en) Training in neural networks
Rubin Bose et al. In-situ identification and recognition of multi-hand gestures using optimized deep residual network
Dar et al. Performance Evaluation of Convolutional Neural Networks (CNNs) And VGG on Real Time Face Recognition System
WO2023044661A1 (en) Learning reliable keypoints in situ with introspective self-supervision

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant