KR101085536B1 - Method for Designing Interface using Gesture recognition - Google Patents

Method for Designing Interface using Gesture recognition Download PDF

Info

Publication number
KR101085536B1
KR101085536B1 KR1020100023224A KR20100023224A KR101085536B1 KR 101085536 B1 KR101085536 B1 KR 101085536B1 KR 1020100023224 A KR1020100023224 A KR 1020100023224A KR 20100023224 A KR20100023224 A KR 20100023224A KR 101085536 B1 KR101085536 B1 KR 101085536B1
Authority
KR
South Korea
Prior art keywords
region
image
detecting
hand
detected
Prior art date
Application number
KR1020100023224A
Other languages
Korean (ko)
Other versions
KR20110104214A (en
Inventor
정성태
김영운
강선경
이옥걸
송원창
권대규
Original Assignee
원광대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원광대학교산학협력단 filed Critical 원광대학교산학협력단
Priority to KR1020100023224A priority Critical patent/KR101085536B1/en
Publication of KR20110104214A publication Critical patent/KR20110104214A/en
Application granted granted Critical
Publication of KR101085536B1 publication Critical patent/KR101085536B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

대상자의 움직임 영상을 입력받는 단계; 상기 입력된 영상으로부터 피부색을 검출하는 단계; 상기 검출된 피부색에 기초하여 대상 영역을 검출하는 단계; 상기 대상 영역 중에서 얼굴 영역을 검출하는 단계; 상기 검출한 대상 영역에서 상기 검출한 얼굴 영역을 제거하여 손 영역을 검출하는 단계; 및 상기 검출된 손 영역에 기반하여 손끝 좌표를 검출 및 추적하여 객체 선택 및 이동 또는 카운트(count) 인터페이스를 구성하는 단계를 포함하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법이 개시된다.Receiving a motion image of the subject; Detecting skin color from the input image; Detecting a target area based on the detected skin color; Detecting a face area from the target area; Detecting a hand region by removing the detected face region from the detected target region; And configuring an object selection and movement or count interface by detecting and tracking fingertip coordinates based on the detected hand region.

Description

제스처 인식을 이용한 인터페이스 구성방법{Method for Designing Interface using Gesture recognition}Method for Designing Interface using Gesture recognition

본 발명은 인터페이스 구성방법에 관한 것으로, 특히 영상기반의 제스처 인식을 이용하여 손끝 좌표를 검출 및 추적하여 객체 선택 및 이동을 위한 인터페이스를 구성하는 방법에 관련한다.The present invention relates to a method for configuring an interface, and more particularly, to a method for configuring an interface for object selection and movement by detecting and tracking finger coordinates using image-based gesture recognition.

과학과 의학의 발전으로 인하여 인간의 평균 연령이 증가함에 따라 고령화 현상이 두드러지게 나타나고 있다. 국내 노인인구는 2000년에 7.5%이었으나 노인 비율의 급속한 증가로 2009년 현재 전체 인구의 10.7%를 차지하고 있고 2026년에는 20%로 초고령 사회에 진입할 전망이다. 노인의 수의 증가와 함께 노인성 질환도 증가하는 추세를 나타내고 있다. 이로 인하여 노인성 질환의 가장 대표적인 치매와 노인을 위한 재활 치료의 필요성이 급증하게 되고 이를 위한 연구가 활발히 이루어지고 있다.As the average age of human beings increases due to the development of science and medicine, the aging phenomenon is prominent. The elderly population in Korea was 7.5% in 2000, but the rapid increase in the proportion of the elderly accounted for 10.7% of the total population as of 2009, and 20% in 2026. As the number of the elderly increases, senile diseases also increase. As a result, the most representative dementia of senile disease and the necessity of rehabilitation treatment for the elderly are rapidly increasing, and studies for this are being actively conducted.

치매 예방과 재활 치료는 단순하게 약을 이용한 치료로 끝나는 것이 아니라 장기적이고 규칙적인 운동과 특정 목적을 가진 행위를 반복함으로써 치료 효과를 유도하는 과정이 많다. Dementia prevention and rehabilitation treatment does not simply end with the treatment of drugs, but the process of inducing treatment effects by repeating long-term regular exercise and specific purpose activities.

최근에는 장기적이고 반복적인 치료로 인한 지루함과 인위적인 기존의 재활 치료에 레 치료레크리에이션이나 컴퓨터를 이용한 재활 치료와 치매 예방 게임이 개발되어 단순하고 반복적인 치료에 흥미성과 재미가 첨가되어 자발적인 치료를 유도하고 있다. Recently, boredom caused by long-term and repetitive treatments and artificial rehabilitation treatments have been developed for rehabilitation and computer-based rehabilitation and dementia prevention games. have.

그러나, 게임을 위한 컴퓨터 인터페이스인 키보드는 크기가 작고 많은 키를 구비하고 있기 때문에 나이가 많은 노인들이 사용하기에는 불편하다. 이에 따라, 단순한 버튼으로 제작된 기능 버튼 인터페이스를 이용하는 경우가 많다. 하지만 이러한 단순 버튼을 이용한 인터페이스는 단지 몇 가지의 게임만을 위해서 만들어지기 때문에 선택할 수 있는 게임 종류의 한계성이 있으며, 단순하게 기능 버튼 인터페이스만을 조작함으로써 정신적인 재활 치료에는 사용이 가능하지만, 움직임이 필요한 신체적 재활 치료에는 이용하기 힘들다는 단점이 있다. However, the keyboard, which is a computer interface for gaming, is inconvenient for older seniors to use because of its small size and many keys. Accordingly, a function button interface made of a simple button is often used. However, since this simple button interface is made for only a few games, there is a limit to the type of game that can be selected. By simply operating the function button interface, it can be used for mental rehabilitation treatment, but requires physical movement. The disadvantage is that it is difficult to use for rehabilitation therapy.

따라서, 본 발명의 목적은 제스처 인식을 통하여 손 영역을 검출하고 이를 이용해 손가락의 끝점을 검출 및 추적하고 손가락의 개수 세기와 같은 제스처 인터페이스를 제공하는 것이다.Accordingly, an object of the present invention is to detect a hand region through gesture recognition, to detect and track the end point of a finger, and to provide a gesture interface such as the number of fingers.

상기의 목적은, 대상자의 움직임 영상을 입력받는 단계; 상기 입력된 영상으로부터 피부색을 검출하는 단계; 상기 검출된 피부색에 기초하여 대상 영역을 검출하는 단계; 상기 대상 영역 중에서 얼굴 영역을 검출하는 단계; 상기 검출한 대상 영역에서 상기 검출한 얼굴 영역을 제거하여 손 영역을 검출하는 단계; 및 상기 검출된 손 영역에 기반하여 손끝 좌표를 검출 및 추적하여 객체 선택 및 이동 또는 카운트(count) 인터페이스를 구성하는 단계를 포함하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법에 의해 달성된다.The above object is to receive a motion image of the subject; Detecting skin color from the input image; Detecting a target area based on the detected skin color; Detecting a face area from the target area; Detecting a hand region by removing the detected face region from the detected target region; And configuring an object selection, movement, or count interface by detecting and tracking finger coordinates based on the detected hand region.

바람직하게, 상기 피부색을 검출하는 단계는, 상기 입력된 영상의 RGB 컬러 모델을 HSI 컬러 모델로 변환하는 서브단계; 상기 변환된 컬러 모델의 일정 영역을 설정하고 이에 포함된 픽셀의 색상과 채도 값에 대한 히스토그램을 구하여 히스토그램 확률분포 영상을 만드는 서브단계; 상기 확률분포 영상을 이진화하여 이진화 영상을 구하는 서브단계; 상기 이진화 영상에 대해 모폴로지 연산을 수행하여 잡음을 제거하는 서브단계; 및 상기 잡음이 제거된 영상에 대해 레이블링을 수행하는 서브단계를 포함할 수 있다.Preferably, the detecting of the skin color comprises: a sub-step of converting an RGB color model of the input image into an HSI color model; A substep of setting a predetermined region of the converted color model, obtaining a histogram of hue and saturation values of pixels included in the color model, and generating a histogram probability distribution image; A substep of binarizing the probability distribution image to obtain a binarized image; Performing a morphology operation on the binarized image to remove noise; And a substep of performing labeling on the image from which the noise is removed.

또한, 바람직하게, 상기 얼굴 영역의 검출은 Haar-like 알고리즘을 적용하여 수행될 수 있다.Also, preferably, the detection of the face region may be performed by applying a Haar-like algorithm.

상기에서, 손가락 영역을 제외한 손바닥의 중심을 손 영역의 중심좌표로 정하고, 상기 손 영역의 중심좌표에서 손의 외곽선까지의 거리를 계산하여 가장 긴 거리에 있는 좌표를 상기 손끝 좌표로 설정할 수 있다.In the above description, the center of the palm excluding the finger region may be determined as the center coordinate of the hand region, the distance from the center coordinate of the hand region to the outline of the hand may be calculated, and the coordinate at the longest distance may be set as the fingertip coordinates.

바람직하게, 상기 객체 선택 인터페이스는, 상기 손끝 좌표의 x값이 크게 변화하지 않는 상태에서 y값이 일정 프레임 안에 상하로 움직였을 때 해당 객체를 선택할 수 있다.Preferably, the object selection interface may select a corresponding object when the y value moves up and down within a predetermined frame while the x value of the finger coordinate does not change significantly.

또한, 상기 카운트 인터페이스는, 상기 손 영역의 중심좌표에서 일정거리를 반지름으로 하는 원을 생성한 다음 원의 둘레 중 상기 피부색 영역과 겹치는 부분을 검출하여 상기 검출된 부분의 숫자를 계산하여 손가락 개수를 셀 수 있다.The counting interface may generate a circle having a radius from a center coordinate of the hand region, detect a portion overlapping the skin color region of the circumference of the circle, calculate the number of the detected portion, and calculate the number of fingers. You can count.

상기한 구성에 의하면, 움직임이 필요한 신체적 재활 치료에 이용함으로써 재활치료 대상자들에게 흥미를 유발하도록 함으로써 재활치료의 효율성을 높일 수 있다.According to the above configuration, it is possible to increase the efficiency of rehabilitation treatment by causing interest in the rehabilitation treatment subjects by using it for physical rehabilitation treatment requiring movement.

도 1은 본 발명에 적용되는 손 영역 검출과정을 나타내는 플로차트이다.
도 2(a)는 HSI 컬러 모델로 변환 후의 영상을 나타내고, 도 2(b)는 색상 히토그램을 나타낸다.
도 3(a)은 원 영상을 나타내고, 도 3(b)은 히스토그램의 확률 분포로 작성된 영상이고, 도 3(c)은 이진화된 영상이며, 도 3(d)은 모폴로지 연산이 수행된 결과 영상이다.
도 4는 프로토타입이 적용된 얼굴 검출을 나타낸다.
도 5는 Haar-like 특징 프로토타입을 나타낸다.
도 6(a)은 SAT를 나타내고, 도 6(b)은 사각형 내의 픽셀 합계를 나타낸다.
도 7은 얼굴 영역 검출과 손목 영역 검출을 이용해 정확한 손 영역을 검출한 결과를 보여주고 있다.
도 8은 손끝 좌표의 추적 인터페이스를 설명하는 도면이다.
도 9는 손가락 개수 세기 인터페이스를 나타내는 도면이다.
1 is a flowchart showing a hand region detection process applied to the present invention.
FIG. 2 (a) shows an image after conversion into an HSI color model, and FIG. 2 (b) shows a color histogram.
FIG. 3 (a) shows an original image, FIG. 3 (b) is an image created by histogram probability distribution, FIG. 3 (c) is a binarized image, and FIG. 3 (d) is a result image where morphology calculation is performed. to be.
4 shows face detection with prototype applied.
5 shows a Haar-like feature prototype.
Fig. 6 (a) shows the SAT, and Fig. 6 (b) shows the sum of the pixels in the rectangle.
FIG. 7 illustrates a result of detecting an accurate hand region using face region detection and wrist region detection.
8 is a diagram illustrating a tracking interface of fingertip coordinates.
9 is a diagram illustrating a finger counting interface.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention.

일반적으로, 제스처 인식 기술 방법에는 크게 센서 기반 제스처 인식 방법과 영상 기반 제스처 인식 방법 두 가지로 나눌 수 있다. In general, gesture recognition technology methods can be classified into two types, a sensor-based gesture recognition method and an image-based gesture recognition method.

센서 기반 제스처 인식은 움직임의 위치와 방향을 얻기 위한 방법으로 기계방식, 음향학적 방식, 관성방식, 자기방식과 광학방식 등이 사용되는데, 주로 자기방식과 광학방식이 사용된다. Sensor based gesture recognition Mechanical methods, acoustic methods, inertial methods, magnetic methods and optical methods are used to obtain the position and direction of movement, and magnetic methods and optical methods are mainly used.

자기방식은 자기장의 변화를 사용하여 동작 데이터를 측정하는 방식이다. 이는 3차원 데이터의 흐름을 실시간에 출력해 주므로 실시간 응용에 매우 유리하지만 사람의 몸에 수신기를 부착하기 위한 많은 케이블이 연결되어 동작을 제한하는 단점이 있다. 예를 들어, 센서를 이용한 방식은 대부분 사용자가 장갑을 착용하고, 장갑에 센서를 달아 이로부터 입력된 신호를 이용하여 손 동작을 인식하거나, 또는 요즘 유행하고 있는 게임기 윌(wil)의 리모컨처럼 특정한 장비를 손에 장착하는 방법을 사용한다. 하지만 이러한 방법은 사용자가 손에 장갑을 착용하거나 마킹을 하여야 하므로 손에 항상 장비가 장착됨으로 손가락의 움직임이 제한되어 자연스러운 인터페이스 구축에 많은 문제점이 있다. Magnetic method is a method of measuring the motion data using the change of the magnetic field. This is very advantageous for real-time application because it outputs the flow of three-dimensional data in real time, but there is a disadvantage in that a lot of cables are connected to attach a receiver to a human body to limit the operation. For example, the sensor-based method is mostly used when a user wears a glove, attaches a sensor to the glove, and recognizes a hand motion using a signal input from the glove, or a remote controller of a game console wil, which is popular today. Use the method of hand mounting the equipment. However, since this method requires the user to wear gloves or mark the hands, there are many problems in establishing a natural interface since the movement of the finger is limited since the equipment is always mounted on the hand.

영상(시각) 기반의 제스처 인식은 행위자의 신체에 장치를 부착하지 않고 비디오카메라와 컴퓨터 비전기술을 이용하여 제스처 정보를 획득하는 방식이다. 이 방식은 영상 그 자체를 이용하거나 카메라의 입력 영상으로부터 기하학적인 특징을 추출하여 이용하는 두 가지의 방식이 있는데, 영상 그 자체를 이용하는 것은 계산 양이 적어서 실시간 인식에 적합하나 일반성이 결여되어 있다는 단점을 안고 있다. 기하학적인 특징을 이용하는 것은 주로 정적인 제스처나 포즈를 해석할 때에 이용되는 방법으로, 관절의 각도를 이용하므로 정교한 표현이 가능하나 많은 계산 양을 요구하므로 실시간 인식에는 부적합하다.Image-based gesture recognition is a method of acquiring gesture information using a video camera and computer vision technology without attaching a device to an actor's body. There are two ways to use the image itself or to extract geometric features from the camera's input image. The use of the image itself is suitable for real-time recognition due to the small amount of calculation, but lacks generality. Holding it. The use of geometric features is mainly used when interpreting static gestures and poses. The use of the angles of joints allows precise expression, but it is not suitable for real-time recognition because it requires a large amount of computation.

3차원 기하학적인 정보를 이용하는 방법에는 장비 없이 영상을 이용하는 방법으로 스테레오 영상을 이용하여 추출된 손의 3차원 기하학적인 정보를 이용하는 방법이 있다. 3차원 기하학적 방법은 스테레오 영상을 이용한 3차원 정보 추출과 복잡한 손의 3차원 운동 모델을 구축하기 위해 많은 계산 량이 필요함으로써 고성능의 하드웨어가 필요하다는 단점이 있어 실시간 처리를 요구하는 응용에는 아직 적응시키기 어렵다.As a method of using 3D geometric information, there is a method of using an image without equipment, and using a 3D geometric information of a hand extracted by using a stereo image. The three-dimensional geometric method has the disadvantage of requiring high performance hardware because of the large amount of computation required to extract three-dimensional information using stereo images and to build a complex three-dimensional motion model of the hand, which is difficult to adapt to applications requiring real-time processing. .

한편, 2차원 패턴 정보를 이용하는 방법은 사람의 피부색의 컬러분포를 분석하여 손 영역을 추출하는 방법이 주로 사용된다. 3차원 방법에 비해 처리 속도가 빨리 실시간으로 처리를 요구하는 응용에서 사용할 수 있지만 조명 변화와 복잡한 배경에 영향을 받게 되어 의도하지 않는 손 동작을 인식하거나 손 영역을 찾지 못하는 단점이 있다. 또한 2차원 패턴 정보를 이용한 방법은 2차원으로 투영된 영상을 사용하기 때문에 손가락의 움직임, occlusion, 또는 손의 회전으로 인하여 형태상의 변형이 발생할 수 있다. 그러므로 획득한 윤곽선이나 영역에 관한 특성정보를 신뢰하기 어렵다는 단점도 있다. On the other hand, the method of using the two-dimensional pattern information is mainly used to extract the hand region by analyzing the color distribution of the human skin color. Compared to the 3D method, it can be used in applications requiring processing speed in real time. However, it is affected by light changes and complex backgrounds, and thus it is not recognized the unintentional hand motion or finds the hand area. In addition, since the method using the 2D pattern information uses the image projected in 2D, the shape deformation may occur due to the movement of the finger, occlusion, or rotation of the hand. Therefore, there is a disadvantage that it is difficult to trust the characteristic information on the acquired contour or region.

이러한 측면에서, 본 발명에서는 손의 움직임으로 실시간으로 검출해내고 인식하기 위하여 3차원 모델링을 이용하는 방법은 연산량이 매우 많아 실시간 제스처 인식하기 어렵기 때문에 연산량이 적은 2차원 패턴정보를 이용하는 방법을 사용하였다. In this aspect, in the present invention, the method of using 3D modeling to detect and recognize in real time by the movement of a hand uses a method of using 2D pattern information having a small amount of computation because it is difficult to recognize a real time gesture due to a large amount of computation. .

2차원 패턴정보를 이용하는 방법은 사람의 피부색을 검출하고 검출된 영역에서 손 영역을 찾아 패턴을 분석하는 방법이다. 우선 영상에서 피부색 영역을 효과적으로 찾기 위해 RGB 컬러 모델을 HSI 컬로 모델로 변환하여 피부색 영역을 검출한다. 검출된 피부색 영역을 이진화한 후 모폴로지 연산을 통해 잡음을 제거하고 레이블링을 통해 얼굴, 손과 같은 피부색 영역을 검출한다. 검출된 영역에서 Haar-like 특징을 사용하여 얼굴 영역을 찾아 얼굴과 손 영역을 분류한다. 분류된 얼굴과 손 영역에서 얼굴 영역을 제거함으로써 정확한 손 영역을 찾을 수 있다. The method of using two-dimensional pattern information is a method of detecting a human skin color, finding a hand region in the detected region, and analyzing a pattern. First, in order to effectively find the skin color region in the image, the skin color region is detected by converting the RGB color model into a HSI curl model. After binarizing the detected skin color region, noise is removed through morphology calculation, and skin color regions such as face and hand are detected by labeling. In the detected area, the face and hand area are classified by finding the face area using the Haar-like feature. Accurate hand regions can be found by removing face regions from the classified face and hand regions.

도 1은 본 발명에 적용되는 손 영역 검출과정을 나타내는 플로차트이다.
1 is a flowchart showing a hand region detection process applied to the present invention.

영상 입력Video input

카메라를 통하여 영상을 입력받는다(단계 S11).An image is input through the camera (step S11).

일반적으로 카메라를 통해 들어오는 영상은 RGB 색상 모델을 사용한다. 이런 RGB 색상 모델은 원하는 색상을 추출하기 어렵다. 따라서, 본 발명에서는 RGB 색상 모델을 색상(Hue), 채도(Saturation), 명도(Intensity)의 HSI 컬러 모델로 변환하여 조명 변화에 견고하도록 하였다.
In general, the image coming through the camera uses the RGB color model. This RGB color model is difficult to extract the desired color. Therefore, in the present invention, the RGB color model is converted into an HSI color model of Hue, Saturation, and Intensity to be robust to lighting changes.

피부색 검출Skin color detection

입력된 영상에 히스토그램 매칭을 이용하여 피부색을 검출한다(단계 S21).Skin color is detected using histogram matching on the input image (step S21).

도 2(a)는 HSI 컬러 모델로 변환 후의 영상을 나타낸다. 이 영상 중 손바닥에 대응하는 부분에서 70 × 70 크기의 사각형 영역을 설정하여 이 영역에 포함된 픽셀들에 색상(H)과 채도(S) 값에 대한 히스토그램을 도 2(b)와 같이 구한다. 2 (a) shows an image after conversion into an HSI color model. A rectangle area of size 70 × 70 is set in the portion corresponding to the palm of the image, and a histogram of the color (H) and the saturation (S) values is obtained for the pixels included in the area as shown in FIG.

히스토그램을 구한 다음, 색상(Hue) 값으로 구성된 영상의 각 픽셀 값을 식 1과 같이 히스토그램에 사상하여 각 픽셀 값이 피부색일 확률 값 P를 구한다. P값은 히스토그램에서 각 색상 값에 대한 히스토그램의 높이에 해당한다. After the histogram is obtained, each pixel value of the image composed of Hue values is mapped to the histogram as shown in Equation 1 to obtain a probability value P of each pixel value. The P value corresponds to the height of the histogram for each color value in the histogram.

Figure 112010016557919-pat00001
Figure 112010016557919-pat00001

채도(Saturation) 값도 동일한 과정을 거쳐 구해지며, 도 3(b)은 원 영상인 도 3(a)에서 히스토그램의 확률 분포로 작성된 영상이다. 확률 분포로 작성된 영상에서 각 픽셀 값이 0보다 큰 경우 모두 255로 하고 나머지 값은 모두 0으로 하는 이진화를 수행한다. A saturation value is also obtained through the same process, and FIG. 3 (b) is an image created by probability distribution of histograms in FIG. 3 (a) which is an original image. If each pixel value is greater than zero in the image created by the probability distribution, binarization is performed with all values being 255 and all remaining values being 0.

또한 모폴로지(Morphology)의 열림(Open) 연산을 통하여 작은 덩어리들을 제거하고 닫힘(Close) 연산을 이용하여 작은 구멍들을 제거하였다. 도 3(c)은 이진화된 영상이며, 도 3(d)은 모폴로지 연산이 수행된 결과 영상이다.Also, small lumps were removed through the Open operation of Morphology and small holes were removed using the Close operation. FIG. 3C is a binary image, and FIG. 3D is a result image of a morphology operation.

다음, 이진화와 모폴로지를 거쳐 잡음이 제거된 영상에서 인접한 화소를 서로 묶어 객체로 만들어주는 레이블링(Labeling)을 실행한다. 사용자가 카메라를 정면으로 보고 이용할 경우 피부색으로 판단된 영역이 가장 큰 영역이라 가정할 때 일정 가장 큰 영역과 두 번째로 큰 영역을 제외한 나머지 작은 영역을 제거하고 남은 영역을 얼굴과 손의 영역인 피부색 영역으로 검출하게 된다.
Next, labeling is performed to group adjacent pixels into objects in the image from which noise is removed through binarization and morphology. When the user looks directly at the camera and uses it, assuming that the area determined by skin color is the largest area, the small area except for the largest area and the second largest area is removed and the remaining area is the skin color of the face and hands. It is detected as an area.

얼굴 영역 검출Face area detection

상기의 단계 S12를 통하여 피부색 검출을 하면 얼굴 영역과 손 영역이 같이 검출된다. 정확한 손 영역을 찾기 위해서는 얼굴과 손 영역의 분류를 통해 얼굴 영역을 검출하여 제거하는 작업이 필요하다(단계 S13). 이를 위해, 손 영역은 유동성이 크고 형태가 고정되어 있지 않기 때문에, 눈과 코 그리고 입 부분 등이 고정되어 있는 얼굴 영역을 찾는 것이 좀 더 용이하다. When the skin color is detected through the above step S12, the face area and the hand area are detected together. In order to find the correct hand region, a task of detecting and removing the face region by classifying the face and the hand region is necessary (step S13). For this purpose, since the hand region is large in fluidity and is not fixed in shape, it is easier to find a face region in which eyes, nose, and mouth are fixed.

바람직하게, 본 발명에서는 피부색으로 인식된 얼굴 영역과 손 영역에서 얼굴 영역을 검출하기 위한 방법으로 Haar-like 특징을 사용한다. Preferably, the present invention uses the Haar-like feature as a method for detecting the facial region in the face region and the hand region recognized as the skin color.

Haar-like 특징은 얼굴 영역 검출 방법 중의 하나로 간단하면서도 연산이 아주 빠르다는 장점이 있다. 이러한 Haar-like 특징을 사용함으로써 복잡한 연산을 줄이고, 높은 검출 성능이 요구되는 실시간 객체 검출에 효과적으로 적용할 수 있다. The haar-like feature is one of the face area detection methods, which has the advantage of being simple and very fast. By using these Haar-like features, it is possible to reduce complex computations and effectively apply to real-time object detection requiring high detection performance.

도 4는 프로토타입이 적용된 얼굴 검출을 나타낸다.4 shows face detection with prototype applied.

또한, 본 발명에서는 도 5에 도시한 Haar-like 특징 프로토타입들이 이미지 내의 얼굴을 검출하기 위한 효과적인 특징으로 사용된다. In addition, in the present invention, the Haar-like feature prototypes shown in FIG. 5 are used as effective features for detecting a face in an image.

Haar-like 특징 계수를 이용해서 얼굴 영역을 검출하면, 유동적인 얼굴의 특성에도 강인한 검출 성능을 보인다. When face region is detected by using Haar-like feature coefficients, it shows robust detection performance even on fluid face characteristics.

바람직하게, 이미지 내에서 Haar-like 사각형의 픽셀 합계 계산을 빠르게 수행하기 위해 인테그랄(integral) 이미지를 사용하였다. 인테그랄 이미지는 영상처리에서 사용하는 영역 합 테이블(Summed Area Table: SAT)과 유사하다. SAT는 중복연산을 최소화하여 연산 속도를 빠르게 한다. Preferably, an integral image was used to quickly perform pixel sum calculation of Haar-like squares in the image. The integral image is similar to the summed area table (SAT) used in image processing. The SAT speeds up computation by minimizing redundant operations.

도 6(a)의 SAT는 입력 영상의 원점(0,0)에서부터 좌표 영역 (x, y)를 포함하는 사각형 영역의 모든 픽셀 값을 합이며, 식 2와 식 3과 같이 계산된다. The SAT of FIG. 6 (a) is the sum of all pixel values of a rectangular region including the coordinate region (x, y) from the origin (0,0) of the input image, and is calculated as in Equation 2 and Equation 3.

Figure 112010016557919-pat00002
Figure 112010016557919-pat00002

Figure 112010016557919-pat00003
Figure 112010016557919-pat00003

도 6(b)에서 좌측 상단의 좌표가 (x, y)이고 너비와 높이가 각각 ωh이고 회전각도가 α인 사각형을 r=(x, y, ω, h, α)로 나타내고, 사각형 영역 r의 픽셀 값의 합을 RecSum(r)로 표시한다. RecSum(r)의 값은 SAT를 이용하여 효과적으로 계산될 수 있다. 회전각도 α=0인 사각형 영역 r=(x, y, ω, h, 0)에 대한 RecSum(r)의 값은 식 4에 의해 계산된다.Shown as a 6 (b) the coordinates of the top left corner (x, y) is the width and the respective ω and h in height, and the square rotation angle α r = (x, y, ω, h, α) in a rectangle The sum of the pixel values of the area r is expressed as RecSum (r). The value of RecSum (r) can be effectively calculated using the SAT. The value of RecSum (r) for the rectangular region r = ( x, y, ω, h, 0) with the rotation angle α = 0 is calculated by equation (4).

Figure 112010016557919-pat00004
Figure 112010016557919-pat00004

손 영역 검출Hand area detection

단계 S13을 통하여 얼굴 영역이 제거된 손 영역을 검출한 경우, 검출된 손 영역에서도 사용자의 옷의 길이에 따라 피부색 검출 영역이 달라진다. 긴 팔의 옷을 입어 손목까지 오는 경우는 팔이 제외된 손의 영역이 추출되지만, 반 팔의 옷을 입고 있을 경우는 팔의 영역이 포함된 손 영역이 인식된다. 따라서 제스처 인식을 위해 손목 영역을 제거한 고유한 손 영역만을 검출해야 한다(단계 S14).When the hand region from which the face region is removed through step S13 is detected, the skin color detection region also varies according to the length of the user's clothes in the detected hand region. In the case of wearing a long arm to the wrist, the area of the hand excluding the arm is extracted, but in the case of wearing a short arm, the hand area including the arm area is recognized. Therefore, only the unique hand region from which the wrist region has been removed must be detected for gesture recognition (step S14).

손목 영역을 찾기 위해서는 움직임이 적은 비 유동적인 영역이 필요하다. 손 영역 중 손가락 영역은 가장 움직임이 심한 영역이지만 손바닥과 손목 부분은 이동성이 매우 적은 영역이다. 특히 손목과 팔의 너비 부분은 변화가 거의 없다. 그렇기 때문에 손의 모양과 관계없이 팔과 손바닥의 너비를 이용하여 손목을 찾을 수 있다. 또한 팔의 하단 너비에서 상단 너비까지 조금씩 좁아지다가 손목 부분에서부터 급격히 증가하는 특징을 이용하여 손목 라인을 검출할 수 있다. 도 7은 얼굴 영역 검출과 손목 영역 검출을 이용해 정확한 손 영역을 검출한 결과를 보여주고 있다.
Finding the wrist area requires a non-moving area with little movement. The finger region of the hand region is the region with the most movement, but the palms and wrists are regions of very low mobility. In particular, the width of the wrists and arms is almost unchanged. So you can find your wrist using the width of your arms and palms, regardless of the shape of your hand. In addition, the wrist line can be detected using a feature that narrows gradually from the lower width of the arm to the upper width and then rapidly increases from the wrist portion. FIG. 7 illustrates a result of detecting an accurate hand region using face region detection and wrist region detection.

인터페이스 구성Interface configuration

상기한 손 영역 검출 방법을 이용하여 제스처 인식을 이용한 인터페이스를 구성한다(단계 S15). An interface using gesture recognition is constructed using the above-described hand region detection method (step S15).

우선 마우스의 기능을 만들기 위해서는 손끝 좌표를 검출 및 추적하여 커서를 움직이고 객체를 선택하는 객체선택 인터페이스와 선택한 객체를 이동할 수 있는 객체이동 인터페이스를 구현한다. 또한 개수를 셀 수 있는 카운트(count) 인터페이스를 구성한다.First of all, in order to make the function of the mouse, we implement the object selection interface that moves the cursor and selects objects and the object movement interface that can move the selected object by detecting and tracking finger coordinates. It also configures a count interface that can count.

객체선택 인터페이스를 만들기 위해서는 손끝 좌표가 필요하고 손끝 좌표를 검출하기 위해서는 손의 중심좌표가 필요하다. 손의 전체 영역 중 손가락은 모양이 고정적이지 않고 매우 유동적인 특징이 있다. 이에 비해, 손바닥은 손가락보다 차지하는 면적이 넓고 고정적이므로 손가락 영역을 제외한 손바닥의 중심을 손 영역의 중심좌표로 정할 수 있다.To create an object selection interface, fingertip coordinates are required, and to detect fingertip coordinates, the center coordinates of the hand are needed. The fingers of the entire area of the hand are not fixed in shape but very flexible. In contrast, since the palm occupies a larger area and is fixed than the finger, the center of the palm excluding the finger region may be defined as the center coordinate of the hand region.

도 8은 손끝 좌표의 추적 인터페이스를 설명하는 도면이다.8 is a diagram illustrating a tracking interface of fingertip coordinates.

도 8(a)과 같이, 손의 중심좌표에서 손의 외곽선까지의 거리를 계산하여 가장 긴 거리에 있는 좌표를 도 8(b)과 같이 손끝 좌표로 설정한다. As shown in FIG. 8 (a), the distance from the center coordinate of the hand to the outline of the hand is calculated and the coordinate at the longest distance is set as the fingertip coordinate as shown in FIG. 8 (b).

검출된 손끝 좌표는 조명이나 손의 움직임을 통하여 흔들림을 가지고 있는 경우가 매우 많기 때문에 상하좌우 픽셀의 5 × 5 영역을 설정하여 영역 안의 가운데 점을 손끝의 위치좌표로 검출되도록 한다. Since the detected fingertip coordinates are often shaken by lighting or movement of the hand, a 5 × 5 region of up, down, left, and right pixels is set so that the center point in the region is detected as the position coordinate of the fingertip.

이렇게 검출된 손끝 좌표의 x값이 크게 움직이지 않는 상태에서 y값이 일정 프레임 안에 상하로 이동하였을 때 해당 객체를 선택하는 인터페이스로 구현할 수 있다.In this state, when the x value of the detected fingertip coordinate does not move significantly, the object may be implemented when the y value moves up and down within a predetermined frame.

도 9는 손가락 개수 세기 인터페이스를 나타내는 도면이다.9 is a diagram illustrating a finger counting interface.

손의 중심좌표에서 일정거리를 반지름으로 하는 원을 생성한 다음 원의 둘레 중 피부색 영역과 겹치는 부분을 검출하여, 도 9(a)와 같이 검출된 부분의 숫자를 계산하여 손가락 개수를 세는 인터페이스를 구현할 수 있다. 하지만, 도 9(b)처럼 손가락이 붙어있는 경우는 1개로 인식하는 오류가 발생하기 때문에 손목 너비의 0.15배를 손가락 1개의 너비로 가정하여 원의 둘레 중 손가락 2개 이상이 붙어있어도 정확하게 손가락 개수를 셀 수 있다.
Create a circle with a certain distance radius from the center coordinates of the hand, and then detect the portion of the circumference of the circle overlapping the skin color region, and calculate the number of the detected portion as shown in Figure 9 (a) to count the number of fingers Can be implemented. However, if a finger is attached as shown in FIG. 9 (b), an error is recognized as one, so that the number of fingers is accurate even if two or more fingers are attached to the circumference of the circle, assuming that 0.15 times the width of the wrist is one finger. Can be counted.

재활치료 게임에의 적용Application to rehabilitation games

상기한 손 영역의 검출방법과 구성된 제스처 인터페이스를 이용하여 현재 의료재활센터에서 사용 중인 게임에 적용해 보았다. 현재 의료재활센터에서 사용 중인 재활치료 게임으로서, 주의력과 집중력(Attention and Concentration), 기억력(Memory), 반응 능력(Reaction Ability), 논리적 사고력 및 계획(Logical Reasoning and Planing), 시각 운동 협응력 (Visuo-Motor Coordination) 등으로 이루어져 있고 각각의 치료에 2 ~ 4가지의 게임들로 구성되어 있다.The method of detecting the hand region and the gesture interface are applied to the game currently being used in the medical rehabilitation center. Rehabilitation games currently used in medical rehabilitation centers: Attention and Concentration, Memory, Reaction Ability, Logical Reasoning and Planning, Visual Motor Coordination (Visuo-) Motor Coordination) and 2 to 4 games for each treatment.

또한, 이 게임은 재활 치료를 받는 대상은 정신 지체 장애아 또는 치매 방지를 위한 노인들을 대상으로 한 게임으로써 복잡한 키보드보다 단순하게 게임을 위하여 만들어진 것으로 화살표와 선택 버튼으로만 이루어진 입력기기를 이용한다.In addition, the game is aimed at children with mental retardation or the elderly for the prevention of dementia. The game is made for the game more simply than a complicated keyboard. It uses an input device consisting of arrows and selection buttons.

그중 주의력과 집중력 치료에 이용되고 있는 그림 맞추기 게임(AUFM)과 관련하여 기존 인터페이스 대신에 제스처 인식에 특화된 인터페이스를 적용시킨 게임을 제작해보았다. 그림 맞추기 게임은 하나의 그림을 보여주고 다른 위치에 있는 여러 가지의 그림 중 같은 것을 고르는 게임이다.In relation to the picture matching game (AUFM), which is used to treat attention and concentration, we made a game that applied an interface specialized for gesture recognition instead of the existing interface. A picture-matching game is a game where one picture is shown and the same is selected from several pictures in different positions.

쿼드코어 2.4GHz, RAM 2GB의 환경에서 제스처 인식 인터페이스를 실행하였고, 카메라는 CCD의 VIJE Talk 캠 카메라를 사용하였고, 해상도는 640 * 480으로 유지하였으며, Visual C++에서 OpenCV소프트웨어를 사용하였다. Gesture recognition interface was implemented in quad-core 2.4GHz and 2GB of RAM. The camera used a VIJE Talk Cam camera of CCD, and the resolution was maintained at 640 * 480, and OpenCV software was used in Visual C ++.

도 9(a)와 같이 화면 하단 부분에 있는 그림을 상단에 있는 6가지의 그림 중 같은 그림을 찾는 게임을 제작하여 카메라를 통해 입력받은 영상에서 손끝 좌표를 찾아 이동하면서 상단의 6가지 그림 중 정답에 맞는 위치에서 손가락을 구부렸다가 펼치면 그림을 선택하게 되는 마우스와 같은 인터페이스를 사용한다. As shown in FIG. 9 (a), a game that finds the same picture among the six pictures at the top of the picture at the bottom part of the screen is made and moved to find the coordinates of the fingertips from the image received through the camera. Use a mouse-like interface that bends your fingers in the correct position and expands them to select a picture.

또한, 도 9(b)와 같이 하단에 있는 그림과 같은 그림이 몇 가지 있는지 파악하고 그림을 선택하여 상단에 있는 그림 중 같은 모양의 그림까지 이동하는 게임을 제작하였다. In addition, as shown in Figure 9 (b) to figure out how many pictures, such as the picture on the bottom, by selecting a picture to produce a game of moving to the same shape of the picture on the top.

처음에는 그림과 맞는 개수를 손가락의 숫자로 파악한다. 또한 손가락의 개수를 세는 인터페이스를 사용하여 하단에 움직여야 할 그림 위에서 손가락을 모두 벌린 상태, 즉 손가락의 숫자가 5개가 된 후 손가락을 다시 쥐어 손가락의 숫자가 0개가 되는 순서를 거치면 그림을 선택한 것으로 처리한다. 이때 손의 끝점을 화면에서 이동하게 되면 그림도 따라서 이동하게 된다. 다시 손가락을 펴서 손가락의 개수가 5개가 되면 이동하던 그림이 멈추게 된다. At first, figure out how many fingers match the figure. In addition, by using the interface that counts the number of fingers, the figure is selected when the fingers are spread out on the picture to be moved at the bottom, that is, the number of fingers becomes five and then the fingers are held again and the number of fingers becomes zero. do. At this time, if the end point of the hand is moved on the screen, the figure moves accordingly. If you stretch your fingers again to reach five fingers, the moving picture will stop.

본 발명에 따른 제스처 인식 인터페이스를 이용한 결과, 치료 대상자들의 동작이 쉽고 간결하여 효율성이 증대할 뿐만 아니라 치료 대상자들이 많은 흥미를 갖아 효율성이 증대하게 된다.
As a result of using the gesture recognition interface according to the present invention, not only the operation of the treatment subjects is easy and concise, the efficiency is increased, but the treatment subjects have a lot of interest, and the efficiency is increased.

이상에서는 본 발명의 바람직한 실시 예를 중심으로 설명하였지만, 당업자의 수준에서 다양한 변경과 변형을 가할 수 있으며, 이러한 변경과 변형은 본 발명의 범주를 벗어나지 않는 한, 본 발명에 속하는 것으로 해석되어야 한다.Although the above has been described with reference to the preferred embodiment of the present invention, various changes and modifications can be made at the level of those skilled in the art, and such changes and modifications should be interpreted as belonging to the present invention without departing from the scope of the present invention.

S11: 영상 입력단계
S12: 피부색 검출단계
S13: 얼굴영역 검출단계
S14: 손 영역 검출단계
S15: 인터페이스 구성단계
S11: video input step
S12: skin color detection step
S13: face area detection step
S14: Hand Area Detection Step
S15: Interface Configuration Steps

Claims (6)

대상자의 움직임 영상을 입력받는 단계;
상기 입력된 영상으로부터 피부색을 검출하는 단계;
상기 검출된 피부색에 기초하여 대상 영역을 검출하는 단계;
상기 대상 영역 중에서 얼굴 영역을 검출하는 단계;
상기 검출한 대상 영역에서 상기 검출한 얼굴 영역을 제거하여 손 영역을 검출하는 단계; 및
상기 검출된 손 영역에 기반하여 손끝 좌표를 검출 및 추적하여 객체 선택 및 이동 또는 카운트(count) 인터페이스를 구성하는 단계를 포함하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
Receiving a motion image of the subject;
Detecting skin color from the input image;
Detecting a target area based on the detected skin color;
Detecting a face area from the target area;
Detecting a hand region by removing the detected face region from the detected target region; And
And detecting and tracking fingertip coordinates based on the detected hand region to construct an object selection and movement or count interface.
청구항 1에 있어서,
상기 피부색을 검출하는 단계는,
상기 입력된 영상의 RGB 컬러 모델을 HSI 컬러 모델로 변환하는 서브단계;
상기 변환된 컬러 모델의 일정 영역을 설정하고 이에 포함된 픽셀의 색상과 채도 값에 대한 히스토그램을 구하여 히스토그램 확률분포 영상을 만드는 서브단계;
상기 확률분포 영상을 이진화하여 이진화 영상을 구하는 서브단계;
상기 이진화 영상에 대해 모폴로지 연산을 수행하여 잡음을 제거하는 서브단계; 및
상기 잡음이 제거된 영상에 대해 레이블링을 수행하는 서브단계를 포함하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
The method according to claim 1,
Detecting the skin color,
Converting an RGB color model of the input image into an HSI color model;
A substep of setting a predetermined region of the converted color model, obtaining a histogram of hue and saturation values of pixels included in the color model, and generating a histogram probability distribution image;
A substep of binarizing the probability distribution image to obtain a binarized image;
Performing a morphology operation on the binarized image to remove noise; And
And a sub-step of performing labeling on the image from which the noise is removed.
청구항 1에 있어서,
상기 얼굴 영역의 검출은 Haar-like 알고리즘을 적용하여 수행되는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
The method according to claim 1,
The face region detection method is performed by applying a Haar-like algorithm.
청구항 1에 있어서,
손가락 영역을 제외한 손바닥의 중심을 손 영역의 중심좌표로 정하고, 상기 손 영역의 중심좌표에서 손의 외곽선까지의 거리를 계산하여 가장 긴 거리에 있는 좌표를 상기 손끝 좌표로 설정하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
The method according to claim 1,
A gesture characterized in that the center of the palm excluding the finger region is set as the center coordinate of the hand region, the distance from the center coordinate of the hand region to the outline of the hand is set, and the coordinate at the longest distance is set as the fingertip coordinates. How to configure interface using recognition.
청구항 4에 있어서,
상기 객체 선택 인터페이스는, 상기 손끝 좌표의 x값이 크게 변화하지 않는 상태에서 y값이 일정 프레임 안에 상하로 움직였을 때 해당 객체를 선택하는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
The method of claim 4,
The object selection interface is an interface configuration method using a gesture recognition, characterized in that for selecting the object when the y value is moved up and down within a predetermined frame in the state that the x value of the finger coordinates do not change significantly.
청구항 4에 있어서,
상기 카운트 인터페이스는, 상기 손 영역의 중심좌표에서 일정거리를 반지름으로 하는 원을 생성한 다음 원의 둘레 중 상기 피부색 영역과 겹치는 부분을 검출하여 상기 검출된 부분의 숫자를 계산하여 손가락 개수를 세는 것을 특징으로 하는 제스처 인식을 이용한 인터페이스 구성방법.
The method of claim 4,
The counting interface may generate a circle having a radius from a center coordinate of the hand region, detect a portion overlapping the skin color region of the circumference of the circle, calculate the number of the detected portion, and count the number of fingers. Interface configuration method using a gesture recognition characterized in that.
KR1020100023224A 2010-03-16 2010-03-16 Method for Designing Interface using Gesture recognition KR101085536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100023224A KR101085536B1 (en) 2010-03-16 2010-03-16 Method for Designing Interface using Gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100023224A KR101085536B1 (en) 2010-03-16 2010-03-16 Method for Designing Interface using Gesture recognition

Publications (2)

Publication Number Publication Date
KR20110104214A KR20110104214A (en) 2011-09-22
KR101085536B1 true KR101085536B1 (en) 2011-11-23

Family

ID=44955044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100023224A KR101085536B1 (en) 2010-03-16 2010-03-16 Method for Designing Interface using Gesture recognition

Country Status (1)

Country Link
KR (1) KR101085536B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101385373B1 (en) * 2012-11-16 2014-04-29 강전학 Method for face detection-based hand gesture recognition
KR101526426B1 (en) * 2013-12-31 2015-06-05 현대자동차 주식회사 Gesture recognize apparatus and method
KR101748579B1 (en) * 2016-05-03 2017-06-19 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Recognizing Gesture

Also Published As

Publication number Publication date
KR20110104214A (en) 2011-09-22

Similar Documents

Publication Publication Date Title
Wang et al. Real-time hand-tracking with a color glove
EP2904472B1 (en) Wearable sensor for tracking articulated body-parts
Wen et al. A robust method of detecting hand gestures using depth sensors
US20130335318A1 (en) Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers
Maisto et al. An accurate algorithm for the identification of fingertips using an RGB-D camera
Qi et al. Computer vision-based hand gesture recognition for human-robot interaction: a review
WO2013051681A1 (en) Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP6651388B2 (en) Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system
KR101085536B1 (en) Method for Designing Interface using Gesture recognition
Elakkiya et al. Intelligent system for human computer interface using hand gesture recognition
Sokhib et al. A combined method of skin-and depth-based hand gesture recognition.
Roy et al. Real time hand gesture based user friendly human computer interaction system
Ushaw et al. An efficient application of gesture recognition from a 2D camera for rehabilitation of patients with impaired dexterity
Ghodichor et al. Virtual mouse using hand gesture and color detection
Gallo et al. View-independent hand posture recognition from single depth images using PCA and Flusser moments
Michalko et al. Tracking the object features in video based on OpenCV
Jain et al. Human computer interaction–Hand gesture recognition
Shajideen et al. Human-computer interaction system using 2D and 3D hand gestures
TW201401187A (en) Virtual touch method using fingertip detection and system thereof
Ghosh et al. Real-time 3d markerless multiple hand detection and tracking for human computer interaction applications
Yao et al. Real-time hand gesture recognition using RGB-D sensor
Feng et al. An HCI paradigm fusing flexible object selection and AOM-based animation
Giin et al. Smart hand device gesture recognition with dynamic time-warping method
Roberts et al. PyTracker: A Low-Cost Mobile Platform for Telerehabilitation
KR101635600B1 (en) Hand Mouse Functioning Based on Background Subtraction and Finger Gesture Recognition

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141002

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151201

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171012

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee