KR20070103895A - System of hand-gesture recognition and method thereof - Google Patents

System of hand-gesture recognition and method thereof Download PDF

Info

Publication number
KR20070103895A
KR20070103895A KR1020060035809A KR20060035809A KR20070103895A KR 20070103895 A KR20070103895 A KR 20070103895A KR 1020060035809 A KR1020060035809 A KR 1020060035809A KR 20060035809 A KR20060035809 A KR 20060035809A KR 20070103895 A KR20070103895 A KR 20070103895A
Authority
KR
South Korea
Prior art keywords
primitive
image
center point
feature vector
gesture
Prior art date
Application number
KR1020060035809A
Other languages
Korean (ko)
Inventor
최종호
김덕면
Original Assignee
강남대학교 산학협력단
(주)엔텍시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강남대학교 산학협력단, (주)엔텍시스템 filed Critical 강남대학교 산학협력단
Priority to KR1020060035809A priority Critical patent/KR20070103895A/en
Publication of KR20070103895A publication Critical patent/KR20070103895A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

A system and a method for recognizing hand gesture are provided to extract and recognize a hand-gesture image exactly in real time so that a gesture recognition system is commonly used. An image acquiring module(110) acquires a hand-gesture image. A shape expression module(120) transforms the hand-gesture image into a primitive image obtained by dividing a specific contour area of the hand-gesture image into primitive elements by using morphological operation. A center calculating module(130) classifies the primitive elements according to sizes and finds centers of the primitive elements. A feature vector setting module(140) sets a feature vector of the primitive image by using an angle of a connection line among the center of a main primitive element and the centers of sub-primitive elements with a horizontal line. The main primitive element is a primitive element having the largest size. The sub-primitive elements are primitive elements except for the main primitive element.

Description

손 제스쳐 인식 시스템 및 방법{System of hand-gesture recognition and method thereof}System and hand gesture recognition system and method

도 1은 본 발명의 바람직한 일 실시예에 따른 손 제스쳐 인식 시스템을 나타내는 구성도, 1 is a block diagram showing a hand gesture recognition system according to an embodiment of the present invention,

도 2는 손 제스쳐의 영상이 입력되는 과정을 나타내는 도면,2 is a diagram illustrating a process of inputting an image of a hand gesture;

도 3은 입력된 제스쳐영상을 예시한 도면, 3 is a diagram illustrating an input gesture image;

도 4는 제스쳐영상을 원시형상요소로 분할한 영상인 원시형상영상으로 예시한 도면, 4 is a diagram illustrating a primitive shape image that is an image obtained by dividing a gesture image into primitive shape elements;

도 5는 원시형상요소의 중심점을 연결한 선을 예시한 도면, 5 illustrates a line connecting center points of primitive elements;

도 6은 특징벡터 인식영역을 예시한 도면, 6 is a diagram illustrating a feature vector recognition region;

도 7은 본 발명의 바람직한 일 실시예에 따른 손 제스쳐 인식 방법을 나타내는 흐름도이다. 7 is a flowchart illustrating a hand gesture recognition method according to an exemplary embodiment of the present invention.

본 발명은 손 제스쳐 인식 시스템 및 방법에 관한 것으로, 보다 상세하게는 신속하고 효율적으로 손 제스쳐를 인식할 수 있고, 빠른 인터페이스 설계가 가능하 여 실시간 처리가 가능한 손 제스쳐 인식 시스템 및 방법에 관한 것이다.The present invention relates to a hand gesture recognition system and method, and more particularly, to a hand gesture recognition system and method capable of recognizing hand gestures quickly and efficiently, enabling fast interface design, and real-time processing.

일반적으로, 디지털 영상처리는 좁은 의미로는 컴퓨터로 영상을 처리하는 것을 의미하나 보다 넓은 의미의 디지털 영상처리는 컴퓨터를 이용하여 영상을 생성하고, 처리하고 영상을 해석하고 인식하는 영상과 관련된 모든 분야를 의미한다. In general, digital image processing means processing images with a computer in a narrow sense, but digital image processing in a broader sense means all fields related to images that generate, process, interpret, and recognize images using a computer. Means.

상기 컴퓨터 시스템에 의한 디지털 영상 처리는 메모리 소자 등의 급속한 진보에 의하여 사진 해석, 디자인, 각종 패턴 인식 등 많은 응용분야에서 실용화되고 있다. Digital image processing by the computer system has been put to practical use in many applications such as photograph analysis, design, and pattern recognition by rapid advances in memory devices.

이러한 영상 처리 분야에서 손 제스쳐 인식 분야는 인간과 컴퓨터의 자연스러운 정보 전달 수단의 한 방법으로 관심이 집중되고 있으며, 최근에는 인간의 의지를 직감적으로 기계에 전달하기 위한 수단으로 손 제스쳐를 이용하고자 하는 연구가 널리 진행되고 있다.In the field of image processing, the hand gesture recognition field is focused as a means of natural information transmission between humans and computers, and recently, a study to use hand gestures as a means for intuitionally conveying human will to a machine. Is widely underway.

인간과 컴퓨터의 자연스러운 정보 전달 수단을 위해, 일상의 대화에서 자연스럽게 사용되고 있는 손 제스쳐를 이해하는 인터페이스의 설계는 의사전달 및 감정이나 정서 등의 미묘한 표현에 대응하는 자연스러운 입력수단으로 널리 이용되고, TV 스위치 조정이나 비디오 컨텐츠 검색용 시스템으로도 널리 이용되고 있다. For the natural means of communicating information between humans and computers, the design of the interface that understands the hand gestures that are used naturally in everyday conversations is widely used as a natural input means that responds to subtle expressions such as communication and emotions and emotions. It is also widely used as a system for mediation and video content retrieval.

상기 인터페이스 설계를 위한 종래의 손 제스쳐 인식 방법은 인간의 몸체에 글러브와 같은 여러 가지 타입의 센서를 부착해서 취득한 데이터를 해석하는 기기장착 방식을 이용하였다.The conventional hand gesture recognition method for the interface design uses a device mounting method for analyzing data obtained by attaching various types of sensors such as gloves to a human body.

그런데 상기와 같은 기기장착 방식은 고가의 장비를 필요로 하며, 제어 시스템과 연결되는 여러 가지 타입의 센서를 부착해야 하고, 상기 센서를 포함한 제어 시스템에 새로운 기술이 부가되는 경우 시스템 전체를 다시 구현해야 한다는 점에서 범용성 및 확장성에 있어 문제점을 가지고 있다. However, such a device mounting method requires expensive equipment, and it is necessary to attach various types of sensors connected to the control system, and when the new technology is added to the control system including the sensor, the whole system must be reimplemented. There is a problem in generality and extensibility in that it is.

상기와 같은 문제점을 해결하기 위해서, 최근에는 비디오 카메라로부터 취득한 영상을 처리하는 시각기반 영상처리방식이 많이 사용되고 있다. In order to solve the above problems, recently, a visual-based image processing method for processing an image acquired from a video camera has been widely used.

상기 시각기반 영상처리방식의 손 제스쳐 인식방법은 별도의 센서를 부착하지 않아도 된다는 장점이 있지만 비디오 데이터의 분해능력이 낮고, 시각기반 영상처리의 주 연구대상인 모습기반 접근(Appearance-based approach)방식에서 주로 적용하고 있는 HMM(Hidden Markov Model)과 신경망 모델(Neural Network Model) 등은 인식 알고리즘이 복잡하여 하드웨어 구현 및 실시간 처리가 불가능하다는 문제점이 있다.The hand gesture recognition method of the visual-based image processing method has the advantage of not needing to attach a separate sensor, but the resolution of the video data is low and in the Appearance-based approach which is the main research object of the visual-based image processing. Hidden Markov Model (HMM) and Neural Network Model (HMM), which are mainly applied, have a problem that hardware implementation and real-time processing are impossible due to complex recognition algorithm.

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로서, 신속하고 효율적으로 손 제스쳐를 인식할 수 있고, 빠른 인터페이스 설계가 가능하여 실시간 처리가 가능한 손 제스쳐 인식 시스템 및 방법을 제공하는 데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object thereof is to provide a hand gesture recognition system and method capable of recognizing hand gestures quickly and efficiently and enabling fast interface design to enable real-time processing. .

본 발명이 이루고자 하는 또 다른 기술적 과제는, 상기의 손 제스쳐 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another object of the present invention is to provide a computer-readable recording medium having recorded thereon a program for executing the above hand gesture recognition method on a computer.

본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시예에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 조합에 의해 실현될 수 있다.Other objects and advantages of the invention will be described below and will be appreciated by the embodiments of the invention. Furthermore, the objects and advantages of the present invention can be realized by means and combinations indicated in the claims.

상기의 목적을 달성하기 위한 본 발명은 사용자와 전자단말과의 인터페이스를 구현하기 위한 손 제스쳐 인식 시스템에 있어서, 상기 사용자의 손 제스쳐의 영상인 제스쳐영상을 획득하는 영상획득부; 상기 제스쳐영상의 형태적 형상의 특징적인 외곽영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환하는 형상표현부; 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출하는 중심점산출부; 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 특징벡터설정부; 및 상기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정하는 방향성결정부를 포함한다.In order to achieve the above object, the present invention provides a hand gesture recognition system for implementing an interface between a user and an electronic terminal, comprising: an image acquisition unit for acquiring a gesture image that is an image of the user's hand gesture; A shape expression unit for converting a characteristic outer region part of the morphological shape of the gesture image into a primitive shape image which is an image obtained by dividing a predetermined number of simplified transform areas into primitive shape elements by using a morphological operation; A center point calculator for classifying the primitive elements by size and calculating a center point of the primitive elements classified by size; Feature vector setting that sets the feature vector of the primitive image using the angle formed by the horizontal line between the center point of the principal primitive element, which is the largest primitive element, and the center point of each of the primitive primitives, the other primitive element part; And a direction determination unit that determines the direction of the gesture image by using the set feature vector.

여기서, 상기 형태론적 연산은 상기 제스쳐영상을 점 또는 선으로 축소될 때까지 소정의 구성소로 침식연산을 수행하고, 상기 침식연산된 제스쳐영상을 상기 침식연산을 수행한 횟수로 확장연산을 수행하여 상기 원시형상요소를 취득하는 것이 바람직하다.In this case, the morphological calculation is performed by performing erosion operation on a predetermined component until the gesture image is reduced to a point or a line, and performing extended operation on the eroded gesture image by the number of times the erosion operation is performed. It is desirable to obtain primitive elements.

게다가, 상기 특징벡터는 아래의 식을 이용하여 설정되는 것이 바람직하다.In addition, the feature vector is preferably set using the following equation.

Figure 112006027623381-PAT00001
Figure 112006027623381-PAT00001

여기서, A는 특징벡터, N은 원시형상요소의 개수이고, (x,y)는 주원시형상요소의 중심점이고, (xk,yk)는 k번째 부원시형상요소의 중심점이다.Where A is the feature vector, N is the number of primitive elements, (x, y) is the center point of the principal primitive element, and (x k , y k ) is the center point of the kth subprimary element.

또한, 상기 특징벡터설정부는 상기 주원시형상요소의 중심점과 상기 부원시형상요소의 중심점의 거리를 각각 산출하고, 산출된 거리 중 소정 거리 이하에 해당하는 소정 개수의 중심점을 제외한 나머지 중심점과 상기 주원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 것이 바람직하다.The feature vector setting unit may calculate a distance between the center point of the main primitive element and the center point of the subprimary element, and the remaining center points and the main circle except for a predetermined number of center points corresponding to a predetermined distance or less among the calculated distances. It is preferable to set the feature vector of the primitive image by using an angle formed by a line connecting the center point of the visual element to the horizontal line.

더욱이, 상기 결정된 제스쳐영상의 방향성을 미리 정하여진 상기 전자단말의 제어에 대한 기준에 대응시켜 상기 전자단말을 제어하는 제어부를 더 포함하는 것이 바람직하다.Further, the electronic device may further include a controller configured to control the electronic terminal in response to a criterion for controlling the electronic terminal determined in advance of the determined gesture image.

한편, 사용자와 전자단말과의 인터페이스를 구현하기 위한 손 제스쳐 인식 방법에 있어서, 상기 사용자의 손 제스쳐의 영상인 제스쳐영상을 획득하는 영상획득단계; 상기 제스쳐영상의 형태적 형상의 특징적인 외곽영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환하는 형상표현단계; 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출하는 중심점산출단계; 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 특징벡터설정단계; 및 상 기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정하는 방향성결정단계를 포함한다.On the other hand, a hand gesture recognition method for implementing an interface between a user and the electronic terminal, comprising: an image acquisition step of acquiring a gesture image which is an image of the user's hand gesture; A shape expression step of converting a characteristic outer region part of the shape shape of the gesture image into a primitive shape image which is an image obtained by dividing a predetermined number of simplified transform areas into primitive shape elements by using a morphological operation; A center point calculation step of classifying the primitive elements by size and calculating a center point of the primitive elements classified by size; Feature vector setting that sets the feature vector of the primitive image using the angle formed by the horizontal line between the center point of the principal primitive element, which is the largest primitive element, and the center point of each of the primitive primitives, the other primitive element step; And a direction determination step of determining the direction of the gesture image using the set feature vector.

더욱이, 손 제스쳐 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함하는 것이 바람직하다.Furthermore, it is desirable to include a computer readable recording medium having recorded thereon a program for executing the hand gesture recognition method on a computer.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

도 1은 본 발명의 바람직한 일 실시예에 따른 손 제스쳐 인식 시스템을 나타내는 구성도, 도 2는 손 제스쳐의 영상이 입력되는 과정을 나타내는 도면, 도 3은 입력된 제스쳐영상을 예시한 도면, 도 4는 제스쳐영상을 원시형상요소로 분할한 영상인 원시형상영상으로 예시한 도면, 도 5는 원시형상요소의 중심점을 연결한 선을 예시한 도면, 도 6은 특징벡터 인식영역을 예시한 도면이다.1 is a block diagram showing a hand gesture recognition system according to an embodiment of the present invention, Figure 2 is a view showing a process of inputting the image of the hand gesture, Figure 3 illustrates an input gesture image, Figure 4 FIG. 5 is a diagram illustrating a primitive image, which is an image obtained by dividing a gesture image into primitive elements, FIG. 5 is a diagram illustrating a line connecting center points of primitive elements, and FIG. 6 is a diagram illustrating a feature vector recognition region.

먼저, 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 손 제스쳐 인식 시스템(100)은 영상획득부(110), 형상표현부(120), 중심점산출부(130), 특징벡 터설정부(140), 방향성결정부(150) 및 제어부(160)를 포함한다.First, as shown in FIG. 1, the hand gesture recognition system 100 according to an embodiment of the present invention includes an image acquisition unit 110, a shape expression unit 120, a center point calculation unit 130, and a feature vector. The setting unit 140, the directional determination unit 150 and the control unit 160 are included.

상기 영상획득부(110)는 전자단말을 통하여 사용자의 손 제스쳐인 영상인 제스쳐영상을 획득한다.The image acquisition unit 110 acquires a gesture image which is an image of a user's hand gesture through an electronic terminal.

상기 전자단말은 디지털 카메라, 캠코더, CCD 카메라, 비디오 카메라 등인 것이 바람직하며, 상기 전자단말의 렌즈부를 통하여 사용자의 영상이 입력되고, 상기 입력된 영상 중에서 손 영역만을 추출하여 제스쳐영상을 획득한다.Preferably, the electronic terminal is a digital camera, a camcorder, a CCD camera, a video camera, or the like. An image of a user is input through a lens unit of the electronic terminal, and only a hand region is extracted from the input image to obtain a gesture image.

도 2에 도시된 바와 같이, 사용자가 전자단말 앞에서 여러 방향으로 손 제스쳐를 취하면, 상기 전자단말의 렌즈부로 상기 손 제스쳐의 영상이 입력된다.As shown in FIG. 2, when the user makes a hand gesture in front of the electronic terminal in various directions, an image of the hand gesture is input to the lens unit of the electronic terminal.

그리고, 입력되는 손 제스쳐의 영상은 RGB 영상으로 입력되는 것이 대부분인데, 이 경우, 상기 입력되는 RGB 영상을 YCbCr영상으로 변환하고, 상기 Cb 성분 또는 Cr 성분을 이용하여 피부색의 위치를 판단하여 손 영역을 추출하고, 상기 피부색 위치에 대해 Y 요소로 이루어진 그레이 영상을 획득한다.In most cases, the input image of the hand gesture is input as an RGB image. In this case, the input RGB image is converted into a YC b C r image, and the C b image. Component or determine the position of the color using the C r component to extract the hand area, and obtains a gray image composed of Y component with respect to the skin location.

즉, 상기 입력된 RGB 영상을 상호 용이하게 변환되어 지는 YCbCr영상으로 변환식에 따라 변환한다. 상기 YCbCr 영상은 컬러 정보로부터 광도를 분리하는 또 하나의 컬러 공간으로서, 광도는 Y로 기호화되고, 색깔정보는 각각 Cb 및 Cr 로 기호화 된다. That is, the input RGB image is converted into a YC b C r image which is easily converted to each other according to a conversion formula. YC b C r The image is another color space that separates the luminance from the color information, where the luminance is symbolized by Y and the color information is each C b. And C r .

이 때, 상기 Cb 성분은 피부색 정보에 대해 77< Cb < 127의 범위의 값을 갖음과 더불어 상기 Cr 성분은 피부색정보에 대해 133< Cr < 173의 범위의 값을 갖고, 상 술한 Cb성분 및 Cr 성분의 범위에 대해 수평 프로젝션(수평방향에 대한 이진영상의 픽셀 개수) 및 수직 프로젝션(수직방향에 대한 이진영상의 픽셀 개수)방법을 통하여 주어진 영상에서 피부색의 위치를 찾고, 상기 주어진 피부색 위치에 대해 Y 성분으로 이루어진 그레이 영상을 획득한다. At this time, the C b Ingredients for skin color information 77 <C b C r having a value in the range of <127 Ingredients for skin color information 133 <C r C b component and C r having a value in the range of <173; Find the position of the skin color in a given image through the horizontal projection (number of pixels of the binary image in the horizontal direction) and the vertical projection (number of pixels of the binary image in the vertical direction) for a range of components, and the Y component for the given skin color position. Acquire a gray image.

그 다음, 상기 그레이영상을 경계값(Threshold)을 이용하여 흑과 백의 두 가지 색의 영상인 이진영상으로 표현한다. 상기 이진영상은 데이터 처리에 있어서 단순하며 실용적인 시스템에 널리 이용되고 있는 영상으로, 손의 실질적인 위치에 해당하는 영상은 흰색으로 표현하며, 그 이외의 값은 배경으로 모두 검은색으로 치환하여 표현하는 것이다. 상기 이진영상을 이용하면 RGB 컬러 이미지의 24비트 영상에 비해 인식의 주요 변수 값, 즉 특징을 계산하기가 빨라지고 간결해지는 장점이 있어 흑백이미지를 사용한다.Next, the gray image is represented as a binary image, which is an image of two colors, black and white, using a threshold. The binary image is an image widely used in a simple and practical system for data processing. The image corresponding to the actual position of the hand is expressed in white, and all other values are represented by replacing black with the background. . When using the binary image, compared with the 24-bit image of the RGB color image, the main variable value of recognition, that is, the feature is faster and simpler to calculate the feature, so the monochrome image is used.

또한, 이진 영상을 처리하기 앞서 smoothing으로 미리 영상의 잡음을 제거하는 전처리과정을 통하여, 이진영상에 잡음(noisse)이 있을 경우, 저역통과필터를 사용하여 불규칙 잡음을 제거하는 것이 바람직하다. In addition, if there is noise in the binary image through a preprocessing process of removing the noise of the image by smoothing before processing the binary image, it is preferable to remove the irregular noise using a low pass filter.

다양한 영상입력수단 등을 통하여 획득한 영상데이터를 그레이영상처리를 수행하고, 그레이영상을 이진영상으로 처리하고, 불규칙 잡음이 제거된 다양한 손 제스쳐에 관한 제스쳐영상을 예시한 화면이 도 3에 도시되어 있다. FIG. 3 is a screen illustrating a gesture image of various hand gestures in which gray image processing is performed on the image data acquired through various image input means, a gray image is processed as a binary image, and irregular noise is removed. have.

상기 도 3에서 (A)는 사용자가 엄지손가락을 위쪽 방향으로 폈을 때, (B)는 사용자가 엄지손가락을 좌측 방향으로 폈을 때, (C)는 사용자가 엄지손가락을 우측 방향으로 폈을 때, (D)는 사용자가 엄지손가락을 들지않고 주먹을 쥐었을 때의 제스쳐영상을 이진영상으로 처리한 것이다.In FIG. 3, (A) shows when the user pushes the thumb upward, (B) shows when the user pushes the thumb to the left, and (C) shows when the user pushes the thumb to the right. D) is a binary image of the gesture image when the user clenched the fist without lifting the thumb.

물론, 이 외에도 여러 다른 방향의 제스쳐영상이 있을 수 있는 것은 자명한 사실이며 본 발명에서 실현하고자 하는 본 발명의 상세한 설명을 위하여 상기 도 3에 도시되어 있는 4가지의 손 제스쳐 형상을 중심으로 하기에 상세히 설명하도록 한다. Of course, in addition to this, it is obvious that there can be a gesture image in various directions, and for the detailed description of the present invention to be realized in the present invention, it will be described below based on the four hand gesture shapes shown in FIG. This will be explained in detail.

상기와 같이 이진 영상으로 제스쳐 영상을 획득한 후, 상기 형상표현부(120)는 상기 제스쳐영상의 형태적 형상의 특징적인 외곽영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환한다.After acquiring a gesture image as a binary image as described above, the shape expression unit 120 simplifies a predetermined number of portions of the outline region of the shape of the gesture image by using a morphological operation. The image is converted into a primitive image, which is an image divided into primitive shape elements, which are transformation areas.

여기서, 상기 형태론적 연산(Morphological operation)이란, 미리 기하학적 형태를 알고 있는 대상 물체의 정보를 반영하여 영상 내에서 원하는 부분만을 추출하는 것으로, 입자 인식이나 물체의 형태를 파악하기 위해 많이 사용되는 연산이다. Here, the morphological operation is to extract only a desired part in the image by reflecting information of a target object that knows a geometric shape in advance, and is a calculation that is frequently used to recognize particles or determine the shape of an object. .

상기 원시형상요소는 획득된 영상 중에서 물체의 외형적 형태만을 특징으로 나타낼 수 있는 상기 형태론적 연산을 수행한 결과로서 나타나는 외적 형태의 단순화된 변환영역을 의미하며, 이러한 원시형상요소로 이루어진 영상을 본 발명에서는 원시형상영상으로 정의한다. The primitive shape element refers to a simplified transformation region of an external shape that appears as a result of performing the morphological operation that can only represent the external shape of an object among the acquired images, and views an image composed of such primitive shape elements. In the present invention, it is defined as a raw image.

상기 본 발명에서는 상기 제스쳐영상의 특징적인 외곽영역부분을 원시형상요소로 분할하기 위해 상기 형태론적 연산을 채용하였다.In the present invention, the morphological operation is adopted to divide the characteristic outer region part of the gesture image into a primitive shape element.

예를 들면, 상기 원시형상요소로의 분해는 형상 X를 여러 개의 원시형상 요소 X={X1, X2, X3...Xn}들로 분해하고자 하는 것으로, 이를 수학적 표현으로 표기하면 다음의 [수학식1]과 같다. For example, the decomposition into primitive elements is intended to decompose shape X into several primitive elements X = {X 1 , X 2 , X 3 ... X n }. Equation 1 is as follows.

Figure 112006027623381-PAT00002
Figure 112006027623381-PAT00002

여기서, G(Z2)은 2-D 유클리드 공간 Z에서 정의되는 2-D 개집합(Open Set)이다. 상기 Xi를 생성하기 위한 원시형상영상을 Yi라고 하고, Yi에 대응되는 구성소를 B로 표현하면 형태론적 연산은 다음 [수학식2]와 같이 표현된다.Where G (Z 2 ) is the 2-D Open Set defined in 2-D Euclidean space Z. When the primitive image for generating X i is referred to as Y i , and a component corresponding to Y i is represented by B, the morphological operation is expressed as Equation 2 below.

Figure 112006027623381-PAT00003
Figure 112006027623381-PAT00003

여기서, B는 구성소(Structuring Element)이고, ni는 구성소의 크기이며, ○, BIGOPLUS 및 BIGOMINUS는 각각 열기연산, 확장(Dilation)연산 및 침식(Erosion)연산자이다. 그리고 Bs는 원점에 대한 B의 반전(Reflection)이다. Where B is a structuring element, n i is the size of the constituent, and ○, BIGOPLUS and BIGOMINUS are the hot, dilation and erosion operators, respectively. And B s is the reflection of B relative to the origin.

상기 침식연산은 물체에 대해 배경을 확장시키고 물체의 크기를 축소하는 역할을 하고, 관심이 있는 물체의 최외각선의 한픽셀 정도를 삭제하여 배경색으로 치환하는 결과를 가져오며, 확장(Dilation)연산은 물체의 최 외각 픽셀을 확장하는 역할을 하므로 물체의 크기는 확장되고 배경은 축소된다. 또한, 열기연산은 대상물체의 외부에 존재하는 날카로운 모서리 부분을 부드럽게 하고 구성소보다 작은 물체를 삭제하는 필터의 성질을 갖고 있다. The erosion operation expands the background of the object and reduces the size of the object. The erosion operation removes about one pixel of the outermost line of the object of interest and replaces the background color with the background color. Because it serves to expand the outermost pixels of the object, the size of the object is expanded and the background is reduced. In addition, the thermal operation has the property of a filter that softens the sharp edges existing on the outside of the object and deletes objects smaller than the component.

즉, 상기 수학식을 이용하여 상기 이진영상으로 처리한 제스쳐영상을 점 또는 선으로 축소될 때까지 소정의 구성소로 침식연산하고, 상기 침식연산된 제스쳐영상을 상기 침식연산을 수행한 횟수로 확장연산을 수행하여 원시형상요소를 취득하여, 상기 제스쳐영상은 형태적 형상의 특징적인 외곽영역부분을 추출한 원시형상영상으로 표현된다. That is, using the above equation, the gesture image processed by the binary image is eroded by a predetermined component until it is reduced to a point or line, and the eroded gesture image is expanded by the number of times the erosion operation is performed. By acquiring a primitive shape element, the gesture image is expressed as a primitive shape image obtained by extracting a characteristic outer region part of a shape.

도 3에 도시된 제스쳐영상에 형태론적 연산을 적용하여 원시형상요소로 분할하면 도 4에 도시된 바와 같이 원시형상영상으로 나타난다. When morphological operations are applied to the gesture image shown in FIG. 3 and divided into primitive shape elements, the image shown in FIG. 4 appears as a primitive shape image.

즉, 도 3의 (A)는 도 4의 (A), 도 3의 (B)는 도 4의 (B), 도 3의 (C)는 도 4 의(C), 도 3의 (D)는 도 4의 (D)로 각각 변환된다.That is, Fig. 3A is Fig. 4A, Fig. 3B is Fig. 4B, Fig. 3C is Fig. 4C, and Fig. 3D. Are respectively converted to (D) of FIG.

상기 소정 개수란 상기 원시형상영상을 처리하는 시스템의 중앙처리장치, 램(RAM), 롬(ROM), 데이터 기억장치 등의 메모리 및 처리능력에 따라 임의로 정해진 수를 말한다. The predetermined number refers to a number arbitrarily determined according to memory and processing capacity of a central processing unit, a RAM, a ROM, a data storage device, and the like of the system for processing the raw image.

상기 도 4에 도시된 (A) 내지 (D)를 참조하면, 상기 원시형상영상은 총 5개의 원시형상요소로 분해되었으나, 이에 한정되는 것은 아니고, 상기 원시형상영상을 처리하는 시스템의 중앙처리장치, 램(RAM), 롬(ROM), 데이터 기억장치 등의 메모리 및 처리능력에 따라 다양한 개수의 원시형상요소로 분할될 수 있다.Referring to (A) to (D) shown in FIG. 4, the primitive shape image is decomposed into five primitive shape elements, but is not limited thereto, and the central processing apparatus of the system for processing the primitive shape image The memory may be divided into various numbers of primitive elements according to memory and processing power of a RAM, a ROM, a data storage device, and the like.

적은 개수의 원시형상요소로 분할되는 경우, 손 제스쳐의 방향성을 인식하는 과정에서 연산 처리속도가 더 빨라질 수 있다는 장점을 가질 수 있으나, 반면, 손 제스쳐의 인식의 정밀도를 낮아질 수 있다.When divided into a small number of primitive elements, the operation processing speed may be increased in the process of recognizing the direction of the hand gesture, but on the other hand, the accuracy of the recognition of the hand gesture may be lowered.

이러한 내적 관계에 의한 변수를 매개로 상기 원시형상요소의 개수를 정하는 것이 바람직하다. It is preferable to determine the number of primitive elements by the median of such internal relations.

상기 중심점산출부(130)는 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출한다. The center point calculator 130 classifies the primitive elements by size and calculates a center point of the primitive elements classified by size.

먼저, 원시형상요소의 크기별 분류하여, 가장 큰 원시형상요소를 주원시형상요소로 정하고, 그 이외의 원시형상요소를 부원시형상요소로 정하여 분류한 후, 상기 크기별로 분류된 상기 원시형상요소의 중심점을 산출한다.First, classify primitive elements by size, determine the largest primitive element as the main primitive element, and classify other primitive elements as the sub primitive element, and then classify the primitive elements classified by the size. Calculate the center point.

즉, 총 분해된 원시형상요소의 개수를 n이라고 하면, 첫번째 크기를 가지는 원시형상요소가 주원시형상요소가 되며, 다음의 형상분해에서 추출되는 Xi(i=2,3...,n-1)를 그 순서에 따라, 제1, 2, 3, ..., n-1 등으로 부원시형상요소로 분류한다.That is, if the total number of decomposed primitive elements is n, the primitive element having the first size becomes the main primitive element, and X i (i = 2,3 ..., n extracted from the following decomposition) -1) are classified into first-order shape elements in the order of first, second, third, ..., n-1, and the like.

그리고, 상기와 같이 분류된 원시형상요소의 중심점은 침식연산을 수행하여 결정한다. 먼저 Rohmbus 구성소를 사용하여 침식연산한 결과를 다시 3 * 3 정사각형 구성소로 침식연산하는 과정을 상기 원시형상요소의 형상이 구성소보다 작아질 때까지 반복하여 수행하고, 그 결과를 다시 90°, 180°, 45°, 135° 방향의 Streak 구성소로 침식연산을 수행하여 상기 주원시형상요소와 제거되지 않은 부원시형상요소의 중심점을 산출한다.The center points of the primitive elements classified as described above are determined by performing erosion operations. First, the erosion operation using the Rohmbus component is repeated to the 3 * 3 square component until the shape of the primitive element is smaller than the component, and the result is again 90 °, An erosion operation is performed with the Streak components in 180 °, 45 °, and 135 ° directions to calculate the center points of the primary primitive elements and the non-removable subprimary elements.

또한, 원시형상요소의 중심점은 주 원시형상요소와의 상대적인 2차원 좌표평면상의 x,y축상의 거리에 해당하므로 영상데이터의 형태를 분석하여 각각의 상대적인 좌표를 구할 수 있으며, 상기와 같은 좌표결정은 당업자간의 다양한 방법으로 결정될 수 있음은 자명하다. In addition, since the center point of the primitive shape element corresponds to the distance on the x, y axis on the two-dimensional coordinate plane relative to the main primitive shape element, the relative coordinates can be obtained by analyzing the shape of the image data. It will be apparent that can be determined in various ways by those skilled in the art.

도 4의 (A)에 도시된 4a는 주원시형상요소의 중심점을 나타낸 것이며, 4b, 4c, 4d 및 4e는 각 부원시형상요소들의 중심점을 나타낸 것이다. 4A shown in FIG. 4A shows the center point of the main primitive elements, and 4b, 4c, 4d and 4e show the center points of the respective primitive elements.

상기 특징벡터설정부(140)는 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정한다.The feature vector setting unit 140 uses the angle between the center point of the main primitive element that is the largest primitive element and the center point of each of the primitive primitive elements that are the remaining primitive elements with the horizontal line to form a primitive image. Sets the feature vector of.

통상적으로 주원시형상요소는 사람의 손 중 손바닥 부분의 영상이 되며, 부원시형상요소는 손의 외곽적 특징이 나타나 있는 엄지손가락과 손가락의 마디부분으로 된다. Typically, the primary primitive element is an image of the palm of a person's hand, and the subprimary primitive element is a segment of the thumb and the finger where the outer features of the hand appear.

본 발명은 상기 손바닥을 중심으로 엄지손가락의 방향성을 인식하여 처리하므로, 엄지손가락부분의 원시형상요소는 통상적으로 가장 큰 부 원시형상요소가 될 것임을 착안하여 손바닥과 엄지손가락이 이루는 각도를 이용하여 방향성을 인지하는 방법을 채택하고 있다. The present invention is processed by recognizing the orientation of the thumb around the palm, the direction of the thumb using the angle between the palm and thumb to focus on the primitive shape element of the thumb will usually be the largest negative primitive element Adopting a way to recognize.

이러한 인식과정을 시스템적으로 구현하기 위하여, 먼저, 상기 중심점산출부(130)에서 상기 중심점을 산출한 후 상기 부원시형상요소들의 중심점을 상기 주원시형상요소의 중심점과 각각 직선으로 연결한다.In order to implement this recognition systemically, first, the center point calculation unit 130 calculates the center point, and then connects the center points of the sub-element shape elements with the center points of the main primitive elements in a straight line.

상기한 바와 같이 중심점을 연결한 직선이 도 5에 도시되어 있으며, 상기 도 4에 도시된 (A)의 원시형상요소의 중심점을 연결하면 도 5의 (A)와 같이 나타나며, 도 4의 (B),(C) 및 (D)의 원시형상요소의 중심점을 연결하면 각각 도 5의 (B),(C) 및 (D)와 같이 나타난다.As described above, a straight line connecting the center points is shown in FIG. 5, and when the center points of the primitive elements of (A) shown in FIG. 4 are connected, they appear as shown in FIG. 5A and FIG. 4B. When connecting the center points of the primitive elements of (C) and (D), they appear as (B), (C) and (D) of FIG. 5, respectively.

그리고, 상기 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 특징벡터를 설정한다.The feature vector is set using an angle formed by a line connecting the center point with a horizontal line.

예를 들어, 다음과 같이 주원시형상요소를 X라 하고, 부원시형상요소를 X1,X2...Xn-1이라고 하고, 상기 주원시형상요소의 중심점과 각각의 부원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 X = {θ123,...,θn-1} 라고 하면, 특징벡터는 아래의 [수학식3]을 이용하여 설정되는 것이 바람직하다.For example, the primary primitive elements are referred to as X, the subprimary primitive elements are referred to as X 1 , X 2 ... X n-1 , and the center point of each primitive primitive element and each sub primitive element If the angle formed by the line connecting the center point of the horizontal line with X = {θ 1 , θ 2 , θ 3 , ..., θ n-1 }, the feature vector is set using Equation 3 below. It is desirable to be.

Figure 112006027623381-PAT00004
Figure 112006027623381-PAT00004

여기서, A는 특징벡터, N은 원시형상요소의 개수이고, (x,y)는 주원시형상요소의 중심점이고, (xk,yk)는 k번째 부원시형상요소의 중심점이다.Where A is the feature vector, N is the number of primitive elements, (x, y) is the center point of the principal primitive element, and (x k , y k ) is the center point of the kth subprimary element.

도 5의 (A)를 참조하면, 1개의 주원시형상요소의 중심점인 5a와 나머지 원시형상요소의 중심점인 5b, 5c, 5d 및 5e를 각각 연결하는 선이 수평선과 이루는 각도는 θ123 및θ4 와 같이 나타낼 수 있다. 상기의 θ123 및θ4 의 각도를 모두 더한 다음, 총 4로 나누면 특징벡터를 구할 수 있다. Referring to FIG. 5A, an angle between a horizontal line and a line connecting 5a, which is the center point of one main primitive element, and 5b, 5c, 5d, and 5e, which is the center point of the remaining primitive elements, is θ 1 , θ 2 , θ 3, and θ 4 . By adding all the angles of θ 1 , θ 2 , θ 3, and θ 4 , and dividing by 4, a feature vector can be obtained.

즉, 이러한 과정으로 산출된 특징벡터는 부원시형상요소가 주원시형상요소를 기준으로 어느 정도의 각도를 이루고 있는 지표가 되며, 이러한 특징벡터는 결국 사람의 엄지손가락의 방향성을 상징하게 되는 것이다. In other words, the feature vector calculated by this process becomes an index in which the sub-element shape element forms an angle with respect to the main primitive element, and this feature vector eventually represents the direction of the thumb of a person.

[표1]은, 상기의 [수학식3]을 이용하여, 도 5의 (A),(B),(C) 및 (D)에 도시된 주원시형상요소의 중심점과 부원시형상요소 각각의 중심점을 연결하는 직선이 수평선과 이루는 각도를 계산하고, 그 평균치를 계산하여 표로 정리한 것이다.[Table 1], using the above Equation (3), the center point and the sub-element of each primary primitive element shown in (A), (B), (C) and (D) of FIG. The angle formed by the straight line connecting the center points of the horizontal line is calculated, and the average is calculated and summarized in a table.

Gesture  Gesture Mean Value  Mean Value (A)  (A) 115.72°   115.72 ° (B)  (B) 177.54°    177.54 ° (C)  (C) 15.24°   15.24 ° (D)  (D) Origin  Origin

상기 [표1]에 나타나듯이 도 5에 도시된 (A)의 특징벡터는 115.72°, (B)의 특징벡터는 177.54°등으로 설정된다.As shown in Table 1, the feature vector of (A) shown in Fig. 5 is set to 115.72 °, the feature vector of (B) is set to 177.54 ° and so on.

상기와 같은 각 각도의 평균값을 이용하여 상기 원시형상영상의 특징벡터를 설정하는 방법 이외에도 다른 여러 가지 방법에 의하여 특징벡터가 설정될 수 있음은 물론이다.In addition to the method of setting the feature vector of the primitive image using the average value of each angle as described above, the feature vector may be set by various other methods.

예를 들면, 상기 원시형상요소 중 주원시형상요소의 중심점과 거리가 가장 먼 부원시형상요소가 방향성을 인식하는 가장 중요한 역할을 하는 원시형상요소이므로, 상기 주원시형상요소로부터 가장 먼 거리에 위치한 부원시형상요소와의 거리에 *2, *3 등의 식을 이용하여 가장 큰 가중치를 두고 평균값을 계산하여 특징벡터를 설정하면 방향성 인식을 보다 정확히 할 수 있다.For example, since the sub-prime shape element that is far from the center point of the primitive shape element among the primitive shape elements is the primitive shape element that plays the most important role of recognizing the direction, it is located farthest from the main primitive element. Directional recognition can be more accurately recognized by setting the feature vector by calculating the average value with the largest weight using the formulas such as * 2, * 3 and so on.

또한, 상기 특징벡터설정부(140)는 상기 주원시형상요소의 중심점과 상기 부원시형상요소의 중심점의 거리를 각각 산출하고, 산출된 거리 중 소정 거리 이하에 해당하는 소정 개수의 중심점을 제외한 나머지 중심점과 상기 주원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 것이 바람직하다.In addition, the feature vector setting unit 140 calculates distances between the center points of the main primitive elements and the center points of the sub primitive elements, and excludes a predetermined number of center points corresponding to a predetermined distance or less from the calculated distances. Preferably, the feature vector of the primitive image is set using an angle formed by a line connecting a center point and a center point of the main primitive element to a horizontal line.

상기에서 산출된 거리 중 소정 거리 이하에 해당하는 부원시형상요소는 상기 방향성 인식에 큰 영향을 미치지 않는다고 가정할 수 있으므로 상기 소정 거리 이하에 해당하는 부원시형상요소의 중심점을 제외한 후 연산하면 연산속도를 더 향상시킬 수 있다. Since the sub-elements that fall below the predetermined distance among the calculated distances can be assumed to have no significant influence on the directional recognition, the calculation speed may be calculated after excluding the center point of the sub-elements that fall below the predetermined distance. Can be further improved.

상기 소정 거리란, 부원시형상요소가 주원시형상요소 부근에 위치할 경우 방향성 인식에 큰 영향을 미치지 않을 수 있다고 가정할 수 있는 부원시형상요소를 제외하고자 하기 위하여 설정되는 임의적인 임계값을 의미한다. The predetermined distance means an arbitrary threshold set to exclude sub-elements that can be assumed to have a low influence on the direction recognition when the sub-elements are located near the main element. do.

또한, 상기 소정 개수란 상기 부원시형상요소 중 손 제스쳐의 인식에 필요 없는 것으로 판단되는 부원시형상요소를 제외하는 것이므로, 하나의 부원시형상요소만이 제외될 수도 있고, 두개의 부원시형상요소가 제외될 수도 있는 것이다. 이는 인식하고자 하는 형상에 따라서 불규칙적으로 발생하는 경우이므로, 알고리즘 수행에 따라 소정 개수의 부원시형상요소가 제거되는 것이 바람직하다. In addition, since the predetermined number is to exclude the sub-elements that are determined to be unnecessary for the hand gesture among the sub-elements, only one sub-element may be excluded or two sub-elements may be excluded. May be excluded. Since this occurs irregularly according to the shape to be recognized, it is preferable that a predetermined number of secondary shape elements are removed according to the algorithm.

상기 방향성결정부(150)은 상기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정한다.  The direction determining unit 150 determines the direction of the gesture image by using the set feature vector.

상기 설정된 특징벡터는 도 6에 도시된 상기 특징벡터 인식 영역에서 제스쳐영상의 방향성이 인식된다. The set feature vector recognizes the direction of a gesture image in the feature vector recognition region illustrated in FIG. 6.

도 6에 도시된 바와 같이, 특징벡터의 평균치가 45°~135°의 영역인 경우에는 Resion 2, 135°~225°영역인 경우에는 Resion 4로, 그리고, 325°~45°영역인 경우에는 Resion 3로 특징벡터를 인식하도록 설정하였다.As shown in FIG. 6, when the average value of the feature vector is in the range of 45 ° to 135 °, Resion 2 is used, in the case of 135 ° to 225 ° area, it is Resion 4, and in the case of the 325 ° to 45 ° area. Resion 3 is set to recognize feature vectors.

손의 형상이 주먹을 쥐고 있는 형상인 경우에는 통상적으로 부 원시형상요소는 주 원시형상요소와 비교하여 거리가 멀지 않음이 일반적이므로 이러한 형태적 특징을 반영하여 부 원시형상요소의 중심점과 원시형상요소의 중심점이 소정거리 이하인 경우에는 주먹을 쥐고 있는 형상으로 인식할 수 있다.In general, when the shape of the hand is a fist, the secondary primitive element is generally not far from the main primitive element. Therefore, the center point and the primitive element of the secondary primitive element are reflected in consideration of these morphological features. If the center point is less than or equal to the predetermined distance, it can be recognized as a shape holding a fist.

이러한 알고리즘을 통하여 또 하나의 손 제스쳐의 형태적 특성을 인식할 수 있다. Through this algorithm, we can recognize the morphological characteristics of another hand gesture.

즉, 도 6에 도시되어 있는 Resion 1의 영역은 이러한 영상적 특징의 영역이며 이를 통하여 추가적인 손 제스쳐를 인식하도록 구성될 수도 있다. That is, the region of Resion 1 shown in FIG. 6 is the region of the visual feature, and may be configured to recognize additional hand gestures.

따라서, 상기 [표1]에 나타낸 (A)의 경우 특징벡터의 값이 115.72°이므로 Resion 2의 평균값 45°~134°의 범위에 포함되고 상기 (A)의 방향성은 Resion 2의 방향으로 인식할 수 있게 된다. Therefore, in the case of (A) shown in [Table 1], since the value of the feature vector is 115.72 °, the average value of Resion 2 is included in the range of 45 ° to 134 ° and the directionality of (A) can be recognized in the direction of Resion 2. It becomes possible.

만약, 손 제스쳐의 방향성의 이상적인 값은 Resion 2일 때 90°, Resion 4일때는 180°, Resion 3는 0°라고 가정할 수 있으므로, 상기 [표1]에서 각각의 제스쳐영상으로부터 계산된 특징벡터는 각각 115.72°,177.54°, 15.24°로 제스쳐영상의 방향성이 사용자마다 조금 다른 경우에도 설정범위에 충분히 포함될 것으로 판단되며 정확한 인식이 가능하다는 것을 알 수 있다.Since the ideal value of the hand gesture's directionality is 90 ° for Resion 2, 180 ° for Resion 4, and Resion 3 is 0 °, the feature vectors calculated from the respective gesture images in Table 1 above. Are 115.72 °, 177.54 °, and 15.24 °, respectively, and even if the direction of the gesture image is slightly different for each user, it is determined to be sufficiently included in the setting range, and it can be seen that accurate recognition is possible.

상기 제어부(160)는 상기 결정된 제스쳐영상의 방향성을 미리 정하여진 상기 전자단말의 제어에 대한 기준에 대응시켜 상기 전자단말을 제어한다.The controller 160 controls the electronic terminal in response to a criterion for the control of the electronic terminal, which is determined in advance in the direction of the determined gesture image.

상기 특징벡터의 연산에서부터 방향성 결정 및 전자단말의 제어에 대한 과정을 아래 표를 통하여 설명하면 다음과 같다.The process for determining the directionality and controlling the electronic terminal from the calculation of the feature vector will be described below.

Gesture  Gesture 특징벡터 Vector illustration Region Region Recognition Recognition (A)  (A) 115.72 115.72 2 2 play play (B)  (B) 177.54 177.54 4 4 left left (C)  (C) 15.24 15.24 3 3 right right (D)  (D) ORIGIN ORIGIN 1 One stop stop

예를 들어, 상기 제어부(160)에서 Resion 2의 경우 Play, Resion 3의 경우 Right, Resion 4의 경우 Left, Resion 1의 경우 Stop으로 제어한다면, 상기 제스쳐영상의 방향성이 Resion 2로 인식된다면, 상기 전자단말은 Play를 구동시키는 것이다. For example, if the control unit 160 controls Play to Resion 2, Right for Resion 3, Left for Resion 4, Stop for Resion 1, and if the direction of the gesture image is recognized as Resion 2, The electronic terminal drives Play.

물론, Resion 3의 경우 fast forward, Resion 4의 경우 Rewind 등과 같이, 상기 인식된 방향성에 다른 제어역할을 담당하는 것도 가능하며, 상기 응용되는 전자단말의 여러가지 설정에 따라 각기 다른 구동으로 제어되는 것이 바람직하다.Of course, in the case of Resion 3, it is also possible to play a different control role in the recognized direction, such as fast forward, Rewind in the case of Resion 4, it is preferable to be controlled by different driving according to the various settings of the electronic terminal applied. Do.

상기에서 설명한 구성요소에 의하여 사용자와 전자단말과의 인터페이스가 구현되며, 상기 인터페이스는 사용자의 손 제스쳐의 방향성을 인식하여 전자단말을 구동시키게 되는 것이다. An interface between the user and the electronic terminal is implemented by the above-described components, and the interface drives the electronic terminal by recognizing the direction of the user's hand gesture.

상기와 같이 구성되는 손 제스쳐 인식 시스템은 다음과 같은 방법으로 구현될 수 있다. 이하에서는 도 7을 참조하여 본 발명에 의한 손 제스쳐 인식 방법의 구현을 상세히 설명하도록 한다.The hand gesture recognition system configured as described above may be implemented in the following manner. Hereinafter, the implementation of the hand gesture recognition method according to the present invention will be described in detail with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따른 손 제스쳐 인식 방법을 나타내는 흐름도이다.7 is a flowchart illustrating a hand gesture recognition method according to an embodiment of the present invention.

먼저, 도시된 바와 같이, 상기 영상획득부(110)에서 사용자의 손 제스쳐의 영상인 제스쳐영상을 획득한다(S710). First, as shown, the image acquisition unit 110 obtains a gesture image that is an image of a user's hand gesture (S710).

이 때, 전자단말을 통하여 사용자의 손 제스쳐인 영상인 제스쳐영상을 획득한다. At this time, a gesture image, which is an image of a user's hand gesture, is acquired through an electronic terminal.

사용자가 디지털 카메라, 캠코더, CCD 카메라, 비디오 카메라 등 등의 전자단말 앞에서 여러 방향으로 손 제스쳐를 취하면, 상기 전자단말의 렌즈부로 상기 손 제스쳐의 영상이 입력되고, 상기 입력된 영상 중에서 상기 손 영역만을 추출하여 제스쳐영상을 획득한다. When the user makes a hand gesture in various directions in front of an electronic terminal such as a digital camera, a camcorder, a CCD camera, a video camera, or the like, an image of the hand gesture is input to the lens unit of the electronic terminal, and the hand region is included in the input image. Only the image is extracted to obtain a gesture image.

칼라이미지의 영상이 그레이영상처리단계 및 이진영상처리단계에 관한 설명은 상기에 상세히 기술되었으므로 생략한다.The description of the gray image processing step and the binary image processing step of the image of the color image has been described above in detail and thus will be omitted.

다음으로, 상기 제스쳐영상의 형태적 형상의 특징적인 외과영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환한다(S720).Next, the surgical region portion characteristic of the morphological shape of the gesture image is converted into a primitive image, which is an image obtained by dividing a predetermined number of simplified transformation regions into primitive shape elements using a morphological operation ( S720).

상기 형태론적 연산을 이용하여 상기 제스쳐영상을 점 또는 선으로 축소될 때까지 침식연산하고, 상기 침식연산된 제스쳐영상을 상기 침식연산을 수행한 횟수로 확장연산을 수행하여 원시형상요소를 취득하여, 상기 제스쳐영상은 형태적 형상의 특징적인 외곽영역부분을 추출한 원시형상영상으로 표현된다. Using the morphological operation, the gesture image is eroded until it is reduced to a point or a line, and the eroded gesture image is extended to the number of times the erosion operation is performed to obtain a primitive shape element. The gesture image is expressed as a raw shape image obtained by extracting a characteristic outer region part of a shape.

그 다음으로, 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출한다(S730). Next, the primitive elements are classified by size and a center point of the primitive elements classified by size is calculated (S730).

상기 원시형상요소를 크기별로 분류하여, 가장 큰 원시형상요소를 주원시형상요소로 정하고, 그 이외의 원시형상요소를 부원시형상요소로 정하여 분류한 다음, 상기 크기별로 분류된 상기 원시형상요소의 중심점을 산출한다.The primitive elements are classified by size, the largest primitive element is designated as the primary primitive element, and the other primitive elements are designated as the subprimary primitive element, and then classified. Calculate the center point.

그 다음으로, 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정한다(S740). Next, the feature vector of the primitive image is set using an angle formed by a horizontal line between the center point of the main primitive element, which is the largest primitive element, and the center point of each subprimary element, the other primitive element. (S740).

상기 특징벡터는 상기에서 설명한 [수학식3]을 이용하여 설정되는 것이 바람직하다. The feature vector is preferably set using Equation 3 described above.

또한, 상기 특징벡터설정단계(S740)는 상기 주원시형상요소의 중심점과 상기 부원시형상요소의 중심점의 거리를 각각 산출하고, 산출된 거리 중 소정 거리 이하에 해당하는 소정 개수의 중심점을 제외한 나머지 중심점과 상기 주원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 것이 바람직하다.In addition, the feature vector setting step (S740) calculates the distance between the center point of the main primitive shape element and the center point of the sub primitive shape element, and excludes a predetermined number of center points corresponding to a predetermined distance or less from the calculated distances. Preferably, the feature vector of the primitive image is set using an angle formed by a line connecting a center point and a center point of the main primitive element to a horizontal line.

상기에서 산출된 거리 중 소정 거리 이하에 해당하는 부원시형상요소는 상기 방향성 인식에 필요한 부분이 아니므로, 상기 소정 거리 이하에 해당하는 부원시형상요소의 중심점을 제외한 후 연산하여 연산속도를 더 향상시킬 수 있다. Since the sub-elements corresponding to the predetermined distance or less of the calculated distances are not necessary for the directional recognition, the computational speed is further improved by calculating after subtracting the center point of the sub-elements corresponding to the predetermined distance or less. You can.

그 다음으로, 상기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정한다(S750). Next, the direction of the gesture image is determined using the set feature vector (S750).

상기 설정된 특징벡터는 도 6에 도시된 상기 특징벡터 인식 영역에서 제스쳐영상의 방향성이 인식된다. The set feature vector recognizes the direction of a gesture image in the feature vector recognition region illustrated in FIG. 6.

마지막으로, 상기 결정된 제스쳐영상의 방향성을 미리 정하여진 상기 전자단말의 제어에 대한 기준에 대응시켜 상기 전자단말을 제어한다(S760).Finally, the electronic terminal is controlled in response to a criterion for the control of the electronic terminal, in which the direction of the determined gesture image is predetermined (S760).

예를 들어, 상기 S760단계에서 Resion 2의 방향성을 Play, Resion 3의 방향성을 Right, Resion 4의 방향성을 Left, Resion 1의 방향성을 Stop으로 제어한다고가정하면, 상기 제스쳐영상의 방향성이 Resion 2로 인식될 때, 상기 전자단말은 Play 명령이 인식된 것으로 제어될 수 있다. For example, in step S760, if the direction of Resion 2 is Play, the direction of Resion 3 is Right, the direction of Resion 4 is Left, and the direction of Resion 1 is controlled to Stop, the direction of the gesture image is Resion 2. When recognized, the electronic terminal can be controlled to recognize the Play command.

물론, Resion 3의 경우 fast forward, Resion 4의 경우 Rewind 등과 같이, 상기 인식된 방향성에 다른 제어역할을 담당하는 것도 가능하며, 상기 응용되는 전자단말의 설정에 따라 각기 다른 구동으로 제어되는 것이 바람직하다.Of course, in the case of Resion 3, it is also possible to play a different control role in the recognized direction, such as fast forward, Rewind in the case of Resion 4, it is preferable to be controlled by different driving depending on the setting of the electronic terminal to be applied. .

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 매체로서 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data is stored as a medium that can be read by a computer system.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CO-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Examples of computer-readable recording media include ROM, RAM, CO-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As mentioned above, although this invention was demonstrated by the limited embodiment and drawing, this invention is not limited by this, The person of ordinary skill in the art to which this invention belongs, Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

본 발명에 따르면, 특징벡터를 이용하여 손 제스쳐의 방향성을 인식하므로 보다 간편하고 제스쳐를 분석하여, 실시간 처리속도가 요구되는 전자기기에 신속하게 정보를 제공할 수 있다.According to the present invention, since the direction of the hand gesture is recognized using the feature vector, the gesture can be analyzed more easily and the information can be quickly provided to an electronic device requiring a real-time processing speed.

또한, 복잡한 영상을 단순한 원시형상요소들로 분해하는 형태론적 연산을 적용하여 신속하고 효율적으로 손 제스쳐를 인식할 수 있으므로, 빠른 인터페이스 설계가 가능하여 전체 시스템의 리소스를 절약하는 효과를 얻을 수 있다.In addition, by applying morphological operations that decompose complex images into simple primitive elements, hand gestures can be recognized quickly and efficiently, enabling fast interface design and saving resources of the entire system.

게다가, 손 제스쳐의 정확한 추출 및 인식이 실시간으로 가능하도록 하여 제스쳐 인식 시스템의 상용화가 가능하고, 비디오데이터의 검색 및 기타 전자시스템 등에 작동에 관련된 인터페이스 설계에 널리 응용될 수 있다는 장점을 갖는다.In addition, it is possible to commercialize the gesture recognition system by enabling accurate extraction and recognition of hand gestures in real time, and has the advantage that it can be widely applied to the interface design related to the retrieval of video data and other electronic systems.

Claims (11)

사용자와 전자단말과의 인터페이스를 구현하기 위한 손 제스쳐 인식 시스템에 있어서,In a hand gesture recognition system for implementing an interface between a user and an electronic terminal, 상기 사용자의 손 제스쳐의 영상인 제스쳐영상을 획득하는 영상획득부;An image acquisition unit which acquires a gesture image which is an image of the user's hand gesture; 상기 제스쳐영상의 형태적 형상의 특징적인 외곽영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환하는 형상표현부;A shape expression unit for converting a characteristic outer region part of the morphological shape of the gesture image into a primitive shape image which is an image obtained by dividing a predetermined number of simplified transform areas into primitive shape elements by using a morphological operation; 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출하는 중심점산출부;A center point calculator for classifying the primitive elements by size and calculating a center point of the primitive elements classified by size; 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 특징벡터설정부; 및Feature vector setting that sets the feature vector of the primitive image using the angle formed by the horizontal line between the center point of the principal primitive element, which is the largest primitive element, and the center point of each of the primitive primitives, the other primitive element part; And 상기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정하는 방향성결정부를 포함하는 것을 특징으로 하는 손 제스쳐 인식 시스템.And a direction determination unit for determining the direction of the gesture image by using the set feature vector. 제 1항에 있어서, 상기 형태론적 연산은,The method of claim 1, wherein the morphological operation is 상기 제스쳐영상을 점 또는 선으로 축소될 때까지 소정의 구성소로 침식연산을 수행하고, 상기 침식연산된 제스쳐영상을 상기 침식연산을 수행한 횟수로 확장연산을 수행하여 상기 원시형상요소를 취득하는 것을 특징으로 하는 손 제스쳐 인 식 시스템.Performing an erosion operation to a predetermined component until the gesture image is reduced to a point or a line, and performing the extended operation to the number of times the erosion operation is performed to perform the erosion operation to obtain the primitive shape element. Hand gesture recognition system characterized by. 제 2항에 있어서, 상기 특징벡터는,The method of claim 2, wherein the feature vector, 아래의 식을 이용하여 설정되는 것을 특징으로 하는 손 제스쳐 인식 시스템.Hand gesture recognition system, characterized in that set using the following equation.
Figure 112006027623381-PAT00005
Figure 112006027623381-PAT00005
여기서, A는 특징벡터, N은 원시형상요소의 개수이고, (x,y)는 주원시형상요소의 중심점이고, (xk,yk)는 k번째 부원시형상요소의 중심점이다.Where A is the feature vector, N is the number of primitive elements, (x, y) is the center point of the principal primitive element, and (x k , y k ) is the center point of the kth subprimary element.
제 3항에 있어서, 상기 특징벡터설정부는, The method of claim 3, wherein the feature vector setting unit, 상기 주원시형상요소의 중심점과 상기 부원시형상요소의 중심점의 거리를 각각 산출하고, 산출된 거리 중 소정 거리 이하에 해당하는 소정 개수의 중심점을 제외한 나머지 중심점과 상기 주원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 것을 특징으로 하는 손 제스쳐 인식 시스템.Computing the distance between the center point of the main primitive element and the center point of the sub-primary element, and connecting the remaining center point except the predetermined number of center points corresponding to a predetermined distance or less of the calculated distance and the center point of the main primitive element Hand gesture recognition system, characterized in that for setting the feature vector of the raw image using the angle formed by the line to the horizontal line. 제 1항에 있어서,The method of claim 1, 상기 결정된 제스쳐영상의 방향성을 미리 정하여진 상기 전자단말의 제어에 대한 기준에 대응시켜 상기 전자단말을 제어하는 제어부를 더 포함하는 것을 특징 으로 하는 손 제스쳐 인식 시스템.And a controller configured to control the electronic terminal in response to a criterion for the control of the electronic terminal determined in advance of the determined direction of the gesture image. 사용자와 전자단말과의 인터페이스를 구현하기 위한 손 제스쳐 인식 방법에 있어서,In a hand gesture recognition method for implementing an interface between a user and an electronic terminal, 상기 사용자의 손 제스쳐의 영상인 제스쳐영상을 획득하는 영상획득단계;An image acquisition step of acquiring a gesture image, which is an image of the user's hand gesture; 상기 제스쳐영상의 형태적 형상의 특징적인 외곽영역부분을 형태론적 연산(Morphological operation)을 이용하여 소정 개수의 단순화된 변환영역인 원시형상요소로 분할한 영상인 원시형상영상으로 변환하는 형상표현단계;A shape expression step of converting a characteristic outer region part of the shape shape of the gesture image into a primitive shape image which is an image obtained by dividing a predetermined number of simplified transform areas into primitive shape elements by using a morphological operation; 상기 원시형상요소를 크기별로 분류하고 크기별로 분류된 상기 원시형상요소의 중심점을 산출하는 중심점산출단계;A center point calculation step of classifying the primitive elements by size and calculating a center point of the primitive elements classified by size; 가장 큰 원시형상요소인 주원시형상요소의 중심점과 나머지 원시형상요소인 부원시형상요소 각각의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 특징벡터설정단계; 및Feature vector setting that sets the feature vector of the primitive image using the angle formed by the horizontal line between the center point of the principal primitive element, which is the largest primitive element, and the center point of each of the primitive primitives, the other primitive element step; And 상기 설정된 특징벡터를 이용하여 상기 제스쳐영상의 방향성을 결정하는 방향성결정단계를 포함하는 것을 특징으로 하는 손 제스쳐 인식 방법.And a direction determination step of determining the direction of the gesture image by using the set feature vector. 제 6항에 있어서, 상기 형태론적 연산은,The method of claim 6, wherein the morphological operation is 상기 제스쳐영상을 점 또는 선으로 축소될 때까지 소정의 구성소로 침식연산을 수행하고, 상기 침식연산된 제스쳐영상을 상기 침식연산을 수행한 횟수로 확장연산을 수행하여 상기 원시형상요소를 취득하는 것을 특징으로 하는 손 제스쳐 인 식 방법.Performing an erosion operation to a predetermined component until the gesture image is reduced to a point or a line, and performing the extended operation to the number of times the erosion operation is performed to perform the erosion operation to obtain the primitive shape element. Hand gesture recognition method characterized by. 제 7항에 있어서, 상기 특징벡터는,The method of claim 7, wherein the feature vector, 아래의 식을 이용하여 설정되는 것을 특징으로 하는 손 제스쳐 인식 방법.Hand gesture recognition method characterized in that set using the following equation.
Figure 112006027623381-PAT00006
Figure 112006027623381-PAT00006
여기서, A는 특징벡터, N은 원시형상요소의 개수이고, (x,y)는 주원시형상요소의 중심점이고, (xk,yk)는 k번째 부원시형상요소의 중심점이다.Where A is the feature vector, N is the number of primitive elements, (x, y) is the center point of the principal primitive element, and (x k , y k ) is the center point of the kth subprimary element.
제 8항에 있어서, 상기 특징벡터설정단계는, The method of claim 8, wherein the setting of the feature vector comprises: 상기 주원시형상요소의 중심점과 상기 부원시형상요소의 중심점의 거리를 각각 산출하고, 산출된 거리 중 소정 거리 이하에 해당하는 소정 개수의 중심점을 제외한 나머지 중심점과 상기 주원시형상요소의 중심점을 연결하는 선이 수평선과 이루는 각도를 이용하여 상기 원시형상영상의 특징벡터를 설정하는 것을 특징으로 하는 손 제스쳐 인식 방법.Computing the distance between the center point of the main primitive element and the center point of the sub-primary element, and connecting the remaining center point except the predetermined number of center points corresponding to a predetermined distance or less of the calculated distance and the center point of the main primitive element And a feature vector of the primitive image is set using an angle formed by a line to a horizontal line. 제 6항에 있어서, The method of claim 6, 상기 결정된 제스쳐영상의 방향성을 미리 정하여진 상기 전자단말의 제어에 대한 기준에 대응시켜 상기 전자단말을 제어하는 제어단계를 더 포함하는 것을 특 징으로 하는 손 제스쳐 인식 방법.And a control step of controlling the electronic terminal in response to a criterion for the control of the electronic terminal determined in advance of the determined directionality of the gesture image. 제 6항 내지 제 10항 중 어느 한 항에 있어서,The method according to any one of claims 6 to 10, 상기 손 제스쳐 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the hand gesture recognition method on a computer.
KR1020060035809A 2006-04-20 2006-04-20 System of hand-gesture recognition and method thereof KR20070103895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060035809A KR20070103895A (en) 2006-04-20 2006-04-20 System of hand-gesture recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060035809A KR20070103895A (en) 2006-04-20 2006-04-20 System of hand-gesture recognition and method thereof

Publications (1)

Publication Number Publication Date
KR20070103895A true KR20070103895A (en) 2007-10-25

Family

ID=38818096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060035809A KR20070103895A (en) 2006-04-20 2006-04-20 System of hand-gesture recognition and method thereof

Country Status (1)

Country Link
KR (1) KR20070103895A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011693A2 (en) * 2010-07-18 2012-01-26 주식회사 바이오폴리메드 Cationic lipid, a production method for the same and a vehicle having cell penetrating properties comprising the same
WO2012051747A1 (en) * 2010-10-18 2012-04-26 Nokia Corporation Method and apparatus for providing hand detection
WO2013100367A1 (en) * 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
US10078796B2 (en) 2015-09-03 2018-09-18 Korea Institute Of Science And Technology Apparatus and method of hand gesture recognition based on depth image
CN112712091A (en) * 2019-10-27 2021-04-27 北京易讯理想科技有限公司 Image characteristic region detection method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012011693A2 (en) * 2010-07-18 2012-01-26 주식회사 바이오폴리메드 Cationic lipid, a production method for the same and a vehicle having cell penetrating properties comprising the same
WO2012011693A3 (en) * 2010-07-18 2012-05-24 주식회사 바이오폴리메드 Cationic lipid, a production method for the same and a vehicle having cell penetrating properties comprising the same
WO2012051747A1 (en) * 2010-10-18 2012-04-26 Nokia Corporation Method and apparatus for providing hand detection
US8965051B2 (en) 2010-10-18 2015-02-24 Nokia Corporation Method and apparatus for providing hand detection
WO2013100367A1 (en) * 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
US10078796B2 (en) 2015-09-03 2018-09-18 Korea Institute Of Science And Technology Apparatus and method of hand gesture recognition based on depth image
CN112712091A (en) * 2019-10-27 2021-04-27 北京易讯理想科技有限公司 Image characteristic region detection method

Similar Documents

Publication Publication Date Title
KR101491461B1 (en) Method for recognizing object using covariance descriptor and apparatus thereof
US20160154469A1 (en) Mid-air gesture input method and apparatus
US20120068917A1 (en) System and method for dynamic gesture recognition using geometric classification
JP2003346162A (en) Input system by image recognition of hand
Bilal et al. Vision-based hand posture detection and recognition for Sign Language—A study
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
Bilal et al. A hybrid method using haar-like and skin-color algorithm for hand posture detection, recognition and tracking
KR100862349B1 (en) User interface system based on half-mirror using gesture recognition
CN106909884B (en) Hand region detection method and device based on layered structure and deformable part model
KR20070103895A (en) System of hand-gesture recognition and method thereof
CN111309149A (en) Gesture recognition method and gesture recognition device
CN114677737A (en) Biological information identification method, apparatus, device and medium
KR100553850B1 (en) System and method for face recognition / facial expression recognition
Jalilian et al. Persian sign language recognition using radial distance and Fourier transform
JP2016099643A (en) Image processing device, image processing method, and image processing program
Singh et al. Template matching for detection & recognition of frontal view of human face through Matlab
JP5051671B2 (en) Information processing apparatus, information processing method, and program
CN115951783A (en) Computer man-machine interaction method based on gesture recognition
Adithya et al. An efficient method for hand posture recognition using spatial histogram coding of nct coefficients
Shitole et al. Dynamic hand gesture recognition using PCA, Pruning and ANN
KR100457928B1 (en) Hand signal recognition method by subgroup based classification
Dong et al. A static hand gesture recognition model based on the improved centroid watershed algorithm and a dual-channel CNN
Da et al. MediaPipe to Recognise the Hand Gestures
Kumar et al. Computer vision based Hand gesture recognition system
CN114913540A (en) Gesture recognition method and device and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application