KR100457928B1 - Hand signal recognition method by subgroup based classification - Google Patents

Hand signal recognition method by subgroup based classification Download PDF

Info

Publication number
KR100457928B1
KR100457928B1 KR10-2002-0070120A KR20020070120A KR100457928B1 KR 100457928 B1 KR100457928 B1 KR 100457928B1 KR 20020070120 A KR20020070120 A KR 20020070120A KR 100457928 B1 KR100457928 B1 KR 100457928B1
Authority
KR
South Korea
Prior art keywords
hand
image
query
feature value
small group
Prior art date
Application number
KR10-2002-0070120A
Other languages
Korean (ko)
Other versions
KR20040042002A (en
Inventor
김대진
장효영
김정배
변증남
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR10-2002-0070120A priority Critical patent/KR100457928B1/en
Publication of KR20040042002A publication Critical patent/KR20040042002A/en
Application granted granted Critical
Publication of KR100457928B1 publication Critical patent/KR100457928B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 손자세에 따른 수신호를 소그룹 기반 분류에 의해 인식하는 방법에 관한 것이다.The present invention relates to a method for recognizing hand signals according to hand posture by small group based classification.

본 발명에 따른 수신호 인식 방법은, 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 데이터베이스에 저장한 상태에서, 질의 손영상이 입력되면 상기 질의 손영상의 제 1 특징값을 추출하는 제 1 특징값 추출단계와; 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하는 영상 비교단계와; 상기 질의 손영상의 제 1 특징값과 상기 영상 비교단계의 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와; 상기 질의 손영상의 제 2 특징값을 추출하는 제 2 특징값 추출단계와; 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하고 상기 손자세 모델에 부여된 수신호를 인식하는 개별 손자세 인식단계를 포함한다.In the hand signal recognition method according to the present invention, for a plurality of hand posture models, models having a high degree of image matching are grouped into small groups, and the first feature value and each small group which common hand posture models constituting any small group have in common. A first feature value extraction step of extracting a first feature value of the query hand image when a query hand image is input while storing a representative hand pose model image of the second hand value model and a second feature value of each hand pose model in a database; An image comparison step of comparing the query hand image with the representative hand posture model image of each small group; A small group recognition step of recognizing a small group to which the query hand image belongs by using a first feature value of the query hand image and an image comparison result value of the image comparing step; A second feature value extraction step of extracting a second feature value of the query hand image; Comparing the second feature value of the hand pose model and the second feature value of the hand pose models belonging to the small group to recognize the hand pose model that matches the query hand image and to recognize the hand signal applied to the hand pose model. A hand posture recognition step.

Description

소그룹 기반 분류에 의한 수신호 인식 방법 및 이를 기록한 기록매체 {Hand signal recognition method by subgroup based classification}Hand signal recognition method by small group based classification and recording medium recording the same {Hand signal recognition method by subgroup based classification}

본 발명은 수신호를 인식하는 방법에 관한 것으로서, 보다 상세하게는 손자세에 따른 수신호를 소그룹 기반 분류에 의해 인식하는 방법에 관한 것이다. 또한, 본 발명은 상술한 소그룹 기반 분류에 의한 수신호 인식방법을 수행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이기도 하다.The present invention relates to a method for recognizing hand signals, and more particularly, to a method for recognizing hand signals according to hand posture by small group based classification. The present invention also relates to a computer-readable recording medium having recorded thereon a program for performing the hand signal recognition method by the small group based classification.

일상 생활에서 컴퓨터의 활용도가 높아지고 가상현실에 대한 관심이 높아지면서 이에 따른 새로운 사용자 인터페이스 장치에 대한 연구가 진행되고 있다. 과거 텍스트 기반 컴퓨터 환경에서 그래픽 사용자 인터페이스(Graphic User Interface) 환경으로 발전하는 과정에서 기존의 키보드에 더하여 마우스가 주요한 인터페이스장치로 부각되었듯이, 앞으로 3차원 공간상에서 현실세계를 모사하는 가상현실 기술이 개발되면 이에 적합한 새로운 인터페이스 장치가 요구될 것이다.As the utilization of computers in everyday life and the interest in virtual reality have increased, research on new user interface devices has been conducted accordingly. In the process of evolving from a text-based computer environment to a graphical user interface environment, in the past, as the mouse became the main interface device in addition to the existing keyboard, a virtual reality technology was developed to simulate the real world in three-dimensional space. If appropriate, a new interface device will be required.

이러한 새로운 인터페이스 장치에 대한 개발의 필요성에 의해 손의 모양이나 움직임 궤적을 인식하고 이를 이용하여 시스템을 제어하기 위한 다양한 연구들이 진행되고 있다. 현재까지는 접촉식 센서 및 일부 카메라 시스템을 이용한 수신호 인식시스템이 발표되고 있다. 그러나, 확장성을 고려한 손자세 인식방법에 대한연구는 이루어진 바 없으며, 이를 기반으로 3차원 공간상의 수신호를 인식하기 위한 방법도 연구된 바 없다.Due to the necessity of the development of such a new interface device, various researches for recognizing the shape of the hand or the movement trajectory and controlling the system using the same are being conducted. To date, hand signal recognition systems using contact sensors and some camera systems have been announced. However, no research has been done on the hand posture recognition method considering the scalability, and no method for recognizing hand signals in 3D space has been studied.

본 발명의 목적은 다양한 손자세들을 유사한 손자세들끼리 소그룹으로 분류하여 저장해 놓고, 질의 손영상이 입력되면 이 질의 손영상의 특징을 추출하여 소그룹으로 분류하고 분류된 소그룹 내에서 다시 개별 손자세를 인식함으로써, 사용자가 취한 손자세에 따른 수신호를 인식하는 방법을 제공하기 위한 것이다.The object of the present invention is to classify and store various hand postures into small groups of similar hand postures, and when a hand image of a query is input, the characteristics of the hand image of the query are extracted and classified into small groups. By recognizing, it is to provide a method for recognizing a hand signal according to a hand posture taken by a user.

또한, 본 발명의 다른 목적은 2대의 카메라를 사용하여 각 방향에서의 손자세와 손궤적 정보를 얻고, 얻어진 손자세와 손궤적 정보를 이용하여 사용자가 취한 손자세 및 손궤적에 따른 수신호를 인식하는 방법을 제공하기 위한 것이다.Another object of the present invention is to obtain hand posture and hand trajectory information in each direction using two cameras, and recognize hand signals according to the hand posture and hand trajectory taken by the user using the obtained hand posture and hand trajectory information. It is to provide a way to.

도 1은 본 발명의 한 실시예에 따른 수신호 인식 시스템의 구성 블록도,1 is a block diagram of a hand signal recognition system according to an embodiment of the present invention;

도 2는 본 발명에 따른 영상 획득부의 상세한 구성도 및 영상 획득부가 획득한 사용자의 손 영상을 도시한 도면,2 is a diagram illustrating a detailed configuration of an image acquisition unit and a user's hand image acquired by the image acquisition unit according to the present invention;

도 3은 본 발명의 한 실시예에 따른 손영역 추출부의 상세한 구성 블록도,3 is a detailed block diagram of a hand region extracting unit according to an embodiment of the present invention;

도 4에 32개의 대표적인 손자세 모델들을 도시한 도면,FIG. 4 shows 32 representative hand pose models,

도 5는 도 4의 손자세 모델들을 분류한 소그룹을 도시한 도면,FIG. 5 is a diagram illustrating a small group classifying the hand pose models of FIG. 4; FIG.

도 6은 본 발명의 한 실시예에 따른 손자세 인식부의 상세한 구성 블록도,6 is a detailed block diagram of a hand posture recognition unit according to an embodiment of the present invention;

도 7은 본 발명에서 사용하는 스케레톤 방법을 도시한 도면,7 is a view showing a skeleton method used in the present invention,

도 8은 손영상의 정규화 방법을 도식화한 도면,8 is a diagram illustrating a normalization method of hand images;

도 9는 손영상의 장단축의 길이비를 설명하기 위하여 도시한 도면,9 is a view illustrating a length ratio of long and short axes of a hand image;

도 10은 손영상의 볼록 정도를 설명하기 위하여 도시한 도면이다.FIG. 10 is a diagram illustrating the convexity of the hand image.

※ 도면의 주요 부분에 대한 부호의 설명 ※※ Explanation of code about main part of drawing ※

110 : 영상 획득부 120 : 손영역 추출부110: image acquisition unit 120: hand region extraction unit

130 : 손자세 인식부 140 : 손궤적 인식부130: hand posture recognition unit 140: hand trajectory recognition unit

150 : 수신호 인식부 160 : 수신호 데이터베이스150: hand signal recognition unit 160: hand signal database

상기한 목적을 달성하기 위한 본 발명에 따른 수신호 인식 방법은, 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 데이터베이스에 저장한 상태에서, 질의 손영상이 입력되면 상기 질의 손영상의 제 1 특징값을 추출하는 제 1 특징값 추출단계와;In the hand signal recognition method according to the present invention for achieving the above object, for a large number of hand posture models, models having a high degree of image matching are grouped into small groups, and hand posture models constituting arbitrary small groups have in common. Extracting the first feature value of the query hand image when the query hand image is input while the first feature value, the representative hand pose model image of each subgroup, and the second feature value of each hand pose model are stored in a database; 1 feature value extraction step;

상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하는 영상 비교단계와;An image comparison step of comparing the query hand image with the representative hand posture model image of each small group;

상기 질의 손영상의 제 1 특징값과 상기 영상 비교단계의 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;A small group recognition step of recognizing a small group to which the query hand image belongs by using a first feature value of the query hand image and an image comparison result value of the image comparing step;

상기 질의 손영상의 제 2 특징값을 추출하는 제 2 특징값 추출단계와;A second feature value extraction step of extracting a second feature value of the query hand image;

상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하고 상기 손자세 모델에 부여된 수신호를 인식하는 개별 손자세 인식단계를 포함한 것을 특징으로 한다.Comparing the second feature value of the hand pose model and the second feature value of the hand pose models belonging to the small group to recognize the hand pose model that matches the query hand image and to recognize the hand signal applied to the hand pose model. Characterized by including a hand posture recognition step.

또한, 본 발명에 따른 소그룹 기반 분류에 의한 수신호 인식 방법은, 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 손자세 데이터베이스에 저장하고, 손자세와 손궤적의 조합에 하나의 의미를 부여하여 수신호 데이터베이스에 저장한 상태에서, 적어도 두 방향에서 사용자의 손을 연속적으로 촬영하는 영상 획득단계와;In addition, the hand signal recognition method according to the small group based classification according to the present invention, for a large number of hand posture models, models having high image matching group into small groups, and have a common hand posture model that constitutes any small group The first feature value, the representative hand pose model image of each subgroup, and the second feature value of each hand pose model are stored in the hand pose database, and one meaning is given to the combination of the hand pose and the hand trajectory and stored in the hand signal database. In the state, the image acquisition step of continuously photographing the user's hand in at least two directions;

각 방향에서 획득한 질의 손영상의 제 1 특징값을 추출하고, 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하며, 상기 질의 손영상의 제 1 특징값과 상기 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;Extracting a first feature value of the query hand image acquired in each direction, and comparing the query hand image with a representative hand posture model image of each small group, and comparing the first feature value of the query hand image with the image. A small group recognition step of recognizing a small group to which the query hand image belongs using a value;

상기 질의 손영상의 제 2 특징값을 추출하고, 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하는 개별 손자세 인식단계와;Extracts a second feature value of the query hand image and compares the second feature value of the query hand image with a second feature value of the hand pose models belonging to the small group to recognize a hand pose model that matches the query hand image. An individual hand posture recognition step;

상기 영상 획득단계에서 촬영한 연속적인 질의 손영상의 궤적을 인식하는 손궤적 인식단계와;A hand trajectory recognition step of recognizing a trajectory of the continuous question hand image photographed in the image acquisition step;

상기 개별 손자세 인식단계에서 인식된 손자세와 상기 순궤적 인식단계에서 인식된 손궤적의 조합을 상기 수신호 데이터베이스에 적용하여 상기 사용자의 수신호를 인식하는 수신호 인식단계를 포함한 것을 특징으로 한다.And a hand signal recognition step of recognizing the hand signal of the user by applying a combination of the hand posture recognized in the individual hand posture recognition step and the hand trajectory recognized in the forward trajectory recognition step to the hand signal database.

또한, 본 발명에 따르면 상술한 바와 같은 소그룹 기반 분류에 의한 수신호 인식 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.According to the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing the hand signal recognition method by the small group based classification as described above.

이하, 첨부된 도면을 참조하면서 본 발명의 한 실시예에 따른 "소그룹 기반 분류에 의한 수신호 인식 방법 및 이를 기록한 기록매체"를 보다 상세하게 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, a "hand signal recognition method by small group based classification and a recording medium recording the same" according to an embodiment of the present invention will be described in more detail.

도 1은 본 발명의 한 실시예에 따른 수신호 인식 시스템의 구성 블록도이다. 이는 적어도 2대의 카메라로 구성되어 사용자의 손을 전면과 측면에서 각각 촬영하는 영상 획득부(110)와, 영상 획득부(110)에서 얻어진 영상 데이터에서 손영역을 추출하는 손영역 추출부(120)와, 추출된 손영역에서의 손자세를 인식하는 손자세인식부(130)와, 추출된 손영역의 손궤적을 인식하는 손궤적 인식부(140)와, 손자세 인식부(130)와 손궤적 인식부(140)에서 각각 얻어진 손자세와 손궤적 정보를 수신호 데이터베이스(160)에 적용하여 사용자가 취한 수신호의 의미를 인식하는 수신호 인식부(150)와, 손자세와 손궤적 정보가 가지는 의미를 저장한 수신호 데이터베이스(160)를 구비한다.1 is a block diagram of a hand signal recognition system according to an embodiment of the present invention. It is composed of at least two cameras, the image acquisition unit 110 for photographing the user's hand from the front and side, respectively, and the hand region extraction unit 120 for extracting the hand region from the image data obtained by the image acquisition unit 110 And a hand posture recognition unit 130 for recognizing hand posture in the extracted hand region, a hand trajectory recognition unit 140 for recognizing hand traces of the extracted hand region, and a hand posture recognition unit 130 and the hand. The hand signal recognition unit 150 which recognizes the meaning of the hand signal taken by the user by applying the hand posture and hand trace information respectively obtained by the trajectory recognition unit 140 to the hand signal database 160, and the meaning of the hand posture and hand trace information It has a hand signal database 160 that stores the.

영상 획득부(110)는 사용자가 수신호를 취하는 동안, 사용자의 손을 전면과 측면에서 각각 촬영하여 손영역 추출부(120)에게 제공한다. 손영역 추출부(120)는 영상 획득부(110)에서 얻어진 전면 및 측면 영상으로부터 손영역을 추출한다. 영상으로부터 손영역을 추출하는 과정은 후술하기로 한다. 손자세 인식부(130)는 손영역 추출부(120)에서 얻어진 손영상의 손자세를 인식하는데, 여기서 손자세란 손모양과 손방향 정보를 포함한다. 이 손자세는 2단계를 거쳐 인식하는데, 상세한 설명은 후술하기로 한다. 손궤적 인식부(140)는 손영역 추출부(120)에서 얻어진 영상에서 손영상의 무게중심의 궤적을 인식하는데, 본 실시예에서는 이 손영상의 무게중심의 궤적을 손궤적이라고 한다. 수신호 인식부(150)는 손자세 인식부(130)와 손궤적 인식부(140)에서 인식된 손자세와 손궤적 정보를 수신호 데이터베이스(160)에 적용하여 사용자가 취한 수신호의 의미를 알아낸다.The image acquisition unit 110 photographs the user's hand from the front and the side, respectively, and provides the hand region extraction unit 120 while the user receives the hand signal. The hand region extractor 120 extracts a hand region from the front and side images obtained by the image acquirer 110. A process of extracting the hand region from the image will be described later. The hand posture recognition unit 130 recognizes the hand posture of the hand image obtained by the hand region extraction unit 120, where the hand posture includes hand shape and hand direction information. This hand posture is recognized in two steps, which will be described later. The hand trajectory recognition unit 140 recognizes the trajectory of the center of gravity of the hand image in the image obtained by the hand region extractor 120. In this embodiment, the trajectory of the center of gravity of the hand image is referred to as the hand trajectory. The hand signal recognizing unit 150 applies the hand posture and hand trajectory information recognized by the hand posture recognition unit 130 and the hand trajectory recognition unit 140 to find out the meaning of the hand signal taken by the user.

도 2는 본 발명에 따른 영상 획득부의 상세한 구성도 및 영상 획득부가 획득한 사용자의 손 영상을 도시한다. 도 2의 (a)는 영상 획득부의 상세 구성도로서, 사용자 손(100)의 전면을 촬영하는 제 1 카메라(111)와 사용자 손(100)의 측면을 촬영하는 제 2 카메라(112)를 포함한다. 즉, 2대의 카메라는 서로 직각으로 배치한다. 사용자가 검지로 정면을 가리키는 손자세를 하고 좌우로 움직인다고 가정하면, 제 1 카메라는 도 2의 (b)와 같은 영상을 촬영하고 제 2 카메라는 도 2의 (c)와 같은 영상을 촬영한다. 따라서, 제 1 카메라가 촬영한 영상으로부터 좌우로 움직이는 손궤적과 주먹을 쥔 듯한 손자세 정보를 획득하고 제 2 카메라가 촬영한 영상으로부터 검지손가락을 편 손자세 정보를 획득한다. 이때, 사용자가 손을 좌우로 움직인 것이기 때문에 손의 측면을 촬영한 제 2 카메라는 손궤적 정보를 얻지 못한다.2 illustrates a detailed configuration diagram of an image acquisition unit and a user's hand image acquired by the image acquisition unit according to the present invention. 2A is a detailed configuration diagram of the image acquisition unit, and includes a first camera 111 photographing the front surface of the user's hand 100 and a second camera 112 photographing the side of the user's hand 100. do. That is, the two cameras are arranged at right angles to each other. Assuming that the user moves the left and right hand to point the front with the index finger, the first camera captures the image as shown in Figure 2 (b) and the second camera captures the image as shown in Figure 2 (c). Accordingly, the hand trace moving from side to side and the hand posture like a fist are acquired from the image photographed by the first camera, and the hand posture information with the index finger removed from the image captured by the second camera. At this time, since the user moves the hand from side to side, the second camera photographing the side of the hand does not obtain hand trajectory information.

도 3은 본 발명의 한 실시예에 따른 손영역 추출부의 상세한 구성 블록도이다. 이는 HSI 변환부(121)와, 색 히스토그램 정합부(122)와, 피부색 모델 히스토그램(123)과, 손영역 후보 결정부(124)를 구비한다. 이 손영역 후보 결정부(124)에서 결정된 손영역 정보는 다음 프레임의 손영역을 결정할 때 사용된다. 손영역은 피부색 영역 정보와 이전 프레임의 손영역 정보를 이용하여 결정되는데, 이 피부색 영역 정보는 HSI 변환부(121)와 색 히스토그램 정합부(122)에 의해 얻어진다.3 is a detailed block diagram of a hand region extracting unit according to an exemplary embodiment of the present invention. It includes an HSI conversion unit 121, a color histogram matching unit 122, a skin color model histogram 123, and a hand region candidate determination unit 124. The hand region information determined by the hand region candidate determiner 124 is used to determine the hand region of the next frame. The hand region is determined using the skin region information and the hand region information of the previous frame. The skin region information is obtained by the HSI converter 121 and the color histogram matching unit 122.

HSI 변환부(121)는 RGB 영상을 아래의 수학식 1에 적용하여 HSI(Hue, Saturation, Intensity) 컬러 공간으로 변환한다. 그리고, 조도 변화에 따른 영향을 최소화하기 위하여 I(명도)를 제외한 H(색상)와 S(채도)만을 색 히스토그램 정합부(122)에 제공한다.The HSI converter 121 converts an RGB image into an HSI (Hue, Saturation, Intensity) color space by applying the following equation (1). In addition, only H (color) and S (saturation) except for I (brightness) are provided to the color histogram matching unit 122 in order to minimize the effects of changes in illuminance.

색 히스토그램 정합부(122)로는 피부색 모델 히스토그램(123)이 제공되는데, 이 피부색 모델 히스토그램(123)은 입력 영상의 색상 분포에 따라 그 색상 정보가 선택적으로 갱신된다. 그리고, 색 히스토그램 정합부(122)는 가우시안 혼합 모델(Gaussian Mixture Model)을 이용하여 입력되는 HS 영상으로부터 피부색 영역을 추출한다. 손영역 후보 결정부(124)는 색 히스토그램 정합부(122)에서 얻어진 현 프레임의 피부색 영역 정보와 이전 프레임에서 추출된 손영역 정보를 이용하여, 현 프레임의 손영역을 추출한다. 이 현 프레임의 손영역은 다음 프레임의 손영역을 추출할 때 손영역 후보 결정부(124)로 제공된다. 손영역 후보 결정부(124)에서 추출된 영역의 손영상은 손자세 인식부(130)와 손궤적 인식부(140)에 각각 제공된다. 이하, 이 손영역 후보 결정부(124)에서 추출된 영역의 손영상을 질의 손영상이라고 한다. 손자세 인식부(130)는 질의 손영상의 손자세를 인식하고 손궤적 인식부(140)는 연속적으로 입력되는 질의 손영상의 손궤적을 추출한다.The color histogram matching unit 122 is provided with a skin color model histogram 123. The skin color model histogram 123 selectively updates its color information according to the color distribution of the input image. In addition, the color histogram matching unit 122 extracts a skin color region from an input HS image by using a Gaussian Mixture Model. The hand region candidate determiner 124 extracts the hand region of the current frame by using the skin color region information of the current frame obtained by the color histogram matching unit 122 and the hand region information extracted from the previous frame. The hand region of this current frame is provided to the hand region candidate determiner 124 when extracting the hand region of the next frame. The hand image of the region extracted by the hand region candidate determiner 124 is provided to the hand posture recognizer 130 and the hand trajectory recognizer 140, respectively. Hereinafter, the hand image of the region extracted by the hand region candidate determiner 124 is called a query hand image. The hand posture recognition unit 130 recognizes the hand posture of the query hand image, and the hand trajectory recognition unit 140 extracts the hand trace of the query hand image which is continuously input.

본 발명에서는 도 4에 도시된 바와 같은 32개의 대표적인 손자세 모델들을 도 5에 도시된 바와 같이 12개의 소그룹으로 분류한다. 각 손자세 모델들은 영상정합도(template matching)가 상대적으로 높은 손자세 모델들끼리 소그룹으로 그룹화되는데, 각 소그룹은 적게는 1개의 손자세 모델을 포함하고 많게는 4개의 손자세 모델들을 포함한다. 각 소그룹을 구성하는 손자세들을 대표하는 대표 손자세 영상이 데이터베이스에 저장된다. 소그룹별 대표 손자세를 구하는 방법은 후술하는 질의 손영상을 정규화하는 방법과 동일하다.In the present invention, 32 representative hand pose models as shown in FIG. 4 are classified into 12 small groups as shown in FIG. Each hand pose model is grouped into small groups of relatively high hand matching models, each of which includes at least one hand pose model and as many as four hand pose models. Representative hand posture images representing the hand poses constituting each subgroup are stored in a database. The method of obtaining the representative hand posture for each small group is the same as the method for normalizing the hand image of the query described later.

도 6은 본 발명의 한 실시예에 따른 손자세 인식부의 상세한 구성 블록도이다. 손자세 인식부(130)는 질의 손영상의 특징정보를 추출하여 해당 질의 손영상이 속하는 소그룹을 추출하는 손자세 소그룹 분류부(131)와, 각 소그룹이 분류된 질의 손영상의 다른 특징정보를 추출하여 질의 손영상과 일치하는 손자세 모델을 추출하는 개별 손자세 분류부(132)를 구비한다. 손자세 인식부(130)는 12개의 소그룹의 대표 손자세 영상을 저장한 데이터베이스(131b)와, 12개의 소그룹의 특징값(손가락 개수)을 저장한 데이터베이스(131f)와, 32개 손자세 모델의 특징값(장축의 방향각(θ), 장단축의 길이비(E), 볼록 정도(C))을 저장한 데이터베이스(132d)를 구비한다. 여기서, 손자세 모델의 각 특징값 즉, 손가락 개수 특징값, 장축의 방향각, 장단축의 길이비 및 볼록 정도를 구하는 방법은 후술하는 질의 손영상의 각각의 특징값들을 구하는 방법과 동일하다. 여기서는 손자세 모델의 특징값을 구하는 구체적인 방법은 생략한다.6 is a detailed block diagram of a hand posture recognition unit according to an exemplary embodiment of the present invention. The hand posture recognition unit 130 extracts the feature information of the query hand image and extracts the small group to which the query hand image belongs. An individual hand pose classification unit 132 extracts a hand pose model that matches the query hand image. The hand pose recognition unit 130 includes a database 131b which stores 12 small group representative hand pose images, a database 131f which stores 12 small group feature values (number of fingers), and a 32 hand pose model. The database 132d which stores the characteristic value (direction angle (theta) of the long axis, length ratio E of the long axis, and convexity C)) is provided. Here, the method of calculating each feature value of the hand posture model, that is, the number of finger feature values, the direction angle of the major axis, the length ratio of the major axis and the convexity, is the same as the method of obtaining the respective feature values of the query hand image described later. Here, the specific method for obtaining the feature value of the hand posture model is omitted.

손자세 소그룹 분류부(131)는 질의 손영상의 장축의 방향각(θ)을 구하고 해당 방향각만큼 질의 손영상을 역회전(R(-θ))하여 정규화된 질의 손영상을 구하는 블록(131a)과, 12개의 소그룹 대표 손자세 영상 데이터베이스(131b)에 저장된 12개의 소그룹 대표 손자세와 정규화된 질의 손영상을 영상 비교하는 블록(131c)과, 질의 손영상을 스케레톤 연산하여 스케레톤 영상을 출력하는 블록(131d)과, 스케레톤 영상으로부터 손가락 개수를 계산하는 블록(131e)과, 영상 비교 블록(131c)에서 출력되는 영상 비교값과 손가락 개수 계산 블록(131e)에서 출력되는 손가락 개수 정보를 12개 소그룹의 특징집합 데이터베이스(131f)에 적용하여 해당 질의 손영상이 속한 소그룹을 분류하는 블록(131g)을 포함한다.The hand posture small group classification unit 131 obtains a direction angle (θ) of the long axis of the query hand image, and reverses the query hand image by R (-θ) by the corresponding direction angle to obtain a normalized query hand image (131a). ), A block 131c for image comparison of the 12 small group representative hand postures and the normalized query hand image stored in the 12 small group representative hand pose image databases 131b, and a skeleton image by performing a skeleton operation on the query hand image. A block 131d for outputting, a block 131e for calculating the number of fingers from the skeleton image, an image comparison value output from the image comparison block 131c, and finger number information output from the finger counting block 131e A block 131g is applied to the feature set database 131f of twelve small groups to classify the small group to which the query hand image belongs.

한편, 개별 손자세 분류부(132)는 질의 손영상의 장/단축의 길이비(E, Elongation)를 계산하는 블록(132a)과, 질의 손영상의 볼록 정도(C, Convexity)를 계산하는 블록(132b)과, 질의 손영상의 장/단축의 길이비(E)와 질의 손영상의 볼록 정보(C)와 방향각(θ) 중 필요한 특징값을 선택하는 블록(132c)과, 해당 특징값들을 32개 손자세의 특징집합 데이터베이스(132d)에 적용하여 질의 손영상과 일치하는 개별 손자세 모델을 분류하는 블록(132e)을 포함한다.On the other hand, the individual hand pose classification unit 132 is a block for calculating the length ratio (E, Elongation) of the long / short axis of the query hand image, and a block for calculating the convexity (C, Convexity) of the query hand image 132b, a block 132c for selecting a required feature value from the length ratio E of the long / short axis of the query hand image, the convex information C of the query hand image, and the direction angle? And block 132e for classifying the individual hand pose models that match the query hand image by applying them to the feature set database 132d of 32 hand poses.

본 발명은 질의 손영상이 입력되면 먼저 해당 질의 손영상이 속한 소그룹을 추출하고, 해당 소그룹 내에서 개별 손자세 모델을 추출하는 2 단계 구조로 손자세를 인식한다. 이러한 2단계 구조의 손자세 인식방법은 처음부터 많은 특징을 다 구해서 모든 손자세 모델과 정합하는 계산을 하지 않고, 먼저 소그룹으로 분류하고 해당 소그룹 내의 손자세 모델과만 정합하는 계산을 하기 때문에 계산량을 줄일 수 있다. 또한, 새로운 손자세 모델을 추가할 때에도 손자세 인식부 전체를 수정하지 않고, 추가하고자 하는 손자세 모델을 가장 유사한 소그룹에 추가하면 되기 때문에 손자세 인식부를 용이하게 확장할 수 있다.When the query hand image is input, the present invention first extracts the small group to which the query hand image belongs, and recognizes the hand posture in a two-step structure in which an individual hand pose model is extracted in the small group. This two-step structure of the hand posture recognition method calculates the amount of calculation because it calculates many features from the beginning and does not calculate the matching with all the hand posture models. Can be reduced. In addition, even when adding a new hand posture model, the hand posture recognition section can be easily extended because the hand posture model to be added is added to the most similar small group without modifying the entire hand posture recognition section.

이하, 손자세 소그룹 분류부와 개별 손자세 분류부의 각 구성요소의 기능을 좀 더 상세하게 설명한다.Hereinafter, the functions of each component of the hand posture small group classification unit and the individual hand posture classification unit will be described in more detail.

먼저, 블록 131a에서 질의 손영상을 정규화하는 방법을 설명한다. 이는 소그룹을 구성하는 손자세 모델의 대표 손자세를 구하는 방법과 동일하다. 도 8은 질의 손영상의 정규화 방법을 도식화한 도면이다. 질의 손영상에 대한 블롭 분석을 통해 아래의 수학식 2와 같이 장축(L)의 방향각(θ)을 구하고(도 8의 (a) 참조), 그 질의 손영상을 해당 방향각만큼 역회전하면(R(-θ)), 도 8의 (b)와 같은 정규화된 질의 손영상이 얻어진다. 이러한 질의 손영상의 정규화 방법은, 앞서 설명하였듯이 각 소그룹별 대표 손자세를 얻는 방법으로도 사용할 수 있는 바, 각 소그룹별 하나의 손자세를 취하여 정규화하면 대표 손자세가 얻어지고, 이 소그룹별 대표 손자세 영상은 데이터베이스에 저장된다.First, a method of normalizing a query hand image is described in block 131a. This is the same as the method for obtaining the representative hand posture of the hand posture model that constitutes the small group. 8 is a diagram illustrating a normalization method of a query hand image. If the direction angle (θ) of the long axis (L) is obtained through blob analysis of the query hand image (see (a) of FIG. 8), and if the query hand image is reversed by the corresponding direction angle, (R (-θ)), a normalized quality hand image as shown in FIG. 8 (b) is obtained. As described above, the normalization method of the quality hand image can be used as a method of obtaining a representative hand posture for each subgroup. If one hand posture is normalized for each subgroup, a representative hand posture is obtained. Posture images are stored in a database.

여기서,,,이며, I(x,y) 는 점 (x,y)에 대하여 질의 손자세 영상의 밝기값을 의미한다.here, , , I (x, y) represents the brightness value of the query posture image with respect to the point (x, y).

다음, 영상 비교 블록(131c)은 정규화된 질의 손영상과 각 소그룹의 대표 손자세 영상을 수학식 3에 적용하여 영상 비교한다.Next, the image comparison block 131c compares the normalized query hand image and the representative hand pose image of each small group by applying the equation (3).

여기서,는 i 번째 소그룹의 대표 손영상,은 사용자에 의해 입력된 정규화된 질의 손영상,는 영상 Ix 의 모든 픽셀값의 합, nT는 대표 손영상의 전체 크기(가로 픽셀수×세로 픽셀수),는 영상와 영상의 배타적인 논리부정합(Exclusive NOR) 연산,는 영상와 영상의 배타적인 논리합(Exclusive OR) 연산을 의미한다. 질의 손영상과 i 번째 소그룹의 대표 손자세의 영상 비교 결과값(Ti)은 [0,1]∈R 로 정규화된다. 이때 질의 손영상은, 정규화된 질의 손영상에 대한 각 소그룹의 대표 손영상과의 영상 비교 결과값 중 가장 큰 값에 해당하는 소그룹에 속할 가능성이 크다.here, Is the representative hand image of the i th small group, Is a normalized query hand image input by the user, Is the sum of all pixel values of the image Ix, n T is the total size of the representative hand image (the number of horizontal pixels × the number of pixels), Video And video Exclusive NOR operation of, Video And video Exclusive OR operation of. The image comparison result T i of the image quality of the hand image of the vagina and the representative hand pose of the i-th subgroup is normalized to [0,1] ∈R. At this time, the query hand image is likely to belong to the small group corresponding to the largest value among the image comparison results with the representative hand image of each small group for the normalized query hand image.

다음, 스케레톤 연산 블록(131d)은 도 7에 도시된 바와 같이 질의 손영상을 다수 픽셀들의 연결 형태인 그래프(한 픽셀 두께로 구성)로 나타낸 스케레톤 영상을 출력한다. 이 스케레톤 방법은 영상처리에 널리 쓰이는 모폴로지(Morphology) 연산의 일종으로서, 영상의 구조적인 특징을 파악하기 위해 사용되는 방법이다. 손가락 개수 계산 블록(131e)은 이 스케레톤 영상으로부터 손가락 개수를 계산하여 출력한다. 손자세 소그룹 분류부(131g)는 질의 손영상의 손가락 개수 정보와 대표손자세와의 영상 비교 결과값을 이용하여, 미리 정의된 12개의 소그룹 중 해당 질의 손영상이 속하는 소그룹을 분류한다.Next, as shown in FIG. 7, the skeleton calculating block 131d outputs a skeleton image representing a query hand image as a graph (composed of one pixel thickness), which is a connection form of a plurality of pixels. This skeleton method is a kind of morphology (Morphology) operation widely used in image processing, and is used to grasp structural features of an image. The finger count calculation block 131e calculates and outputs the number of fingers from this skeleton image. The hand posture small group classification unit 131g classifies the small group to which the corresponding query hand image belongs among the 12 predefined small groups by using the result of comparing the number of fingers of the query hand image and the image comparison result of the representative hand posture.

질의 손영상에 대한 소그룹이 분류된 다음, 개별 손자세 분류부(132)는 질의 손영상의 장축의 방향각(θ)과, 질의 손영상의 장/단축의 길이비(E)와, 질의 손영상의 볼록 정도(C) 등과 같은 특징값을 이용하여, 해당 질의 손영상과 일치하는 손자세 모델을 추출한다.After the small groups for the vaginal hand image are classified, the individual hand pose classification unit 132 performs the direction angle (θ) of the long axis of the vaginal hand image, the length ratio (E) of the long / short axis of the vaginal hand image, and the vaginal hand. Using the feature values such as the convexity (C) of the image, a hand pose model matching the corresponding hand image is extracted.

질의 손영상의 장축의 방향각 θ는 앞서 설명하였듯이 수학식 2를 통해 얻을 수 있다.The direction angle θ of the long axis of the query hand image may be obtained through Equation 2 as described above.

블록 132a는 아래의 수학식 4를 이용하여 질의 손영상의 장단축의 길이비 E를 구한다.Block 132a calculates the length ratio E of the long and short axes of the query hand image using Equation 4 below.

여기서, 아래첨자 BOX는 도 9에 도시된 바와 같이 해당 손영상을 둘러싸는 가장 작은 사각형을 의미한다. 이 E 값도 [0,1]∈R 로 정규화된다. 이 E값이 1에 근접할수록 원 또는 정사각형에 가깝고(도 9의 (b)참조), 0에 근접할수록 직선에 가깝다(도 9의 (a) 참조).Here, the subscript BOX means the smallest rectangle surrounding the corresponding hand image as shown in FIG. 9. This E value is also normalized to [0,1] ∈R. The closer this E value is to 1, the closer to the circle or square (see Fig. 9 (b)), and the closer to 0, the closer to the straight line (see Fig. 9 (a)).

블록 132b는 아래의 수학식 5를 이용하여 질의 손자세 영상의 볼록형의정도(Convexity) C를 구한다.Block 132b calculates the convexity C of the query posture image using Equation 5 below.

여기서, p는 손영상의 블롭 분석에 의해 얻어진 손영상을 둘러싼 외곽선(Contour)의 전체 길이(Perimeter)를 의미하고, A는 손영상의 면적(Area)을 나타낸다. 이 C값은 손영상의 형태에 따라 [0,1]∈R 로 정규화된다.Here, p denotes the total perimeter of the contour surrounding the hand image obtained by blob analysis of the hand image, and A represents the area of the hand image. This C value is normalized to [0,1] ∈R according to the shape of the hand image.

도 10에 도시된 바와 같이, 이 손자세 영상의 볼록정도값은 블롭 표면의 거칠기에 대한 척도로서, 이 C값이 1에 근접할수록 손영상은 표면이 매끄러운 원(Circle)에 가깝고, 0에 근접할수록 표면이 울퉁불퉁하다.As shown in FIG. 10, the convexity value of the hand pose image is a measure of the roughness of the blob surface. As the C value approaches 1, the hand image becomes closer to a smooth circle, and closer to 0. The more irregular the surface.

블록 132c는 해당 소그룹에서 개별 손자세를 추출하기 위해 필요한 특징값을 선택한다. 즉, 개별 손자세를 추출하기 위한 질의 손영상의 3가지 특징값(θ, E, C) 중 해당 소그룹에 사용되는 한가지 또는 두가지 특징값을 선택한다. 표 1은 각 소그룹별 개별 손자세 추출에 필요한 특징값 종류를 나타낸다.Block 132c selects the feature values needed to extract the individual hand poses from the small group. That is, one or two feature values used in the corresponding small group are selected from the three feature values (θ, E, C) of the query hand image for extracting individual hand postures. Table 1 shows the feature value types required for the individual hand posture extraction for each subgroup.

소그룹Small group 사용된 손자세 특징값Hand Posture Feature Values Used 소그룹에 속한 손자세 수Number of Hand Posts in Small Group (1)(One) E, CE, C 1One (2)(2) E, CE, C 1One (3)(3) θ, Eθ, E 44 (4)(4) θθ 22 (5)(5) θ, Eθ, E 33 (6)(6) θθ 22 (7)(7) θθ 22 (8)(8) E, CE, C 1One (9)(9) θ, Eθ, E 44 (10)10 θθ 44 (11)(11) θθ 44 (12)(12) θ, Eθ, E 44

손궤적 인식부(140)는 시공간계열의 데이터 모델링에 효과적인 은닉 마르코프 모델을 적용하여 손영상의 궤적을 인식한다.The hand trajectory recognition unit 140 recognizes a trajectory of the hand image by applying a hidden Markov model that is effective for data modeling of a space-time system.

수신호 인식부(150)는 손자세 인식부(130)와 손궤적 인식부(140)의 인식결과를 수신호 데이터베이스(160)에 적용하여 사용자가 취한 수신호의 의미를 결정한다. 이때, 하나의 수신호에 다수의 손자세를 취하거나 다수의 손궤적을 취할 수 있도록 하면 인식 가능한 수신호의 수를 확장할 수 있다. 즉, 하나의 카메라 당 3가지 손자세, 예컨대 처음 손자세-중간 손자세-마지막 손자세와 하나의 손궤적을 인식하면, 모두 8가지 정보(한 카메라 당 4가지 정보)가 얻어진다. 이 8가지 정보와 하나의 수신호를 대응시켜 수신호 데이터베이스에 저장해 놓고, 사용자가 이 8가지 정보에 부합하는 손자세 및 손궤적을 취하면, 이를 기반으로 사용자의 취한 수신호를 인식한다.The hand signal recognition unit 150 determines the meaning of the hand signal taken by the user by applying the recognition results of the hand posture recognition unit 130 and the hand trajectory recognition unit 140 to the hand signal database 160. At this time, if a number of hand posture or a plurality of hand traces can be taken to one hand signal, the number of hand signals that can be recognized can be extended. That is, when three hand postures are recognized per camera, for example, the first hand posture-middle hand posture-last hand posture and one hand trajectory, all eight pieces of information (four pieces of information per one camera) are obtained. The eight pieces of information and one hand signal are stored in the hand signal database, and when the user takes a hand posture and hand trajectory corresponding to the eight pieces of information, the hand signal of the user is recognized.

위에서 양호한 실시예에 근거하여 이 발명을 설명하였지만, 이러한 실시예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이다. 이 발명이 속하는 분야의 숙련자에게는 이 발명의 기술사상을 벗어남이 없이 위 실시예에 대한 다양한 변화나 변경 또는 조절이 가능함이 자명할 것이다. 그러므로, 이 발명의 보호범위는 첨부된 청구범위에 의해서만 한정될 것이며, 위와 같은 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다.While the invention has been described above based on the preferred embodiments thereof, these embodiments are intended to illustrate rather than limit the invention. It will be apparent to those skilled in the art that various changes, modifications, or adjustments to the above embodiments can be made without departing from the spirit of the invention. Therefore, the protection scope of the present invention will be limited only by the appended claims, and should be construed as including all such changes, modifications or adjustments.

이상과 같이 본 발명에 의하면, 일상생활에서 사용되는 사용자의 수신호를 인식하여 기계에게 명령을 전달하는 인간 친화적인 인간-기계 인터페이스로서 활용이 가능하다. 특히, 차량의 내부의 주변기기조작, 음성이나 문장과 같은 다른 의사소통수단에 비해 수신호의 사용이 효과적인 경우, 음성신호의 전달이 불가능한 경우, 외국인과의 의사소통 등에 본 발명에서 제안된 발명이 효과적으로 적용될 수 있다.As described above, the present invention can be utilized as a human-friendly human-machine interface that recognizes a hand signal of a user used in daily life and delivers a command to a machine. In particular, when the use of hand signals is effective compared to other communication means such as peripheral devices, voices or sentences inside the vehicle, when the transmission of voice signals is impossible, the invention proposed in the present invention is effectively applied to communication with foreigners. Can be.

Claims (8)

다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 데이터베이스에 저장한 상태에서, 질의 손영상이 입력되면 상기 질의 손영상의 제 1 특징값을 추출하는 제 1 특징값 추출단계와;For a large number of hand posture models, models with high image matching are grouped into small groups, and the first feature value common to the hand posture models constituting any small group and the representative hand posture model image of each subgroup and each hand A first feature value extraction step of extracting a first feature value of the query hand image when the query hand image is input while the second feature value of the posture model is stored in a database; 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하는 영상 비교단계와;An image comparison step of comparing the query hand image with the representative hand posture model image of each small group; 상기 질의 손영상의 제 1 특징값과 상기 영상 비교단계의 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;A small group recognition step of recognizing a small group to which the query hand image belongs by using a first feature value of the query hand image and an image comparison result value of the image comparing step; 상기 질의 손영상의 제 2 특징값을 추출하는 제 2 특징값 추출단계와;A second feature value extraction step of extracting a second feature value of the query hand image; 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하고 상기 손자세 모델에 부여된 수신호를 인식하는 개별 손자세 인식단계를 포함한 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.Comparing the second feature value of the hand pose model and the second feature value of the hand pose models belonging to the small group to recognize the hand pose model that matches the query hand image and to recognize the hand signal applied to the hand pose model. Hand signal recognition method according to the small group based classification characterized in that it comprises a hand posture recognition step. 제 1 항에 있어서, 상기 제 1 특징값 추출단계는, 상기 질의 손영상을 스케레톤 연산하여 손가락 개수 정보를 추출하는 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.The method of claim 1, wherein the extracting of the first feature value comprises performing a skeleton operation on the query hand image to extract finger number information. 제 1 항에 있어서, 상기 영상 비교단계는, 상기 질의 손영상을 정규화하는 단계와, 상기 정규화된 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 아래의 수식에 적용하여 영상 비교 결과값을 구하는 단계를 포함하는 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.The method of claim 1, wherein the comparing of the images comprises normalizing the query hand image, and applying the normalized query hand image and the representative hand pose model image of each small group to the following equations to obtain an image comparison result value. Hand signal recognition method according to the small group based classification, characterized in that it comprises the step of obtaining. [수식][Equation] 여기서,는 i 번째 소그룹의 대표 손영상,은 사용자에 의해 입력된 정규화된 질의 손영상,는 영상 Ix 의 모든 픽셀값의 합, nT는 대표 손영상의 전체 크기(가로 픽셀수×세로 픽셀수),는 영상와 영상의 배타적인 논리부정합(Exclusive NOR) 연산,는 영상와 영상의 배타적인 논리합(Exclusive OR) 연산을 의미하고, Ti는 질의 손영상과 i 번째 소그룹의 대표 손자세의 영상 비교 결과값으로서, [0,1]∈R 로 정규화된다.here, Is the representative hand image of the i th small group, Is a normalized query hand image input by the user, Is the sum of all pixel values of the image Ix, n T is the total size of the representative hand image (the number of horizontal pixels × the number of pixels), Video And video Exclusive NOR operation of, Video And video Exclusive OR operation of, T i is the result of comparing the image of the query hand image and the representative hand posture of the i-th small group, and is normalized to [0,1] ∈R. 제 3 항에 있어서, 상기 질의 손영상을 정규화하는 단계는,The method of claim 3, wherein the normalizing of the query hand image comprises: 상기 질의 손영상을 아래의 수식에 적용하여 장축의 방향각을 구한 후, 상기 질의 손영상을 상기 방향각만큼 역회전하는 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.The method for recognizing a hand signal based on a small group based classification, wherein the query hand image is applied to the following equation to obtain a direction angle of a long axis, and the query hand image is rotated by the direction angle. [수식][Equation] 여기서,,,이며, I(x,y) 는 점 (x,y)에 대하여 질의 손영상의 밝기값을 의미한다.here, , , I (x, y) means the brightness value of the query hand image with respect to the point (x, y). 제 1 항에 있어서, 상기 제 2 특징값 추출단계는, 상기 질의 손영상을 아래의 수식 1에 적용하여 상기 질의 손영상의 장축과 단축의 길이비(E)를 구하고, 수식 2에 적용하여 상기 질의 손영상의 볼록 정도(C)를 구하는 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.The method of claim 1, wherein the extracting of the second feature value comprises: applying the query hand image to Equation 1 below to obtain a length ratio E of the long axis and the short axis of the query hand image, and applying the equation to the equation 2. A hand signal recognition method using small group-based classification, wherein the degree of convexity (C) of a quality hand image is obtained. [수식 1][Equation 1] 여기서, 아래첨자 BOX는 질의 손영상을 둘러싸는 가장 작은 사각형을 의미한다.Here, the subscript BOX means the smallest rectangle surrounding the vaginal hand image. [수식 2][Formula 2] 여기서, p는 질의 손영상을 둘러싼 외곽선(Contour)의 전체 길이(Perimeter)이고, A는 질의 손영상의 면적(Area)을 의미한다.Here, p is the total length (Perimeter) of the contour surrounding the query hand image, A is the area (Area) of the query hand image. 컴퓨터에,On your computer, 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 데이터베이스에 저장한 상태에서, 질의 손영상이 입력되면 상기 질의 손영상의 제 1 특징값을 추출하는 제 1 특징값 추출단계와;For a large number of hand posture models, models with high image matching are grouped into small groups, and the first feature value common to the hand posture models constituting any small group and the representative hand posture model image of each subgroup and each hand A first feature value extraction step of extracting a first feature value of the query hand image when the query hand image is input while the second feature value of the posture model is stored in a database; 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하는 영상 비교단계와;An image comparison step of comparing the query hand image with the representative hand posture model image of each small group; 상기 질의 손영상의 제 1 특징값과 상기 영상 비교단계의 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;A small group recognition step of recognizing a small group to which the query hand image belongs by using a first feature value of the query hand image and an image comparison result value of the image comparing step; 상기 질의 손영상의 제 2 특징값을 추출하는 제 2 특징값 추출단계와;A second feature value extraction step of extracting a second feature value of the query hand image; 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하고 상기 손자세 모델에 부여된 수신호를 인식하는 개별 손자세 인식단계를 포함한 수신호 인식 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.Comparing the second feature value of the hand pose model and the second feature value of the hand pose models belonging to the small group to recognize the hand pose model that matches the query hand image and to recognize the hand signal applied to the hand pose model. A computer-readable recording medium having recorded thereon a program for executing a hand signal recognition method including a hand posture recognition step. 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 손자세 데이터베이스에 저장하고, 손자세와 손궤적의 조합에 하나의 의미를 부여하여수신호 데이터베이스에 저장한 상태에서, 적어도 두 방향에서 사용자의 손을 연속적으로 촬영하는 영상 획득단계와;For a large number of hand posture models, models with high image matching are grouped into small groups, and the first feature value common to the hand posture models constituting any small group and the representative hand posture model image of each subgroup and each hand Image of continuously photographing the user's hand in at least two directions while storing the second feature value of the posture model in the hand pose database and giving one meaning to the combination of the hand pose and the hand trace in the hand signal database. Obtaining step; 각 방향에서 획득한 질의 손영상의 제 1 특징값을 추출하고, 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하며, 상기 질의 손영상의 제 1 특징값과 상기 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;Extracting a first feature value of the query hand image acquired in each direction, and comparing the query hand image with a representative hand posture model image of each small group, and comparing the first feature value of the query hand image with the image. A small group recognition step of recognizing a small group to which the query hand image belongs using a value; 상기 질의 손영상의 제 2 특징값을 추출하고, 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하는 개별 손자세 인식단계와;Extracts a second feature value of the query hand image and compares the second feature value of the query hand image with a second feature value of the hand pose models belonging to the small group to recognize a hand pose model that matches the query hand image. An individual hand posture recognition step; 상기 영상 획득단계에서 촬영한 연속적인 질의 손영상의 궤적을 인식하는 손궤적 인식단계와;A hand trajectory recognition step of recognizing a trajectory of the continuous question hand image photographed in the image acquisition step; 상기 개별 손자세 인식단계에서 인식된 손자세와 상기 순궤적 인식단계에서 인식된 손궤적의 조합을 상기 수신호 데이터베이스에 적용하여 상기 사용자의 수신호를 인식하는 수신호 인식단계를 포함한 것을 특징으로 하는 소그룹 기반 분류에 의한 수신호 인식 방법.And a hand signal recognition step of recognizing the hand signal of the user by applying a combination of the hand posture recognized in the individual hand posture recognition step and the hand trajectory recognized in the forward trajectory recognition step to the hand signal database. Hand signal recognition method by the. 컴퓨터에,On your computer, 다수의 손자세 모델에 대해, 영상 정합도가 높은 모델들끼리 소그룹으로 그룹핑하고, 임의의 소그룹을 구성하는 손자세 모델들이 공통적으로 가지는 제 1 특징값과 각 소그룹의 대표 손자세 모델 영상과 각 손자세 모델의 제 2 특징값을 손자세 데이터베이스에 저장하고, 손자세와 손궤적의 조합에 하나의 의미를 부여하여 수신호 데이터베이스에 저장한 상태에서, 적어도 두 방향에서 사용자의 손을 연속적으로 촬영하는 영상 획득단계와;For a large number of hand posture models, models with high image matching are grouped into small groups, and the first feature value common to the hand posture models constituting any small group and the representative hand posture model image of each subgroup and each hand Image of continuously photographing the user's hand in at least two directions while storing the second feature value of the posture model in the hand pose database and storing the hand pose and the hand trajectory in a hand signal database. Obtaining step; 각 방향에서 획득한 질의 손영상의 제 1 특징값을 추출하고, 상기 질의 손영상과 상기 각 소그룹의 대표 손자세 모델 영상을 영상 비교하며, 상기 질의 손영상의 제 1 특징값과 상기 영상 비교 결과값을 이용하여 상기 질의 손영상이 속한 소그룹을 인식하는 소그룹 인식단계와;Extracting a first feature value of the query hand image acquired in each direction, and comparing the query hand image with a representative hand posture model image of each small group, and comparing the first feature value of the query hand image with the image. A small group recognition step of recognizing a small group to which the query hand image belongs using a value; 상기 질의 손영상의 제 2 특징값을 추출하고, 상기 질의 손영상의 제 2 특징값과 상기 소그룹에 속한 손자세 모델들의 제 2 특징값을 비교하여 상기 질의 손영상과 부합되는 손자세 모델을 인식하는 개별 손자세 인식단계와;Extracts a second feature value of the query hand image and compares the second feature value of the query hand image with a second feature value of the hand pose models belonging to the small group to recognize a hand pose model that matches the query hand image. An individual hand posture recognition step; 상기 영상 획득단계에서 촬영한 연속적인 질의 손영상의 궤적을 인식하는 손궤적 인식단계와;A hand trajectory recognition step of recognizing a trajectory of the continuous question hand image photographed in the image acquisition step; 상기 개별 손자세 인식단계에서 인식된 손자세와 상기 순궤적 인식단계에서 인식된 손궤적의 조합을 상기 수신호 데이터베이스에 적용하여 상기 사용자의 수신호를 인식하는 수신호 인식단계를 포함한 수신호 인식 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.To perform a hand signal recognition method including a hand signal recognition step of recognizing a hand signal of the user by applying a combination of the hand posture recognized in the individual hand posture recognition step and the hand trajectory recognized in the forward trajectory recognition step to the hand signal database. Computer-readable recording medium that records the program.
KR10-2002-0070120A 2002-11-12 2002-11-12 Hand signal recognition method by subgroup based classification KR100457928B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0070120A KR100457928B1 (en) 2002-11-12 2002-11-12 Hand signal recognition method by subgroup based classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0070120A KR100457928B1 (en) 2002-11-12 2002-11-12 Hand signal recognition method by subgroup based classification

Publications (2)

Publication Number Publication Date
KR20040042002A KR20040042002A (en) 2004-05-20
KR100457928B1 true KR100457928B1 (en) 2004-11-18

Family

ID=37338840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0070120A KR100457928B1 (en) 2002-11-12 2002-11-12 Hand signal recognition method by subgroup based classification

Country Status (1)

Country Link
KR (1) KR100457928B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200452405Y1 (en) * 2010-04-06 2011-02-28 김원도 Narrator
KR101229088B1 (en) * 2011-02-08 2013-02-01 영남대학교 산학협력단 Apparatus and method for measuring 3d depth by an infrared camera using led lighting and tracking hand motion
KR102165818B1 (en) 2013-09-10 2020-10-14 삼성전자주식회사 Method, apparatus and recovering medium for controlling user interface using a input image
KR102289497B1 (en) * 2013-09-10 2021-08-13 삼성전자주식회사 Method, apparatus and recovering medium for controlling user interface using a input image
KR102369621B1 (en) * 2020-10-07 2022-03-04 삼성전자주식회사 Method, apparatus and recovering medium for controlling user interface using a input image

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332371A (en) * 1993-05-18 1994-12-02 Hitachi Ltd Apparatus for recognizing finger language of nonspecific speeker
JPH06337629A (en) * 1993-05-31 1994-12-06 Hitachi Ltd Sign language recognizing device
US5473705A (en) * 1992-03-10 1995-12-05 Hitachi, Ltd. Sign language translation system and method that includes analysis of dependence relationships between successive words
JPH1026999A (en) * 1996-07-10 1998-01-27 Nec Shizuoka Ltd Sign language translating device
US6116907A (en) * 1998-01-13 2000-09-12 Sorenson Vision, Inc. System and method for encoding and retrieving visual signals
KR20030030232A (en) * 2001-10-09 2003-04-18 한국과학기술원 Method and System for recognizing continuous sign language based on computer vision

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473705A (en) * 1992-03-10 1995-12-05 Hitachi, Ltd. Sign language translation system and method that includes analysis of dependence relationships between successive words
JPH06332371A (en) * 1993-05-18 1994-12-02 Hitachi Ltd Apparatus for recognizing finger language of nonspecific speeker
JPH06337629A (en) * 1993-05-31 1994-12-06 Hitachi Ltd Sign language recognizing device
JPH1026999A (en) * 1996-07-10 1998-01-27 Nec Shizuoka Ltd Sign language translating device
US6116907A (en) * 1998-01-13 2000-09-12 Sorenson Vision, Inc. System and method for encoding and retrieving visual signals
KR20030030232A (en) * 2001-10-09 2003-04-18 한국과학기술원 Method and System for recognizing continuous sign language based on computer vision

Also Published As

Publication number Publication date
KR20040042002A (en) 2004-05-20

Similar Documents

Publication Publication Date Title
CN109359538B (en) Training method of convolutional neural network, gesture recognition method, device and equipment
CN106682598B (en) Multi-pose face feature point detection method based on cascade regression
Rekha et al. Shape, texture and local movement hand gesture features for indian sign language recognition
Yang et al. Extraction of 2d motion trajectories and its application to hand gesture recognition
CN108256421A (en) A kind of dynamic gesture sequence real-time identification method, system and device
Agrawal et al. A survey on manual and non-manual sign language recognition for isolated and continuous sign
Aurangzeb et al. Human behavior analysis based on multi-types features fusion and Von Nauman entropy based features reduction
CN102332095A (en) Face motion tracking method, face motion tracking system and method for enhancing reality
CN109919085B (en) Human-human interaction behavior identification method based on light-weight convolutional neural network
CN108171133A (en) A kind of dynamic gesture identification method of feature based covariance matrix
CN110956099B (en) Dynamic gesture instruction identification method
CN106909884B (en) Hand region detection method and device based on layered structure and deformable part model
CN106200971A (en) Man-machine interactive system device based on gesture identification and operational approach
CN109325408A (en) A kind of gesture judging method and storage medium
CN110135277B (en) Human behavior recognition method based on convolutional neural network
Mahmood et al. A Comparative study of a new hand recognition model based on line of features and other techniques
CN110163567A (en) Classroom roll calling system based on multitask concatenated convolutional neural network
CN111857334A (en) Human body gesture letter recognition method and device, computer equipment and storage medium
CN111291612A (en) Pedestrian re-identification method and device based on multi-person multi-camera tracking
Mali et al. Indian sign language recognition using SVM classifier
CN115205933A (en) Facial expression recognition method, device, equipment and readable storage medium
Gheitasi et al. Estimation of hand skeletal postures by using deep convolutional neural networks
KR100457928B1 (en) Hand signal recognition method by subgroup based classification
CN111881261A (en) Internet of things multipoint response interactive intelligent robot system
CN108108648A (en) A kind of new gesture recognition system device and method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20101101

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee