KR20130059680A - System for extracting descriptors in face image and method therefor - Google Patents

System for extracting descriptors in face image and method therefor Download PDF

Info

Publication number
KR20130059680A
KR20130059680A KR1020110125775A KR20110125775A KR20130059680A KR 20130059680 A KR20130059680 A KR 20130059680A KR 1020110125775 A KR1020110125775 A KR 1020110125775A KR 20110125775 A KR20110125775 A KR 20110125775A KR 20130059680 A KR20130059680 A KR 20130059680A
Authority
KR
South Korea
Prior art keywords
feature point
descriptor
face image
feature
unit
Prior art date
Application number
KR1020110125775A
Other languages
Korean (ko)
Inventor
윤경로
오승준
조혜정
김지은
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020110125775A priority Critical patent/KR20130059680A/en
Publication of KR20130059680A publication Critical patent/KR20130059680A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/478Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]

Abstract

PURPOSE: A system for extracting a descriptor from a face image and a method thereof are provided to shorten time which is required for face recognition through the descriptor in a local face recognition side. CONSTITUTION: A feature point detection unit(100) detects a feature point from an input face image. A descriptor extraction unit(200) expresses the input face image by using the detected feature point and extracts a descriptor for face recognition. A feature point matching unit(300) obtains a face recognition result by matching a descriptor between feature points by using the descriptor of the face image and obtains a face recognition result. [Reference numerals] (100) Feature point detection unit; (200) Descriptor extraction unit; (300) Feature point matching unit; (AA) Input image; (BB) Approximate Hessian matrix; (CC) Non-maximum suppression method; (DD) Gabor wavelet transformation; (EE) Recognized result

Description

얼굴 영상에서의 기술어 추출 시스템 및 그 방법{SYSTEM FOR EXTRACTING DESCRIPTORS IN FACE IMAGE AND METHOD THEREFOR}Descriptive system and method for facial image extraction {SYSTEM FOR EXTRACTING DESCRIPTORS IN FACE IMAGE AND METHOD THEREFOR}

본 발명은 얼굴 영상에서의 기술어 추출 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 정지 영상의 얼굴 영상이 입력되면, 얼굴의 특징점 검출을 기반으로 하여 기술어를 추출하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system and method for extracting a descriptor from a face image, and more particularly, to a system and method for extracting a descriptor based on detection of a feature point of a face when a face image of a still image is input. will be.

기술어 추출 기술에는 크게 전역 방식과 지역 방식의 추출 방법으로 구분 지을 수 있다. 전역 방식은 얼굴 영상 전체를 하나의 특징으로 간주하며, 이때 특징은 화소 값들에서 구해낸 하나의 벡터로 표현된다. Descriptor extraction techniques can be divided into global and local extraction methods. The global method regards the entire face image as a feature, and the feature is represented by a vector obtained from pixel values.

일반적으로, 영상에 존재하는 화소의 수는 많기 때문에, 얼굴 영상을 나타내는 벡터의 차원 수는 커질 수밖에 없다. 때문에 얼굴인식을 위한 연산에도 많은 시간이 필요하며, 인식에 방해가 되는 '차원의 저주' 문제가 발생한다. In general, since the number of pixels present in the image is large, the number of dimensions of the vector representing the face image is inevitably increased. As a result, computation for face recognition requires a lot of time, and a problem of 'dim curse' occurs that interferes with recognition.

이를 해결하기 위해, 얼굴 영상 벡터의 차원을 축소시키는 PCA(Principal Component Analysis), LDA(Linear Discriminant Analysis) 및 ICA(Independent Component Analysis) 등의 방법이 소개되었다. 또한, 전역 방식은 얼굴 영상 전체를 이용하기 때문에 위치 및 조명 변화에 의한 영향을 많이 받게 된다. 위치의 경우는 얼굴 영상을 일정하게 정렬함으로써 이러한 문제를 최소화 시키며 조명 변화의 경우 가버 웨이블릿 변환 또는 LBP(Local Binary Pattern)등을 이용하는 방식이 존재한다.To solve this problem, methods such as Principal Component Analysis (PCA), Linear Discriminant Analysis (LDA), and Independent Component Analysis (ICA) have been introduced to reduce the dimensions of facial image vectors. In addition, since the global method uses the entire face image, the global method is affected by the position and the light change. In the case of position, this problem is minimized by uniformly aligning the face image. In the case of lighting change, there is a method using Gabor wavelet transform or LBP (Local Binary Pattern).

상기 지역 방식 기술은, 얼굴 영상 전체가 아닌 일정 지역을 하나의 특징으로 간주한다. 즉, 하나의 특징은 일정 지역에 존재하는 화소를 이용하여 구성된 벡터가 된다. 지역 방식의 기술어 추출은 특징점 검출과 특징점 서술로 나누어진다. The region-based technique regards a certain region as a feature, not an entire face image. That is, one feature becomes a vector constructed using pixels existing in a predetermined region. Localized descriptor extraction is divided into feature point detection and feature point description.

특징점 검출에서는 특징점에 해당하는 위치를 검출하고, 특징점의 스케일을 계산되어 다양한 스케일로 검출이 된다. 즉,위치는 동일하지만 스케일이 다른 특징점도 검출되는 것을 의미하며, 이를 통해 특징점이 스케일 변화에 강인할 수 있게 된다. 특징점 서술에서는 검출된 특징점의 위치 주변의 특징점 스케일에 비례하는 지역의 화소 값을 이용하여 특징점의 방향을 계산한다. In the feature point detection, a position corresponding to the feature point is detected, the scale of the feature point is calculated, and detected at various scales. That is, it means that feature points with the same position but different scales are also detected, thereby making the feature points robust to scale changes. In the feature point description, the direction of the feature point is calculated using pixel values of a region proportional to the feature point scale around the detected feature point position.

그 후, 이 지역의 화소 값을 이용하여 특징점을 벡터 형태로 서술 한다. 이때 벡터는 특징점의 방향에 상대적으로 서술되기 때문에 회전 변화에 강인하다. 스케일 변화와는 달리 회전 변화의 경우, 화소 값이 변하는 것이 아니고 화소의 위치가 변화된다. 즉, 화소 값이 동일해도 화소의 위치가 일정하지 않으면 서술되는 벡터도 변화하게 된다. 특징점은 일정한 방향을 가지기 때문에, 이 방향을 기준으로 벡터를 서술하면 화소의 위치에 상관없이 회전 변화에 강인할 수 있게 된다. The feature points are then described in vector form using the pixel values of this region. Since the vector is described relative to the direction of the feature point, the vector is robust to rotational change. Unlike the scale change, in the case of rotation change, the pixel value does not change but the position of the pixel changes. That is, even if the pixel values are the same, if the position of the pixel is not constant, the described vector also changes. Since the feature point has a certain direction, describing the vector based on this direction makes it possible to withstand the rotational change regardless of the position of the pixel.

지역방식으로 기술어를 추출하는 대표적인 알고리즘으로는 물체인식에 사용되다가 최근 얼굴인식에 적용되고 있는 SIFT(Scale Invariant Feature Transform)와 SURF(Speeded Up Robust Feature)가 있다. Representative algorithms for extracting descriptors by local methods include Scale Invariant Feature Transform (SIFT) and Speeded Up Robust Feature (SURF), which are used for object recognition and recently applied to face recognition.

지역 방식의 특징은 전역 방식에 비해 차원의 수가 낮은 벡터이기 때문에, 위치 및 조명 변화뿐만 아니라 부분적인 가려짐에도 상대적으로 영향을 적게 받게 된다는 점이다. 하지만 이렇게 낮은 차원의 벡터인 특징은 고차원의 벡터인 특징에 비해 약한 특징이라는 단점이 있다. 따라서, 다수의 벡터를 구성하여 얼굴인식에 이용하거나, 외부요인에 덜 영향을 받는 강인한 기술어를 추출할 필요가 있다. The feature of the local approach is that it is a vector with a lower number of dimensions than the global approach, so it is relatively less affected by partial obscuration as well as position and lighting changes. However, this feature of the low-dimensional vector is a weak feature compared to the feature of a high-dimensional vector. Therefore, it is necessary to construct a plurality of vectors to use for face recognition or to extract robust descriptors that are less affected by external factors.

본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, SURF 방법을 이용해 찾은 특징점에서 다양한 스케일과 여러 방향 성분을 고려한 가버 웨이블릿 변환을 이용하여 기술어를 추출하고, 추출된 기술어를 이용해 정합을 하여 얼굴인식을 수행함으로써, 얼굴영상에서의 조명 및 표정 변화에 강인한 기술어를 추출할 수 있으며, 추출된 기술어를 통해 얼굴인식의 정확도를 향상시키도록 함에 그 목적이 있다. The present invention has been made in view of the above problems, extracting descriptors using Gabor wavelet transform considering various scales and various direction components from feature points found using SURF method, and matching by using extracted descriptors. By performing the face recognition, it is possible to extract a descriptor that is robust to lighting and facial expression change in the face image, and to improve the accuracy of the face recognition through the extracted descriptor.

이러한 기술적 과제를 달성하기 위한 본 발명은 얼굴 영상에서의 기술어 추출 시스템에 관한 것으로서, 입력 얼굴 영상에서 특징이 되는 특징점을 검출하는 특징점 검출부; 상기 특징점 검출부를 통해 검출된 특징점을 이용하여 상기 얼굴 영상을 표현하여, 얼굴 인식을 위한 기술어를 추출하는 기술어 추출부; 및 상기 기술어 추출부를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구하는 특징점 정합부; 를 포함한다. The present invention for achieving the technical problem relates to a descriptor extraction system in the face image, the feature point detection unit for detecting a feature point in the input face image; A descriptor extracting unit extracting a descriptor for face recognition by expressing the face image by using the feature point detected by the feature point detector; And a feature point matching unit configured to obtain a face recognition result by matching the descriptors between the feature points using the descriptors of the image extracted by the descriptor extracting unit. .

또한 상기 특징점 검출부는, SURF의 기술을 적용하되, 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정하는 것을 특징으로 한다.In addition, the feature point detector, by applying the technique of SURF, after determining whether the corner can be a feature point using the determinant of the approximate Hessian matrix, characterized in that to determine the final feature point using a non-maximal suppression method.

그리고 상기 기술어 추출부는, 상기 특징점 검출부를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용하는 것을 특징으로 한다.The descriptor extracting unit may apply a Gabor wavelet transform to the feature point detected through the feature point detector and the surrounding pixels.

한편, 본 발명은 얼굴 영상에서의 기술어 추출 방법에 관한 것으로서, (a) 특징점 검출부가 입력 얼굴 영상에서 특징이 되는 특징점을 검출하는 단계; (b) 기술어 추출부가 상기 특징점 검출부를 통해 검출된 특징점을 이용하여 상기 얼굴 영상을 표현하여, 얼굴 인식을 위한 기술어를 추출하는 단계; 및 (c) 특징점 정합부가 상기 기술어 추출부를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구하는 단계; 를 포함한다.The present invention relates to a method for extracting a descriptor from a face image, the method comprising: (a) detecting a feature point that is a feature in an input face image by a feature point detector; (b) extracting a descriptor for face recognition by expressing the face image by using the feature point detected by the feature extractor by the descriptor extractor; And (c) obtaining a face recognition result by matching the descriptors between the feature points using the descriptors of the image extracted by the descriptor extracting unit through the descriptor extracting unit. .

또한 상기 (a) 과정에서, 상기 특징점 검출부가 SURF의 기술을 적용하되, 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정하는 것을 특징으로 한다.Further, in the process (a), the feature point detector applies SURF technology, determines whether the corner can be a feature point using a determinant of an approximate Hessian matrix, and then determines a final feature point using a non-maximal suppression method. Characterized in that.

그리고 상기 (b) 과정에서, 상기 기술어 추출부가 특징점 검출부를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용하는 것을 특징으로 한다. In the process (b), the descriptor extracting unit applies the Gabor wavelet transform to the feature point detected through the feature point detector and the surrounding pixels.

상기와 같은 본 발명에 따르면, 지역적 얼굴인식 측면에서 적은 차원의 기술어를 통해 얼굴인식에 소요되는 시간을 단축할 수 있고 강인한 기술어 추출을 통해 얼굴인식 성능이 향상될 수 있는 효과가 있다. According to the present invention as described above, in terms of local face recognition, it is possible to shorten the time required for face recognition through a descriptor having a small dimension and to improve face recognition performance through robust descriptor extraction.

도 1 은 본 발명에 따른 얼굴 영상에서의 기술어 추출 시스템을 개념적으로 도시한 전체 구성도.
도 2 는 본 발명에 따른 얼굴 영상에서의 기술어 추출 방법에 관한 전체 흐름도.
1 is an overall configuration diagram conceptually showing a descriptor extraction system in a face image according to the present invention.
2 is an overall flowchart of a descriptor extraction method in a face image according to the present invention;

본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings.

본 발명에 따른 얼굴 영상에서의 기술어 추출 시스템에 관하여 도 1 을 참조하여 설명하면 다음과 같다. The descriptor extraction system in the face image according to the present invention will be described with reference to FIG. 1 as follows.

본 발명은 외부 요인에 강인한 기술어를 추출한다. 지역방식의 얼굴 인식 기술에 속하는 SURF 기반의 기술어 추출 방법에서는 특징점을 검출할 때 정해진 하나의 스케일에 따라 하나의 방향과 영역의 크기가 결정되게 된다. 결정된 해당 영역의 분할 영역에서 x방향의 기울기와 y방향의 기울기 성분을 이용해 기술어를 추출한다. 반면, 가버 웨이블릿 변환을 이용한 기술어 추출 방법에서는 특징점에서 다양한 스케일의 조합과 여러 방향 성분으로 이루어진 커널을 컨벌루션하여 기술어를 추출한다. 따라서 가버 웨이블릿 변환 기반의 기술어는 SURF 기반의 기술어보다 더 강인한 특성을 갖는다.The present invention extracts descriptors that are robust to external factors. In the SURF-based descriptor extraction method, which belongs to the local face recognition technology, the direction and the size of the region are determined according to a predetermined scale when detecting the feature point. The descriptor is extracted using the gradient component in the x direction and the gradient component in the y direction in the determined region of the divided region. On the other hand, in the descriptor extraction method using Gabor wavelet transform, the descriptor is extracted by convolving a kernel composed of various scale combinations and various directions at a feature point. Therefore, Gabor wavelet transform-based descriptors are more robust than SURF-based descriptors.

이러한 특성을 이용해 본 발명은 SURF의 근사화시킨 헤시안 행렬과 비 최대 억제법(non-maximum suppression)을 이용해 특징점을 검출한 후, 가버 웨이블릿 변환을 이용해 기술어를 추출한다.
Using this characteristic, the present invention detects feature points using the approximated Hessian matrix and non-maximum suppression of SURF, and then extracts descriptors using Gabor wavelet transform.

도 1 은 본 발명에 따른 얼굴 영상에서의 기술어 추출 시스템(S)을 개념적으로 도시한 전체 구성도로서, 특징점 검출부(100), 기술어 추출부(200) 및 특징점 정합부(300)를 포함하여 이루어진다.1 is a schematic block diagram illustrating a descriptor extraction system S in a face image according to an exemplary embodiment of the present invention, and includes a feature point detector 100, a descriptor extractor 200, and a feature point matcher 300. It is done by

특징점 검출부(100)는 입력 얼굴 영상에서 특징이 되는 특징점을 검출한다. The feature point detector 100 detects a feature point that is a feature in the input face image.

구체적으로, 특징점 검출부(100)는 SURF의 기술을 이용하는데, 가우시안 커널(gaussian kernel)의 2차 편도 함수의 근사식으로 구성된 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정한다.
Specifically, the feature point detector 100 uses the technique of SURF to determine whether a corner may be a feature point using a determinant of an approximate Hessian matrix composed of an approximation of a quadratic partial derivative function of a Gaussian kernel. After the determination, the final feature point is determined using non-maximal suppression.

또한, 기술어 추출부(200)는 상기 특징점 검출부(100)를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용한다. In addition, the descriptor extracting unit 200 applies the Gabor wavelet transform to the feature point detected through the feature point detecting unit 100 and its surrounding pixels.

참고로, 가버 웨이블릿 변환은 물질 고유의 특징을 방향성과 크기를 이용하여 표현하는 방식으로 얼굴 인식 분야에서 널리 사용되고 있다. 기술어는 입력되어진 얼굴 영상과 가버 필터와의 컨벌루션에 의해 얻어진다.
For reference, the Gabor wavelet transform is widely used in the field of face recognition by expressing intrinsic characteristics by using directionality and size. The descriptor is obtained by convolution of the input face image with the Gabor filter.

그리고, 특징점 정합부(300)는 상기 기술어 추출부(200)를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구한다.
The feature point matching unit 300 obtains a face recognition result by matching the descriptors between the feature points using the descriptors of the image extracted by the descriptor extracting unit 200.

이하에서는, 본 발명에 따른 상술한 시스템을 이용한, 얼굴 영상에서의 기술어 추출 방법에 관하여 도 2 를 참조하여 설명하면 다음과 같다. Hereinafter, a method of extracting a descriptor from a face image using the above-described system according to the present invention will be described with reference to FIG. 2.

도 2 는 본 발명에 따른 얼굴 영상에서의 기술어 추출 방법에 관한 전체 흐름도로서, 도시된 바와 같이 특징점 검출부(100)는 입력 얼굴 영상에서 특징이 되는 특징점을 검출한다(S100). 즉, 특징점 검출부(100)는 SURF의 기술을 이용하는데, 가우시안 커널(gaussian kernel)의 2차 편도 함수의 근사식으로 구성된 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정한다. 2 is a flowchart illustrating a method of extracting a descriptor from a face image according to an exemplary embodiment of the present invention. As illustrated, the feature point detector 100 detects a feature point that is a feature in an input face image (S100). That is, the feature point detector 100 uses SURF technology to determine whether a corner may be a feature point using a determinant of an approximate Hessian matrix composed of an approximation of a quadratic partial derivative function of a Gaussian kernel. The final feature point is then determined using ratio maximal suppression.

그리고, 기술어 추출부(200)는 상기 특징점 검출부(100)를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용하며(S200), 특징점 정합부(300)는 상기 기술어 추출부(200)를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구한다(S300).
In addition, the descriptor extracting unit 200 applies a Gabor wavelet transform to the feature point detected through the feature point detecting unit 100 and its surrounding pixels (S200), and the feature point matching unit 300 includes the descriptor extracting unit 200. Using the descriptors extracted from the image, the matching between the feature points is performed to obtain a face recognition result (S300).

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. Accordingly, all such appropriate modifications and changes, and equivalents thereof, should be regarded as within the scope of the present invention.

S: 얼굴 영상에서의 기술어 추출 시스템
100: 특징점 검출부 200: 기술어 추출부
300: 특징점 정합부
S: Descriptive Extraction System for Face Images
100: feature point detection unit 200: descriptor extraction unit
300: feature point matching unit

Claims (6)

얼굴 영상에서의 기술어 추출 시스템에 있어서,
입력 얼굴 영상에서 특징이 되는 특징점을 검출하는 특징점 검출부(100);
상기 특징점 검출부(100)를 통해 검출된 특징점을 이용하여 상기 얼굴 영상을 표현하여, 얼굴 인식을 위한 기술어를 추출하는 기술어 추출부(200); 및
상기 기술어 추출부(200)를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구하는 특징점 정합부(300); 를 포함하는 얼굴 영상에서의 기술어 추출 시스템.
In the descriptor extraction system in the face image,
A feature point detector 100 for detecting a feature point that is a feature in the input face image;
A descriptor extracting unit 200 for extracting a descriptor for face recognition by expressing the face image using the feature point detected by the feature point detecting unit 100; And
A feature point matching unit 300 that obtains a face recognition result by matching descriptors between feature points using a descriptor of an image extracted by the descriptor extracting unit 200; Descriptive extraction system in the face image comprising a.
제 1 항에 있어서,
상기 특징점 검출부(100)는,
SURF의 기술을 적용하되, 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정하는 것을 특징으로 하는 얼굴 영상에서의 기술어 추출 시스템.
The method of claim 1,
The feature point detection unit 100,
Derivation of descriptors from facial images characterized by applying the technique of SURF, using the determinant of the approximate Hessian matrix to determine whether a corner can be a feature point, and then determining the final feature point using non-maximal suppression. system.
제 1 항에 있어서,
상기 기술어 추출부(200)는,
상기 특징점 검출부(100)를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용하는 것을 특징으로 하는 얼굴 영상에서의 기술어 추출 시스템.
The method of claim 1,
The descriptor extraction unit 200,
The descriptor extraction system of the face image, characterized by applying the Gabor wavelet transform to the feature point detected by the feature point detector 100 and its surrounding pixels.
얼굴 영상에서의 기술어 추출 방법에 있어서,
(a) 특징점 검출부(100)가 입력 얼굴 영상에서 특징이 되는 특징점을 검출하는 단계;
(b) 기술어 추출부(200)가 상기 특징점 검출부(100)를 통해 검출된 특징점을 이용하여 상기 얼굴 영상을 표현하여, 얼굴 인식을 위한 기술어를 추출하는 단계; 및
(c) 특징점 정합부(300)가 상기 기술어 추출부(200)를 통해 추출된 영상의 기술어를 이용하여, 특징점간 기술어의 정합을 수행해 얼굴 인식 결과를 구하는 단계; 를 포함하는 얼굴 영상에서의 기술어 추출 방법.
In the descriptor extraction method in the face image,
(a) the feature point detecting unit 100 detecting a feature point that is a feature in the input face image;
(b) extracting a descriptor for face recognition by expressing the face image by using the feature point detected by the feature point detector 100 by the descriptor extracting unit 200; And
(c) obtaining a face recognition result by matching the descriptors between the feature points by using the descriptor of the image extracted by the descriptor extracting unit 200 by the feature point matching unit 300; Descriptive extraction method in the face image comprising a.
제 4 항에 있어서,
상기 (a) 과정에서,
상기 특징점 검출부(100)가 SURF의 기술을 적용하되, 근사 헤시안 행렬의 행렬식을 이용하여 특징점이 될 수 있는 코너의 여부를 판단한 후, 비 최대 억제법을 이용해 최종 특징점을 결정하는 것을 특징으로 하는 얼굴 영상에서의 기술어 추출 방법.
The method of claim 4, wherein
In the step (a)
The feature point detection unit 100 applies SURF techniques, and determines whether the corner may be a feature point using a determinant of an approximate Hessian matrix, and then determines a final feature point using a non-maximal suppression method. Descriptor Extraction Method from Face Image.
제 4 항에 있어서,
상기 (b) 과정에서,
상기 기술어 추출부(200)가 특징점 검출부(100)를 통해 검출된 특징점과 그 주변화소에 가버 웨이블릿 변환을 적용하는 것을 특징으로 하는 얼굴 영상에서의 기술어 추출 방법.
The method of claim 4, wherein
In the step (b)
The descriptor extractor 200 applies a Gabor wavelet transform to a feature point detected by the feature point detector 100 and its neighboring pixels.
KR1020110125775A 2011-11-29 2011-11-29 System for extracting descriptors in face image and method therefor KR20130059680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110125775A KR20130059680A (en) 2011-11-29 2011-11-29 System for extracting descriptors in face image and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110125775A KR20130059680A (en) 2011-11-29 2011-11-29 System for extracting descriptors in face image and method therefor

Publications (1)

Publication Number Publication Date
KR20130059680A true KR20130059680A (en) 2013-06-07

Family

ID=48858457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110125775A KR20130059680A (en) 2011-11-29 2011-11-29 System for extracting descriptors in face image and method therefor

Country Status (1)

Country Link
KR (1) KR20130059680A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778701A (en) * 2015-04-15 2015-07-15 浙江大学 Local image describing method based on RGB-D sensor
CN106845362A (en) * 2016-12-27 2017-06-13 湖南长城信息金融设备有限责任公司 A kind of face identification method of the rarefaction representation based on multi-scale transform

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778701A (en) * 2015-04-15 2015-07-15 浙江大学 Local image describing method based on RGB-D sensor
CN104778701B (en) * 2015-04-15 2018-08-24 浙江大学 A kind of topography based on RGB-D sensors describes method
CN106845362A (en) * 2016-12-27 2017-06-13 湖南长城信息金融设备有限责任公司 A kind of face identification method of the rarefaction representation based on multi-scale transform
CN106845362B (en) * 2016-12-27 2020-03-20 湖南长城信息金融设备有限责任公司 Sparse representation face recognition method based on multi-scale transformation

Similar Documents

Publication Publication Date Title
Qiu et al. Finger-vein recognition based on dual-sliding window localization and pseudo-elliptical transformer
Zhang et al. Adaptive directional total-variation model for latent fingerprint segmentation
Yao et al. A new pedestrian detection method based on combined HOG and LSS features
Abate et al. BIRD: Watershed based iris detection for mobile devices
Vidya et al. Entropy based Local Binary Pattern (ELBP) feature extraction technique of multimodal biometrics as defence mechanism for cloud storage
Ishikura et al. Saliency detection based on multiscale extrema of local perceptual color differences
US20140147023A1 (en) Face Recognition Method, Apparatus, and Computer-Readable Recording Medium for Executing the Method
US20180101710A1 (en) Method and apparatus for recognizing fingerprint ridge point
CN109919960B (en) Image continuous edge detection method based on multi-scale Gabor filter
Min et al. Eyelid and eyelash detection method in the normalized iris image using the parabolic Hough model and Otsu’s thresholding method
Do et al. Early melanoma diagnosis with mobile imaging
Pundlik et al. Iris segmentation in non-ideal images using graph cuts
CN106326895B (en) Image processing apparatus, image processing method, and program
KR102369412B1 (en) Device and method to recognize iris
Asmuni et al. An improved multiscale retinex algorithm for motion-blurred iris images to minimize the intra-individual variations
Banerjee et al. Iris segmentation using geodesic active contours and grabcut
CN108647605B (en) Human eye gaze point extraction method combining global color and local structural features
Hany et al. Speeded-Up Robust Feature extraction and matching for fingerprint recognition
KR20130059680A (en) System for extracting descriptors in face image and method therefor
CN109871779B (en) Palm print identification method and electronic equipment
CN100377164C (en) Method, device and storage medium for detecting face complexion area in image
KR101751871B1 (en) Method and device for extracting feature of image data
JP2015176252A (en) Image processor and image processing method
Paiva et al. Fingerprint image segmentation using data Manifold characteristic features
KR101276792B1 (en) Eye detecting device and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application