KR20010087487A - Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response - Google Patents

Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response Download PDF

Info

Publication number
KR20010087487A
KR20010087487A KR1020000011234A KR20000011234A KR20010087487A KR 20010087487 A KR20010087487 A KR 20010087487A KR 1020000011234 A KR1020000011234 A KR 1020000011234A KR 20000011234 A KR20000011234 A KR 20000011234A KR 20010087487 A KR20010087487 A KR 20010087487A
Authority
KR
South Korea
Prior art keywords
face
dimensional space
matrix
image
new
Prior art date
Application number
KR1020000011234A
Other languages
Korean (ko)
Other versions
KR100360486B1 (en
Inventor
정기정
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1020000011234A priority Critical patent/KR100360486B1/en
Publication of KR20010087487A publication Critical patent/KR20010087487A/en
Application granted granted Critical
Publication of KR100360486B1 publication Critical patent/KR100360486B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

PURPOSE: A method for recognizing a face using a dimensional space conversion of a gabor filtering reaction value and an apparatus therefor is provided to express the details of a face by using a gabor filtering reaction value as an input value for a dimensional space conversion. CONSTITUTION: A face detector(210) detects the position of a specific appearance of a face within an input image. A face area extractor(212) extracts a face area so as to maintain a constant rate with the detected position based on the position of the specific appearance of the face detected by the face detector(210). A size convertor(he214) converts at least one size into another size, so that the face area extracted by the face area extractor(212) and a gabor filter to be used have the constant rate to each other. An image preprocessor(216) reduces t effect of a lighting to the face area processed in the size convertor(214) by using a histogram smoothing process. A feature point extractor(218) extracts a predetermined number of the feature points in order to apply the gabor filter to them, in the face area pre-processed in the image preprocessor(216). A gabor filter(220) obtains a reaction value by applying a set of the gabor filters having various directions and frequencies to the respective feature point extracted by the feature point extractor(218). A matrix generating unit(230) expresses the reaction values obtained from the gabor filter(220) as one-dimensional array. A dimensional space converting unit(240) makes a new dimensional space corresponding to a matrix generated from the matrix generating unit(230) by using a predetermined dimensional space converting method. A database generating unit(250) maps each training image onto the new dimensional space and stores a coordinate value for each training image mapped onto the new dimensional space. A face similarity determining unit(260) transfers the one-dimensional array expressed by the matrix generating unit(230) to the new dimensional space already made by the dimensional space converting unit(240).

Description

가버 필터링 반응값의 차원 공간 변환을 이용한 얼굴 인식 방법 및 그 장치{Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response}Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response

본 발명은 얼굴 인식에 관한 것으로, 특히 가버 필터링 반응값의 차원 변환을 이용한 얼굴 인식 방법 및 그 장치에 관한 것이다.The present invention relates to face recognition, and more particularly, to a face recognition method and apparatus using dimensional transformation of Gabor filtering response values.

현대 사회가 정보화 사회로 급속히 발전함에 따라 수많은 정보가 쏟아져 나오고 있다. 이러한 정보를 다루는 시스템은 필요한 경우에 특정한 사용자들만이 정보를 공유하게 하고, 그 외의 사용자들이 접근할 수 없도록 차단한다. 정보 보안을 위한 시스템이 많이 발명되고 있다. 정보는 어떤 데이터뿐만 아니라, 특정 장소등의 공간적 개념이 될 수 있다. 기존의 열쇠, IC 카드 외에 여러 가지 보안 장치들이 발명되고 있지만, 접근할 곳이 많아짐에 따라 이 보안을 해지할 수 있는 도구들도 많아져야 하고, 복제가 가능하다는 단점이 있다.As the modern society rapidly develops into an information society, a lot of information is pouring out. Systems that handle this information allow only specific users to share the information when needed, and block access to other users. Many systems for information security have been invented. Information can be not only some data, but also a spatial concept of a particular place. In addition to existing keys and IC cards, various security devices have been invented. However, as there are many more places to access, there are also a number of tools for revoking this security.

이러한 단점을 해결하기 위한 한 방법으로서, 사람의 신체적 특징을 이용한 보안 방법에 대한 연구가 활발히 진행되고 있다. 이 방법의 장점은 쉽게 복제가 불가능하고, 어떤 도구를 소지해야 할 필요가 없다는 것이다. 신체적 특징을 이용한 보안 방법으로 지문이나, 홍채, 얼굴, 목소리 등을 이용하는 기술이 있다. 그중에서 특히, 얼굴을 이용한 방법의 특징은 사용자가 시스템으로 접근하고자 할 경우에 사용자에게 어떤 특정한 행위를 요구하지 않는다는 장점이 있다.As one method for solving these shortcomings, research is being actively conducted on security methods using the physical characteristics of a person. The advantage of this method is that it can't be easily replicated and you don't have to carry any tools. As a security method using physical features, there are technologies using fingerprints, irises, faces, and voices. In particular, the feature of the method using the face is that the user does not require any specific behavior when the user wants to access the system.

따라서, 얼굴 인식 기술이 현재 많이 연구되고 있으며, 대표적인 방법으로서 주 구성요소 분석(PCA:Principal Component Analysis), 가버 필터(Gabor filter)를 이용한 얼굴 인식 방법이 있다.Therefore, face recognition technology has been studied a lot, and representative methods include face recognition method using principal component analysis (PCA) and Gabor filter.

PCA를 이용한 얼굴 인식 방법은 얼굴의 세부적인 면을 살피기 보다는 얼굴의 전체적인 면의 구성에 의해 얼굴을 인식하는데, 다음과 같은 단점이 있다. 입력으로 사용될 정면 얼굴 영상에 대해, 얼굴이 정확히 정렬(alignment)되어야 하고, 그 크기가 어느 정도 정규화(normalization)되어야 한다. 한편, 조명과 밝기의 변화에 민감한 반응을 보이는 단점이 있다. PCA를 이용한 얼굴 인식 방법은 입력으로 실제 얼굴 영상들을 사용하고, 이 영상들을 기초로 새로운 공간(space)을 구성하기 때문에, 입력 영상의 한계로 인해 조명과 밝기의 변화에 민감하다.The face recognition method using the PCA recognizes the face by the composition of the overall face rather than looking at the detailed face of the face, and has the following disadvantages. For the frontal face image to be used as input, the face must be exactly aligned, and its size must be normalized to some extent. On the other hand, there is a disadvantage that shows a sensitive response to changes in lighting and brightness. The face recognition method using PCA uses real face images as inputs and constructs a new space based on these images, and thus is sensitive to changes in illumination and brightness due to limitations of the input images.

가버 필터를 이용한 얼굴 인식 방법은 얼굴의 특징점들을 기준으로 한 얼굴의 일정 영역에 주파수와 방향성을 달리하는 2-D 가버 필터들의 집합을 적용시키고, 그 반응값으로 부터 얼굴을 식별한다. 얼굴의 전체 영역의 구성을 한꺼번에 파악하는 면에서 약점을 드러내고, 개인의 데이터를 저장하는데 있어서 상대적으로 많은 저장 공간을 필요로 하는 단점이 있다.The face recognition method using Gabor filters applies a set of 2-D Gabor filters having different frequencies and directions to a predetermined region of the face based on the feature points of the face, and identifies the face from the response. The disadvantages of revealing weaknesses in grasping the composition of the entire area of the face at once and requiring a relatively large amount of storage space for storing personal data.

본 발명이 이루고자 하는 기술적 과제는, 전술한 문제점을 해결하기 위해 창출된 것으로, 얼굴의 특징점들을 기준으로 한 얼굴의 일정 영역으로 부터 얻은 가버 필터링 반응값을 차원 공간 변환 과정을 통해 새로운 차원 공간으로 이동시킨 후 얼굴 인식을 수행함으로써, 얼굴 인식 성능을 높이고, 데이타베이스의 양을 줄이는, 가버 필터링 반응값의 차원 공간 변환을 이용한 얼굴 인식 방법을 제공하는데 있다.The technical problem to be achieved by the present invention is to solve the above-mentioned problem, and to move the Gabor filtering response value obtained from a certain region of the face based on the feature points of the face to the new dimension space through the process of dimension space conversion. The present invention provides a face recognition method using a dimensional space transformation of Gabor filtering response values to increase face recognition performance and reduce the amount of database by performing face recognition after the face recognition.

본 발명이 이루고자 하는 다른 기술적 과제는, 상기 얼굴 인식 방법을 수행하는 가버 필터링 반응값의 차원 공간 변환을 이용한 얼굴 인식 장치를 제공하는데 있다.Another object of the present invention is to provide a face recognition apparatus using dimensional space transformation of Gabor filtering response values for performing the face recognition method.

도 1은 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우챠트이다.1 is a flowchart illustrating a face recognition method according to the present invention.

도 2는 본 발명에 의한 얼굴 인식 장치의 바람직한 실시예에 따른 블럭도이다.2 is a block diagram according to a preferred embodiment of the face recognition apparatus according to the present invention.

도 3은 도 2에 도시된 얼굴 영역 추출기에서 수행된 얼굴 영역의 추출 예를 나타내는 도면이다.FIG. 3 is a diagram illustrating an example of extracting a face region performed by the face region extractor illustrated in FIG. 2.

도 4는 도 2에 도시된 얼굴 특징점 추출기에서 수행된 얼굴 특징점의 추출 예를 나타내는 도면이다.4 is a diagram illustrating an example of extracting a facial feature point performed by the facial feature point extractor illustrated in FIG. 2.

도 5는 도 2에 도시된 장치에 의해 수행되는 얼굴 인식 과정의 예를 나타내는 도면이다.FIG. 5 is a diagram illustrating an example of a face recognition process performed by the apparatus shown in FIG. 2.

상기 과제를 이루기 위하여, 본 발명에 의한 얼굴 인식 방법은,In order to achieve the above object, the face recognition method according to the present invention,

(a) 얼굴 인식에 참조가 될 트레이닝 영상들에 대해, 얼굴의 특징점들로 부터 얻은 가버 필터 반응값들을 차원 공간 변환 과정을 통해 만들어진 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장하여 얼굴 모델 데이타베이스를 생성하는 단계 및 (b) 얼굴 인식을 수행하고자 하는 테스트 영상에 대해, 얼굴의 특징점들로 부터 얻은 가버 필터 반응값들을 새로운 차원 공간으로 이동시킨 후, 얼굴 모델 데이타베이스를 참조하여 테스트 영상에 대한 유사한 얼굴을 식별하는 단계를 포함한다.(a) For the training images to be referred to for face recognition, map Gabor filter response values obtained from the feature points of the face to the new dimensional space created through the dimensional space transformation process, and map each training image in the new dimensional space. Generating a face model database by storing the coordinate values for the face and (b) moving the Gabor filter response values obtained from the feature points of the face to a new dimensional space for the test image to perform face recognition. Identifying a similar face for the test image by referring to the model database.

상기 다른 과제를 이루기 위하여, 본 발명에 의한 얼굴 인식 장치는,In order to achieve the above another object, the face recognition apparatus according to the present invention,

입력 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는 가버 필터부, 반응값들을 1차원 어레이로 표현하고, 입력 영상으로 트레이닝 영상들이 순차적으로 입력된 경우에 각 트레이닝 영상에 대해 각각 얻어진 1차원 어레이들을 하나의 매트릭스로 구성하는 매트릭스 생성부, 소정의 차원 공간 변환 방법을 이용하여 매트릭스에 대응한 새로운 차원 공간을 만드는 차원 공간 변환부, 각 트레이닝 영상을 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장하는 얼굴 모델 데이타베이스 생성부 및 입력 영상으로 테스트 영상이 입력될 경우에, 가버 필터부 및 매트릭스 생성부를 거쳐 표현된 1차원 어레이를 새로운 차원 공간으로 이동시키고, 얼굴 모델 데이타베이스를 참조하여 유사한 얼굴을 식별하는 얼굴 유사도 판단부를 포함한다.A Gabor filter unit that obtains response values by applying a set of Gabor filters having various directionalities and frequencies to each feature point of the face extracted from the input image, and expresses the response values in a one-dimensional array. A matrix generator for constructing each one-dimensional array obtained for each training image into a matrix when inputted as a dimensional space; a dimensional space converter for creating a new dimensional space corresponding to a matrix by using a predetermined dimensional space transform method; When the test image is input to the face model database generation unit and the input image that maps the training image to the new dimensional space and stores the coordinate values for each training image in the new dimensional space, the Gabor filter unit and the matrix generation unit One-dimensional array represented through the new dimension space And a face similarity determining unit for identifying a similar face by referring to the face model database.

이하, 본 발명에 의한 가버 필터링 반응값의 차원 공간 변환을 이용한 얼굴인식 장치 및 방법을 첨부한 도면을 참조하여 다음과 같이 설명한다.Hereinafter, a face recognition apparatus and a method using a dimensional space transformation of Gabor filtering response values according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 의한 얼굴 인식 방법을 설명하기 위한 플로우챠트이다.1 is a flowchart illustrating a face recognition method according to the present invention.

본 발명은 가버 필터를 이용한 얼굴 인식 방법의 특징과, PCA를 이용한 얼굴 인식 방법의 특징만을 활용한다. 이 두 방법을 활용하여, 본 발명에 의한 얼굴 인식 방법은 크게 얼굴 모델 데이타베이스를 생성하고, 이를 참조하여 실제로 테스트하고자 하는 입력 영상의 얼굴을 인식한다.The present invention utilizes only the features of the face recognition method using Gabor filter and the features of the face recognition method using PCA. Using these two methods, the face recognition method according to the present invention greatly generates a face model database, and recognizes a face of an input image to be actually tested by referring to the face model database.

얼굴 모델 데이타베이스를 생성하기 위해, 얼굴 인식에 참조가 될 트레이닝 영상들을 입력한다. 각 트레이닝 영상에 대해 얼굴의 특징점들로 부터 얻은 가버 필터링 반응값들을 차원 공간 변환 과정을 통해 만들어진 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장한다.To generate a face model database, training images to be referred to for face recognition are input. For each training image, Gabor filtering response values obtained from facial feature points are mapped to a new dimensional space created through the dimensional space transformation process, and the coordinate values of each training image in the new dimensional space are stored.

구체적으로, 도 1을 참조하여 설명하면, 순차적으로 입력된 각 트레이닝 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는다(제100단계). 여기서, 특징점들은 실험을 통해 얼굴 영역에서 가버 필터링 반응에 민감한 부분들을 이용한다. 실험적으로는, 얼굴 영역에서 특징점을 기준으로 한 일정 영역에 대해 가버 필터들의 집합을 적용시켜 반응값들을 얻는다.In detail, referring to FIG. 1, response values are obtained by applying a set of Gabor filters having various directionalities and frequencies to each of the feature points of the face extracted from each of the sequentially input training images (step 100). . Here, the feature points use parts sensitive to Gabor filtering response in the face region through experiments. Experimentally, response values are obtained by applying a set of Gabor filters to a region based on a feature point in a face region.

제100단계에서 필요한 특징점을 추출하기 위한 과정은 간략히 다음과 같다. 먼저, 얼굴 영상을 포함한 트레이닝 영상에서 얼굴의 특정 생김새의 위치를 찾는다. 예컨대, 얼굴의 두눈의 위치, 얼굴 전체 형상 등이 될 수 있다. 다음에, 얼굴 특정 생김새의 위치를 이용하여 트레이닝 영상에서 얼굴 영역을 추출한다. 추출된 얼굴 영역과 가버 필터가 서로 일정비를 갖도록 얼굴 영역 또는 가버 필터의 크기를 변화시킨 후에, 얼굴 영역에 대해 히스토그램 평활화 과정을 수행하여 조명의 영향을 감소시킨다. 다음에, 얼굴 영역에서 가버 필터에 적용할 특징점들을 추출한다.A process for extracting the feature points necessary in step 100 is briefly as follows. First, the position of a specific feature of a face is found in a training image including a face image. For example, the position of the binocular of the face, the overall shape of the face, and the like. Next, the face region is extracted from the training image using the position of the face specific feature. After changing the size of the face region or Gabor filter so that the extracted face region and Gabor filter have a certain ratio, the histogram smoothing process is performed on the face region to reduce the influence of illumination. Next, feature points to be applied to the Gabor filter in the face region are extracted.

제100단계 후에, 가버 필터들의 집합을 적용시켜 얻은 반응값들을 1차원 어레이로 표현하고, 각 트레이닝 영상에 대해 얻어진 1차원 어레이들을 하나의 매트릭스로 구성한다(제102단계). 즉, 하나의 트레이닝 영상으로 부터 얻어진 반응값들을 1차원 어레이로 바꾸고, 다른 트레이닝 영상에도 동일한 방법을 적용하여 반응값들을 1차원 어레이로 바꾼다. 하나의 트레이닝 영상에 대해서 각 특징점마다 복수개의 반응값들을 가지므로, 예컨대, 특징점이 20개이고, 40개의 가버 필터들의 집합을 이용하였다면, 하나의 트레이닝 영상에 대해 800개의 반응값들을 얻을 것이다. 이를 1차원 어레이로 표현하고, 이렇게 표현된 각각의 1차원 어레이가 하나의 열 또는 행을 구성하는 매트릭스를 구성한다. 이때, 매스트릭스는 크기를 줄이기 위해서 다시 공분산(covariance) 매트릭스 또는 상관(correlation) 매트릭스로 구성한다.After operation 100, the response values obtained by applying the Gabor filters are represented as a one-dimensional array, and the one-dimensional arrays obtained for each training image are configured as one matrix (operation 102). That is, the response values obtained from one training image are changed into a one-dimensional array, and the same method is applied to the other training images to change the response values into a one-dimensional array. Since each feature has a plurality of response values for one training image, for example, if there are 20 feature points and a set of 40 Gabor filters is used, 800 response values will be obtained for one training image. This is expressed as a one-dimensional array, and each one-dimensional array represented in this way constitutes a matrix constituting one column or row. At this time, the matrices are composed of a covariance matrix or a correlation matrix again to reduce the size.

제102단계 후에, 소정의 차원 공간 변환 방법을 이용하여 제104단계에서 구성된 매트릭스를 대응하는 새로운 차원 공간을 만든다(제104단계). 차원 공간 변환 방법 즉, 다른 차원 공간으로 이동시키는 방법으로, 바람직하게 주 구성요소 분석(PCA) 방법, 독립 구성요소 분석(Independent Component Analysis) 방법 및 비선형 주 구성요소 분석(Nonlinear PCA) 방법 등이 사용될 수 있다.After step 102, a new dimensional space corresponding to the matrix constructed in step 104 is created using a predetermined dimensional space transformation method (step 104). As the method of transforming the dimensional space, that is, moving to another dimension space, preferably, a principal component analysis (PCA) method, an independent component analysis method, and a nonlinear PCA method are used. Can be.

새로운 차원 공간이 만들어지면, 각 트레이닝 영상을 새로운 차원 공간으로 매핑시킨다(제106단계). 다음에, 새로운 차원 공간에서의 좌표값을 저장하여 얼굴 모델 데이타베이스를 생성한다(제108단계). 이때, 새로운 차원 공간으로 이동된 트레이닝 영상들중에서 동일한 사람의 얼굴 영상들을 대상으로 클래스를 구성한다. 새로운 차원 공간은 특성상 서로 유사한 얼굴 형상들 또는 유사한 얼굴의 특정 생김새 등을 갖는 영상끼리 분포하도록 매트릭스를 재구성한다.When a new dimensional space is created, each training image is mapped to a new dimensional space (step 106). Next, a coordinate model in the new dimensional space is stored to generate a face model database (step 108). At this time, the class is composed of face images of the same person among the training images moved to the new dimensional space. The new dimensional space reconstructs the matrix to distribute images having similar facial shapes or specific features of similar faces.

제100단계 내지 제108단계를 거쳐 얼굴 모델 데이타베이스가 생성되면, 이제 테스트 영상을 입력하여 실제로 얼굴 인식을 수행할 수 있다. 테스트 영상에 대해서도 얼굴의 특징점들로 부터 얻은 가버 필터 반응값들을 새로운 차원 공간으로 이동시킨다. 그 후에, 얼굴 모델 데이타베이스를 참조하여 테스트 영상에 대한 유사한 얼굴을 식별한다.After the face model database is generated through the steps 100 to 108, the face image may be input to perform face recognition. Even for the test image, Gabor filter response values obtained from facial feature points are moved to a new dimension space. Thereafter, a similar face is identified for the test image by referring to the face model database.

구체적으로, 도 1을 참조하여 설명하면, 입력된 실제 테스트 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는다(제110단계). 여기서, 특징점들은 실험을 통해 얼굴 영역에서 가버 필터링 반응에 민감한 부분들을 이용한다. 특징점을 추출하기 위한 과정 또한 트레이닝 영상에 대해 수행된 것과 마찬가지로 수행된다.In detail, referring to FIG. 1, response values are obtained by applying a set of Gabor filters having various directionalities and frequencies to each of feature points of a face extracted from an input real test image (step 110). Here, the feature points use parts sensitive to Gabor filtering response in the face region through experiments. The procedure for extracting the feature points is also performed as it is performed for the training image.

제110단계 후에, 가버 필터들의 집합을 적용시켜 얻은 반응값들을 1차원 어레이로 표현한다(제112단계). 1차원 어레이를 제104단계에서 소정의 차원 공간 변환 방법을 이용하여 만들어진 새로운 차원 공간으로 이동시킨다(제114단계). 얼굴 모델 데이타베이스를 참조하여 텍스트 영상에 대한 유사한 얼굴을 식별한다(제116단계). 즉, 테스트 영상이 새로운 차원 공간에서 어떤 클래스에 포함되는지를 식별한다.After operation 110, the response values obtained by applying the Gabor filters are expressed as a one-dimensional array (operation 112). The one-dimensional array is moved to a new dimensional space created using a predetermined dimensional space transformation method in step 104 (step 114). A similar face for the text image is identified by referring to the face model database (step 116). That is, it identifies which class the test image is included in in the new dimension space.

도 2는 본 발명에 의한 얼굴 인식 장치의 바람직한 실시예에 따른 블럭도이다.2 is a block diagram according to a preferred embodiment of the face recognition apparatus according to the present invention.

본 발명에 의한 얼굴 인식 장치는, 가버 필터링을 위한 전처리부로서, 얼굴 감지기(210), 얼굴 영역 추출기(212), 크기 변환기(214), 영상 전처리기(216) 및 얼굴 특징점 추출기(218)를 포함하며, 가버 필터부(220), 매트릭스 생성부(230), 차원 공간 변환부(240), 얼굴 모델 데이타베이스 생성부(250) 및 얼굴 유사도 판단부(260)를 포함한다.The face recognition apparatus according to the present invention includes a face detector 210, a face region extractor 212, a size converter 214, an image preprocessor 216, and a face feature point extractor 218 as preprocessors for Gabor filtering. And a Gabor filter 220, a matrix generator 230, a dimensional space converter 240, a face model database generator 250, and a face similarity determiner 260.

얼굴 감지기(210)는 입력 영상에서 얼굴의 특정 생김새의 위치를 검출한다. 예컨대, 얼굴의 특정 생김새의 위치로서 두 눈의 위치를 검출하도록 설정할 수 있다. 입력 영상에 얼굴 영상이 포함되어 있다면, 소정 범위내의 거리를 갖는 두 눈의 위치를 찾을 수 있을 것이다.The face detector 210 detects a position of a specific feature of the face in the input image. For example, it may be set to detect the position of both eyes as the position of a specific appearance of the face. If a face image is included in the input image, the position of two eyes having a distance within a predetermined range may be found.

얼굴 영역 추출기(212)는 얼굴 감지기(210)를 통해 검출된 얼굴의 특정 생김새의 위치에 근거하여 그 위치와 일정비를 유지하도록 얼굴의 영역을 추출한다. 예컨대, 얼굴 감지기(210)에서 두 눈의 위치를 검출하였다면, 두 눈의 거리를 구할 수 있다. 얼굴 인식을 위한 전처리 단계로서, 두 눈 사이의 거리를 기초로 입력 영상에서 얼굴 영역을 잘라내는 방법을 사용하는 것은 영상의 배경 혹은 사람의 머리 스타일의 변화 등에 대한 영향을 최소화시키기 위해서다.The face region extractor 212 extracts an area of the face to maintain a constant ratio with the position based on the position of a specific feature of the face detected by the face detector 210. For example, if the face detector 210 detects the positions of the two eyes, the distance of the two eyes may be obtained. As a preprocessing step for face recognition, a method of cutting out a face region from an input image based on a distance between two eyes is to minimize an influence on a background of an image or a change in a human hair style.

도 3은 도 2에 도시된 얼굴 영역 추출기(212)에서 수행된 얼굴 영역의 추출예를 나타내며, 300은 입력 영상을, 302는 추출된 얼굴 영역을 각각 나타낸다.3 illustrates an example of extracting a face region performed by the face region extractor 212 illustrated in FIG. 2, 300 represents an input image, and 302 represents an extracted face region.

예컨대, 두 눈 사이의 거리를 2D라고 할때, 왼쪽 눈 바깥의 거리 및 오른쪽 눈 바깥의 거리를 각각 D로 하고, 눈을 기준으로 눈 위의 영역 거리를 1.5*D로 하고, 눈을 기준으로 눈 아래의 영역 거리를 3*D로 하여 얼굴 인식에 적절한 얼굴 영역을 잘라낸다. 도 3을 참조하면, 이러한 비율로 얼굴 영역을 잘라낼 경우에 배경을 최소화시키면서, 수치상으로 간단한 비율을 갖고, 또한 눈썹, 눈, 코, 입술 등 얼굴 전체에서 얼굴의 특징을 포함한다는 것을 알 수 있다.For example, when the distance between two eyes is 2D, the distance outside the left eye and the distance outside the right eye are respectively D, and the area distance above the eyes is 1.5 * D relative to the eyes, and the eyes is relative to the eyes. A 3 * D area distance under the eye is trimmed to remove the face area suitable for face recognition. Referring to FIG. 3, it can be seen that when the face area is cut at such a ratio, the background is minimized while having a simple numerical value, and the face features are included in the entire face such as eyebrows, eyes, nose, and lips.

다시 도 2를 참조하면, 크기 변환기(214)는 얼굴 영역 추출기(212)에서 추출된 얼굴 영역과 이후에 적용될 가버 필터가 서로 일정비를 갖도록 적어도 하나의 크기를 변환시킨다. 한 방법으로, 얼굴 영역의 크기를 이후에 적용될 2-D 가버 필터의 크기에 따라 변화시킨다. 즉, 얼굴 영역의 특정 생김새 예컨대, 두 눈간의 거리와 2-D 가버 필터의 크기를 고려하여 서로 일정비를 유지하도록 영상의 크기를 변화시킨다. 또는 다른 방법으로, 가버 필터의 크기를 변화시켜 일정비를 유지할 수도 있다. 여기서, 가버 필터의 크기 변화는 즉, 해상도의 변화를 의미한다.Referring back to FIG. 2, the size converter 214 converts at least one size such that the face region extracted by the face region extractor 212 and the Gabor filter to be applied later have a predetermined ratio with each other. In one method, the size of the face area is changed according to the size of the 2-D Gabor filter to be applied later. That is, the size of the image is changed to maintain a constant ratio in consideration of specific features of the face area, for example, the distance between the two eyes and the size of the 2-D Gabor filter. Alternatively, the ratio of Gabor filters may be varied to maintain a constant ratio. Here, the size change of the Gabor filter means a change in resolution.

영상 전처리기(216)는 크기 변환기(214)를 거친 얼굴 영역에 대해 히스토그램 평활화 과정을 거쳐 조명의 영향을 감소시킨다. 입력 영상들은 조명의 영향으로 상대적으로 휘도가 높거나 낮을 수 있고, 한 입력 영상에서도 휘도가 높은 부분과 낮은 부분이 생길 수 있다. 조명의 영향을 감소시키기 위해, 얼굴 영역에서 각 화소의 휘도 분포를 분석하여 히스토그램을 얻고, 빈도수가 높은 휘도를 중심으로 히스토그램을 평활화한다.The image preprocessor 216 reduces the influence of illumination by performing histogram smoothing on the face region passed through the size converter 214. The input images may have a relatively high or low luminance due to the illumination, and a high portion and a low portion may be generated even in one input image. In order to reduce the influence of illumination, the histogram is obtained by analyzing the luminance distribution of each pixel in the face region, and the histogram is smoothed around the high frequency luminance.

얼굴 특징점 추출기(218)는 영상 전처리기(216)에서 전처리된 얼굴 영역에서 가버 필터를 적용할 소정수의 특징점들을 추출한다. 도 4는 도 2에 도시된 얼굴 특징점 추출기에서 수행된 얼굴 특징점의 추출 예를 나타내는 도면이다. 도 4를 참조하면, 본 실험에서는 예컨대, 20개의 특징점들을 십자 모양으로 표시하였다. 이와 같이 표시한 기준은 다수의 사람들을 대상으로 얼굴 영역에서 가버 필터에 민감하게 반응한 부분들을 실험을 통해 얻은 결과이다.The facial feature point extractor 218 extracts a predetermined number of feature points to which the Gabor filter is to be applied from the face region preprocessed by the image preprocessor 216. 4 is a diagram illustrating an example of extracting a facial feature point performed by the facial feature point extractor illustrated in FIG. 2. Referring to FIG. 4, in this experiment, for example, 20 feature points are displayed in a cross shape. The criterion indicated above is the result of experiments on the sensitive parts of Gabor filter in the face area.

가버 필터부(220)는 얼굴 특징점 추출기(218)에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는다. 일반적으로, 가버 필터로 부터 반응값()을 구하는 식은 다음 수학식 1과 같다.The Gabor filter 220 obtains response values by applying a set of Gabor filters having various directions and frequencies to each of the facial feature points extracted by the facial feature extractor 218. In general, the response from the Gabor filter ( ) Is obtained from Equation 1 below.

수학식 1에서,는 각각 주파수와 방향성을 나타내며, 본 실험에서는 ν의 범위를 0~4로 하고, μ의 범위를 0~7로 하였다. 따라서, 총 40개의 가버 필터들의 집합을 이용하였다.In Equation 1, Denotes frequency and directivity, respectively, in this experiment, the range of ν is 0 to 4, and the range of μ is 0 to 7. Therefore, a total of 40 Gabor filters were used.

도 5는 도 2에 도시된 장치에 의해 수행되는 얼굴 인식 과정의 예를 나타내는 도면이다. 도 5를 참조하면, 500은 입력 영상을, 502는 얼굴 감지기(210) 및 얼굴 영역 추출기(210)로 부터의 얼굴 영역 추출 결과를, 504는 크기 변환기(216), 영상 전처리기(216) 및 얼굴 특징점 추출기(218)로 부터의 전처리 및 특징점 추출 결과를 각각 나타낸다.FIG. 5 is a diagram illustrating an example of a face recognition process performed by the apparatus shown in FIG. 2. Referring to FIG. 5, 500 denotes an input image, 502 denotes a face region extraction result from the face detector 210 and the face region extractor 210, and 504 denotes a size converter 216, an image preprocessor 216, and the like. Preprocessing and feature point extraction results from the facial feature point extractor 218 are shown, respectively.

506은 얼굴 영역의 하나의 특징점에 대해 방향성과 주파수를 달리하는 16개의 가버 필터들을 적용한 특성 반응 추출 결과이다. 본 실험에서는 특징점을 중심으로 소정 크기의 일정 영역에 대해 가버 필터를 적용시켰다. 506과 같이 각 가버 필터에 대해 소정 크기의 일정 영역에 대한 반응값들이 얻어지는데, 결과적으로 하나의 반응값이 추출되어 이용된다.506 is a characteristic response extraction result of applying 16 Gabor filters having different directions and frequencies to one feature point of the face region. In this experiment, Gabor filters were applied to a specific area of a certain size around the feature points. For each Gabor filter as shown in 506, response values for a predetermined area of a predetermined size are obtained. As a result, one response value is extracted and used.

다시 도 2를 참조하면, 매트릭스 생성부(230)는 가버 필터부(220)에서 얻은 반응값들을 1차원 어레이로 표현한다. 얼굴 모델 데이타베이스를 생성하기 위해, 입력 영상으로 트레이닝 영상들이 순차적으로 입력된 경우라면, 각 트레이닝 영상에 대해 각각 얻어진 1차원 어레이들을 하나의 매트릭스로 구성한다. 하나의 트레이닝 영상으로 부터 얻어진 가버 필터링 반응값들을 1차원 어레이로 표현하고, 나머지 트레이닝 영상에 대해서도 동일한 방법을 적용해서 얻어진 1차원 어레이들을 각각이 하나의 행 또는 열을 구성하는 매트릭스로 만든다. 이 매트릭스를 다시 공분산 매트릭스 또는 상관 매트릭스로 변환한다.Referring back to FIG. 2, the matrix generator 230 expresses the response values obtained by the Gabor filter 220 in a one-dimensional array. In order to generate a face model database, if training images are sequentially input as input images, one-dimensional arrays obtained for each training image are configured as one matrix. Gabor filtering response values obtained from one training image are expressed in a one-dimensional array, and the same method is applied to the remaining training images to form a matrix in which each row or column is formed. This matrix is converted back into a covariance matrix or a correlation matrix.

차원 공간 변환부(240)는 소정의 차원 공간 변환 방법을 이용하여 매트릭스 생성부(230)에서 구성된 매트릭스에 대응하는 새로운 차원 공간을 만든다. 여기서, 차원 공간 변환 방법은 바람직하게 주 구성요소 분석(PCA) 방법, 독립 구성요소 분석(ICA) 방법 및 비선형 주 구성요소 분석 방법 등이 사용될 수 있다. 대표적으로, 주 구성요소 분석(PCA) 방법은 멀티 차원 이미지 공간에서 고유 벡터(eigen vector)들의 집합을 특징으로 한다.The dimensional space converter 240 creates a new dimensional space corresponding to the matrix constructed by the matrix generator 230 using a predetermined dimensional space transformation method. Here, the dimensional space transformation method may be preferably used as a principal component analysis (PCA) method, independent component analysis (ICA) method and nonlinear principal component analysis method. Typically, principal component analysis (PCA) methods feature a set of eigen vectors in a multi-dimensional image space.

데이타베이스 생성부(250)는 각 트레이닝 영상을 새로운 차원 공간으로 매핑시킨 후에, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장한다. 이때, 새로운 차원 공간으로 이동된 트레이닝 영상들중에서 동일한 사람의 얼굴 영상을 대상으로 클래스를 구성한다.The database generator 250 maps each training image to a new dimensional space, and then stores coordinate values of each training image in the new dimensional space. At this time, the class is composed of the face images of the same person among the training images moved to the new dimensional space.

도 5를 참조하면, 508는 매트릭스 생성부(230)에서 구성된 매트릭스를 나타낸다. 매트릭스에서 한 열은 하나의 트레이닝 영상에 대응하며, 한 열에서 k는 예컨대, 20개의 특징점들에 대해 40개의 가버 필터들을 적용했다면, 800이 된다. 그러나, k는 공산 매트릭스 또는 상관 매트릭스를 이용하여 400으로 줄어든다. 이 매트릭스에 대해 특성 계수 차원 변환을 수행한 결과, 새로운 차원 공간이 만들어지는데, 매트릭스의 한 열은 즉, 새로운 차원 공간에서의 한 좌표값이 된다. 이러한 좌표값들에 510과 같이 얼굴 데이타베이스가 매핑된다.Referring to FIG. 5, 508 represents a matrix constructed in the matrix generator 230. One column in the matrix corresponds to one training image, and k in one column becomes 800 if, for example, 40 Gabor filters were applied for 20 feature points. However, k is reduced to 400 using a communicative matrix or correlation matrix. As a result of performing the feature coefficient dimension transformation on this matrix, a new dimension space is created, one column of the matrix being a coordinate value in the new dimension space. The face database is mapped to these coordinate values as shown in 510.

입력 영상으로 트레이닝 영상들이 순차적으로 입력된 경우에, 지금까지 설명한 구성요소들로 부터 얼굴 모델 데이타베이스가 생성된다. 한편, 실제로 새롭게 인식을 수행해야 할 영상 즉, 입력 영상으로 테스트 영상이 입력되면, 도 2에서 점선으로 표시한 블럭(200)이 트레이닝 영상에 대해 수행된 것과 동일하게 수행된다.When training images are sequentially input to the input image, a face model database is generated from the components described so far. Meanwhile, when the test image is actually input as an image to be newly recognized, that is, an input image, the block 200 indicated by a dotted line in FIG. 2 is performed in the same manner as that performed for the training image.

다음에, 매트릭스 생성부(230)는 테스트 영상에 대해 마찬가지로 가버 필터부(220)로 부터 에서 얻은 반응값들을 1차원 어레이로 표현한다. 얼굴 유사도 판단부(260)는 매트릭스 생성부(230)를 거쳐 표현된 1차원 어레이를 차원 공간 변환부(240)에서 이미 만들어진 새로운 차원 공간으로 이동시킨다. 그리고, 데이타베이스 생성부(250)를 참조하여 새로운 차원 공간에서 어떤 클래스에 포함되는지, 유사한 얼굴이 있는지를 식별한다. 최종적으로 얼굴 인식 결과를 출력한다.Next, the matrix generator 230 expresses the response values obtained from the Gabor filter 220 in a one-dimensional array with respect to the test image. The face similarity determination unit 260 moves the one-dimensional array expressed through the matrix generator 230 to the new dimensional space already created by the dimensional space converter 240. The database generator 250 identifies which classes are included in the new dimension space and whether there are similar faces. Finally, the face recognition result is output.

지금까지 설명한 본 발명에 의한 얼굴 인식 방법 및 장치는 얼굴을 인식하는 기술을 필요로 하는 응용 제품에 적용가능하다. 예컨대, 보안 장치에 적용될 경우에, 제한된 출입이 필요한 곳에 열쇠나 IC 카드 등을 대신하여 개인의 신체적 특징을 이용하여 출입을 관리할 수 있다.The face recognition method and apparatus according to the present invention described so far can be applied to an application requiring a face recognition technique. For example, when applied to a security device, access can be managed by using the physical characteristics of the individual instead of a key or IC card where restricted access is required.

또한, 얼굴 데이타베이스 검색 장치에 적용될 경우에, 범죄자 리스트 검색등 많은 사람들중 특정인을 찾을 수 있다. 또한, 참석자 카운팅 시스템에 적용될 경우에, 어떤 폐쇄된 공간내에 있는 사람들의 참석 여부를 확인할 수 있다. 이밖에 다른 많은 응용 제품에 적용할 수 있다.In addition, when applied to the face database search apparatus, it is possible to find a specific person among many people, such as searching a criminal list. In addition, when applied to the attendant counting system, it is possible to check whether people in a closed space attend. It can be applied to many other applications.

이상에서 설명한 바와 같이, 본 발명에 의한 얼굴 인식 방법 및 그 장치는, 차원 공간 변환을 위한 입력으로 가버 필터링 반응값을 사용함으로써 얼굴의 세부적인 면을 표현해주며, 가버 필터의 특성상 로테이션과 조명의 변화에 강한 특성을 반영하여 얼굴 인식 성능을 높이고, 또한 차원 공간 변환 방법을 적용함으로써 다른 공간에서 얼굴 데이타베이스의 크기를 현저히 줄여 저장할 수 있는 장점이 있다.As described above, the face recognition method and apparatus according to the present invention express the detailed faces of the face by using Gabor filtering response as an input for dimensional space transformation, and change in rotation and illumination due to the characteristics of Gabor filter. This feature has the advantage of significantly reducing the size of the face database in other spaces by increasing the face recognition performance by applying strong characteristics to the space and applying the dimensional space transformation method.

Claims (17)

(a) 얼굴 인식에 참조가 될 트레이닝 영상들에 대해, 얼굴의 특징점들로 부터 얻은 가버 필터 반응값들을 차원 공간 변환 과정을 통해 만들어진 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장하여 얼굴 모델 데이타베이스를 생성하는 단계; 및(a) For the training images to be referred to for face recognition, map Gabor filter response values obtained from the feature points of the face to the new dimensional space created through the dimensional space transformation process, and map each training image in the new dimensional space. Generating a face model database by storing coordinate values for the face; And (b) 얼굴 인식을 수행하고자 하는 테스트 영상에 대해, 얼굴의 특징점들로 부터 얻은 가버 필터 반응값들을 상기 새로운 차원 공간으로 이동시킨 후, 상기 얼굴 모델 데이타베이스를 참조하여 상기 테스트 영상에 대한 유사한 얼굴을 식별하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.(b) For the test image to perform face recognition, move Gabor filter response values obtained from the feature points of the face to the new dimensional space, and then refer to the face model database for a similar face for the test image. Face recognition method comprising the step of identifying. 제1항에 있어서, 상기 (a) 단계는,According to claim 1, wherein the step (a), (a1) 순차적으로 입력된 각 트레이닝 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는 단계;(a1) obtaining response values by applying a set of Gabor filters having various directions and frequencies to each of the feature points of the face extracted from each of the sequentially input training images; (a2) 상기 반응값들을 1차원 어레이로 표현하고, 각 트레이닝 영상에 대해 얻어진 1차원 어레이들을 하나의 매트릭스로 구성하는 단계;(a2) expressing the response values in a one-dimensional array and constructing one-dimensional arrays obtained for each training image into a matrix; (a3) 소정의 차원 공간 변환 방법을 이용하여 상기 매트릭스에 대응한 새로운 차원 공간을 만드는 단계; 및(a3) creating a new dimensional space corresponding to the matrix using a predetermined dimensional space transformation method; And (a4) 각 트레이닝 영상을 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장하여 얼굴 모델 데이타베이스를생성하는 단계를 구비하는 것을 특징으로 하는 얼굴 인식 방법.(a4) mapping each training image to a new dimensional space and storing coordinate values for each training image in the new dimensional space to generate a face model database. 제1항 또는 제2항에 있어서, 상기 (b) 단계는,The method of claim 1 or 2, wherein step (b) comprises: (b1) 입력된 테스트 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는 단계;(b1) obtaining response values by applying a set of Gabor filters having various directions and frequencies to each of the feature points of the face extracted from the input test image; (b2) 상기 반응값들을 1차원 어레이로 표현하는 단계;(b2) expressing the response values in a one-dimensional array; (b3) 상기 1차원 어레이를 상기 새로운 차원 공간으로 이동시키는 단계; 및(b3) moving the one-dimensional array to the new dimensional space; And (b4) 상기 얼굴 모델 데이타베이스를 참조하여 상기 테스트 영상에 대한 유사한 얼굴을 식별하는 단계를 구비하는 것을 특징으로 하는 얼굴 인식 방법.(b4) identifying a similar face with respect to the test image by referring to the face model database. 제2항에 있어서, 상기 (a2) 단계에서 상기 매트릭스는,The method of claim 2, wherein in the step (a2), the matrix, 상기 1차원 어레이가 하나의 열 또는 행을 구성하는 매트릭스에 대한 공분산 매트릭스인 것을 특징으로 하는 얼굴 인식 방법.And the one-dimensional array is a covariance matrix for a matrix constituting one column or row. 제2항에 있어서, 상기 (a2) 단계에서 상기 매트릭스는,The method of claim 2, wherein in the step (a2), the matrix, 상기 1차원 어레이가 하나의 열 또는 행을 구성하는 매트릭스에 대한 상관 매트릭스인 것을 특징으로 하는 얼굴 인식 방법.And the one-dimensional array is a correlation matrix for a matrix constituting one column or row. 제2항에 있어서, 상기 (a3) 단계에서 상기 소정의 차원 공간 변환 방법은,The method of claim 2, wherein in the step (a3), the predetermined dimensional space transformation method, 주 구성요소 분석(PCA) 방법인 것을 특징으로 하는 얼굴 인식 방법.Face recognition method characterized in that the principal component analysis (PCA) method. 제2항에 있어서, 상기 (a3) 단계에서 상기 소정의 차원 공간 변환 방법은, 독립 구성요소 분석(ICA) 방법인 것을 특징으로 하는 얼굴 인식 방법.The method of claim 2, wherein the predetermined dimensional space transformation method in the step (a3) is an independent component analysis (ICA) method. 제2항에 있어서, 상기 (a3) 단계에서 상기 소정의 차원 공간 변환 방법은,The method of claim 2, wherein in the step (a3), the predetermined dimensional space transformation method, 비선형 주 구성요소 분석 방법인 것을 특징으로 하는 얼굴 인식 방법.Face recognition method characterized in that the non-linear principal component analysis method. 입력 영상에서 추출된 얼굴의 특징점들 각각에 대해 다양한 방향성과 주파수를 갖는 가버 필터들의 집합을 적용시켜 반응값들을 얻는 가버 필터부;A Gabor filter unit for obtaining response values by applying a set of Gabor filters having various directions and frequencies to each of the feature points of the face extracted from the input image; 상기 반응값들을 1차원 어레이로 표현하고, 상기 입력 영상으로 트레이닝 영상들이 순차적으로 입력된 경우에 각 트레이닝 영상에 대해 각각 얻어진 1차원 어레이들을 하나의 매트릭스로 구성하는 매트릭스 생성부;A matrix generator configured to express the response values in a one-dimensional array and configure one-dimensional arrays obtained for each training image as one matrix when the training images are sequentially input to the input image; 소정의 차원 공간 변환 방법을 이용하여 상기 매트릭스에 대응한 새로운 차원 공간을 만드는 차원 공간 변환부;A dimension space transform unit which creates a new dimension space corresponding to the matrix by using a predetermined dimension space transform method; 각 트레이닝 영상을 상기 새로운 차원 공간으로 매핑시키고, 새로운 차원 공간에서의 각 트레이닝 영상에 대한 좌표값을 저장하는 얼굴 모델 데이타베이스 생성부;및A face model database generator for mapping each training image to the new dimensional space and storing coordinate values for each training image in the new dimensional space; and 상기 입력 영상으로 테스트 영상이 입력될 경우에, 상기 가버 필터부 및 상기 매트릭스 생성부를 거쳐 표현된 1차원 어레이를 상기 새로운 차원 공간으로 이동시키고, 상기 얼굴 모델 데이타베이스를 참조하여 유사한 얼굴을 식별하는 상기얼굴 유사도 판단부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.When a test image is input to the input image, the one-dimensional array represented by the Gabor filter unit and the matrix generator is moved to the new dimensional space, and the similar face is identified by referring to the face model database. Face recognition apparatus comprising a face similarity determination unit. 제9항에 있어서, 상기 얼굴 인식 장치는,The apparatus of claim 9, wherein the face recognition device comprises: 입력 영상에서 얼굴의 특정 생김새의 위치를 검출하는 얼굴 감지기;A face sensor for detecting the position of a specific feature of the face in the input image; 상기 위치에 근거하여 얼굴 영역을 추출하는 얼굴 영역 추출기;A face region extractor extracting a face region based on the position; 추출된 얼굴 영역과 가버 필터가 서로 일정비를 갖도록 적어도 하나의 크기를 변환시키는 크기 변환기; 및A size converter for converting at least one size so that the extracted face region and the Gabor filter have a predetermined ratio with each other; And 추출된 얼굴 영역에서 가버 필터에 적용할 소정수의 특징점들을 추출하는 얼굴 특징점 추출기를 더 포함하는 것을 특징으로 하는 얼굴 인식 장치.And a face feature point extractor for extracting a predetermined number of feature points to be applied to the Gabor filter in the extracted face region. 제10항에 있어서, 상기 얼굴 인식 장치는,The apparatus of claim 10, wherein the face recognition device comprises: 상기 얼굴 특징점 추출기로 입력될 상기 추출된 얼굴 영역에 대해 히스토그램 평활화 과정을 거쳐 조명의 영향을 감소시키는 영상 전처리기를 더 포함하는 것을 특징으로 하는 얼굴 인식 장치.And an image preprocessor configured to reduce the influence of illumination on the extracted face region to be input to the facial feature point extractor through a histogram smoothing process. 제9항에 있어서, 상기 얼굴 모델 데이타베이스 생성부는,The method of claim 9, wherein the face model database generation unit, 각 트레이닝 영상을 새로운 차원 공간으로 이동시킨 후에, 트레이닝 영상들중 동일한 사람의 얼굴 영상이 분포한 공간을 찾아 새로운 차원 공간에서 클래스로 구분하는 것을 특징으로 하는 얼굴 인식 장치.After each training image is moved to a new dimensional space, the face recognition device characterized in that to find a space in which the face image of the same person among the training images are distributed and classify the class in the new dimensional space. 제9항에 있어서, 상기 매트릭스는,The method of claim 9, wherein the matrix, 상기 1차원 어레이가 하나의 열 또는 행을 구성하는 매트릭스에 대한 공분산 매트릭스인 것을 특징으로 하는 얼굴 인식 장치.And the one-dimensional array is a covariance matrix for a matrix constituting one column or row. 제9항에 있어서, 상기 매트릭스는,The method of claim 9, wherein the matrix, 상기 1차원 어레이가 하나의 열 또는 행을 구성하는 매트릭스에 대한 상관 매트릭스인 것을 특징으로 하는 얼굴 인식 장치.And the one-dimensional array is a correlation matrix for a matrix constituting one column or row. 제9항에 있어서, 상기 소정의 차원 공간 변환 방법은,The method of claim 9, wherein the predetermined dimensional space transformation method, 주 구성요소 분석(PCA) 방법인 것을 특징으로 하는 얼굴 인식 장치.A facial recognition apparatus, characterized in that the principal component analysis (PCA) method. 제9항에 있어서, 상기 소정의 차원 공간 변환 방법은,The method of claim 9, wherein the predetermined dimensional space transformation method, 독립 구성요소 분석(ICA) 방법인 것을 특징으로 하는 얼굴 인식 장치.Face recognition apparatus, characterized in that the independent component analysis (ICA) method. 제9항에 있어서, 상기 소정의 차원 공간 변환 방법은,The method of claim 9, wherein the predetermined dimensional space transformation method, 비선형 주 구성요소 분석 방법인 것을 특징으로 하는 얼굴 인식 장치.A face recognition apparatus, characterized in that the nonlinear principal component analysis method.
KR1020000011234A 2000-03-07 2000-03-07 Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response KR100360486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000011234A KR100360486B1 (en) 2000-03-07 2000-03-07 Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000011234A KR100360486B1 (en) 2000-03-07 2000-03-07 Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response

Publications (2)

Publication Number Publication Date
KR20010087487A true KR20010087487A (en) 2001-09-21
KR100360486B1 KR100360486B1 (en) 2002-11-13

Family

ID=19652799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000011234A KR100360486B1 (en) 2000-03-07 2000-03-07 Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response

Country Status (1)

Country Link
KR (1) KR100360486B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020089295A (en) * 2002-11-11 2002-11-29 (주)인소텍 Face Recognition Algorithm using Garbor filter and Hidden Markov Model
KR100480783B1 (en) * 2002-03-04 2005-04-06 삼성전자주식회사 Method of recognizing face using component-based 2nd order ICA/PCA and apparatus thereof
KR100601957B1 (en) * 2004-07-07 2006-07-14 삼성전자주식회사 Apparatus for and method for determining image correspondence, apparatus and method for image correction therefor
KR100608595B1 (en) * 2004-11-16 2006-08-03 삼성전자주식회사 Face identifying method and apparatus
KR100647322B1 (en) * 2005-03-02 2006-11-23 삼성전자주식회사 Apparatus and method of generating shape model of object and apparatus and method of automatically searching feature points of object employing the same
KR101352002B1 (en) * 2012-05-09 2014-01-22 주식회사 에스원 Apparatus and method for converting resolution of image and apparatus for recognizing face including the same
KR101397845B1 (en) * 2012-10-26 2014-05-20 포항공과대학교 산학협력단 Face recognition method, machine-readable storage medium and face recognition device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100814793B1 (en) 2005-12-08 2008-03-19 한국전자통신연구원 Face recognition method using linear projection-based ICA with class-specific information and system thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100480783B1 (en) * 2002-03-04 2005-04-06 삼성전자주식회사 Method of recognizing face using component-based 2nd order ICA/PCA and apparatus thereof
KR100486714B1 (en) * 2002-03-04 2005-05-03 삼성전자주식회사 Method of recognizing face using 2nd order ICA/PCA and apparatus thereof
KR20020089295A (en) * 2002-11-11 2002-11-29 (주)인소텍 Face Recognition Algorithm using Garbor filter and Hidden Markov Model
KR100601957B1 (en) * 2004-07-07 2006-07-14 삼성전자주식회사 Apparatus for and method for determining image correspondence, apparatus and method for image correction therefor
KR100608595B1 (en) * 2004-11-16 2006-08-03 삼성전자주식회사 Face identifying method and apparatus
US7953278B2 (en) 2004-11-16 2011-05-31 Samsung Electronics Co., Ltd. Face recognition method and apparatus
KR100647322B1 (en) * 2005-03-02 2006-11-23 삼성전자주식회사 Apparatus and method of generating shape model of object and apparatus and method of automatically searching feature points of object employing the same
KR101352002B1 (en) * 2012-05-09 2014-01-22 주식회사 에스원 Apparatus and method for converting resolution of image and apparatus for recognizing face including the same
KR101397845B1 (en) * 2012-10-26 2014-05-20 포항공과대학교 산학협력단 Face recognition method, machine-readable storage medium and face recognition device

Also Published As

Publication number Publication date
KR100360486B1 (en) 2002-11-13

Similar Documents

Publication Publication Date Title
Kang et al. Real-time sign language fingerspelling recognition using convolutional neural networks from depth map
Barnouti Improve face recognition rate using different image pre-processing techniques
Kekre et al. Performance Comparison for Face Recognition using PCA, DCT &WalshTransform of Row Mean and Column Mean
Anand et al. An improved local binary patterns histograms techniques for face recognition for real time application
KR100723417B1 (en) Apparatuses and methods for recognizing face, and apparatus and method for extracting face from multiple face images
Haji et al. Real time face recognition system (RTFRS)
Levine et al. Face recognition subject to variations in facial expression, illumination and pose using correlation filters
KR100360486B1 (en) Face recognizing method and apparatus using dimensional space transformation of Gabor filtering response
KR101195539B1 (en) Door on/off switching system using face recognition and detection method therefor
Niu et al. Discriminative video representation with temporal order for micro-expression recognition
Shermina Face recognition system using multilinear principal component analysis and locality preserving projection
JPH1185988A (en) Face image recognition system
Yadav et al. Noval approach of classification based Indian sign language recognition using transform features
Omaia et al. 2D-DCT distance based face recognition using a reduced number of coefficients
Das Face recognition in reduced Eigen-plane
Ebrahimpour-Komleh et al. Robustness to expression variations in fractal-based face recognition
Saif et al. Vision-based human face recognition using extended principal component analysis
KR20160042646A (en) Method of Recognizing Faces
Said et al. Face Recognition System
Verma et al. Efficient face recognition method using RBF kernel and genetic algorithm
Chauhan et al. Image-Based Attendance System using Facial Recognition
Karthigayani et al. A novel approach for face recognition and age estimation using local binary pattern, discriminative approach using two layered back propagation network
Pande et al. Parallel processing for multi face detection and recognition
Mallikarjuna Rao et al. Face Recognition Applications Using Active Pixels
Bagga et al. Facial expression representation and classification using LBP, 2DPCA and their combination

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120914

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20130924

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140922

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee