KR100955255B1 - Face Recognition device and method, estimation method for face environment variation - Google Patents

Face Recognition device and method, estimation method for face environment variation Download PDF

Info

Publication number
KR100955255B1
KR100955255B1 KR1020080033056A KR20080033056A KR100955255B1 KR 100955255 B1 KR100955255 B1 KR 100955255B1 KR 1020080033056 A KR1020080033056 A KR 1020080033056A KR 20080033056 A KR20080033056 A KR 20080033056A KR 100955255 B1 KR100955255 B1 KR 100955255B1
Authority
KR
South Korea
Prior art keywords
face
change
internal
degree
dimensional
Prior art date
Application number
KR1020080033056A
Other languages
Korean (ko)
Other versions
KR20090107666A (en
Inventor
손광훈
양욱일
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020080033056A priority Critical patent/KR100955255B1/en
Publication of KR20090107666A publication Critical patent/KR20090107666A/en
Application granted granted Critical
Publication of KR100955255B1 publication Critical patent/KR100955255B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

본 발명은 입력 영상으로 사용자의 2차원 얼굴 영상, 보정을 위한 DB 내 데이터로 3차원 얼굴 데이터를 사용해 내외적 환경 변화 변수(예: 포즈 및 조명 변화)를 추정하고, 추정시에는 실제 사용 환경에 적합한 학습 기반의 추정 알고리즘으로 실시간으로 동시 추정하여, 사용자 편의성 측면이라는 얼굴 인식 기술의 장점을 그대로 유지하면서 인식 성능(본인과 타인의 구별력)을 높인다. The present invention estimates internal and external environmental change variables (eg, pose and lighting changes) using three-dimensional face data as input data, and two-dimensional face image of a user, and data in a database for correction. Simultaneous estimation in real time with an appropriate learning-based estimation algorithm improves recognition performance (distinguishment between the person and others) while maintaining the advantages of face recognition technology in terms of user convenience.

얼굴, 포즈, 조명, 추정, 3차원 Face Pose Illumination Estimation 3d

Description

얼굴 인식 장치 및 그 방법, 얼굴의 내외적 환경 변화 정도 추정 방법{Face Recognition device and method, estimation method for face environment variation}Face Recognition Device and Method, Estimation Method for Face Environment Variation

본 발명은 얼굴 인식 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 얼굴의 내외적 환경 변화(예: 포즈 변화, 조명 변화) 정도를 추정하여 보정한 얼굴의 생체 정보를 이용한 얼굴 인식 장치 및 그 방법에 관한 것이다. The present invention relates to a face recognition apparatus and a method thereof, and more particularly, to a face recognition apparatus using the biometric information of a face corrected by estimating the degree of internal and external environmental changes (eg, pose change and illumination change) and a method thereof. It is about.

일반적으로, 얼굴의 생체 정보를 이용한 개인 인증 기술은 다른 생체 정보(예: 지문, 홍체, 망막 등)를 이용한 개인 인증 기술에 비해, 생체 정보 획득이 비교적 용이하고, 사용자 편의성이라는 측면에서 가장 적합한 기술이다. In general, personal authentication technology using biometric information of the face is most suitable in terms of user convenience and relatively easy to obtain biometric information compared to personal authentication technology using other biometric information (eg, fingerprint, iris, retina, etc.). to be.

이러한 기술이 사용된 통상의 도 1의 2차원 얼굴 인식 장치는 입력 2차원 얼굴 영상에서 추출한 사람의 얼굴 영역을 이용하여 내외적 환경 변화(예; 포즈, 주변 조명, 표정, 장신구 등)가 추정, 보상된 영상에서 얻은 특징 정보와, DB 내 해당 사용자의 2차원 얼굴 정보 간 비교로 최종 인식 결과를 얻게 된다. In the conventional two-dimensional face recognition apparatus of FIG. 1 using such a technique, internal and external environmental changes (eg, poses, ambient lighting, facial expressions, jewelry, etc.) are estimated by using a face region of a person extracted from an input two-dimensional face image. The final recognition result is obtained by comparing the feature information obtained from the compensated image and the 2D face information of the corresponding user in the DB.

하지만, 내외적 환경 변화에 민감한 편이어서 강인한 알고리즘만이 실제 사용 환경에 적용 가능하다. However, since it is sensitive to internal and external environmental changes, only robust algorithms can be applied to the actual use environment.

한편, 3차원 얼굴 인식 기술은 최근 많은 연구가 진행되고 있는데, 기존의 2차원 얼굴 인식 기술에 비해 많은 장점들이 있으며, 특히, 얼굴의 내외적 환경이 변화하는 환경에서도 뛰어난 성능을 보인다. On the other hand, the three-dimensional face recognition technology has been studied a lot recently, there are many advantages over the existing two-dimensional face recognition technology, in particular, shows excellent performance even in the environment where the internal and external environment of the face changes.

하지만, 3차원 데이터 획득 장비의 작동 방법과 그 가격으로 인해서 아직까지 실제 응용 분야에 적용하기는 힘든 편이며, 3차원 데이터 획득을 위해서는 동작시간과 사용자의 특정 행동과 같은 사용자의 협조 등을 필요로 하는 번거로움이 있다.However, due to the operation method and the price of the 3D data acquisition equipment, it is still difficult to apply it to actual application fields, and 3D data acquisition requires user cooperation such as operation time and user's specific behavior. There is a hassle to do.

그래서, 2차원 얼굴 인식 기술과는 달리 사용자 편의성이라는 얼굴 인식 기술의 최대 이점을 퇴색시킨다.Thus, unlike the two-dimensional face recognition technology, the maximum benefit of the face recognition technology of user convenience is faded.

본 발명은 상기한 문제점을 해결하기 위해 개발된 것으로, 사용자 편의성 측면이라는 얼굴 인식 기술의 장점을 그대로 유지하면서, 종래 2차원 얼굴 인식 기술에서의 내외적 환경 변화 변수 추정 방법보다는 간단하면서도 좋은 결과(예: 인식 성능 향상)를 얻을 수 있는, 얼굴 인식 장치 및 그 방법을 제공하는데 목적이 있다. The present invention has been developed to solve the above problems, while maintaining the advantages of the face recognition technology of the user convenience aspect, while simpler and better results than the internal and external environmental variable estimation method in the conventional two-dimensional face recognition technology (eg It is an object of the present invention to provide a face recognition device and a method thereof, which can achieve a recognition performance improvement.

그리고, 다른 목적은 실제 사용 환경에 적합한 학습 기반의 얼굴의 내외적 환경 변화 정도 추정 방법을 제공하는데 있다.Another object is to provide a method of estimating the degree of internal and external environmental change of a learning-based face suitable for an actual use environment.

상기 목적에 따른 본 발명의 얼굴 인식 장치는The face recognition apparatus of the present invention according to the above object

입력 2차원 영상에서 얼굴 영역을 검출하는 얼굴 검출부, 상기 얼굴 영역에서 특징 정보를 추출하는 특징 추출부, 상기 특징 정보를 사용해 정규화한 얼굴 영역에서 얼굴의 내외적 환경 변화 변수를 구하는 환경 변화 변수 산출부, 상기 환경 변화 변수와, DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 추정한 환경 변화 정도를 해당 사용자의 3차원 얼굴 데이터에 보정하는 얼굴 보정부, 상기 보정으로 나온 얼굴 정보와, 상기 특징 추출부가 추출한 특징 정보 간 비교로 인식 결과를 구하는 특징 비교부를 포함하여 이루어진 것을 특징으로 한다.A face detector for detecting a face region in an input two-dimensional image, a feature extractor for extracting feature information from the face region, and an environment change variable calculator for obtaining internal and external environment change variables of a face in the face region normalized using the feature information A face corrector configured to correct the estimated environment change using the environment change variable and the user's 3D face data in the DB to the user's 3D face data, face information resulting from the correction, and the feature extractor And a feature comparison unit for obtaining a recognition result by comparing the extracted feature information.

상기 목적에 따른 본 발명의 얼굴 인식 방법은The face recognition method of the present invention according to the above object

입력 2차원 영상 내의 얼굴 영역에서 특징 정보를 추출하는 단계, 상기 특징 정보를 사용해 정규화한 얼굴 영역에서 구한 내외적 환경 변화 변수와, DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 얼굴의 내외적 환경 변화 정도를 추정하는 단계, 상기 얼굴의 내외적 환경 변화 정도를 해당 사용자의 3차원 얼굴 데이터에 보정하여 나온 얼굴 정보와, 상기 특징 정보 간 비교로 인식 결과를 구하는 단계를 포함하여 이루어진 것을 특징으로 한다.Extracting feature information from the face region in the input 2D image; changing the inside and outside environment of the face using the 3D face data of the user and the internal and external environment change variables obtained from the face region normalized using the feature information Estimating the degree, and obtaining the recognition result by comparing the face information obtained by correcting the degree of change of the internal and external environment of the face to three-dimensional face data of the corresponding user and the feature information.

상기 얼굴의 내외적 환경 변화 정도를 추정하는 단계는 상기 내외적 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용하여 생성한 다양하게 환경 변화된 여러 장의 2차원 얼굴 영상들을 환경 변수별로 분류하여 나온 영상을 사용해 구한 고유 얼굴에서 내외적 환경 변화 정도를 추정하는 것을 특징으로 한다.The estimating degree of the internal and external environmental change of the face may be performed by classifying various environmentally modified two-dimensional face images generated by applying the internal and external environmental change variables to the 3D face data of the corresponding user in the DB. It is characterized by estimating the degree of internal and external environmental changes in the unique face obtained using the images.

상기 얼굴의 내외적 환경 변화 정도를 환경 변수별로 변화 정도를 구분한 클래스 형식으로 추정하는 것을 특징으로 한다.It is characterized in that the degree of internal and external environmental changes of the face is estimated in a class format that distinguishes the degree of change for each environmental variable.

상기 목적에 따른 본 발명의 얼굴의 내외적 환경 변화 정도 추정 방법은Method for estimating the degree of internal and external environmental changes of the face of the present invention according to the above object

입력 2차원 영상 내의 얼굴 영역에서 추출한 특징 정보를 사용해 정규화한 얼굴 영역에서 구한 내외적 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용해 다양하게 환경 변화된 여러 장의 2차원 얼굴 영상들을 생성하는 단계, 상기 여러 장의 2차원 얼굴 영상들을 환경 변수별로 분류하여 나온 2차원 영상을 사용해 구한 해당 사용자의 고유 얼굴에서 환경 변화 정도를 추정하는 단계를 포함하여 이루어진 것을 특징으로 한다.Using the feature information extracted from the face region in the input 2D image, internal and external environment change variables obtained from the normalized face region are applied to the 3D face data of the corresponding user in the DB to generate various 2D face images of various environments. And estimating the degree of environmental change in the unique face of the corresponding user obtained by classifying the plurality of two-dimensional face images by environment variables.

상기 얼굴의 내외적 환경 변화 정도를 환경 변수별로 변화 정도를 구분한 클래스 형식으로 추정하는 것을 특징으로 한다.It is characterized in that the degree of internal and external environmental changes of the face is estimated in a class format that distinguishes the degree of change for each environmental variable.

상기 환경 변수는 얼굴 포즈, 주변 조명인 것을 특징으로 한다.The environmental variable is a face pose, ambient lighting.

본 발명은 입력 영상으로 2차원 얼굴 영상, 보정을 위한 DB 내 데이터로 3차원 얼굴 데이터를 사용해 얼굴의 내외적 환경 변화 변수를 추정함으로써, 사용자 편의성 측면이라는 얼굴 인식 기술의 장점을 그대로 유지하면서, 환경 변화에는 강인해져 인식 성능(본인과 타인의 구별력)을 높인다. According to the present invention, by estimating variables of internal and external environmental changes of a face using two-dimensional face images as input images and three-dimensional face data as data in a DB for correction, the environment while maintaining the advantages of the face recognition technology in terms of user convenience, It is strong against change, increasing recognition performance (the distinction between you and others).

아울러, 내외적 환경 변화(예: 포즈 및 조명 변화)를 실시간으로 동시에 추정함으로써, 실제 환경에 적합한 추정이 이루어지게 한다. In addition, by simultaneously estimating internal and external environmental changes (eg, pose and lighting changes) in real time, an estimation appropriate to the actual environment is made.

이하, 첨부된 도면을 참조하여 본 발명을 설명한다.Hereinafter, with reference to the accompanying drawings will be described the present invention.

도 2의 본 발명의 얼굴 인식 장치는 입력 영상으로 2차원 얼굴 영상, 보정을 위한 데이터로 3차원 얼굴 데이터를 사용하는 얼굴 인식 장치이다.The face recognition apparatus of the present invention of FIG. 2 is a face recognition apparatus using two-dimensional face images as input images and three-dimensional face data as data for correction.

구체적으론, 입력 2차원 영상에서 얼굴 영역을 검출하는 얼굴 검출부(200), 상기 얼굴 영역에서 특징 정보를 추출하는 특징 추출부(201), 특징 정보를 사용해 정규화한 얼굴 영역에서 얼굴의 내외적 환경 변화 변수를 구하는 환경 변화 변수 산출부(202), 상기 환경 변화 변수와, DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 추정한 환경 변화 정도를 해당 사용자의 3차원 얼굴 데이터에 보정하는 얼굴 보정부(203), 그 보정으로 나온 얼굴 정보와, 상기 특징 추출부가 추출한 특징 정보 간 비교로 인식 결과를 구하는 특징 비교부(204)로 된 것이다. Specifically, a face detection unit 200 for detecting a face region in an input two-dimensional image, a feature extractor 201 for extracting feature information from the face region, and a change in the internal and external environment of the face in the face region normalized using the feature information. An environment change variable calculation unit 202 for obtaining a variable, and a face correction unit 203 for correcting an environment change degree estimated using the environment change variable and the user's 3D face data in the DB to the user's 3D face data. And a feature comparator 204 which obtains a recognition result by comparison between the face information resulting from the correction and the feature information extracted by the feature extractor.

이러한 장치의 동작은 다음과 같다.The operation of such a device is as follows.

먼저, 특징 추출부(201)는 얼굴 검출부(200)가 추출한 입력 2차원 영상 내의 얼굴 영역에서 특징 정보를 직접 추출한다. First, the feature extractor 201 directly extracts feature information from a face region in the input 2D image extracted by the face detector 200.

즉, 종래와 같이 내외적 환경 변화가 보상된 얼굴 영역에서 특징 정보를 추출하지 않고, 보상되지 전의 얼굴 영역에서 특징 정보를 직접 추출한다. That is, the feature information is directly extracted from the face region before compensation, instead of extracting the feature information from the face region where the internal and external environment changes are compensated as in the related art.

다음, 추출한 특징 정보를 사용해 환경 변화 변수 산출부(202)가 얼굴 영역을 정규화한다.Next, the environment change variable calculation unit 202 normalizes the face area using the extracted feature information.

그런 후, 정규화하여 나온 얼굴 영역에서 내외적 환경(예: 얼굴 포즈, 주변 조명) 변화 변수를 산출한다. Then, the variables of internal and external environment (eg, face pose, ambient light) are calculated in the normalized face region.

이어, 산출한 환경 변화 변수를 얼굴 보정부(203)가 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용하여, 내외적 환경 변화 정도를 추정한다. Next, the face correction unit 203 applies the calculated environment change variable to 3D face data of the corresponding user in the DB, and estimates the degree of internal and external environment change.

구체적으론 다음과 같다.Specifically, it is as follows.

먼저, 산출한 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용하여, 다양하게 환경 변화(예: 얼굴 포즈 변화, 주변 조명 변화)된 여러 장의 2차원 얼굴 영상들을 생성한다. First, the calculated environment change variable is applied to 3D face data of a corresponding user in a DB to generate a plurality of 2D face images of various environment changes (eg, face pose change, ambient light change).

이어, 여러 장의 2차원 얼굴 영상들을 환경 변수(예: 얼굴 포즈, 주변 조명) 별로 분류한다.Subsequently, several 2D face images are classified by environment variables (eg, face pose, ambient light).

다음, 분류된 2차원 영상에서 주성분 분석 (Principle Components Analysis, PCA)을 통해 해당 사용자의 고유 얼굴을 구한다.Next, the user's unique face is obtained through Principle Components Analysis (PCA) in the classified 2D image.

그런 후, 해당 사용자의 고유 얼굴에서 환경(예: 얼굴 포즈, 주변 조명 등) 변화 정도를 추정한다.Then, the degree of change in the environment (eg, face pose, ambient light, etc.) is estimated from the user's unique face.

특히, 클래스 형식으로 추정한다. In particular, estimate in class form.

예컨대, "얼굴 포즈 변화 3번째 클래스" 형식으로 추정한다. For example, it is estimated in the form of "face pose change third class".

여기서, "3번째 클래스"는 『 10°~ 15° 포즈 변화, 좌측 측면 조명 형식 』등으로 특정 범위를 표현한 것이다.Here, the "third class" represents a specific range such as 『10 ° ~ 15 ° pose change, left side lighting type』, and the like.

상기 클래스는 환경 변수별로 변화 정도를 구분한 것이며, 1번째 클래스, 2번째 클래스, 3번째 클래스, ... 등으로 구성된다. The class classifies the degree of change for each environment variable and is composed of a first class, a second class, a third class, ..., and the like.

예컨대, 포즈 변화는 좌측 45°~ 우측 45°를 15°간격으로 나누어 1번째 클래스, 2번째 클래스, 3번째 클래스, ... 등으로 구성될 수 있다.For example, the pose change may be composed of a first class, a second class, a third class, ..., and the like by dividing the left 45 ° to the right 45 ° by 15 ° intervals.

그리고, 조명 변화는 좌측, 정면, 우측 3개의 클래스로 구성될 수 있다In addition, the lighting change may be composed of three classes: left side, front side, and right side.

다음, 이렇게 추정된 환경 변화(예: 포즈 변화, 조명 변화) 정도를 DB 내 해당 사용자의 3차원 얼굴 데이터에 보정한다.Next, the degree of environment change (eg, pose change, lighting change) estimated as described above is corrected to the 3D face data of the corresponding user in the DB.

그런 후, 그 보정으로 나온 얼굴 정보와, 입력된 2차원 영상 내 얼굴 영역에서 직접 추출한 해당 사용자의 얼굴 특징 정보를 특징 비교부(204)가 비교한다. Thereafter, the feature comparison unit 204 compares the face information resulting from the correction with the face feature information of the corresponding user directly extracted from the face region in the input 2D image.

그래서, 그 비교한 결과를 통해 얼굴 인식 결과를 얻게 된다.Thus, the result of the comparison is used to obtain a face recognition result.

도 2의 본 발명의 얼굴 특징 추출 과정은 내외적 환경 변화 보상이 종래와 같은 입력 영상이 아닌 데이터베이스(DB)에서 이루어져, 한 번만 수행하면 된다.In the facial feature extraction process of the present invention of FIG. 2, internal and external environmental change compensation is performed in a database DB instead of a conventional input image, and needs to be performed only once.

참고로, 종래는 얼굴 정규화를 위한 특징 추출과, 얼굴 비교를 위한 특징 추출을 수행해야 한다. 얼굴 정규화를 위한 특징 추출은 내외적 환경 변화가 보상되지 않은 영상에서, 얼굴 비교를 위한 특징 추출은 내외적 환경 변화가 보상된 영상에서 수행된다. For reference, conventionally, feature extraction for face normalization and feature extraction for face comparison should be performed. Feature extraction for face normalization is performed on an image in which internal and external environmental changes are not compensated, and feature extraction for face comparison is performed on an image in which internal and external environment changes are compensated.

도 2의 본 발명의 얼굴의 내외적 환경(예: 얼굴 포즈, 주변 조명, 표정, 화장, 장신구 등) 변화 보상은 3차원 얼굴 데이터를 이용하기 때문에, 보상 과정에서 오류 영역이 발생하지 않는다. Compensation for the change of the internal and external environment (eg, face pose, ambient light, facial expression, makeup, ornaments, etc.) of the face of the present invention of FIG. 2 uses three-dimensional face data, so that an error region does not occur in the compensation process.

참고로, 2차원 영상으로 내외적 환경 변화를 보상을 수행할 경우 오류 영역이 발생할 수 있다. 특히, 3차원 객체가 2차원 영상으로 사용될 때 얼굴의 구조적 정보를 대부분 잃어버리기 때문에 얼굴의 포즈 변화를 보상하여 정면 영상을 생성해야 할 경우 오류 영역이 발생할 확률이 높다.For reference, an error region may occur when compensating for an internal or external environment change using a 2D image. In particular, since most of the structural information of the face is lost when the 3D object is used as the 2D image, an error region is likely to occur when the front image is generated by compensating for the pose change of the face.

도 3은 본 발명에 따른 얼굴의 내외적 환경 변화 구체적으론, 얼굴 포즈 변화와 주변 조명 변화를 실시간으로 동시 추정하는 학습 기반의 추정 알고리즘을 모식화한 것이다. 3 is a simulation of a learning-based estimation algorithm for estimating a change in face pose and ambient light in real time, in detail, in and out of the environment according to the present invention.

상기 학습 기반의 추정 알고리즘은 학습 부분과 추정 부분으로 구성된다.The learning based estimation algorithm is composed of a learning part and an estimation part.

먼저, 학습 부분에서는 입력 영상에서 얻은 얼굴의 내외적 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용한다. 다음, 그 결과로 나온 다양하게 포즈 및 조명 변화된 여러 장의 2차원 얼굴 영상들을 포즈 클래스 또는 조명 클래스로 분류하고, 분류된 영상들을 사용해 2차원 - 3차원 포즈 및 조명 추정 분류기(예: 다중 계층 분류기(Multi-Layer Perceptron, MLP))를 학습시킨다. First, in the learning part, internal and external environmental change variables of the face obtained from the input image are applied to the 3D face data of the corresponding user in the DB. Next, classify the resulting multiple pose and lighting variations of two-dimensional face images into a pose class or lighting class, and use the classified images to classify two-dimensional to three-dimensional pose and lighting estimation classifiers (e.g., multi-layer classifiers) Multi-Layer Perceptron (MLP)).

추정 부분에서는 학습 부분에서 학습시켜 나온 얼굴 영상에서 포즈 및 조명 변화 정도를 클래스 형식으로 추정한다. 예컨대, "얼굴 포즈 및 조명 변화 3번째 클래스" 형식으로 포즈 및 조명 변화를 추정한다. In the estimation part, the degree of pose and lighting change in the face image learned in the learning part is estimated in a class format. For example, the pose and light changes are estimated in the form of "face pose and light change third class".

참고로, 종래는 얼굴 포즈 변화 13°, 조명 방향 좌상 17°" 형식이다. For reference, in the conventional art, the face pose change 13 ° and the lighting direction upper left 17 ° "

종래와의 차이점은 포즈 및 조명 변화 정도를 클래스 형식으로 추정한다는 것이다. The difference from the conventional method is that the degree of pose and lighting change is estimated in a class form.

이러한 추정은 정확도는 저하되나, 분석적 방법이 아닌 학습적 방법으로 이루어지므로 인해, 포즈 및 조명 변화를 실시간으로 동시에 추정 가능하게 한다. This estimation, although less accurate, is made in a learning manner rather than an analytical method, which enables simultaneous estimation of pose and lighting changes in real time.

도 4의 3차원 얼굴 데이터는 본 발명에 따른 3차원 얼굴 데이터의 예이다.The three-dimensional face data of FIG. 4 is an example of three-dimensional face data according to the present invention.

3차원 레이저 스캐너를 이용하여 획득한 BERC(Biometrics Engineering Research Center) DB로 된 것으로, 얼굴의 구조적 정보와 광학적 정보를 모두 가지고 있다. It is a database of BERC (Biometrics Engineering Research Center) obtained using a 3D laser scanner, and has both structural information and optical information.

도 5의 3차원 얼굴 데이터는 본 발명에 따른 3차원 얼굴 데이터의 다른 예로, 3차원 레이저 스캐너로 획득한 얼굴의 구조적 정보와 광학적 정보를 모두 포함 하는 FRGC(Face Recognition Grand Challenge) DB로 된 것이다. The three-dimensional face data of FIG. 5 is another example of the three-dimensional face data according to the present invention, which is a face recognition grand challenge (FRGC) database including both structural information and optical information of a face obtained by a three-dimensional laser scanner.

도 6의 2차원 얼굴 영상은 BERC(Biometrics Engineering Research Center) 영상의 여러 예로, 좌 45°~ 우 45°까지 15°간격으로 포즈 변화를 가질 수 있으며, 안경을 착용하는 사람의 경우, 안경을 착용한 경우와 착용하지 않은 경우 각각에 대한 포즈 변화를 가질 수 있다. The two-dimensional face image of FIG. 6 may have a pose change at intervals of 15 ° from 45 ° to 45 ° to the right of the BERC (Biometrics Engineering Research Center) image in various examples. In the case of a person wearing glasses, wearing glasses It may have a pose change for each case and one without wearing.

도 7의 2차원 얼굴 영상은 FRGC(Face Recognition Grand Challenge) 영상의 여러 예로, 제어된 환경에서 고해상도 카메라 또는, 일반 환경에서 저해상도 카메라로 입력될 수 있다. The two-dimensional face image of FIG. 7 is an example of a Face Recognition Grand Challenge (FRGC) image, and may be input to a high resolution camera in a controlled environment or a low resolution camera in a general environment.

도 8의 얼굴 인식 방법은 내외적 환경 변화 변수로 얼굴 포즈 변화와 주변 조명 변화가 고려된 본 발명의 얼굴 인식 방법의 예이다. The face recognition method of FIG. 8 is an example of the face recognition method of the present invention in which face pose change and ambient light change are considered as internal and external environment change variables.

구체적으론, 입력 2차원 영상 내의 얼굴 영역에서 직접 추출한 특징 정보를 사용해 정규화한 얼굴 영역에서 산출한 얼굴 포즈, 주변 조명 변화 변수와(S100 ~ S103), DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 클래스 형식으로 추정한 얼굴 포즈 및 주변 조명 변화 정도를(S104 ~ S106) 해당 사용자의 3차원 얼굴 데이터에 보정하고(S107), 그 보정으로 나온 얼굴 정보와, 입력 영상에서 직접 추출한 특징 정보 간 비교로 인식 결과를 얻게 된다(S108). Specifically, the face pose calculated from the face region normalized using the feature information extracted directly from the face region in the input 2D image, the ambient light change variable (S100 to S103), and the class using the 3D face data of the corresponding user in the DB. The face pose estimated in the form and the degree of change in ambient light are corrected (S104 to S106) on the user's three-dimensional face data (S107), and the recognition is performed by comparing the face information resulting from the correction with feature information extracted directly from the input image. The result is obtained (S108).

종래와의 차이점은 내외적 환경 변화 보상이 입력 영상이 아니고, 데이터베이스에서 이루어진다는 것이다. The difference from the conventional method is that compensation for internal and external environmental changes is made in the database, not the input image.

즉, 내외적 환경 변화가 보상되기 전의 입력 2차원 얼굴 영상에서 직접 추출한 특징 정보를 이용해 얻은 내외적 환경 변화 변수를 데이터베이스에 반영해 생성한 입력 영상과 동일한 환경의 데이터베이스에서 이루어진다는 것이다.That is, the internal and external environmental changes are made in the database of the same environment as the input image generated by reflecting the internal and external environmental change variables obtained by using feature information extracted directly from the input two-dimensional face image before compensation.

* 실험 결과 및 분석* Experimental Results and Analysis

(참조 논문: 제20회 영상처리 및 이해에 관한 워크샵 2008.2.20-2.22. 포즈 및 조명 변화에 강인한 얼굴인식 시스템 양욱일, 손광훈 연세대학교 전기전자공학과 생체인식연구센터)(Reference Paper: The 20th Workshop on Image Processing and Understanding 2008.2.20-2.22. Face Recognition System Robust to Posing and Lighting Variation Yang, Uk-Il, Kwang-Hun Son Department of Electrical and Electronic Engineering, Yonsei University)

본 발명의 얼굴 인식 시스템에 대한 실험 및 분석 과정은 다음과 같다. Experiment and analysis of the face recognition system of the present invention is as follows.

본 실험에서는 BERC 데이터베이스를 이용하였다. In this experiment, we used BERC database.

먼저, BERC 3차원 얼굴 데이터와 openGL 프로그램밍으로 좌 45°~ 우 45°범위에서 1°간격으로 포즈 변화된 2차원 얼굴 영상을 생성하며, 각 영상은 좌측, 정면, 우측 3가지 조명 효과 가운데 하나의 조명 효과를 가진다.First, a BERC three-dimensional face data and openGL programming are used to generate a two-dimensional face image with a pose change of 1 ° intervals in the range of 45 ° to 45 °, and each image is one of three lighting effects: left, front, and right. Has an effect.

다음, 이렇게 생성된 2차원 얼굴 영상을 적절한 클래스로 구분하고, 주성분 분석(Principle Components Analysis, PCA)을 통해 고유 얼굴을 구한다.Next, two-dimensional face images generated in this way are classified into appropriate classes, and unique faces are obtained through Principle Components Analysis (PCA).

그런 후, 그 고유 얼굴을 이용하여 얼굴 영상을 특징 벡터로 변환하고, 각 포즈 간의 벡터 거리를 계산한 후, 이를 이용하여 포즈 간 평균 벡터 거리를 계산 한다.Then, the face is converted into a feature vector using the unique face, the vector distance between the poses is calculated, and the average vector distance between poses is calculated using this.

[표 1]은 각 포즈 간 평균 벡터 거리의 예이다. Table 1 shows an example of the average vector distance between poses.

ID 001ID 001 정면°Front ° 좌 5°Left 5 ° 좌 10°10 ° left 좌 15°15 ° left .... 정면face 00 좌 5°Left 5 ° 372.63372.63 00 좌 10°10 ° left 1103.821103.82 468.37468.37 00 좌 15°15 ° left 2598.772598.77 1273.401273.40 668.31668.31 00 ....

[표 2]는 포즈 간 평균 벡터 거리를 이용하여 구한 포즈 클래스 분류 결과로, 좌 45°~ 우 45° 범위의 포즈 변화가 총 13개의 클래스로 구분된다. 조명 변화의 경우 좌, 정면, 우 3개의 클래스로 구분된다. [Table 2] is a pose class classification result obtained using the average vector distance between poses, and the pose variation in the range of 45 ° to 45 ° from left is classified into 13 classes. The lighting change is divided into three classes: left, front, and right.

클래스class 범위range 대표값Representative value 클래스class 범위range 대표값Representative value 정면face 좌 8° ~ 우 8°Left 8 ° ~ Right 8 ° 좌 1Left 1 ~ 좌 20°~ Left 20 ° 14°14 ° 우 1Right 1 ~우 20°To right 20 ° 14°14 ° 좌 2Left 2 ~ 좌 26°~ 26 ° left 23°23 ° 우 2Right 2 ~우 26°To 26 ° 23°23 ° 좌 3Left 3 ~ 좌 31°~ 31 ° left 29°29 ° 우 3Right 3 ~우 31°To 31 ° 29°29 ° 좌 4Left 4 ~ 좌 36°~ Left 36 ° 33°33 ° 우 4Right 4 ~우 36°To right 36 ° 33°33 ° 좌 5Left 5 ~ 좌 41°~ 41 ° left 39°39 ° 우 5Right 5 ~우 41°To 41 ° 39°39 ° 좌 6Left 6 ~ 좌 45°~ 45 ° left 43°43 ° 우 6Right 6 ~우 45°To right 45 ° 43°43 °

참고로, 각 클래스의 대표 벡터와 경계 벡터 사이의 벡터 거리가 일정 임계치 이하가 되게 클래스를 구분하였다. 임계치를 증가시킬 경우 포즈 클래스 수가 감소하고, 임계치를 감소시킬 경우 포즈 클래스 수가 증가한다. 우측 포즈 변화의 경우 좌측 결과와 대칭성을 이루게 한 것이다.For reference, classes are divided such that the vector distance between the representative vector and the boundary vector of each class is equal to or less than a predetermined threshold. Increasing the threshold reduces the number of pose classes, and decreasing the threshold increases the number of pose classes. In the case of the right pose change, the left result is symmetrical.

다음, [표 2]의 클래스 구분에 따라 포즈 분류기, 조명 분류기를 각각 학습한다. 학습 결과 평가를 위해 한 실험 결과는 [표 3]과 [표 4]에 나타나 있다. [표 3]은 포즈 추정, [표 4]는 조명 추정 실험 결과이다. Next, learn the pose classifier and the light classifier according to the class classification of [Table 2]. The experimental results for evaluating the learning results are shown in [Table 3] and [Table 4]. Table 3 shows the pose estimation, and Table 4 shows the light estimation experiment results.

실험 1Experiment 1 실험 2Experiment 2 학습데이터Learning data BERC 200명 (임의선택) x 91 포즈 변화 x 3 조명 변화BERC 200 (optional) x 91 Pose Changes x 3 Lighting Changes BERC 300명 x 91 포즈 변화 x 3 조명 변화BERC 300 x 91 Pose Changes x 3 Light Changes 테스트 데이터Test data BERC 100명 (나머지) x 91 포즈 변화 x 3 조명 변화BERC 100 (rest) x 91 Pose Change x 3 Light Change BERC 스테레오 300명 x 7 포즈 변화BERC stereo 300 x 7 pose change 정확도accuracy 91.0% (100회 반복 결과)91.0% (100 Iterations Result) 96.38% (4048 / 4200)96.38% (4048/4200)

실험 1Experiment 1 실험 2Experiment 2 학습데이터Learning data BERC 200명 (임의선택) x 91 포즈 변화 x 3 조명 변화BERC 200 (optional) x 91 Pose Changes x 3 Lighting Changes BERC 300명 x 91 포즈 변화 x 3 조명 변화BERC 300 x 91 Pose Changes x 3 Light Changes 테스트 데이터Test data BERC 100명 (나머지) x 91 포즈 변화 x 3 조명 변화BERC 100 (rest) x 91 Pose Change x 3 Light Change FRGC 2차원 데이터FRGC two-dimensional data 정확도accuracy 99.3% (100회 반복 결과)99.3% (100 iterations result) 98.79% (11197 / 11334)98.79% (11197/11334)

[표 5]는 추정된 포즈 변화 및 조명 변화 변수를 기반으로 3차원 얼굴 데이터와 openGL 프로그래밍을 이용하여 환경 변화 정도가 적용된 3차원 얼굴 데이터를 생성하고, 이 생성된 3차원 얼굴 데이터와 입력 영상을 비교하여 나온 최종 인식 결과인 것이다. [Table 5] generates three-dimensional face data to which the degree of environmental change is applied by using three-dimensional face data and openGL programming based on the estimated pose change and lighting change variables, and generates the three-dimensional face data and the input image. This is the final recognition result.

실험 1Experiment 1 실험 2Experiment 2 학습데이터Learning data BERC 3D 300명BERC 3D 300 FRGC 3D 285명 x 3 데이터FRGC 3D 285 people x 3 data 테스트 데이터Test data BERC 스테레오 300명 x 7 포즈 변화BERC stereo 300 x 7 pose change FRGC 2차원 데이터FRGC two-dimensional data 정확도accuracy 95.67% (2009/2100)95.67% (2009/2100) 92.39% (10472 / 11334)92.39% (10472/11334)

도 1은 종래 2차원 얼굴 인식 장치 블록구성도 1 is a block diagram of a conventional two-dimensional face recognition device

도 2는 본 발명의 얼굴 인식 장치 블록구성도 2 is a block diagram of a face recognition apparatus of the present invention

도 3은 본 발명의 얼굴의 내외적 환경 변화 정도 추정 방법 모식도Figure 3 is a schematic diagram of a method for estimating the degree of internal and external environmental changes of the face of the present invention

도 4는 본 발명의 BERC(Biometrics Engineering Research Center) DB로 된 3차원 얼굴 데이터 예시도Figure 4 is an illustration of three-dimensional face data in the BERC (Biometrics Engineering Research Center) DB of the present invention

도 5는 본 발명의 FRGC(Face Recognition Grand Challenge) DB로 된 3차원 얼굴 데이터 예시도5 is an exemplary diagram of three-dimensional face data using a Face Recognition Grand Challenge (FRGC) DB according to the present invention.

도 6은 본 발명의 BERC DB로 된 2차원 얼굴 영상 예시도Figure 6 is an illustration of a two-dimensional face image of the BERC DB of the present invention

도 7은 본 발명의 FRGC DB로 된 2차원 얼굴 영상 예시도Figure 7 is an illustration of a two-dimensional face image of the FRGC DB of the present invention

도 8은 본 발명의 얼굴 인식 방법 플로우 챠트8 is a flowchart of a face recognition method according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

200 : 얼굴 검출부 201 : 특징 추출부200: face detection unit 201: feature extraction unit

202 : 환경 변화 변수 산출부 203 : 얼굴 보정부202: environment change variable calculation unit 203: face correction unit

204 : 특징 비교부204: feature comparison unit

Claims (7)

입력 2차원 영상에서 얼굴 영역을 검출하는 얼굴 검출부; A face detector detecting a face region in the input 2D image; 상기 얼굴 영역에서 특징 정보를 추출하는 특징 추출부; A feature extractor which extracts feature information from the face region; 상기 특징 정보를 사용해 정규화한 얼굴 영역에서 얼굴의 내외적 환경 변화 변수를 구하는 환경 변화 변수 산출부; An environment change variable calculation unit for obtaining an internal and external environment change variable of a face in a face region normalized using the feature information; 상기 얼굴의 내외적 환경 변화 변수와, DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 추정한 환경 변화 정도를 해당 사용자의 3차원 얼굴 데이터에 보정하는 얼굴 보정부; A face correction unit for correcting the degree of environmental change estimated using internal and external environment change variables of the face and 3D face data of the corresponding user in the DB to the 3D face data of the user; 상기 보정으로 나온 얼굴 정보와, 상기 특징 추출부가 추출한 특징 정보 간 비교로 인식 결과를 구하는 특징 비교부를 포함하여 이루어진 얼굴 인식 장치.And a feature comparator for obtaining a recognition result by comparing the face information resulting from the correction with the feature information extracted by the feature extractor. 입력 2차원 영상 내의 얼굴 영역에서 특징 정보를 추출하는 단계; Extracting feature information from a face region in the input two-dimensional image; 상기 특징 정보를 사용해 정규화한 얼굴 영역에서 구한 내외적 환경 변화 변수와, DB 내 해당 사용자의 3차원 얼굴 데이터를 사용해 얼굴의 내외적 환경 변화 정도를 추정하는 단계;Estimating the degree of internal and external environmental change of the face using internal and external environmental change variables obtained from the face region normalized using the feature information and three-dimensional face data of the corresponding user in a DB; 상기 얼굴의 내외적 환경 변화 정도를 해당 사용자의 3차원 얼굴 데이터에 보정하여 나온 얼굴 정보와, 상기 특징 정보 간 비교로 인식 결과를 구하는 단계를 포함하여 이루어진 얼굴 인식 방법.And a step of obtaining a recognition result by comparing the face information obtained by correcting the degree of internal and external environmental changes of the face to three-dimensional face data of the user and the feature information. 제 2 항에 있어서,The method of claim 2, 상기 얼굴의 내외적 환경 변화 정도를 추정하는 단계는Estimating the degree of internal and external environmental changes of the face 상기 내외적 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용하여 생성한 다양하게 환경 변화된 여러 장의 2차원 얼굴 영상들을 환경 변수별로 분류하여 나온 영상을 사용해 구한 고유 얼굴에서 내외적 환경 변화 정도를 추정하는 얼굴 인식 방법.The degree of internal and external environmental change in the unique face obtained by using the image obtained by classifying various environmentally variable two-dimensional face images generated by applying the internal and external environment change variables to the 3D face data of the corresponding user in the DB. Face recognition method for estimating. 제 3 항에 있어서,The method of claim 3, wherein 상기 얼굴의 내외적 환경 변화 정도를 The degree of internal and external environmental changes 환경 변수별로 변화 정도를 구분한 클래스 형식으로 추정하는 얼굴 인식 방법.Face recognition method estimated in class format that classifies the degree of change by environment variables. 입력 2차원 영상 내의 얼굴 영역에서 추출한 특징 정보를 사용해 정규화한 얼굴 영역에서 구한 내외적 환경 변화 변수를 DB 내 해당 사용자의 3차원 얼굴 데이터에 적용해 다양하게 환경 변화된 여러 장의 2차원 얼굴 영상들을 생성하는 단계; Using the feature information extracted from the face region in the input 2D image, internal and external environment change variables obtained from the normalized face region are applied to the 3D face data of the corresponding user in the DB to generate various 2D face images of various environments. step; 상기 여러 장의 2차원 얼굴 영상들을 환경 변수별로 분류하여 나온 2차원 영상을 사용해 구한 해당 사용자의 고유 얼굴에서 환경 변화 정도를 추정하는 단계를 포함하여 이루어진 얼굴의 내외적 환경 변화 정도 추정 방법.Estimating the degree of environmental change in the user's own face obtained by using the two-dimensional image obtained by classifying the plurality of two-dimensional face images by environment variables. 제 5 항에 있어서,The method of claim 5, 상기 여러 장의 2차원 얼굴 영상들을 환경 변수별로 분류하여 나온 2차원 영상을 사용해 구한 해당 사용자의 고유 얼굴에서 환경 변화 정도를 추정하는 단계에서는In the step of estimating the degree of environmental change in the unique face of the user obtained by using the two-dimensional image obtained by classifying the plurality of two-dimensional face images by environmental variables 환경 변수별로 변화 정도를 구분한 클래스 형식으로 해당 사용자의 고유 얼굴에서 환경 변화 정도를 추정하는 얼굴의 내외적 환경 변화 정도 추정 방법.A method of estimating the degree of internal and external environmental change of a face that estimates the degree of environmental change in the user's own face in a class format that classifies the degree of change by environment variables. 제 6 항에 있어서,The method of claim 6, 상기 환경 변수는The environment variable 얼굴 포즈, 주변 조명인 얼굴의 내외적 환경 변화 정도 추정 방법.A method of estimating the degree of internal or external environmental change of a face, such as a face pose or an ambient light.
KR1020080033056A 2008-04-10 2008-04-10 Face Recognition device and method, estimation method for face environment variation KR100955255B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080033056A KR100955255B1 (en) 2008-04-10 2008-04-10 Face Recognition device and method, estimation method for face environment variation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080033056A KR100955255B1 (en) 2008-04-10 2008-04-10 Face Recognition device and method, estimation method for face environment variation

Publications (2)

Publication Number Publication Date
KR20090107666A KR20090107666A (en) 2009-10-14
KR100955255B1 true KR100955255B1 (en) 2010-04-30

Family

ID=41551135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080033056A KR100955255B1 (en) 2008-04-10 2008-04-10 Face Recognition device and method, estimation method for face environment variation

Country Status (1)

Country Link
KR (1) KR100955255B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331941B2 (en) 2015-06-24 2019-06-25 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US10733422B2 (en) 2015-06-24 2020-08-04 Samsung Electronics Co., Ltd. Face recognition method and apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101276204B1 (en) * 2010-05-11 2013-06-20 한국전자통신연구원 Method for measuring environmental parameters for multi-modal fusion
KR101538935B1 (en) * 2013-05-28 2015-07-24 주식회사 포디컬쳐 Method for classifying elements of face using depth difference

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084815A (en) 2003-09-05 2005-03-31 Toshiba Corp Face recognition device, face recognition method and passage control apparatus
KR20050042369A (en) * 2003-11-01 2005-05-09 학교법인연세대학교 Method of error compensated singular value decomposition based head pose estimation for 3d face recognition
JP2005316888A (en) 2004-04-30 2005-11-10 Japan Science & Technology Agency Face recognition system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084815A (en) 2003-09-05 2005-03-31 Toshiba Corp Face recognition device, face recognition method and passage control apparatus
KR20050042369A (en) * 2003-11-01 2005-05-09 학교법인연세대학교 Method of error compensated singular value decomposition based head pose estimation for 3d face recognition
JP2005316888A (en) 2004-04-30 2005-11-10 Japan Science & Technology Agency Face recognition system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문:전자공학회지

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331941B2 (en) 2015-06-24 2019-06-25 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US10733422B2 (en) 2015-06-24 2020-08-04 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US11386701B2 (en) 2015-06-24 2022-07-12 Samsung Electronics Co., Ltd. Face recognition method and apparatus

Also Published As

Publication number Publication date
KR20090107666A (en) 2009-10-14

Similar Documents

Publication Publication Date Title
Kusakunniran et al. Recognizing gaits across views through correlated motion co-clustering
US20070053590A1 (en) Image recognition apparatus and its method
Nigam et al. Designing an accurate hand biometric based authentication system fusing finger knuckleprint and palmprint
KR20040086252A (en) Face meta-data creation
CN109800643A (en) A kind of personal identification method of living body faces multi-angle
Choi et al. Shadow compensation in 2D images for face recognition
Ruprah Face Recognition Based on PCA Algorithm
KR20080067793A (en) Real-time face recognition based on subspace and lvq classifier
Hongtao et al. Face recognition using multi-feature and radial basis function network
KR100955255B1 (en) Face Recognition device and method, estimation method for face environment variation
Said et al. Fast and efficient 3D face recognition using wavelet networks
Mohamed et al. Automated face recogntion system: Multi-input databases
Storer et al. Occlusion detection for ICAO compliant facial photographs
Singh et al. Varying illumination and pose conditions in face recognition
Sun et al. Using backpropagation neural network for face recognition with 2D+ 3D hybrid information
Xu et al. Robust shape-feature-vector-based face recognition system
Das Comparative analysis of PCA and 2DPCA in face recognition
Zafeiriou et al. 2.5 D Elastic graph matching
Sharma et al. Face recognition using face alignment and PCA techniques: a literature survey
Singh et al. Face liveness detection through face structure analysis
Makwana et al. Comparison of different algorithm for face recognition
Marvadi et al. Comparative analysis of 3D face recognition using 2D-PCA and 2D-LDA approaches
KR100893086B1 (en) Method for detecting face robust to illumination change
Bhanushree et al. Feature Based Face Recognition using Machine Learning Technniques
Bicalho et al. Solving the face growth problem in the biometrie face recognition using photo-anthropometric ratios by iris normalization

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130122

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140219

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160425

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170417

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180416

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190415

Year of fee payment: 10