KR100567765B1 - System and Method for face recognition using light and preprocess - Google Patents

System and Method for face recognition using light and preprocess Download PDF

Info

Publication number
KR100567765B1
KR100567765B1 KR1020040017041A KR20040017041A KR100567765B1 KR 100567765 B1 KR100567765 B1 KR 100567765B1 KR 1020040017041 A KR1020040017041 A KR 1020040017041A KR 20040017041 A KR20040017041 A KR 20040017041A KR 100567765 B1 KR100567765 B1 KR 100567765B1
Authority
KR
South Korea
Prior art keywords
face
image
face image
lighting
face recognition
Prior art date
Application number
KR1020040017041A
Other languages
Korean (ko)
Other versions
KR20050091558A (en
Inventor
이필규
전인자
이재훈
Original Assignee
학교법인 인하학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 인하학원 filed Critical 학교법인 인하학원
Priority to KR1020040017041A priority Critical patent/KR100567765B1/en
Publication of KR20050091558A publication Critical patent/KR20050091558A/en
Application granted granted Critical
Publication of KR100567765B1 publication Critical patent/KR100567765B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 얼굴 인식 시스템에서의 얼굴 인식 방법을 개시한다.The present invention discloses a face recognition method in a face recognition system.

본 발명의 조명환경 분석과 전처리를 통한 얼굴인식 방법은 진화 신경망을 이용하여 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 제 1 단계; 상기 판단 결과에 따라 진화 알고리즘을 이용하여 상기 얼굴 영상에 대한 전처리를 수행하는 제 2 단계; 및 상기 전처리 수행된 얼굴 영상을 등록 및 인식하는 제 3 단계를 통하여 얼굴 인식을 수행함으로써 안정적인 인식 성능을 유지할 수 있다. 더욱이, 진화 신경망 학습을 미리 수행함으로써 실시간으로 얼굴 인식을 적용할 수 있다.The face recognition method through the analysis and preprocessing of the lighting environment of the present invention comprises a first step of determining an illumination state for the face image photographed using an evolutionary neural network; A second step of performing preprocessing on the face image using an evolution algorithm according to the determination result; And performing a face recognition through a third step of registering and recognizing the pre-processed face image, thereby maintaining stable recognition performance. Furthermore, face recognition can be applied in real time by performing evolutionary neural network learning in advance.

얼굴인식, 진화 신경망, 진화 알고리즘, 조명 탬플릿Face Recognition, Evolutionary Neural Networks, Evolutionary Algorithms, Lighting Templates

Description

조명환경 분석과 전처리를 통한 얼굴 인식 시스템 및 방법{System and Method for face recognition using light and preprocess} System and Method for face recognition using light and preprocess             

도 1은 얼굴인식 시스템에서의 본 발명에 따른 얼굴인식 방법을 설명하기 위한 순서도.1 is a flowchart illustrating a face recognition method according to the present invention in a face recognition system.

도 2는 본 발명에 따른 다이렉트 엔코딩을 나타내는 도면,2 shows a direct encoding according to the invention,

도 3은 본 발명에 따른 조명 탬플릿을 나타내는 도면,3 shows an illumination template according to the invention,

도 4는 본 발명에 따른 가상 영상으로 생성된 이미지의 실시예를 나타내는 도면,4 is a view showing an embodiment of an image generated as a virtual image according to the present invention;

도 5는 본 발명의 실시예에 따른 전체 시스템의 구성을 설명하기 위한 도면이다.5 is a view for explaining the configuration of the entire system according to an embodiment of the present invention.

본 발명은 얼굴인식 방법에 관한 것으로서, 보다 상세하게는 영상 분석을 기반으로 하는 시스템에서 인식하고자 하는 얼굴의 조명상태를 진화신경망을 이용하 여 판단하고 그에 해당하는 전처리를 진화 알고리즘을 사용해 찾아낸 후 실제 환경에 대해 적절한 대응이 가능하도록 하여 안정적으로 얼굴인식 성능을 유지시키는 얼굴인식 방법에 관한 것이다.The present invention relates to a face recognition method, and more particularly, to determine a lighting state of a face to be recognized in a system based on image analysis using an evolutionary neural network, and to find a corresponding preprocessing using an evolutionary algorithm. The present invention relates to a face recognition method that maintains the face recognition performance stably by enabling an appropriate response.

일반적으로 얼굴인식 기술은 음성인식, 지문인식, 안구인식과 같이 신분을 검증하는데 응용되는 기술로, 다른 신분 검증 기술과 비교하여 상대적으로 저렴한 가격에 구현이 가능하며 인식대상자가 인식을 위한 특별한 행위를 취할 필요가 없어 인식 대상자의 거부감을 방지할 수 있다. 특히, 최근에는 멀티미디어 피시(PC)가 보편화되면서 영상 취득 장치가 기본적으로 장착되는 추세에 있어 별도의 하드웨어 구성없이 얼굴인식 기술 응용이 가능하다.In general, face recognition technology is applied to verify identity such as voice recognition, fingerprint recognition, and eye recognition, and it can be implemented at a relatively low price compared to other identification verification technologies, and recognizes special behaviors for recognition. There is no need to take it, which can prevent the objection of the object. In particular, in recent years, as the multimedia PC (PC) is popularized, the image acquisition device is basically installed, so that a face recognition technology application is possible without a separate hardware configuration.

종래 입력영상으로부터 얼굴을 인식하는 방법은 다음과 같은 방법들을 많이 사용하고 있다.Conventionally, a method of recognizing a face from an input image uses many of the following methods.

첫 번째로, 고유얼굴(EigenFace)을 이용한 주성분 분석 방법론은 여러 얼굴을 통하여 얼굴의 주성분 즉, 고유얼굴을 추출해 내고 추출된 고유얼굴과 새로 입력된 얼굴의 내적을 통한 가중치 벡터를 추출한다. 추출된 가중치 벡터를 미리 등록된 가중치 벡터와 유사도를 비교함으로써 인식을 수행하게 된다.First, the principal component analysis methodology using EigenFace extracts the principal component of the face, i.e. the eigenface, through several faces, and extracts the weighted vector through the dot product of the extracted eigenface and the newly input face. Recognition may be performed by comparing the extracted weight vector with similarity with a previously registered weight vector.

두 번째로 탄력적 그래프 정합법을 이용한 방법론은 전처리 과정을 거친 영상을 토대로 얼굴 검출 및 인식 과정부분을 탄력적인 그래프 정합 알고리즘을 이용하는 것이다. 이 알고리즘은 입력된 영상에 대해 특징점을 추출하고, 추출된 특징점들을 탄력적인 그래프를 이용하여 서로 연결하며, 연결된 특징점들을 가보(Gabor) 함수를 통하여 특징 벡터를 추출해 인식을 수행한다.Second, the methodology using the elastic graph matching method uses the elastic graph matching algorithm for the face detection and recognition process based on the preprocessed image. The algorithm extracts feature points from the input image, connects the extracted feature points to each other using an elastic graph, and extracts feature vectors through the Gabor function to perform recognition.

세 번째로, LFA(Local Feature Analysis)를 이용한 방법론은 고유얼굴 방법에서 유도되었는데, 고유얼굴 방법에서의 문제점인 얼굴 표정의 변화, 조명, 자세의 변화 때문에 나타나는 문제점을 해결하고자 제안되었다.Thirdly, the methodology using local feature analysis (LFA) is derived from the eigenface method, and it is proposed to solve the problems caused by the change of facial expression, lighting, and posture, which are problems in the eigenface method.

네 번째로, 상관관계(correlation)를 이용한 방법론은 카메라에서 입력된 얼굴 영상을 고유 얼굴 기반으로 얼굴영역을 획득한 후 얻어진 얼굴영역에 대하여 눈을 기준으로 일정한 범위 내에서 모자이크를 형성한다.Fourth, the methodology using correlation forms a mosaic within a certain range of the face region obtained after acquiring a face region based on a unique face from a face image input from a camera.

마지막으로, 신경망을 이용한 방법론은 일반적으로 기타의 다른 통계적이나 수식적인 전개 없이 추상적인 데이터에 대해서 학습만으로도 인식이 가능하다. 그러나 신경망은 일정이상의 크기를 가지는 학습데이터에 대해 수렴속도가 대단히 느려지며, 일반적으로 쓰이는 MLP(Multi layer perceptron)의 경우 학습패턴을 증가시키기 위해 전체 패턴을 다시 학습해야 된다는 단점을 가진다. 또한 지역 최소점에 빠져들어 최적의 해를 찾지 못하는 경우도 발생한다.Finally, methodologies using neural networks are generally recognizable by learning about abstract data without any other statistical or mathematical development. However, the neural network has a disadvantage in that the convergence speed is very slow for learning data having a certain size or more, and in the case of a commonly used MLP (Multi layer perceptron), the entire pattern must be re-learned to increase the learning pattern. It is also possible to fall into local minimums and not find the optimal solution.

이러한 종래의 얼굴인식 기술들은 모두 외형 기반(Appearance-Based) 모델로 조명 환경 변화를 고려하지 않아 조명 환경 변화가 심한 경우 얼굴인식에 성공할 수 없는 문제를 가지고 있다.All of the conventional face recognition techniques have an issue of not being successful in face recognition when the lighting environment is severely changed due to the appearance-based model.

따라서, 상술된 문제를 해결하기 위한 본 발명의 목적은 인식하고자 하는 얼굴의 조명상태를 진화신경망을 이용하여 판단하고 그에 해당하는 전처리를 진화 알고리즘을 사용해 찾아낸 후 실제 환경에 대해 적절한 대응이 가능하도록 하여 안정 적으로 얼굴인식 성능을 유지하는데 있다.
Accordingly, an object of the present invention for solving the above problems is to determine the lighting state of the face to be recognized by using an evolutionary neural network, and to find a corresponding preprocessing using an evolutionary algorithm, so that an appropriate response to the actual environment is possible. It is to stably maintain face recognition performance.

위와 같은 목적을 달성하기 위한 본 발명의 조명환경 분석과 전처리를 통한 얼굴인식 방법은, 조명 환경 모니터링 모듈에서, CCD 카메라 등에 의해 촬상된 얼굴 영상과 사전에 정의된 조명 템플릿을 매칭시켜 만들어진 가상 얼굴 영상을 이용한 진화 신경망의 학습을 통해, 상기 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 제 1 단계; 상기 판단 결과에 따라 필터 뱅크 진화 모듈에서 진화 알고리즘을 이용하여 상기 판단된 조명의 영향을 최소화시키기 위한 영상 필터들의 조합을 찾아낸 후, 상기 영상 필터를 이용해 얼굴 영상에서 조명의 영향을 상쇄시켜 조명의 영향이 최소화된 영상을 생성하는 전처리를 수행하는 제 2 단계; 및 상기 전처리 수행된 얼굴 영상을 등록 및 인식 모듈에서 데이터 베이스에 등록하고 이를 사전에 등록된 얼굴 영상들과 비교하여 얼굴 인식을 수행하는 제 3 단계;를 포함하는 것을 특징으로 한다.Face recognition method through the illumination environment analysis and pre-processing of the present invention for achieving the above object, in the lighting environment monitoring module, a virtual face image made by matching a face image captured by a CCD camera or the like and a predefined illumination template A first step of determining an illumination state of the photographed face image by learning an evolutionary neural network using; According to the determination result, the filter bank evolution module finds a combination of image filters for minimizing the influence of the determined lighting by using an evolution algorithm, and then cancels the influence of lighting on the face image using the image filter. A second step of performing preprocessing to generate the minimized image; And a third step of registering the pre-processed face image in a database in the registration and recognition module and performing face recognition by comparing the face image with previously registered face images.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 보다 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.

도 1은 얼굴인식 시스템에서의 본 발명에 따른 얼굴인식 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a face recognition method according to the present invention in a face recognition system.

CCD 카메라 등에 의해 촬상된 얼굴 영상은 촬상 당시의 빛이나 조명의 위치에 따라 동일한 얼굴 이미지가 다른 얼굴로 인식될 수 있으므로 얼굴 영상에서 조명의 영향을 최소화해야 한다.The face image photographed by the CCD camera or the like may be recognized as a different face according to the position of light or illumination at the time of imaging, so the influence of illumination on the face image should be minimized.

이를 위해, 얼굴 인식 시스템은 우선 현재의 얼굴 영상이 얼마만큼 조명에 의해 영향을 받고 있는지 얼굴 영상에 대한 조명 상태를 판단한다(단계 101).To this end, the face recognition system first determines an illumination state of the face image as to how much the current face image is affected by illumination (step 101).

얼굴 인식 시스템은 조명 상태를 판단하기 위해 오류 역전파(Error Backpropagation) 신경망을 기반으로 하는 진화 신경망을 이용하여 도 2와 같이 노드 연결 구조를 다이렉트 엔코딩(Direct encoding)한다.The face recognition system directly encodes a node connection structure as shown in FIG. 2 using an evolutionary neural network based on an error backpropagation neural network to determine an illumination state.

일반적인 역전파 신경망은 학습시간이 오래 걸리고 지역 최소점에 빠지는 경우가 많으나, 본 발명의 진화 신경망은 전역탐색의 장점을 적용하여 역전파 신경망의 단점을 피할 수 있다.In general, the back propagation neural network takes a long time to learn and falls into a local minimum, but the evolutionary neural network of the present invention can avoid the disadvantages of the back propagation neural network by applying the advantages of global search.

이러한 진화 신경망의 학습은 촬상된 얼굴 영상과 도 3과 같은 조명 탬플릿(template)을 매칭시켜 만들어진 도 4와 같은 가상의 얼굴 영상을 이용하여 이루어진다. 이때, 조명 탬플릿은 일반적인 정상 조명 하에서의 얼굴 영상에 대해 전체 평균을 취한 후 그 값을 기준으로 하여 만들어진 것이다.The learning of the evolutionary neural network is performed by using the virtual face image as shown in FIG. 4 by matching the photographed face image with the illumination template as shown in FIG. 3. At this time, the illumination template is made based on the value after taking the overall average for the face image under normal normal lighting.

진화 신경망을 이용한 조명상태를 파악하기 위하여 도 3의 템플릿은 공백의 영상에 대해 각기 가산, 승산 잡영을 sine, cosine 가중치를 적용하여 만들어 낸 것이다. 밝은 쪽의 템플릿은 음의 잡영이며, 어두운 쪽의 템플릿은 양의 잡영이다. 이 템플릿을 정상 조명 상태의 일반적인 정면 얼굴에 대해 적용하면 도 4와 같은 가상 영상이 생성되는데, 이러한 영상을 각 템플릿 당 100개 이상 만들어 진화 신경망의 학습 데이터로 사용한다. 이렇게 학습된 진화 신경망에 이미지를 통과시키면 미리 학습된 결과에 의해 이미지의 조명 상태를 파악 할 수 있게 된다. In order to understand the lighting state using the evolutionary neural network, the template of FIG. 3 is generated by applying sine and cosine weights to the addition and multiplication miscellaneous images for the blank image. The template on the bright side is a negative ghost, and the template on the dark side is a positive ghost. When this template is applied to a general front face in a normal lighting state, a virtual image as shown in FIG. 4 is generated, and 100 or more such images are generated for each template and used as learning data of an evolutionary neural network. Passing the image through the evolved neural network thus learned makes it possible to determine the lighting state of the image based on the pre-learned result.

도 4는 도 3의 템플릿을 이용하여 정상 조명상태의 얼굴에 대해 가산하게 되면 도 4에서 보이는 것과 같은 가상 영상이 나타나게 된다. 템플릿의 값들은 양수와 음수를 모두 포함하며, 양수일 경우 어두운 영상으로, 음수일 경우 밝은 영상으로 변환된다. 4 is added to the face in the normal illumination state using the template of FIG. 3, a virtual image as shown in FIG. 4 appears. The values in the template include both positive and negative numbers, and if they are positive, they are converted to a dark image and to negative values.

얼굴 인식 시스템은 얼굴 영상에 대한 조명 상태 판단이 완료되면, 진화 알고리즘을 이용하여 여러가지 조명 상태에 따라 각기 다른 전처리 수행을 위한 영상 필터들의 조합을 찾아내어 얼굴 영상에서의 조명의 영향을 상쇄시킨다(단계 102).When the face recognition system completes the determination of the lighting state of the face image, the face recognition system uses an evolutionary algorithm to find a combination of image filters for performing different preprocessing according to various lighting states, thereby canceling the influence of the lighting on the face image (step) 102).

이를 위해, 본 발명에서는 수학식 1을 사용하여 가중치 값을 진화 알고리즘의 크로모좀(chromosome)으로 사용한다.To this end, the present invention uses the weight value as a chromosome of the evolutionary algorithm using Equation 1.

l = [log2([Umin, Umax]/π+ 1)] + 1l = [log2 ([Umin, Umax] / π + 1)] + 1

ivalreal = (ivalbin)10 ×π + Umini valreal = (i valbin ) 10 × π + Umin

그리고, 진화 알고리즘에서 필터 조합을 위한 적합도 산출은 각각의 정의된 조명 환경에서 수학식 2와 같이 나타내어진다.In the evolutionary algorithm, the goodness-of-fit calculation for the filter combination is represented by Equation 2 in each defined lighting environment.

Figure 112004010431287-pat00001
Figure 112004010431287-pat00001

여기에서, T는 등록된 영상에 대해 필터를 통과한 결과,Here, T is the result of passing the filter for the registered image,

OrgT는 등록된 영상들 중 T와 등록 ID가 같은 영상,          OrgT is the registered video with the same ID as T,

NotT는 등록된 영상들 중 T와 등록 ID가 다른 영상,          NotT is a registered video with a different ID from T,

k는 전체 등록된 영상의 수,           k is the total number of registered images,

m은 한사람 당 등록되는 영상의 수를 나타낸다.           m represents the number of images registered per person.

필터 크로모좀(chromosome)은 미리 정의된 환경 당 하나씩 존재하며 그 형식은 표 1과 같다.One filter chromosome exists per predefined environment and the format is shown in Table 1.

1One Homomorphic 필터 사용 여부 Whether to use a homomorphic filter 22 Illumination 필터 사용여부 Use of Illumination Filter 33 Histogram 필터 사용여부 Whether to use Histogram filter 4~104-10 Homomorphic 필터 파라메터. Homomorphic filter parameters.

1One 22 33 44 55 66 77 88 99 1010 use/not use homomorphic    use / not use homomorphic

정의된 환경의 수는 도 3과 같이 9개로 정의되며, 자체적으로 보유한 조명 상태가 동일한 얼굴 데이터에 대해 인공적으로 정의된 조명을 추가한 후 각각의 필터 조합을 도출한다.The number of defined environments is defined as nine as shown in FIG. 3, and each filter combination is derived after adding artificially defined lighting for face data having the same lighting state as its own.

사용하는 필터의 조합은 실생활에서 나타나는 대부분의 잡영은 그것을 역으로 적용할 경우 상쇄 할 수 있게 된다. 표 1에서 사용되는 세가지 필터들은 각각 밝거나 어두운 조명, 편향조명 등에 대해 그 영향을 상쇄할 수 있는 역할을 한다.The combination of filters used will cancel out most of the miscellaneous artifacts in real life if you reverse them. The three filters used in Table 1 each have a role to offset their effects on bright or dark lighting, deflection lighting, and so on.

이들을 적용하는 최적의 방법을 찾기 위해 진화 알고리즘을 사용하는데, 도 3의 템플릿이 적용된 영상들에 대해 필터를 적용한 후 해당 영상의 원래 영상과 비교하여 그 차이를 도출한 후, 진화를 통해 가장 차이가 적은 필터의 조합을 찾게 된다.The evolutionary algorithm is used to find an optimal method of applying them. After applying a filter to the images to which the template of FIG. 3 is applied, the difference is derived by comparing with the original image of the corresponding image, and the most difference is obtained through evolution. You will find fewer filter combinations.

이 조합은 표 1에서 나타나는 1~10까지의 진화알고리즘에 대한 chromosome을 통해 알 수 있다.This combination can be seen from the chromosomes for the evolutionary algorithms 1 through 10 shown in Table 1.

이를테면 충분한 진화를 수행 한 후 나타난 chromosome 결과가 For example, the chromosome results that appeared after sufficient evolution

1One 00 1One 00 00 00 1One 00 1One 00

이라면 호모몰픽 필터와 히스토그램 필터를 차례로 사용하고, 호모몰픽 필터의 파라메터는 1010(2) 로 적용하게 된다. In this case, the homomorphic filter and the histogram filter are used in sequence, and the parameter of the homomorphic filter is applied to 1010 (2).

진화 알고리즘을 이용한 필터 조합을 찾아내는 과정이 완료되면, 얼굴 인식 시스템은 조합된 필터를 이용하여 조명의 영향을 상쇄시킴으로써 조명의 영향이 최 소화 된 영상을 생성한다.When the process of finding the filter combination using the evolutionary algorithm is completed, the face recognition system uses the combined filter to cancel out the effect of the lighting, thereby generating an image with the least impact of the lighting.

얼굴 인식 시스템은 생성된 얼굴 영상을 데이터 베이스에 등록하고 이를 기 등록된 얼굴들과 비교하여 얼굴 인식을 수행한다(단계 103).The face recognition system registers the generated face image in the database and compares the face image with the registered faces and performs face recognition (step 103).

즉, 시간이 오래 걸리는 진화 신경망 학습과 필터 조합을 찾아내는 과정을 미리 수행한 후 실시간으로 얼굴 등록 및 인식을 수행한다.In other words, the process of finding the time-consuming evolutionary neural network and filter combination is performed in advance, and the face registration and recognition is performed in real time.

이때, 얼굴의 인식은 등록된 얼굴 영상에서 얼굴 영역을 추출한 후 가보(Gabor) 변환을 사용하여 수행된다.At this time, the recognition of the face is performed by using Gabor transformation after extracting the face region from the registered face image.

도 5는 위에서 설명한 조명 환경 구성을 이용한 얼굴인식 시스템을 설명하기 위한 도면이다. 상기 도 5를 참조하면, 전체 시스템은 조명 환경 모니터링(Illumination Environment Monitering)모듈과 필터 뱅크 진화(Filter Bank Evolution) 모듈로 구성할 수 있다. 상기 조명 환경 모니터링 모듈은 구성된 환경을 사용하는 것이며, 상기 필터 뱅크진화 모듈은 환경을 구성하는 기능을 수행한다. 그리고 상기 필터 뱅크 진화 모듈은 진화 알고리즘을 이용하여 환경에 맞는 크로모좀을 구성한다. 따라서, 전체 시스템은 촬상된 얼굴에 대한 조명 상태를 판단하는 조명환경 모니터링 모듈과, 상기 판단된 결과에 따라 얼굴 영상에 대한 전처리를 수행하는 필터뱅크 진화모듈과, 전처리된 얼굴 영상을 등록 및 인식하는 등록 및 인식 모듈을 포함하여 구현할 수 있다. 따라서, 본 발명에서 제안하는 시스템은 도 5에 도시된 바와 같이, 진화 신경망 학습과 필터 조합을 찾아내는 과정을 미리 수행하고 실시간으로 등록 및 인식을 수행하는 듀얼 시스템 구조라 할 수 있다.5 is a view for explaining a face recognition system using the above-described lighting environment configuration. Referring to FIG. 5, the entire system may include an illumination environment monitoring module and a filter bank evolution module. The lighting environment monitoring module uses a configured environment, and the filter bank evolution module performs a function of configuring an environment. The filter bank evolution module constructs a chromosome for the environment using an evolution algorithm. Accordingly, the entire system registers and recognizes an illumination environment monitoring module for determining an illumination state of the captured face, a filter bank evolution module for preprocessing the face image according to the determined result, and registering and recognizing the preprocessed face image. It can be implemented by including a registration and recognition module. Therefore, the system proposed in the present invention may be referred to as a dual system structure that performs the process of finding the evolutionary neural network learning and filter combination in advance and performs registration and recognition in real time.

상술한 바와 같이, 본 발명의 조명환경 분석과 전처리를 통한 얼굴 인식 방법은 얼굴 영상에 대한 조명 상태를 추정하고 그에 따른 전처리를 통해 조명의 영향을 최소화 한 영상을 만들어 낸 후 이를 이용하여 얼굴 인식을 수행함으로써 안정적인 인식 성능을 유지할 수 있다. 더욱이, 진화 신경망 학습을 미리 수행함으로써 실시간으로 얼굴 인식을 적용할 수 있다.As described above, the face recognition method through the analysis and preprocessing of the lighting environment of the present invention estimates the lighting state of the face image and generates an image that minimizes the influence of the light through preprocessing, and then uses the face recognition to detect the face. By doing so, stable recognition performance can be maintained. Furthermore, face recognition can be applied in real time by performing evolutionary neural network learning in advance.

Claims (5)

조명 환경 모니터링 모듈에서, CCD 카메라 등에 의해 촬상된 얼굴 영상과 사전에 정의된 조명 템플릿을 매칭시켜 만들어진 가상 얼굴 영상을 이용한 진화 신경망의 학습을 통해, 상기 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 제 1 단계;The lighting environment monitoring module is configured to determine an illumination state of the captured face image by learning an evolutionary neural network using a virtual face image made by matching a face image captured by a CCD camera or the like with a predefined lighting template. Stage 1; 상기 판단 결과에 따라 필터 뱅크 진화 모듈에서 진화 알고리즘을 이용하여 상기 판단된 조명의 영향을 최소화시키기 위한 영상 필터들의 조합을 찾아낸 후, 상기 영상 필터를 이용해 얼굴 영상에서 조명의 영향을 상쇄시켜 조명의 영향이 최소화된 영상을 생성하는 전처리를 수행하는 제 2 단계; 및 According to the determination result, the filter bank evolution module finds a combination of image filters for minimizing the influence of the determined lighting by using an evolution algorithm, and then cancels the influence of lighting on the face image using the image filter. A second step of performing preprocessing to generate the minimized image; And 상기 전처리 수행된 얼굴 영상을 등록 및 인식 모듈에서 데이터 베이스에 등록하고 이를 사전에 등록된 얼굴 영상들과 비교하여 얼굴 인식을 수행하는 제 3 단계;A third step of registering the preprocessed face image in a database in a registration and recognition module and performing face recognition by comparing the face image with previously registered face images; 를 포함하는 것을 특징으로 하는 조명환경 분석과 전처리를 통한 얼굴 인식 방법.Face recognition method through the lighting environment analysis and pre-processing comprising a. 삭제delete 제 1 항에 있어서, 상기 조명 템플릿은The method of claim 1, wherein the lighting template 일반적인 정상 조명 하에서의 얼굴 영상에 대해 전체 평균을 취한 후 그 값을 기준으로 사전에 만들어지는 것을 특징으로 하는 조명환경 분석과 전처리를 통한 얼굴 인식 방법.A face recognition method based on an illumination environment analysis and pre-processing, characterized in that the overall average is taken for a face image under normal lighting and then made in advance based on the value. 삭제delete CCD 카메라 등에 의해 촬상된 얼굴 영상과 사전에 정의된 조명 템플릿을 매칭시켜 만들어진 가상 얼굴 영상을 이용한 진화 신경망의 학습을 통해, 상기 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 조명 환경 모니터링 모듈;An illumination environment monitoring module for determining an illumination state of the captured face image by learning an evolutionary neural network using a virtual face image made by matching a face image captured by a CCD camera and a predefined lighting template; 상기 조명 환경 모니터링 모듈의 판단 결과에 따라 조명의 영향을 최소화시키기 위한 영상 필터들의 조합을 찾아낸 후, 상기 영상 필터를 이용해 얼굴 영상에서 조명의 영향을 상쇄시켜 조명의 영향이 최소화된 영상을 생성하는 전처리를 수행하는 필터 뱅크 진화 모듈; 및 After finding a combination of image filters for minimizing the influence of the lighting according to the determination result of the lighting environment monitoring module, and using the image filter to cancel the effect of the light in the face image to generate an image with a minimal impact of the illumination A filter bank evolution module for performing the; And 상기 필터 뱅크 진화 모듈에서 전처리된 얼굴 영상을 데이터 베이스에 등록하고 이를 사전에 등록된 얼굴 영상들과 비교하여 얼굴 인식을 수행하는 등록 및 인식 모듈;A registration and recognition module that registers a face image preprocessed by the filter bank evolution module in a database and compares the face image with a previously registered face image to perform face recognition; 을 포함하여 구성되는 것을 특징으로 하는 조명환경 분석과 전처리를 통한 얼굴 인식 시스템.Face recognition system through the lighting environment analysis and pre-processing, characterized in that comprises a.
KR1020040017041A 2004-03-12 2004-03-12 System and Method for face recognition using light and preprocess KR100567765B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040017041A KR100567765B1 (en) 2004-03-12 2004-03-12 System and Method for face recognition using light and preprocess

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040017041A KR100567765B1 (en) 2004-03-12 2004-03-12 System and Method for face recognition using light and preprocess

Publications (2)

Publication Number Publication Date
KR20050091558A KR20050091558A (en) 2005-09-15
KR100567765B1 true KR100567765B1 (en) 2006-04-05

Family

ID=37273229

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040017041A KR100567765B1 (en) 2004-03-12 2004-03-12 System and Method for face recognition using light and preprocess

Country Status (1)

Country Link
KR (1) KR100567765B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100756047B1 (en) * 2006-01-25 2007-09-07 한국인식산업(주) Apparatus for recognizing a biological face and method therefor
KR100876786B1 (en) 2007-05-09 2009-01-09 삼성전자주식회사 System and method for verifying user's face using light masks
KR101321840B1 (en) * 2012-04-25 2013-10-23 연세대학교 산학협력단 Image normalization method and apparatus by using fuzzy-based retinex
KR20140055819A (en) 2012-11-01 2014-05-09 삼성전자주식회사 Appparatus and method for face recognition
KR102477190B1 (en) 2015-08-10 2022-12-13 삼성전자주식회사 Method and apparatus for face recognition
US10902244B2 (en) 2017-03-27 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for image processing
EP3674974A1 (en) 2018-12-31 2020-07-01 Samsung Electronics Co., Ltd. Apparatus and method with user verification

Also Published As

Publication number Publication date
KR20050091558A (en) 2005-09-15

Similar Documents

Publication Publication Date Title
US10565433B2 (en) Age invariant face recognition using convolutional neural networks and set distances
JP5010905B2 (en) Face recognition device
CN110110601B (en) Video pedestrian re-recognition method and device based on multi-time space attention model
KR20090073294A (en) Method for social network analysis based on face recognition in an image or image sequences
JP2005149506A (en) Method and apparatus for automatic object recognition/collation
JP2004523840A (en) Classification of Objects by Model Set
KR100988326B1 (en) Method and apparatus for user-customized facial expression recognition
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
CN106471440A (en) Eye tracking based on efficient forest sensing
AU2013271337A1 (en) Biometric verification
CN113205002A (en) Low-definition face recognition method, device, equipment and medium for unlimited video monitoring
KR100567765B1 (en) System and Method for face recognition using light and preprocess
KR100899804B1 (en) Method for recognizing face using two-dimensional canonical correlation analysis
Foytik et al. Tracking and recognizing multiple faces using Kalman filter and ModularPCA
Sun et al. Using backpropagation neural network for face recognition with 2D+ 3D hybrid information
CN111738059A (en) Non-sensory scene-oriented face recognition method
Gorodnichy Associative neural networks as means for low-resolution video-based recognition
Gong et al. Gait identification by sparse representation
Sai et al. Student Attendance Monitoring System Using Face Recognition
Mishra et al. A Face Recognition Method Using Deep Learning to Identify Mask and Unmask Objects
Tiwari et al. Face Recognition using morphological method
KR100621883B1 (en) An adaptive realtime face detecting method based on training
Dhaliwal et al. Facial intrusion detection using a concise neural network architecture
JP3841482B2 (en) Face image recognition device
CN112183202B (en) Identity authentication method and device based on tooth structural features

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130215

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140220

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160211

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20161220

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee