KR100567765B1 - System and Method for face recognition using light and preprocess - Google Patents
System and Method for face recognition using light and preprocess Download PDFInfo
- Publication number
- KR100567765B1 KR100567765B1 KR1020040017041A KR20040017041A KR100567765B1 KR 100567765 B1 KR100567765 B1 KR 100567765B1 KR 1020040017041 A KR1020040017041 A KR 1020040017041A KR 20040017041 A KR20040017041 A KR 20040017041A KR 100567765 B1 KR100567765 B1 KR 100567765B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- face image
- lighting
- face recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 얼굴 인식 시스템에서의 얼굴 인식 방법을 개시한다.The present invention discloses a face recognition method in a face recognition system.
본 발명의 조명환경 분석과 전처리를 통한 얼굴인식 방법은 진화 신경망을 이용하여 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 제 1 단계; 상기 판단 결과에 따라 진화 알고리즘을 이용하여 상기 얼굴 영상에 대한 전처리를 수행하는 제 2 단계; 및 상기 전처리 수행된 얼굴 영상을 등록 및 인식하는 제 3 단계를 통하여 얼굴 인식을 수행함으로써 안정적인 인식 성능을 유지할 수 있다. 더욱이, 진화 신경망 학습을 미리 수행함으로써 실시간으로 얼굴 인식을 적용할 수 있다.The face recognition method through the analysis and preprocessing of the lighting environment of the present invention comprises a first step of determining an illumination state for the face image photographed using an evolutionary neural network; A second step of performing preprocessing on the face image using an evolution algorithm according to the determination result; And performing a face recognition through a third step of registering and recognizing the pre-processed face image, thereby maintaining stable recognition performance. Furthermore, face recognition can be applied in real time by performing evolutionary neural network learning in advance.
얼굴인식, 진화 신경망, 진화 알고리즘, 조명 탬플릿Face Recognition, Evolutionary Neural Networks, Evolutionary Algorithms, Lighting Templates
Description
도 1은 얼굴인식 시스템에서의 본 발명에 따른 얼굴인식 방법을 설명하기 위한 순서도.1 is a flowchart illustrating a face recognition method according to the present invention in a face recognition system.
도 2는 본 발명에 따른 다이렉트 엔코딩을 나타내는 도면,2 shows a direct encoding according to the invention,
도 3은 본 발명에 따른 조명 탬플릿을 나타내는 도면,3 shows an illumination template according to the invention,
도 4는 본 발명에 따른 가상 영상으로 생성된 이미지의 실시예를 나타내는 도면,4 is a view showing an embodiment of an image generated as a virtual image according to the present invention;
도 5는 본 발명의 실시예에 따른 전체 시스템의 구성을 설명하기 위한 도면이다.5 is a view for explaining the configuration of the entire system according to an embodiment of the present invention.
본 발명은 얼굴인식 방법에 관한 것으로서, 보다 상세하게는 영상 분석을 기반으로 하는 시스템에서 인식하고자 하는 얼굴의 조명상태를 진화신경망을 이용하 여 판단하고 그에 해당하는 전처리를 진화 알고리즘을 사용해 찾아낸 후 실제 환경에 대해 적절한 대응이 가능하도록 하여 안정적으로 얼굴인식 성능을 유지시키는 얼굴인식 방법에 관한 것이다.The present invention relates to a face recognition method, and more particularly, to determine a lighting state of a face to be recognized in a system based on image analysis using an evolutionary neural network, and to find a corresponding preprocessing using an evolutionary algorithm. The present invention relates to a face recognition method that maintains the face recognition performance stably by enabling an appropriate response.
일반적으로 얼굴인식 기술은 음성인식, 지문인식, 안구인식과 같이 신분을 검증하는데 응용되는 기술로, 다른 신분 검증 기술과 비교하여 상대적으로 저렴한 가격에 구현이 가능하며 인식대상자가 인식을 위한 특별한 행위를 취할 필요가 없어 인식 대상자의 거부감을 방지할 수 있다. 특히, 최근에는 멀티미디어 피시(PC)가 보편화되면서 영상 취득 장치가 기본적으로 장착되는 추세에 있어 별도의 하드웨어 구성없이 얼굴인식 기술 응용이 가능하다.In general, face recognition technology is applied to verify identity such as voice recognition, fingerprint recognition, and eye recognition, and it can be implemented at a relatively low price compared to other identification verification technologies, and recognizes special behaviors for recognition. There is no need to take it, which can prevent the objection of the object. In particular, in recent years, as the multimedia PC (PC) is popularized, the image acquisition device is basically installed, so that a face recognition technology application is possible without a separate hardware configuration.
종래 입력영상으로부터 얼굴을 인식하는 방법은 다음과 같은 방법들을 많이 사용하고 있다.Conventionally, a method of recognizing a face from an input image uses many of the following methods.
첫 번째로, 고유얼굴(EigenFace)을 이용한 주성분 분석 방법론은 여러 얼굴을 통하여 얼굴의 주성분 즉, 고유얼굴을 추출해 내고 추출된 고유얼굴과 새로 입력된 얼굴의 내적을 통한 가중치 벡터를 추출한다. 추출된 가중치 벡터를 미리 등록된 가중치 벡터와 유사도를 비교함으로써 인식을 수행하게 된다.First, the principal component analysis methodology using EigenFace extracts the principal component of the face, i.e. the eigenface, through several faces, and extracts the weighted vector through the dot product of the extracted eigenface and the newly input face. Recognition may be performed by comparing the extracted weight vector with similarity with a previously registered weight vector.
두 번째로 탄력적 그래프 정합법을 이용한 방법론은 전처리 과정을 거친 영상을 토대로 얼굴 검출 및 인식 과정부분을 탄력적인 그래프 정합 알고리즘을 이용하는 것이다. 이 알고리즘은 입력된 영상에 대해 특징점을 추출하고, 추출된 특징점들을 탄력적인 그래프를 이용하여 서로 연결하며, 연결된 특징점들을 가보(Gabor) 함수를 통하여 특징 벡터를 추출해 인식을 수행한다.Second, the methodology using the elastic graph matching method uses the elastic graph matching algorithm for the face detection and recognition process based on the preprocessed image. The algorithm extracts feature points from the input image, connects the extracted feature points to each other using an elastic graph, and extracts feature vectors through the Gabor function to perform recognition.
세 번째로, LFA(Local Feature Analysis)를 이용한 방법론은 고유얼굴 방법에서 유도되었는데, 고유얼굴 방법에서의 문제점인 얼굴 표정의 변화, 조명, 자세의 변화 때문에 나타나는 문제점을 해결하고자 제안되었다.Thirdly, the methodology using local feature analysis (LFA) is derived from the eigenface method, and it is proposed to solve the problems caused by the change of facial expression, lighting, and posture, which are problems in the eigenface method.
네 번째로, 상관관계(correlation)를 이용한 방법론은 카메라에서 입력된 얼굴 영상을 고유 얼굴 기반으로 얼굴영역을 획득한 후 얻어진 얼굴영역에 대하여 눈을 기준으로 일정한 범위 내에서 모자이크를 형성한다.Fourth, the methodology using correlation forms a mosaic within a certain range of the face region obtained after acquiring a face region based on a unique face from a face image input from a camera.
마지막으로, 신경망을 이용한 방법론은 일반적으로 기타의 다른 통계적이나 수식적인 전개 없이 추상적인 데이터에 대해서 학습만으로도 인식이 가능하다. 그러나 신경망은 일정이상의 크기를 가지는 학습데이터에 대해 수렴속도가 대단히 느려지며, 일반적으로 쓰이는 MLP(Multi layer perceptron)의 경우 학습패턴을 증가시키기 위해 전체 패턴을 다시 학습해야 된다는 단점을 가진다. 또한 지역 최소점에 빠져들어 최적의 해를 찾지 못하는 경우도 발생한다.Finally, methodologies using neural networks are generally recognizable by learning about abstract data without any other statistical or mathematical development. However, the neural network has a disadvantage in that the convergence speed is very slow for learning data having a certain size or more, and in the case of a commonly used MLP (Multi layer perceptron), the entire pattern must be re-learned to increase the learning pattern. It is also possible to fall into local minimums and not find the optimal solution.
이러한 종래의 얼굴인식 기술들은 모두 외형 기반(Appearance-Based) 모델로 조명 환경 변화를 고려하지 않아 조명 환경 변화가 심한 경우 얼굴인식에 성공할 수 없는 문제를 가지고 있다.All of the conventional face recognition techniques have an issue of not being successful in face recognition when the lighting environment is severely changed due to the appearance-based model.
따라서, 상술된 문제를 해결하기 위한 본 발명의 목적은 인식하고자 하는 얼굴의 조명상태를 진화신경망을 이용하여 판단하고 그에 해당하는 전처리를 진화 알고리즘을 사용해 찾아낸 후 실제 환경에 대해 적절한 대응이 가능하도록 하여 안정 적으로 얼굴인식 성능을 유지하는데 있다.
Accordingly, an object of the present invention for solving the above problems is to determine the lighting state of the face to be recognized by using an evolutionary neural network, and to find a corresponding preprocessing using an evolutionary algorithm, so that an appropriate response to the actual environment is possible. It is to stably maintain face recognition performance.
위와 같은 목적을 달성하기 위한 본 발명의 조명환경 분석과 전처리를 통한 얼굴인식 방법은, 조명 환경 모니터링 모듈에서, CCD 카메라 등에 의해 촬상된 얼굴 영상과 사전에 정의된 조명 템플릿을 매칭시켜 만들어진 가상 얼굴 영상을 이용한 진화 신경망의 학습을 통해, 상기 촬상된 얼굴 영상에 대한 조명 상태를 판단하는 제 1 단계; 상기 판단 결과에 따라 필터 뱅크 진화 모듈에서 진화 알고리즘을 이용하여 상기 판단된 조명의 영향을 최소화시키기 위한 영상 필터들의 조합을 찾아낸 후, 상기 영상 필터를 이용해 얼굴 영상에서 조명의 영향을 상쇄시켜 조명의 영향이 최소화된 영상을 생성하는 전처리를 수행하는 제 2 단계; 및 상기 전처리 수행된 얼굴 영상을 등록 및 인식 모듈에서 데이터 베이스에 등록하고 이를 사전에 등록된 얼굴 영상들과 비교하여 얼굴 인식을 수행하는 제 3 단계;를 포함하는 것을 특징으로 한다.Face recognition method through the illumination environment analysis and pre-processing of the present invention for achieving the above object, in the lighting environment monitoring module, a virtual face image made by matching a face image captured by a CCD camera or the like and a predefined illumination template A first step of determining an illumination state of the photographed face image by learning an evolutionary neural network using; According to the determination result, the filter bank evolution module finds a combination of image filters for minimizing the influence of the determined lighting by using an evolution algorithm, and then cancels the influence of lighting on the face image using the image filter. A second step of performing preprocessing to generate the minimized image; And a third step of registering the pre-processed face image in a database in the registration and recognition module and performing face recognition by comparing the face image with previously registered face images.
이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시예를 보다 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the present invention.
도 1은 얼굴인식 시스템에서의 본 발명에 따른 얼굴인식 방법을 설명하기 위한 순서도이다.1 is a flowchart illustrating a face recognition method according to the present invention in a face recognition system.
CCD 카메라 등에 의해 촬상된 얼굴 영상은 촬상 당시의 빛이나 조명의 위치에 따라 동일한 얼굴 이미지가 다른 얼굴로 인식될 수 있으므로 얼굴 영상에서 조명의 영향을 최소화해야 한다.The face image photographed by the CCD camera or the like may be recognized as a different face according to the position of light or illumination at the time of imaging, so the influence of illumination on the face image should be minimized.
이를 위해, 얼굴 인식 시스템은 우선 현재의 얼굴 영상이 얼마만큼 조명에 의해 영향을 받고 있는지 얼굴 영상에 대한 조명 상태를 판단한다(단계 101).To this end, the face recognition system first determines an illumination state of the face image as to how much the current face image is affected by illumination (step 101).
얼굴 인식 시스템은 조명 상태를 판단하기 위해 오류 역전파(Error Backpropagation) 신경망을 기반으로 하는 진화 신경망을 이용하여 도 2와 같이 노드 연결 구조를 다이렉트 엔코딩(Direct encoding)한다.The face recognition system directly encodes a node connection structure as shown in FIG. 2 using an evolutionary neural network based on an error backpropagation neural network to determine an illumination state.
일반적인 역전파 신경망은 학습시간이 오래 걸리고 지역 최소점에 빠지는 경우가 많으나, 본 발명의 진화 신경망은 전역탐색의 장점을 적용하여 역전파 신경망의 단점을 피할 수 있다.In general, the back propagation neural network takes a long time to learn and falls into a local minimum, but the evolutionary neural network of the present invention can avoid the disadvantages of the back propagation neural network by applying the advantages of global search.
이러한 진화 신경망의 학습은 촬상된 얼굴 영상과 도 3과 같은 조명 탬플릿(template)을 매칭시켜 만들어진 도 4와 같은 가상의 얼굴 영상을 이용하여 이루어진다. 이때, 조명 탬플릿은 일반적인 정상 조명 하에서의 얼굴 영상에 대해 전체 평균을 취한 후 그 값을 기준으로 하여 만들어진 것이다.The learning of the evolutionary neural network is performed by using the virtual face image as shown in FIG. 4 by matching the photographed face image with the illumination template as shown in FIG. 3. At this time, the illumination template is made based on the value after taking the overall average for the face image under normal normal lighting.
진화 신경망을 이용한 조명상태를 파악하기 위하여 도 3의 템플릿은 공백의 영상에 대해 각기 가산, 승산 잡영을 sine, cosine 가중치를 적용하여 만들어 낸 것이다. 밝은 쪽의 템플릿은 음의 잡영이며, 어두운 쪽의 템플릿은 양의 잡영이다. 이 템플릿을 정상 조명 상태의 일반적인 정면 얼굴에 대해 적용하면 도 4와 같은 가상 영상이 생성되는데, 이러한 영상을 각 템플릿 당 100개 이상 만들어 진화 신경망의 학습 데이터로 사용한다. 이렇게 학습된 진화 신경망에 이미지를 통과시키면 미리 학습된 결과에 의해 이미지의 조명 상태를 파악 할 수 있게 된다. In order to understand the lighting state using the evolutionary neural network, the template of FIG. 3 is generated by applying sine and cosine weights to the addition and multiplication miscellaneous images for the blank image. The template on the bright side is a negative ghost, and the template on the dark side is a positive ghost. When this template is applied to a general front face in a normal lighting state, a virtual image as shown in FIG. 4 is generated, and 100 or more such images are generated for each template and used as learning data of an evolutionary neural network. Passing the image through the evolved neural network thus learned makes it possible to determine the lighting state of the image based on the pre-learned result.
도 4는 도 3의 템플릿을 이용하여 정상 조명상태의 얼굴에 대해 가산하게 되면 도 4에서 보이는 것과 같은 가상 영상이 나타나게 된다. 템플릿의 값들은 양수와 음수를 모두 포함하며, 양수일 경우 어두운 영상으로, 음수일 경우 밝은 영상으로 변환된다. 4 is added to the face in the normal illumination state using the template of FIG. 3, a virtual image as shown in FIG. 4 appears. The values in the template include both positive and negative numbers, and if they are positive, they are converted to a dark image and to negative values.
얼굴 인식 시스템은 얼굴 영상에 대한 조명 상태 판단이 완료되면, 진화 알고리즘을 이용하여 여러가지 조명 상태에 따라 각기 다른 전처리 수행을 위한 영상 필터들의 조합을 찾아내어 얼굴 영상에서의 조명의 영향을 상쇄시킨다(단계 102).When the face recognition system completes the determination of the lighting state of the face image, the face recognition system uses an evolutionary algorithm to find a combination of image filters for performing different preprocessing according to various lighting states, thereby canceling the influence of the lighting on the face image (step) 102).
이를 위해, 본 발명에서는 수학식 1을 사용하여 가중치 값을 진화 알고리즘의 크로모좀(chromosome)으로 사용한다.To this end, the present invention uses the weight value as a chromosome of the evolutionary algorithm using Equation 1.
ivalreal = (ivalbin)10 ×π + Umini valreal = (i valbin ) 10 × π + Umin
그리고, 진화 알고리즘에서 필터 조합을 위한 적합도 산출은 각각의 정의된 조명 환경에서 수학식 2와 같이 나타내어진다.In the evolutionary algorithm, the goodness-of-fit calculation for the filter combination is represented by Equation 2 in each defined lighting environment.
여기에서, T는 등록된 영상에 대해 필터를 통과한 결과,Here, T is the result of passing the filter for the registered image,
OrgT는 등록된 영상들 중 T와 등록 ID가 같은 영상, OrgT is the registered video with the same ID as T,
NotT는 등록된 영상들 중 T와 등록 ID가 다른 영상, NotT is a registered video with a different ID from T,
k는 전체 등록된 영상의 수, k is the total number of registered images,
m은 한사람 당 등록되는 영상의 수를 나타낸다. m represents the number of images registered per person.
필터 크로모좀(chromosome)은 미리 정의된 환경 당 하나씩 존재하며 그 형식은 표 1과 같다.One filter chromosome exists per predefined environment and the format is shown in Table 1.
정의된 환경의 수는 도 3과 같이 9개로 정의되며, 자체적으로 보유한 조명 상태가 동일한 얼굴 데이터에 대해 인공적으로 정의된 조명을 추가한 후 각각의 필터 조합을 도출한다.The number of defined environments is defined as nine as shown in FIG. 3, and each filter combination is derived after adding artificially defined lighting for face data having the same lighting state as its own.
사용하는 필터의 조합은 실생활에서 나타나는 대부분의 잡영은 그것을 역으로 적용할 경우 상쇄 할 수 있게 된다. 표 1에서 사용되는 세가지 필터들은 각각 밝거나 어두운 조명, 편향조명 등에 대해 그 영향을 상쇄할 수 있는 역할을 한다.The combination of filters used will cancel out most of the miscellaneous artifacts in real life if you reverse them. The three filters used in Table 1 each have a role to offset their effects on bright or dark lighting, deflection lighting, and so on.
이들을 적용하는 최적의 방법을 찾기 위해 진화 알고리즘을 사용하는데, 도 3의 템플릿이 적용된 영상들에 대해 필터를 적용한 후 해당 영상의 원래 영상과 비교하여 그 차이를 도출한 후, 진화를 통해 가장 차이가 적은 필터의 조합을 찾게 된다.The evolutionary algorithm is used to find an optimal method of applying them. After applying a filter to the images to which the template of FIG. 3 is applied, the difference is derived by comparing with the original image of the corresponding image, and the most difference is obtained through evolution. You will find fewer filter combinations.
이 조합은 표 1에서 나타나는 1~10까지의 진화알고리즘에 대한 chromosome을 통해 알 수 있다.This combination can be seen from the chromosomes for the evolutionary algorithms 1 through 10 shown in Table 1.
이를테면 충분한 진화를 수행 한 후 나타난 chromosome 결과가 For example, the chromosome results that appeared after sufficient evolution
이라면 호모몰픽 필터와 히스토그램 필터를 차례로 사용하고, 호모몰픽 필터의 파라메터는 1010(2) 로 적용하게 된다. In this case, the homomorphic filter and the histogram filter are used in sequence, and the parameter of the homomorphic filter is applied to 1010 (2).
진화 알고리즘을 이용한 필터 조합을 찾아내는 과정이 완료되면, 얼굴 인식 시스템은 조합된 필터를 이용하여 조명의 영향을 상쇄시킴으로써 조명의 영향이 최 소화 된 영상을 생성한다.When the process of finding the filter combination using the evolutionary algorithm is completed, the face recognition system uses the combined filter to cancel out the effect of the lighting, thereby generating an image with the least impact of the lighting.
얼굴 인식 시스템은 생성된 얼굴 영상을 데이터 베이스에 등록하고 이를 기 등록된 얼굴들과 비교하여 얼굴 인식을 수행한다(단계 103).The face recognition system registers the generated face image in the database and compares the face image with the registered faces and performs face recognition (step 103).
즉, 시간이 오래 걸리는 진화 신경망 학습과 필터 조합을 찾아내는 과정을 미리 수행한 후 실시간으로 얼굴 등록 및 인식을 수행한다.In other words, the process of finding the time-consuming evolutionary neural network and filter combination is performed in advance, and the face registration and recognition is performed in real time.
이때, 얼굴의 인식은 등록된 얼굴 영상에서 얼굴 영역을 추출한 후 가보(Gabor) 변환을 사용하여 수행된다.At this time, the recognition of the face is performed by using Gabor transformation after extracting the face region from the registered face image.
도 5는 위에서 설명한 조명 환경 구성을 이용한 얼굴인식 시스템을 설명하기 위한 도면이다. 상기 도 5를 참조하면, 전체 시스템은 조명 환경 모니터링(Illumination Environment Monitering)모듈과 필터 뱅크 진화(Filter Bank Evolution) 모듈로 구성할 수 있다. 상기 조명 환경 모니터링 모듈은 구성된 환경을 사용하는 것이며, 상기 필터 뱅크진화 모듈은 환경을 구성하는 기능을 수행한다. 그리고 상기 필터 뱅크 진화 모듈은 진화 알고리즘을 이용하여 환경에 맞는 크로모좀을 구성한다. 따라서, 전체 시스템은 촬상된 얼굴에 대한 조명 상태를 판단하는 조명환경 모니터링 모듈과, 상기 판단된 결과에 따라 얼굴 영상에 대한 전처리를 수행하는 필터뱅크 진화모듈과, 전처리된 얼굴 영상을 등록 및 인식하는 등록 및 인식 모듈을 포함하여 구현할 수 있다. 따라서, 본 발명에서 제안하는 시스템은 도 5에 도시된 바와 같이, 진화 신경망 학습과 필터 조합을 찾아내는 과정을 미리 수행하고 실시간으로 등록 및 인식을 수행하는 듀얼 시스템 구조라 할 수 있다.5 is a view for explaining a face recognition system using the above-described lighting environment configuration. Referring to FIG. 5, the entire system may include an illumination environment monitoring module and a filter bank evolution module. The lighting environment monitoring module uses a configured environment, and the filter bank evolution module performs a function of configuring an environment. The filter bank evolution module constructs a chromosome for the environment using an evolution algorithm. Accordingly, the entire system registers and recognizes an illumination environment monitoring module for determining an illumination state of the captured face, a filter bank evolution module for preprocessing the face image according to the determined result, and registering and recognizing the preprocessed face image. It can be implemented by including a registration and recognition module. Therefore, the system proposed in the present invention may be referred to as a dual system structure that performs the process of finding the evolutionary neural network learning and filter combination in advance and performs registration and recognition in real time.
상술한 바와 같이, 본 발명의 조명환경 분석과 전처리를 통한 얼굴 인식 방법은 얼굴 영상에 대한 조명 상태를 추정하고 그에 따른 전처리를 통해 조명의 영향을 최소화 한 영상을 만들어 낸 후 이를 이용하여 얼굴 인식을 수행함으로써 안정적인 인식 성능을 유지할 수 있다. 더욱이, 진화 신경망 학습을 미리 수행함으로써 실시간으로 얼굴 인식을 적용할 수 있다.As described above, the face recognition method through the analysis and preprocessing of the lighting environment of the present invention estimates the lighting state of the face image and generates an image that minimizes the influence of the light through preprocessing, and then uses the face recognition to detect the face. By doing so, stable recognition performance can be maintained. Furthermore, face recognition can be applied in real time by performing evolutionary neural network learning in advance.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040017041A KR100567765B1 (en) | 2004-03-12 | 2004-03-12 | System and Method for face recognition using light and preprocess |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040017041A KR100567765B1 (en) | 2004-03-12 | 2004-03-12 | System and Method for face recognition using light and preprocess |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050091558A KR20050091558A (en) | 2005-09-15 |
KR100567765B1 true KR100567765B1 (en) | 2006-04-05 |
Family
ID=37273229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040017041A KR100567765B1 (en) | 2004-03-12 | 2004-03-12 | System and Method for face recognition using light and preprocess |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100567765B1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100756047B1 (en) * | 2006-01-25 | 2007-09-07 | 한국인식산업(주) | Apparatus for recognizing a biological face and method therefor |
KR100876786B1 (en) | 2007-05-09 | 2009-01-09 | 삼성전자주식회사 | System and method for verifying user's face using light masks |
KR101321840B1 (en) * | 2012-04-25 | 2013-10-23 | 연세대학교 산학협력단 | Image normalization method and apparatus by using fuzzy-based retinex |
KR20140055819A (en) | 2012-11-01 | 2014-05-09 | 삼성전자주식회사 | Appparatus and method for face recognition |
KR102477190B1 (en) | 2015-08-10 | 2022-12-13 | 삼성전자주식회사 | Method and apparatus for face recognition |
US10902244B2 (en) | 2017-03-27 | 2021-01-26 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
EP3674974A1 (en) | 2018-12-31 | 2020-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method with user verification |
-
2004
- 2004-03-12 KR KR1020040017041A patent/KR100567765B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR20050091558A (en) | 2005-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10565433B2 (en) | Age invariant face recognition using convolutional neural networks and set distances | |
JP5010905B2 (en) | Face recognition device | |
CN110110601B (en) | Video pedestrian re-recognition method and device based on multi-time space attention model | |
KR20090073294A (en) | Method for social network analysis based on face recognition in an image or image sequences | |
JP2005149506A (en) | Method and apparatus for automatic object recognition/collation | |
JP2004523840A (en) | Classification of Objects by Model Set | |
KR100988326B1 (en) | Method and apparatus for user-customized facial expression recognition | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
CN106471440A (en) | Eye tracking based on efficient forest sensing | |
AU2013271337A1 (en) | Biometric verification | |
CN113205002A (en) | Low-definition face recognition method, device, equipment and medium for unlimited video monitoring | |
KR100567765B1 (en) | System and Method for face recognition using light and preprocess | |
KR100899804B1 (en) | Method for recognizing face using two-dimensional canonical correlation analysis | |
Foytik et al. | Tracking and recognizing multiple faces using Kalman filter and ModularPCA | |
Sun et al. | Using backpropagation neural network for face recognition with 2D+ 3D hybrid information | |
CN111738059A (en) | Non-sensory scene-oriented face recognition method | |
Gorodnichy | Associative neural networks as means for low-resolution video-based recognition | |
Gong et al. | Gait identification by sparse representation | |
Sai et al. | Student Attendance Monitoring System Using Face Recognition | |
Mishra et al. | A Face Recognition Method Using Deep Learning to Identify Mask and Unmask Objects | |
Tiwari et al. | Face Recognition using morphological method | |
KR100621883B1 (en) | An adaptive realtime face detecting method based on training | |
Dhaliwal et al. | Facial intrusion detection using a concise neural network architecture | |
JP3841482B2 (en) | Face image recognition device | |
CN112183202B (en) | Identity authentication method and device based on tooth structural features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130215 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140220 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150224 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20160211 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20161220 Year of fee payment: 12 |
|
LAPS | Lapse due to unpaid annual fee |