KR20070118830A - Face and facial feature detection method using evolutionary algorithms - Google Patents
Face and facial feature detection method using evolutionary algorithms Download PDFInfo
- Publication number
- KR20070118830A KR20070118830A KR1020060053031A KR20060053031A KR20070118830A KR 20070118830 A KR20070118830 A KR 20070118830A KR 1020060053031 A KR1020060053031 A KR 1020060053031A KR 20060053031 A KR20060053031 A KR 20060053031A KR 20070118830 A KR20070118830 A KR 20070118830A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- rectangular
- feature
- evolutionary algorithm
- detecting
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2111—Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Physiology (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
도 1은 얼굴과 얼굴 특징 검출을 위한 영상 시스템 구성을 개략적으로 도식화한 도면이다.1 is a schematic diagram illustrating an image system configuration for detecting a face and facial features.
도 2는 본 발명에서 사용하는 사각형 특징의 종류를 나타내는 도면이다.2 is a diagram showing the types of rectangular features used in the present invention.
도 3은 AdaBoost 방법과 진화 알고리즘을 이용한 분류기 학습 방법을 나타낸 도면이다.3 is a diagram illustrating a classifier learning method using an AdaBoost method and an evolutionary algorithm.
도 4는 학습된 분류기 다수를 순차적으로 배치하여 여러 단(stage)을 가지는 구조를 설명하는 도면이다.4 is a diagram illustrating a structure having a plurality of stages by sequentially arranging a plurality of learned classifiers.
도 5는 가중치 를 진화 알고리즘을 이용하여 재구성하기 위한 인코딩을 보여주는 도면이다.5 is a weight Is a diagram showing the encoding for reconstruction using the evolutionary algorithm.
도 6은 진화 알고리즘을 이용하여 를 재구성하는 방법을 설명한 도면이다.6 using an evolutionary algorithm A diagram illustrating a method of reconfiguring.
본 발명은 동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 추출하고 또한 얼굴 영역에서 눈, 코, 입 등의 얼굴 특징 성분을 검출해 내는 방법에 관한 것이다. The present invention relates to a method of extracting a face region of a person from moving image or still image information and detecting facial feature components such as eyes, nose and mouth in the face region.
기존의 얼굴 검출 방법으로는 형판을 이용한 방법이나, 얼굴의 색깔 정보를 활용하여 검출하는 방법이 많이 사용되었다. 형판을 이용한 방법은 얼굴의 크기와 위치를 모르는 가운데 입력 영상에 가능한 위치와 크기를 변화시켜 가면서 수행하기에는 시간이 너무 많이 걸리므로 실시간 검출과는 거리가 멀다. 색깔 정보를 활용하는 방법은 빠른 검출 시간을 보장하지만 조명 환경에 민감하게 변화하는 사람의 피부 색깔 때문에 검출률과 오검출률 측면에서 효과적이지 못하다. As a conventional face detection method, a method using a template or a method using a color information of a face has been frequently used. The method using the template is far from real-time detection because it takes too much time to perform while changing the possible position and size of the input image without knowing the size and position of the face. The method using color information guarantees fast detection time, but it is not effective in terms of detection rate and false detection rate because of the skin color of people who are sensitive to lighting environment.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 얼굴과 얼굴이 아닌 학습 데이터에 대해서 2가지 클래스로 정확하게 분류하는 분류기를 학습하는 방법을 제공함을 목적으로 한다. 두 가지 형태의 학습 데이터를 구분하는 분류기를 학습하면 이를 이용하여 얼굴과 얼굴이 아닌 영상을 구분하여 얼굴 검출을 수행할 수 있고, 더 나아가서 눈,코, 입 등의 얼굴 특징도 학습을 통하여 검출해 낼 수 있다. 기존의 AdaBoost 학습 방법에 진화 알고리즘을 도입하여 검출률과 연산 시간을 향상시키는 것을 목적으로 한다. The present invention has been made to solve the above problems, and an object of the present invention is to provide a method of learning a classifier that accurately classifies two classes of face-to-face learning data. If you learn the classifier that separates the two types of learning data, you can use this to classify the face and the non-face image and perform face detection. Furthermore, the facial features such as eyes, nose, and mouth are also detected through learning. I can make it. The purpose of this paper is to improve the detection rate and computation time by introducing an evolutionary algorithm to the existing AdaBoost learning method.
상기 본 발명의 목적을 달성하기 위한 사상으로서, 본 발명에서는 동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 검출하는 방법에 있어서, 동영상이나 정지 영상 정보로부터 사각형 특징 샘플을 이용하여 사각형 특징을 추출하는 제 1단계과, 상기 추출된 사각형 특징에서 AdaBoost 방법을 이용하여 사각형 특징 집합 을 만드는 제 2단계와, 상기 2단계후의 사각형 특징 집합을 진화 알고리즘을 이용하여 을 재구성하는 방법을 이용하여 줄어든 개수의 사각형 특징 집합을 만드는 제 3단계를 포함하여 이루어진 발명이 제시된다.In order to achieve the object of the present invention, in the present invention, in the method for detecting a face region of a person from moving image or still image information, the method for extracting a rectangular feature using a rectangular feature sample from the moving image or still image information;
이하에서는 본 발명의 실시예에 대한 발명의 구성 및 작용에 대하여 첨부한 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the invention for the embodiment of the present invention will be described in detail.
본 발명에 의한 얼굴 검출 및 얼굴 특징 검출 방법은, 입력 영상에서 얼굴을 검출하는 얼굴 검출기, 검출된 얼굴에서 눈, 코, 입 등을 추출하는 얼굴 특징 추출기, 각각의 검출기 구성을 위한 AdaBoost와 진화 알고리즘을 이용한 분류기 학습 방법을 포함한다.The face detection and face feature detection method according to the present invention includes a face detector for detecting a face from an input image, a face feature extractor for extracting eyes, nose, mouth, etc. from the detected face, AdaBoost and an evolution algorithm for each detector configuration. It includes a classifier learning method using.
본 발명에서는 회색조의 정지 영상 정보만 사용하여 얼굴 검출과 얼굴 특징 검출을 하는 방법을 설명한다. 대부분의 칼라 영상이나 동영상에는 기본적으로 회색조의 정지 영상 정보가 포함되어 있으므로 회색조의 정지 영상 정보를 이용한 방법은 다양한 영상 획득 조건에서 동작이 가능하다. In the present invention, a method for face detection and face feature detection using only grayscale still image information will be described. Since most color images and videos basically include still image information of grayscale, the method using the grayscale still image information can operate under various image acquisition conditions.
얼굴과 눈, 코, 입 등의 얼굴 특징을 검출하기 위해서 사각형 형태의 특징을 사용한다. 사각형 형태의 특징은 도 2와 같이 6가지 종류가 사용된다. 201 ~ 205 의 5가지 특징은 밝은 영역의 사각형 영역에 해당하는 픽셀값(밝기값)에서 어두운 영역의 픽셀값을 뺀 값을 특징값으로 가지고, 206에 도시한 특징은 사각형 영역의 픽셀값의 분산값을 특징값으로 가진다. 이러한 6가지 형태의 사각형 특징은 기준 윈도우 크기 24픽셀*24픽셀 경우에 약 18만개 정도 존재할 수 있다. 이처럼 많은 수의 사각형 특징들 가운데 얼굴과 얼굴이 아닌 영상 집합을 잘 구분할 수 있는 사각형 특징을 수 백, 수 천개 수준으로 줄여서 얼굴 검출에 활용할 수 있도록 AdaBoost 학습 방법이 사용된다. 18만개 수준의 전체 사각형 특징 집합에서 유효한 사각형 특징들을 추출하여 각각의 사각형 특징들이 하나의 결정을 할 수 있는 약분류기(weak classifier) 를 구성할 수 있다. 즉, 하나의 사각형 특징은 하나의 약분류기를 구성한다. 수학식 1은 입력 영상 벡터 에 대해서 각각의 사각형 특징값 와 문턱값 비교를 통해서 간단히 분류를 하는 약분류기를 나타낸다. 이때 부등호의 방향을 결정하기 위해서 부호값 이 곱해진다. 은 값을 가진다.Rectangular features are used to detect facial features such as face, eyes, nose and mouth. Six types are used for the rectangular shape as shown in FIG. 2. The five features of 201 to 205 are the pixel values (brightness values) corresponding to the rectangular areas of the bright areas minus the pixel values of the dark areas, and the features shown in 206 are the variances of the pixel values of the rectangular areas. It has a value as a feature value. These six types of rectangular features may exist about 180,000 when the reference window size 24 pixels * 24 pixels. Among the large number of rectangular features, the AdaBoost learning method is used to reduce the number of rectangular features that can distinguish the face and non-face image sets to hundreds or thousands. Weak classifier that extracts valid rectangular features from a set of 180,000 levels of rectangular features and allows each rectangular feature to make one decision. Can be configured. That is, one rectangular feature constitutes one weak classifier.
간단한 형태의 결정을 하는 약분류기의 출력값은 1 또는 0이다. 1은 입력 영상 가 얼굴일 경우이고, 0은 얼굴이 아닐 경우이다. 이러한 약분류기 들은 그 분류 성능이 부정확하므로 여러 가지 약분류기들의 결정을 종합하여 최종 결정을 하는 강분류기(strong classifier)를 AdaBoost 방법에 의해서 수학식2 와 같이 얻을 수 있다.The weak classifier output with a simple form of decision is 1 or 0. 1 is input video Is a face and 0 is not a face. Since the classifiers are inaccurate in their classification performance, a strong classifier that combines the decisions of various classifiers and makes a final decision can be obtained by Equation 2 by AdaBoost method.
출력값 는 강분류기를 구성하는 T개의 약분류기 각각의 출력값에 가중치 가 곱해진 형태이다. Output value Is weighted to the output values of each of the T weak classifiers constituting the strong classifier. Is multiplied.
AdaBoost 학습은 사각형 형태의 특징들(도 2) 중에서 유용한 특징들을 하나씩 순차적으로 선택하여 여러 개의 약분류기들로 구성된 집합을 얻고 선택된 약분류기의 결정을 종합하여 강분류기(수학식 2)를 구성해 준다. 준비된 학습 데이터로부터 AdaBoost 학습 방법의 동작은 다음과 같은 절차를 따른다.AdaBoost learning obtains a set consisting of several classifiers by sequentially selecting the useful features one by one from the rectangular features (Fig. 2), and constructs the strong classifier (Equation 2) by combining the decisions of the selected classifiers. . The operation of the AdaBoost learning method from the prepared training data follows the following procedure.
첫째, 개의 얼굴 영상과 개의 얼굴이 아닌 영상의 두 가지 집합으로 구성된 학습 데이터를 설정한다. 전체 데이터의 개수는 K=a+b이다. 얼굴영상에 대해서는 레이블 값 를 1으로 설정하고 아닐 경우에는 0으로 설정한다.first, Face images Set training data consisting of two sets of images instead of two faces. The total number of data is K = a + b. Label value for face image Is set to 1, otherwise it is set to 0.
둘째, 학습 데이터가 준비되면 각 영상에 대해서 수학식 4와 같이 가중치를 초기화 한다. Second, when the training data is prepared, the weights are initialized as in Equation 4 for each image.
셋째, 구하려는 전체 약분류기의 갯수 T만큼 AdaBoost 학습을 진행한다. Third, AdaBoost learning is conducted by the number T of all the weak classifiers.
t=1,…T 동안 아래 a~d 를 반복한다.t = 1,… Repeat steps a through d for T.
a. 수학식 5와 같이 가중치를 정규화한다. a. The weight is normalized as shown in Equation 5.
b. 모든 특징에 대해서 수학식 6과 같이 를 구한다. b. For all features, as shown in equation (6) Obtain
c. 가 최소가 되는 , 를 선택한다. c. Is the minimum , Select.
d. 수학식 7과같이 가중치를 갱신한다.d. The weight is updated as shown in equation (7).
여기서, 이고, 이다.here, ego, to be.
넷째, T번 반복 후 최종적으로 강분류기를 결정한다. Fourth, after the T iterations, the strong classifier is finally determined.
수학식 8은 수학식 2와 같으며 이때 판별을 위한 문턱값인 TH를 조정하여 검출률과 오검출률을 변화시킬 수 있다. 일반적으로 검출기를 구성할 때는 원하는 검 출률과 오검출률을 선정하여 설정된 검출률 이상, 설정된 오검출률 이하를 만족하도록 적당한 TH 를 찾게 된다. 만약 TH를 찾을 수 없다면 약분류기 개수를 하나 증가시키고 원하는 검출률과 오검출률을 만족할 때까지 AdaBoost 학습을 진행한다. Equation 8 is the same as Equation 2, and in this case, the detection rate and the false detection rate may be changed by adjusting TH, which is a threshold value for discrimination. In general, when constructing a detector, a desired detection rate and a false detection rate are selected to find a suitable TH so as to satisfy a predetermined detection rate or more and a predetermined error detection rate or less. If no TH can be found, increase the number of weak classifiers and proceed with learning AdaBoost until the desired detection rate and false detection rate are met.
이 처럼 T개의 약분류기 결정을 종합하여 최종 결정을 내리게 되면 높은 검출률과 낮은 오검출을 만족하는 분류기를 설계할 수 있다. 이때 하나의 강분류기는 사전에 준비된 학습데이터에서 원하는 검출률과 오검출률을 만족할 때 까지 약분류기의 개수가 하나씩 증가되면서 학습이 이루어진다. 사각형 특징 집합이라 함은, 사각형 특징과 그에 해당하는 가중치 와 강분류기를 위한 문턱값 TH정보를 모두 포함하는 것을 말한다.In this way, if the final decision is made by combining T weak classifier decisions, a classifier that satisfies high detection rate and low false detection can be designed. At this time, one strong classifier learns by increasing the number of weak classifiers one by one until it satisfies a desired detection rate and a false detection rate in previously prepared training data. Rectangle feature set means the rectangle feature and its weight And the threshold TH information for the classifier.
AdaBoost 방법에 의해서 선택된 사각형 특징 집합에 대해서 진화 알고리즘을 적용하여 원하는 검출률과 오검출률을 만족하면서 더 적은 개수의 사각형 특징 집합을 찾아내어 이를 최종 사각형 특징 집합으로 저장한다. The evolutionary algorithm is applied to the rectangular feature set selected by the AdaBoost method to find a smaller number of rectangular feature sets while satisfying the desired detection rate and false detection rate and store them as the final rectangular feature set.
이미 AdaBoost 방법에 의해서 찾아진 사각형 특징들의 집합(약분류기들의 집합)은 원하는 검출률과 오검출률을 만족하지만 더 적은 개수의 사각형 특징 집합을 찾기 위해서 진화 알고리즘이 이용된다. 진화 알고리즘은 확률적인 최적화 방법의 일종으로 여러 가지 최적화 문제에서 우수한 성능이 입증되었다. 탐색 범위가 넓고 지역적 최적해(local optimal)이 존재하는 경우에도 잘 동작하는 장점이 있다. 최적화의 대상은 수학식 2에서의 이다. 즉 를 진화 알고리즘에서 사용하는 개체로 인코딩한다. 인코딩을 하는 것은 0과 1을 이용하여 2진수로 표현하는 방법을 사용하거나 실수 형태로 표현할 수 있다. 하나의 개체는 도 5와 같이 들로 구성되어 있는데 이러한 개체들이 1개 이상 모여서 개체들의 집단 를 구성한다. 여러 가지 다양한 들의 조합으로 구성된 개체들이 모여 있기 때문에 이중에는 우수한 개체가 있는 반면 그렇지 못한 개체들도 있다. 진화 알고리즘을 이용하여 를 재구성하는 방법은 도 6과 같다. The set of rectangular features (a set of weak classifiers) already found by the AdaBoost method satisfies the desired detection rate and false detection rate, but an evolutionary algorithm is used to find a smaller number of rectangular feature sets. Evolutionary algorithms are a probabilistic optimization method that has been proven to perform well in many optimization problems. It has the advantage that it works well even when the search range is wide and local optimal exists. The object of optimization is to be. In other words Is encoded into the object used by the evolutionary algorithm. The encoding can be expressed in binary form using 0 and 1 or in real form. One object is as shown in FIG. Consisting of one or more of these entities Configure Various Because of the grouping of individuals, some of them are superior, while others are not. Using evolutionary algorithms The method of reconstructing is as shown in FIG.
진화 알고리즘은 를 재구성하여 원하는 검출률과 오검출률을 만족하면서 더 높은 검출률과 더 낮은 오검출률을 얻을 수 있도록 동작한다. 진화 알고리즘에서는 매 세대마다 우수한 평가를 받은 개체들이 살아 남아가기 때문에 세대가 진행될수록 우수한 해를 찾을 가능성이 높아진다. 이를 위해서는 적절한 평가 척도를 설정해야 한다. 평가는 학습 데이터에 적용하여 검출률과 오검출률을 얻은 다음 이 두 가지 값의 조합으로써 평가 함수값을 얻을 수 있다. 어떠한 형태로 평가 함수를 구성하더라도, 평가 함수의 값이 검출률이 높을수록 오검출률이 낮을수록 높은 값을 가지도록 설정하고 진화 알고리즘은 평가 함수를 최대화 하는 방향으로 동작시킨다면 무방하다. 즉, 평가 함수의 값이 클수록 우수한 개체로 평가하는 것이다. 혹은 검출률이 높을수록 오검출률이 낮을수록 평가 함수값이 더 낮은 값을 가지도록 설정하고 진화 알고리즘은 평가 함수를 최소화 하도록 동작시켜도 같은 효과를 볼 수 있다. 좋은 평가를 받은 우수한 개체들은 낮은 평가를 받은 개체들보다 높은 확률로 자식을 형성하는데, 즉 P(t-1)로부터 를 생성한다. 새로 생성된 개체들에 크로스 오버, 돌연변이 등의 일반적인 진화 알고리즘에서 사용하는 여러 가지 변형 테크닉을 적용하여 다양한 탐색을 수행한다.Evolutionary algorithm By reconstructing, it operates to obtain higher detection rate and lower false detection rate while satisfying the desired detection rate and false detection rate. In evolutionary algorithms, the most well-established individuals survive every generation, so the chances of finding a better solution increase as generation progresses. To this end, appropriate evaluation measures should be established. The evaluation is applied to the training data to obtain a detection rate and a false detection rate, and then a combination of the two values can be used to obtain an evaluation function value. Whatever the evaluation function is, the value of the evaluation function should be set to have a higher value as the detection rate is higher and the false detection rate is lower, and the evolution algorithm may operate in the direction of maximizing the evaluation function. In other words, the larger the value of the evaluation function, the better the individual. Alternatively, the higher the detection rate, the lower the false detection rate, the lower the evaluation function value, and the evolutionary algorithm can be operated to minimize the evaluation function. Good individuals with good evaluation have a higher probability of forming offspring than low rated individuals, ie from P (t-1). Create The newly created entities are subjected to various exploration techniques by applying various transformation techniques used in general evolutionary algorithms such as crossovers and mutations.
이렇게 진화가 진행되면서 원하는 조건(검출률과 오검출률)을 만족하게 되면 해를 분석하여 가장 작은 를 제거하고 다시 원하는 조건을 만족하는 해를 찾는다. As evolution progresses, if the desired conditions (detection rate and false detection rate) are satisfied, the solution is analyzed and the smallest Remove it and again find the solution that satisfies the desired condition.
가장 작은 값을 가지는 가 사라졌기 때문에 개체의 길이는 하나 줄어들게 되고 하나 줄어든 길이의 개체들 집단 을 구성하고 다시 진화 알고리즘을 적용한다. 이러한 작업을 반복함으로써 개보다 적은 수의 약분류기 집합을 찾아낼 수 있다. 또한 더 적은 수의 약분류기 집합을 찾을 수 없을 경우에도 AdaBoost 방법에서 얻어진 약분류기 집합이 가지는 검출률과 오검출률 보다 더 높은 검출률과 더 낮은 오검출률을 얻을 수 있는 집합을 구할 수 있다. With the smallest value Disappears, the length of the object is reduced by one, Construct and apply evolutionary algorithms again. By repeating this operation You can find fewer classifier sets. In addition, even if a smaller set of weak classifiers cannot be found, higher detection rates and lower false detection rates can be obtained than those of the classifier sets obtained by the AdaBoost method. You can get a set.
사각형 특징의 개수는 곧바로 연산 시간과 비례하기 때문에 더 적은 개수의 사각형 특징으로 이루어진 집합은 빠른 연산 시간을 보장한다. 또한 같은 개수의 약분류기 집합을 사용하더라도 진화 알고리즘을 적용하여 AdaBoost 방법에서 찾은 집합보다 더 높은 검출률과 더 낮은 오검출률을 만족하는 집합을 얻게 되면 이는 더 빠른 연산 시간을 가능하게 한다.Since the number of rectangular features is directly proportional to the computation time, a set of fewer rectangular features ensures faster computation time. In addition, even if the same number of weak classifier sets are used, the evolutionary algorithm is applied to find the AdaBoost method. Satisfying higher detection rate and lower false detection rate than aggregation Once you have the set, this allows for faster computation time.
일련의 학습 과정은 도 3과 같이 수행된다. 기존의 AdaBoost 방법에 의해서 얻어진 사각형 특징 집합(300)보다 진화 알고리즘을 이용하여 찾아낸 사각형 특징 집합(400)이 약 60%정도의 적은 개수의 사각형 특징으로 구성됨을 실험적으로 확인하였다. The series of learning processes is performed as shown in FIG. 3. Experimentally confirmed that the rectangular feature set 400 found using the evolutionary algorithm is composed of a smaller number of rectangular features of about 60% than the rectangular feature set 300 obtained by the conventional AdaBoost method.
최종적으로 얻어진 사각형 특징들을 사용하여 수학식2와 같이 강분류기를 구성하고 이러한 강분류기를 다시 여러 단(stage)으로 연결하여 효율적인 검출기를 구성한다. 도 4와 같이 하나의 단분류기(stage classifier)를 학습하기 위해서 도 3의 과정이 필요하고 다음 단의 학습을 위해서는 새로운 학습데이터를 구성하여 도 3의 과정을 반복한다. 이러한 과정을 반복하여 여러 단으로 이루어진 검출기를 구현한다. 또한 앞 단의 강분류기 전체가 뒤쪽 단에서 하나의 약분류기처럼 사용되는 구조를 통하여 연산 효율을 높인다. 각 단에서 분류기가 얼굴이라고 판단하면 다음 단 연산을 수행하고, 얼굴이 아니라고 판단하면 현재의 입력 윈도우를 버리고 다음 입력 윈도우에 대해서 분류를 수행하는 구조이다. Using the finally obtained rectangular features to construct a strong classifier as shown in Equation 2, and to connect the strong classifier in several stages (stage) to construct an efficient detector. As shown in FIG. 4, the process of FIG. 3 is required to learn one stage classifier, and for the next stage of learning, new process data is constructed to repeat the process of FIG. 3. This process is repeated to implement a multistage detector. In addition, the overall efficiency of the classifier is increased through the structure in which the whole classifier in the front stage is used as one weak classifier in the rear stage. If each stage determines that the classifier is a face, the next stage operation is performed. If it is not a face, the classifier discards the current input window and performs classification on the next input window.
각 단의 분류기를 학습하기 위해서는 원하는 검출률과 오검출률을 선정해야 한다. 주로 검출률은 0.9~1(90%~100%) 정도를 선택하고, 오검출률은 0.05~0.5 정도를 선택할 수 있다. 이 값들은 최종적으로 여러 단으로 구성된 검출기의 검출률과 오검출률을 결정한다. 예로 매 단이 0.999의 검출률과 0.4의 오검출률을 만족하도록 구성된 총 10단의 검출기의 경우 최종적으로 검출률 , 오검출률 를 기대할 수 있다.In order to learn the classifier of each stage, the desired detection rate and false detection rate should be selected. Mainly, the detection rate can be selected from about 0.9 to 1 (90% to 100%), and the false detection rate can be selected from about 0.05 to 0.5. These values ultimately determine the detection rate and false detection rate of a multi-stage detector. For example, a total of 10 detectors configured such that each stage satisfies a detection rate of 0.999 and a false detection rate of 0.4 may finally be detected. , False detection rate You can expect.
이와 같은 방법으로 얼굴 영역을 검출하고 그 검출 결과를 바탕으로 다시 얼굴 특징 요소들을 검출 한다. 눈, 코, 입 등과 같은 얼굴 요소들을 검출하기 위해서 학습 데이터만 눈, 코, 입 등의 해당 영상으로 대체를 한 다음 도 3의 학습 방법을 동일하게 적용한다. 그 후 도 4의 여러 단으로 이루어진 검출기를 구성하여 얼굴 특징 검출을 수행한다.In this way, the facial region is detected and face feature elements are detected again based on the detection result. In order to detect facial elements such as eyes, nose, and mouth, only the training data is replaced with a corresponding image such as eyes, nose, mouth, and the like, and then the learning method of FIG. Thereafter, a multi-stage detector of FIG. 4 is configured to perform facial feature detection.
본 발명으로 인하여 영상 획득 장치와 연산 장치의 제약에 자유롭게 빠르고 강인한 얼굴 검출과 얼굴 특징을 검출할 수 있다. 효율적인 연산이 가능하여 데스크탑 뿐만 아니라 휴대폰과 같은 연산 능력이 제한된 시스템에서도 얼굴 검출과 얼굴 특징 검출이 가능하다. 본 발명을 이용하여 얼굴 인식 시스템, 사람과 로봇의 상호 작용, 보안 및 감시 시스템의 효과적인 구현이 가능할 것이다.According to the present invention, face detection and facial features that are fast and robust can be detected freely under the constraints of the image capturing device and the computing device. Efficient computation enables face detection and facial feature detection not only on the desktop but also on systems with limited computing power, such as mobile phones. The present invention will enable effective implementation of facial recognition systems, human-robot interaction, security and surveillance systems.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060053031A KR100815242B1 (en) | 2006-06-13 | 2006-06-13 | Face and facial feature detection method using evolutionary algorithms |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060053031A KR100815242B1 (en) | 2006-06-13 | 2006-06-13 | Face and facial feature detection method using evolutionary algorithms |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070118830A true KR20070118830A (en) | 2007-12-18 |
KR100815242B1 KR100815242B1 (en) | 2008-03-19 |
Family
ID=39137360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060053031A KR100815242B1 (en) | 2006-06-13 | 2006-06-13 | Face and facial feature detection method using evolutionary algorithms |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100815242B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416763B2 (en) | 2015-08-21 | 2022-08-16 | Samsung Electronics Co., Ltd. | Method of training classifier and detecting object |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000306095A (en) | 1999-04-16 | 2000-11-02 | Fujitsu Ltd | Image collation/retrieval system |
US6480627B1 (en) | 1999-06-29 | 2002-11-12 | Koninklijke Philips Electronics N.V. | Image classification using evolved parameters |
US7247313B2 (en) * | 2001-06-27 | 2007-07-24 | Advanced Cardiovascular Systems, Inc. | Polyacrylates coatings for implantable medical devices |
-
2006
- 2006-06-13 KR KR1020060053031A patent/KR100815242B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11416763B2 (en) | 2015-08-21 | 2022-08-16 | Samsung Electronics Co., Ltd. | Method of training classifier and detecting object |
Also Published As
Publication number | Publication date |
---|---|
KR100815242B1 (en) | 2008-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fu et al. | Fast crowd density estimation with convolutional neural networks | |
CN110139597B (en) | System and method for iterative classification using neurophysiological signals | |
Sun et al. | Gender classification based on boosting local binary pattern | |
Sebe et al. | Skin detection: A bayesian network approach | |
KR101410489B1 (en) | Face detection and method and apparatus | |
WO2018052587A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
KR101983684B1 (en) | A People Counting Method on Embedded Platform by using Convolutional Neural Network | |
Xu et al. | Unusual event detection in crowded scenes using bag of LBPs in spatio-temporal patches | |
Chhoriya | Automated criminal identification system using face detection and recognition | |
Ge et al. | Deep variation transformation network for foreground detection | |
CN110688966A (en) | Semantic-guided pedestrian re-identification method | |
KR102036182B1 (en) | Method and system for detection of pedestrian crossing using a method of light weighted random forest classification by a soft target learning method | |
D RAJ et al. | British sign language recognition using HOG | |
KR101515308B1 (en) | Apparatus for face pose estimation and method thereof | |
Adeyanju et al. | Development of an american sign language recognition system using canny edge and histogram of oriented gradient | |
KR100815242B1 (en) | Face and facial feature detection method using evolutionary algorithms | |
Ramzan et al. | Automatic Unusual Activities Recognition Using Deep Learning in Academia. | |
Gad et al. | Crowd density estimation using multiple features categories and multiple regression models | |
eddine Agab et al. | Dynamic hand gesture recognition based on textural features | |
Vidal-Calleja et al. | Integrated probabilistic generative model for detecting smoke on visual images | |
Yuan et al. | An efficient attention based image adversarial attack algorithm with differential evolution on realistic high-resolution image | |
Suma | Dense feature based face recognition from surveillance video using convolutional neural network | |
Mahto et al. | Effectual Approach for Facial Expression Recognition System | |
Deshpande et al. | Abnormal Activity Recognition with Residual Attention-based ConvLSTM Architecture for Video Surveillance. | |
Mancas et al. | Visual attention: Deep rare features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] | ||
FPAY | Annual fee payment |
Payment date: 20120228 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |