KR101415325B1 - Apparatus for detecting face - Google Patents
Apparatus for detecting face Download PDFInfo
- Publication number
- KR101415325B1 KR101415325B1 KR1020090077609A KR20090077609A KR101415325B1 KR 101415325 B1 KR101415325 B1 KR 101415325B1 KR 1020090077609 A KR1020090077609 A KR 1020090077609A KR 20090077609 A KR20090077609 A KR 20090077609A KR 101415325 B1 KR101415325 B1 KR 101415325B1
- Authority
- KR
- South Korea
- Prior art keywords
- edge
- image
- feature information
- feature
- eoh
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Abstract
본 발명은 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크 특징 정보 및 EOH 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치에 관한 것이다. 얼굴 검출 장치는 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 기 저장된 학습 데이터를 이용하여 상기 적분영상으로부터 할-라이크(Haar-like) 특징 정보를 추출하고, 상기 엣지영상으로부터 EOH(Edge of Orientation Histogram) 특징 정보를 추출하는 특징정보 추출수단; 및 상기 조합된 할-라이크 특징 정보 및 EOH 특징 정보에 아다부스트 알고리즘을 적용하여 얼굴을 검출하는 얼굴 검출수단을 포함한다.The present invention relates to a face detection apparatus for obtaining an integral image and an edge image from an input image, extracting Hal-like feature information and EOH feature information therefrom, and combining the extracted information to detect a face. The face detection apparatus generates an integral image and an edge image from an input image, extracts Haar-like feature information from the integral image using pre-stored training data, and extracts Edge of Orientation (EOH) from the edge image. Feature information extracting means for extracting feature information from the histogram feature information; And face detecting means for detecting a face by applying an AdaBoost algorithm to the combined no-like feature information and EOH feature information.
할-라이크 특징값 추출, EOH 특징값 추출, 특징값 조합, 아다부스트 알고리즘 Hal-like feature extraction, EOH feature extraction, feature value combination, AdaBoost algorithm
Description
본 발명은 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크(Haar-like) 특징 정보 및 EOH(Edge of Orientation Histogram) 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치에 관한 것이다.The present invention relates to an image processing apparatus and method, which obtains an integral image and an edge image from an input image, extracts Haar-like feature information and Edge of Orientation Histogram (EOH) feature information therefrom, combines extracted information, ≪ / RTI >
디지털 영상 처리 기술에서 얼굴을 인식하는 방법은 지식 기반 방법, 특징 기반 방법, 탬플릿 매칭 방법 및 외형 기반 방법 등 다양하게 존재한다.In digital image processing technology, there are various methods of face recognition such as knowledge-based method, feature-based method, template matching method, and appearance-based method.
지식 기반 방법은 사람의 얼굴이 눈썹, 눈, 코, 입 등을 포함하고 있고, 각각의 얼굴 성분들은 서로 일정한 거리와 위치 관계를 가지고 있다는 것을 전제로하여 연구자의 지식을 기반으로 얼굴을 검출하는 방법이다.The knowledge-based method is based on the assumption that the human face includes eyebrows, eyes, nose, mouth, etc., and each face component has a certain distance and positional relationship with each other. to be.
특징 기반 방법은 얼굴 특징 성분들의 크기와 모양, 상호 연관성, 얼굴의 색상과 질감(texture) 정보, 또는 이러한 요소들의 혼합된 형태의 정보를 이용해서 얼굴을 검출하는 방법이다.The feature-based method is a method of detecting a face by using the size, shape, correlation, facial color and texture information of the facial feature components, or mixed type information of the facial feature components.
템플릿 매칭 방법은 수동적으로 대상이 되는 모든 얼굴에 대한 표준 얼굴 패턴을 만든 후, 입력영상과 비교하여 얼굴을 검출하는 방법이다.The template matching method is a method of manually creating a standard face pattern for all the target faces, and then comparing the face with the input image.
외형 기반 방법은 다양한 영상을 입력 받아 훈련 과정을 통해 만든 모델을 이용하여 얼굴을 검출하는 방법이다.The appearance-based method is a method of detecting a face using a model created through a training process by receiving various images.
이러한 종래의 얼굴 인식 방법들은 얼굴 검출을 위한 특징값 추출을 위해 한 종류의 특징, 예를 들어 intensity 성분 또는 엣지 성분만을 이용하여 얼굴을 검출하고 있다. intensity 성분을 이용하여 얼굴을 검출하는 경우, 얼굴 검출 시에 조명이 불균일 하다면 영상의 intensity에 영향을 주어 검출 성능이 저하되는 문제점이 있다. 엣지 성분을 이용하여 얼굴을 검출하는 경우, 저해상도 환경에서는 엣지 정보에 손실이 생겨서 얼굴 특징 성분이 감소하여 얼굴 검출 성능이 저하되는 문제점이 있다.Such conventional face recognition methods detect a face using only one type of feature, for example, an intensity component or an edge component, in order to extract feature values for face detection. When the face is detected using the intensity component, if the illumination is non-uniform at the time of detecting the face, there is a problem that the detection performance is deteriorated because it affects the intensity of the image. In the case of detecting a face using an edge component, edge information is lost in a low-resolution environment, so that facial feature components are reduced and face detection performance is deteriorated.
본 발명이 해결하고자 하는 기술적인 과제는 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크(Haar-like) 특징 정보 및 EOH(Edge of Orientation Histogram) 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치를 제공하는데 있다.The technical problem to be solved by the present invention is to obtain an integral image and an edge image from an input image, extract Ha-like feature information and Edge of Orientation Histogram (EOH) feature information from the input image, Thereby detecting a face.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 얼굴 검출 장치는 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 기 저장된 학습 데이터를 이용하여 상기 적분영상으로부터 할-라이크(Haar-like) 특징 정보를 추출하고, 상기 엣지영상으로부터 EOH(Edge of Orientation Histogram) 특징 정보를 추출하는 특징정보 추출수단; 및 상기 조합된 할-라이크 특징 정보 및 EOH 특징 정보에 아다부스트 알고리즘을 적용하여 얼굴을 검출하는 얼굴 검출수단을 포함하는 것이 바람직하다.According to an aspect of the present invention, there is provided a face detection apparatus for generating an integral image and an edge image from an input image, and generating Haar-like feature information from the integral image using pre- Extracting feature information extracting means for extracting Edge of Orientation Histogram (EOH) feature information from the edge image; And face detecting means for detecting a face by applying an AdaBoost algorithm to the combined no-like feature information and EOH feature information.
제 1항에 있어서, 상기 특징정보 추출부는 상기 입력영상을 적분하여 적분영상을 생성하는 적분영상 생성부; 상기 입력영상으로부터 엣지영상을 생성하고, 상기 엣지 영상으로부터 각 엣지 방향의 강도를 구하는 엣지영상 생성부; 상기 학습 데이터를 이용하여 적분된 입력영상으로부터 지정된 서브 윈도우 내에서 프로토타입의 밝은영역 픽셀 합과 어두운영역 픽셀합의 차이값을 산출하는 할-라이크 특징 추출부; 및 상기 학습 데이터를 이용하여 상기 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율값 및 각 엣지 방향의 강도의 차지 비율값을 추출하는 EOH 특징 추출부를 포함할 수 있다.The apparatus of
본 발명에 있어서, 상기 할-라이크 특징 산출부는 상기 프로토타입의 종류를, 4개의 영역으로 구성되어 밝은영역 및 어두운영역이 대각으로 서로 대칭되도록 하는 제1타입, 2개의 영역으로 구성되어 어두운영역 및 밝은영역이 상하로 위치한 제2타입, 2개의 영역으로 구성되어 밝은영역 및 어두운영역이 좌우로 위치한 제3타입 및 3개의 영역으로 구성되어 어두운영역, 밝은영역, 어두운 영역이 순차적으로 위치한 제4타입으로 구분하고, 상기 서브 윈도우 내에서 제1 내지 제4 프로토타입의 할-라이크 특징 정보를 산출할 수 있다.In the present invention, the above-mentioned do-by-like feature calculating section may classify the type of the prototype as a first type which is composed of four regions and in which bright regions and dark regions are symmetrically diagonal to each other, A second type in which a bright region is located on the upper and lower sides, a third type in which a bright region and a dark region are located in the left and right, and a fourth type in which a dark region, Like feature information of the first to fourth prototypes in the sub-window.
본 발명에 있어서, 상기 엣지영상 생성부는 상기 입력영상을 흑백영상으로 변환하는 변환부; 상기 흑백영상에 소벨마스크를 적용하여 수평/수직방향의 각 좌표에 대한 경도를 구하고 그로부터 엣지의 크기를 산출하는 제1산출부; 상기 각 좌표의 수평/수직방향의 엣지 크기의 제곱을 합산하여 각 좌표의 엣지 강도를 산출하는 제2산출부; 상기 엣지 강도에 허용치를 설정하여 노이즈를 제거하는 노이즈 제거부; 상기 수평/수직 방향의 엣지의 크기로부터 각 좌표의 엣지 방향을 산출하는 제3산출부; 및 상기 엣지 방향들을 K개의 방향으로 양자화 하고, 각 방향에 대해 방향성을 가지는 좌표의 엣지 값을 모아 K개의 엣지 방향에 대한 엣지 영상을 산출하는 제4산출부를 포함할 수 있다.In the present invention, the edge image generation unit may include a conversion unit that converts the input image into a monochrome image; A first calculating unit for calculating a hardness for each coordinate in the horizontal / vertical direction by applying a Sobel mask to the monochrome image and calculating the size of the edge from the hardness; A second calculation unit for calculating an edge strength of each coordinate by summing the squares of the edge sizes in the horizontal / vertical directions of the respective coordinates; A noise eliminator for eliminating noise by setting an allowable value for the edge intensity; A third calculating unit for calculating an edge direction of each coordinate from a size of the edge in the horizontal / vertical direction; And a fourth calculation unit for quantizing the edge directions in K directions, collecting the edge values of the coordinates having the directionality in each direction, and calculating an edge image for the K edge directions.
본 발명에 있어서, 상기 EOH 특징 산출부는엣지 방향을 수평, 수직, 제1 및 제2 대각 방향으로 설정할 수 있다.In the present invention, the EOH characteristic calculating unit may set the edge direction to be horizontal, vertical, and first and second diagonal directions.
본 발명에 있어서, 상기 EOH 특징 산출부는 상기 서브 윈도우 내의 엣지 방향 수평방향과제1대각방향, 수평방향과수직방향, 수평방향과제2대각방향, 제1대각방향과수직방향, 제1대각방향과제2대각방향, 수직방향과제2대각방향의 강도 사이의 비율값을 추출하고, 상기 엣지 방향인 수평방향, 제1대각방향, 수직방향 및 제2대각방향의 차지 비율값을 추출할 수 있다.In the present invention, the EOH feature calculating section calculates the EOH feature value in the sub-window in the edge direction in the horizontal direction, the horizontal direction and the vertical direction, the
상술한 바와 같이 본 발명에 따르면, 얼굴 검출 시에 intensity 및 엣지의 특징을 함께 사용함으로써, 일반 환경에 대한 성능이 종래 얼굴 검출 기술에 비해 떨어지지 않으면서 동시에 종래 얼굴 검출 기술의 성능이 저하되는 환경에 대해 강인한 성능을 가지게 된다.As described above, according to the present invention, by using the characteristics of intensity and edge at the time of face detection, the performance against the general environment is not lower than that of the conventional face detection technology, and at the same time, So that it has a robust performance.
이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 얼굴 검출 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a face detection apparatus according to the present invention.
도 1에 도시된 얼굴 검출 장치는 특징정보 추출수단(110), 저장수단(120), 정보 조합수단(130) 및 얼굴 검출수단(140)을 포함한다. 본 발명에 있어서, 특징정보 추출수단(110)은 적분영상 생성부(111), 할-라이크 특징 추출부(112), 엣지영상 생성부(113) 및 EOH 특징 추출부(114)를 포함한다.The face detection apparatus shown in FIG. 1 includes a feature
특징정보 추출수단(110)은 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 저장수단(120)에 저장된 학습 데이터를 이용하여 적분영상으로부터 할-라이크 특징정보를 추출하고, 저장수단(120)에 저장된 학습 데이터를 이용하여 엣지영상으 로부터 EOH 특징정보를 추출한다. 저장수단(120)에 저장된 학습 데이터에 대해서는 후술하기로 한다.The feature information extraction means 110 extracts the do-or-like feature information from the integral image using the learning data stored in the storage means 120, and outputs the feature information to the storage means 120 EOH feature information is extracted from the edge image using the stored training data. The learning data stored in the storage means 120 will be described later.
적분영상 생성부(111)는 입력영상의 픽셀 합을 모두 구하여 생성한다. 미리 영상에 대한 픽셀 합을 구한 상태에서 할-라이크 특징값을 구하게 되므로, 사각형 영역 내 전체 픽셀을 더하지 않고 일부 픽셀값만을 이용하여 특징값을 구할 수 있다. 수학식 1은 입력영상 i를 적분영상 ii로 변환하는 수식이다. 수학식 1에서 x, y는 픽셀의 위치이고, x', y'는 이전 픽셀의 위치이다. The integral
적분영상의 수식을 이용하여 영상을 변환할 때 수학식 2로 구할 수 있다. 수학식 2에서 s(x, y)는 픽셀값들의 합이고, 계산 시에 초기값(계산의 첫번째 값)은 s(x,-1)=0, ii(-1,y)=0이다.When the image is transformed using the formula of the integral image, it can be obtained by the following equation (2). In the equation (2), s (x, y) is the sum of the pixel values and the initial value (the first value of the calculation) is s (x, -1) = 0 and ii (-1, y) = 0 in the calculation.
도 2와 같은 4×4 영상이 있다고 할 때, 도 2a가 원본 영상의 intensity 값이면, 변환한 영상의 intensity 값은 도 2b와 같다. 도 2c 및 도 2d는 실제 영상과 그것을 적분한 후 255로 정규화시킨 결과이다. 영상을 적분한 후 원하는 구간 내의 픽셀값의 총합은 도 2e와 같이 해당 사각형의 좌표가 위치한 지점의 픽셀값이 된다.Assuming that there is a 4x4 image as shown in FIG. 2, if FIG. 2A is an intensity value of the original image, the intensity value of the transformed image is as shown in FIG. FIGS. 2C and 2D are actual images and results obtained by integrating them and normalizing them to 255. FIG. The sum of the pixel values within a desired interval after the image is integrated is a pixel value at a position where the coordinates of the corresponding rectangle are located, as shown in FIG.
할-라이크 특징 추출부(112)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 적분된 입력영상으로부터 해당 서브 윈도우의 할-라이크 특징 즉, 해당 서브 윈도우 내에서 프로토타입의 밝 영역 픽셀 합과 어두운영역 픽셀합의 차이값을 추출한다.Likelike feature of the subwindow from the integrated input image using the learning data (the position, size, and prototype type of the subwindow) stored in the
할-라이크 특징을 추출하기 위해, 다음에 할-라이크의 특징을 기술한다.In order to extract Hal-like features, we next describe the features of Hal-like.
얼굴 영상은 얼굴 고유한 패턴을 가지고 있으며, 고유 패턴들을 이용하여 얼굴과 다른 개체들간의 차이를 분류한다. 도 3a와 같이 영상의 내용을 사람이 얼굴로 분류하는 이유는 실제 사람의 얼굴, 장난감 얼굴 모양, 바위 얼굴 모양, 모두가 얼굴로 판단할 수 있는 눈, 코, 입 등의 얼굴만의 고유 패턴을 가지고 있기 때문이다. 컬러영상을 이용하여 패턴을 구하면 패턴의 색상에 따라서 계산 복잡도가 커지게 되므로, 흑백영상으로 변환, 픽셀들을 휘도값 기분으로 분류하여 쉽게 패턴들을 표시할 수 있다.Face images have a unique pattern of faces, and classify differences between faces and other objects using unique patterns. As shown in Fig. 3A, the reason why human beings classify the contents of a video as a face is that the face of a real person, the shape of a toy face, the shape of a rock face, and a unique pattern of a face such as eyes, I have. When a pattern is obtained using a color image, the calculation complexity increases according to the color of the pattern. Therefore, the pattern can be converted into a monochrome image, and the pixels can be easily classified into luminance value moods.
할-라이크 특징은 Papageorgiou가 개처 검출을 위해 할-웨이블릿(Haar-wavelet)을 특징으로 제안하였고, P.Viola와 M.Jones가 개체 검출을 위해 할-웨이블릿과 유사한 형태의 특징을 사용하였다. 할-라이크는 도 3b와 같은 프로토타입들을 가지고 있다. 이 프로토타입은 얼굴 영상의 intensity가 낮은 부분을 검은 사각형으로, 높은 부분을 백색 사각형이라고 보고 그 위치에서 얻을 수 있는 값을 얼굴과 비얼굴을 분류하는 패턴으로 이용한다(도 3c).The Hal-like features are proposed by Papageorgiou for Haar-wavelet detection, and P. Viola and M. Jones used features similar to wavelet-like features for object detection. The Hal-like has prototypes like Figure 3b. In this prototype, the lower part of the face image is regarded as a black rectangle and the higher part is regarded as a white rectangle, and the value obtained at that position is used as a pattern for classifying the face and the non-face (FIG.
할-라이크 특징값의 계산은 도 3d에 도시된 바와 같이 프로토타입 중 밝은 영역의 사각형 내 픽셀값들의 총합(a)에서 어두운 영역의 사각형 내 픽셀 값들의 총합(b)을 빼서 계산한다. 수학식 3은 할-라이크 특징값을 계산하는 식이다.The calculation of the Hal-like feature value is calculated by subtracting the sum (b) of the pixel values in the rectangle of the dark region from the sum (a) of the pixel values in the rectangle of the bright region in the prototype as shown in FIG. Equation (3) is an equation for calculating a hall-likelihood characteristic value.
계산 방법의 단순함으로 인해 타 특징 보다 특징값 계산 속도가 빠르다. 개체 연산 방법은 개념적으로는 간단하지만, 실제 연산을 위해서 서브 윈도우의 모든 픽셀의 값을 더해야 하므로 0(n2)(가로연산*세로연산)의 계산량을 가진다. 이는 검출 속도에 치명적인 영향을 미치는 요소로써 연산 속도를 개선하기 위하여, 적분영상 방법을 이용하여 검출할 영상을 변환하여 처리한다. Due to the simplicity of the calculation method, the feature value calculation speed is faster than other features. The object operation method is simple in concept, but it has a calculation amount of 0 (n2) (horizontal operation * vertical operation) since the values of all pixels of the subwindow must be added for the actual operation. This is a factor that has a critical effect on the detection speed, and in order to improve the operation speed, the image to be detected is converted and processed using the integral imaging method.
할-라이크 특징 추출부(112)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 적분된 입력영상으로부터 해당 서브 윈도우 내에서 프로토타입의 밝은 영역의 픽셀 합과 어두운 영역의 픽셀합의 차이값을 추출한다. The
일 예로서, 도 3e와 같은 프로토타입이 있을 때, 적분영상으로 변환된 부분의 6개 픽셀값을 이용하여 쉽게 연산을 할 수 있으며, 도 3e의 할-라이크 특징값을 계산하는 식이 수학식 4에 개시되어 있다.As an example, when there is a prototype as shown in FIG. 3E, it is possible to easily perform calculation using the six pixel values of the portion converted into the integral image, and the equation for calculating the hall- .
엣지영상 생성부(113)는 입력영상을 흑백영상으로 변환하고 소벨마스크를 이용하여 엣지영상을 구하며, 구해진 엣지영상으로부터 각 엣지 방향의 강도를 구한다.The edge
엣지영상을 생성하기 위해서는 몇단계 전처리 과정이 필요하다. 영상 내에 분포하는 엣지 정보를 간단하고 효율적으로 뽑아내기 위해서 소벨 마스크(sobel mask, 미도시)를 사용한다. 우선 영상의 컬러 성분은 엣지 정보 추출에 영향을 미치지 않으므로 도 4a에 도시된 바와 같이 컬러영상을 흑백영상으로 변환한다.Several steps of preprocessing are required to generate an edge image. A sobel mask (not shown) is used to simply and efficiently extract the edge information distributed in the image. First, since the color component of the image does not affect the edge information extraction, the color image is converted into a monochrome image as shown in FIG. 4A.
변환된 흑백영상에 소벨 마스크를 사용하여 원 영상의 각 좌표에 대한 경도를 구한다. 도 4b는 흑백영상에 수평방향 소벨 마스크를 사용하여 구한 엣지영상이고, 도 4c는 흑백영상에 수직방향 소벨 마스크를 사용하여 구한 영상이다. 수학식 5-1에는 수평 방향 소벨 마스크를 사용하여 엣지의 크기를 구하는 수학식이 개시되어 있고, 수학식 5-2에는 수직 방향 소벨 마스크를 사용하여 엣지의 크기를 구하는 수학식이 개시되어 있다.And the hardness of each coordinate of the original image is obtained by using the Sobel mask on the converted monochrome image. 4B is an edge image obtained by using a horizontal direction Sobel mask on a monochrome image, and FIG. 4C is an image obtained by using a vertical direction Sobel mask on a monochrome image. Equation 5-1 discloses a mathematical expression for obtaining the size of an edge using a horizontal direction Sobel mask, and Equation 5-2 discloses a mathematical expression for obtaining the size of an edge using a vertical direction Sobel mask.
수학식 5에서 I는 원 영상, Gx, Gy는 소벨 마스크를 사용하여 구한 수평/수직 방향의 엣지영상, Sobelx, Sobely는 수평/수직 방향 소벨 마스크, I(x,y)는 원영상에서 (x,y)지점의 픽셀값을 의미하며, Gx(x,y), Gy(x,y)는 수평/수직 방향 소벨 마스크에 의해 구해진 영상에서 (x,y)지점의 값, 즉 수평/수직 방향에 대한 엣지의 크기를 의미한다.In Equation 5 I is the original image, G x, G y is horizontal / the edge image in the vertical direction, Sobel x, Sobel y are (x, y) horizontal / vertical direction Sobel mask, I determined using a Sobel mask circle G x (x, y) and G y (x, y) represent the pixel values of the (x, y) point in the image obtained by the horizontal / , I.e., the size of the edge in the horizontal / vertical direction.
수학식 5를 통해 구한 영상의 (x,y)좌표에서 수평/수직 방향의 엣지 크기를 사용하여 수학식 6과 같이 각 좌표의 엣지 강도를 구할 수 있으며, 도 4d에 엣지 강도값을 갖는 영상이 도시되어 있다. 수학식 6에서 G는 엣지 강도값을 갖는 영상을 의미한다.The edge intensity of each coordinate can be obtained by using the edge size in the horizontal / vertical direction in the (x, y) coordinates of the image obtained through Equation (5), and the edge intensity of each coordinate can be obtained as shown in Equation (6) Respectively. In Equation (6), G denotes an image having an edge strength value.
그러나 구해진 각 좌표의 엣지 강도 중 그 값이 작은 것은 엣지 특징에 대한 기여도가 떨어지기 때문에 허용치를 설정하여 그 이하의 값들은 무시할 수 있다. 사용하는 허용치는 사용자가 수동으로 직접 설정해야 하는데, 일 예로 80으로 설정할 수 있다. 수학식 7에는 엣지 특징에 대한 기여도가 떨어진 엣지 강도를 노이즈로 판단하는 수학식이 나타나 있고, 도 4e에는 엣지 특징에 대한 기여도가 떨어진 엣지 강도를 노이즈로 판단하고, 노이즈 성분분이 제거된 엣지 강도 영상이 도시되어 있다. 수학식 7에서 T는 허용치, G'는 노이즈 성분이 제거된 엣지영상을 의미한다.However, since the edge strength of each of the obtained coordinates is small, the contribution to the edge characteristic is degraded, so that the allowable value can be set and the lower values can be ignored. The allowable value to be used must be set manually by the user, for example, 80. In Equation (7), an equation for judging the edge strength with a small contribution to the edge characteristic as noise is shown. In FIG. 4E, the edge intensity with a low contribution to the edge characteristic is judged as noise and the edge intensity image from which the noise component is removed Respectively. In Equation (7), T denotes an allowable value, and G 'denotes an edge image from which noise components are removed.
수학식 7을 통해 구한 영상의 (x,y)좌표의 수평/수직 방향의 엣지 크기를 사용하여 수학식 8과 같이 각 좌표의 엣지 방향을 구할 수 있고, 도 4f에는 엣지 방향값을 가지는 영상이 도시되어 있다. 수학식 8에서 θ는 엣지 방향 값을 가지는 영상을 의미한다.The edge direction of each coordinate can be obtained by using the horizontal / vertical direction edge size of the (x, y) coordinates of the image obtained through Equation (7), and the edge direction of each coordinate as shown in Equation (8) Respectively. In Equation (8),? Denotes an image having an edge direction value.
수학식 8을 통해 구한 엣지 방향들을 K개의 방향으로 양자화(quantization) 하고 각 방향에 대해 그 방향을 가지는 좌표의 엣지 값을 모아 K개의 엣지 방향에 따른 엣지영상을 구할 수 있으며, 그 식이 수학식 9에 개시되어 있고, 도 4g에는 엣지 방향에 따른 엣지영상이 도시되어 있다. 수학식 9에서 bink는 k번째 엣지 방향, ψk는 k번째 엣지 방향 성분만 가지는 엣지 크기 영상을 의미한다.An edge image along the K edge directions can be obtained by quantizing the edge directions obtained through
본 발명에서는 엣지 방향을 도 4h 내지 도 4k에 도시된 바와 같이, 수평방향, 45도 방향, 수직방향, 135도 방향으로 한정한다.In the present invention, the edge direction is defined as a horizontal direction, a 45-degree direction, a vertical direction, and a 135-degree direction as shown in Figs. 4H to 4K.
EOH 특징 추출부(114)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 추출하며, 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율 및 각 엣지 방향의 강도의 차지 비율을 추출한다. The EOH
EOH 특징은 엣지 기반의 특징으로서 얼굴에서 지역적으로 나타나는 엣지 성분에 대한 특성을 이용한다. 일반적으로 사람들의 얼굴은 몇가지 엣지 기반의 공통된 요소를 가진다. 사람 얼굴의 안쪽 부분은 대체적으로 수직성분에 비해 수형성분의 엣지 방향을 많이 가지며(도 5a), 얼굴 내의 수평성분과 수직성분의 비율은 무한히 발산하지 않고 어느 정도 닫혀있는 값을 가진다(도 5b). 또한 얼굴 내의 위치에 따라 국소적으로 분포하는 엣지 방향이 다른다. 도 5c는 수형방향 엣지가 많이 분포된 눈 주위를 표시한 것이고, 도 5d는 대각방향 엣지가 많이 분포된 턱 주위를 표시한 것이다. 이와 같은 엣지 특성은 전체적인 조명변화에 변하지 않으며, 픽셀값에 기반한 특징으로는 뽑아내기 어려운 기하학적인 특성을 뽑아 낼 수 있는 장점이 있다.The EOH feature is an edge-based feature that utilizes features for edge components that appear locally in the face. In general, people's faces have some edge-based common elements. 5A). The ratio of the horizontal component to the vertical component in the face is not infinitely divergent but has a certain degree of closed value (FIG. 5B) . In addition, edge directions are distributed locally according to positions in the face. FIG. 5C is a view showing the periphery of the eye in which a large number of edges are distributed, and FIG. 5D is a view of the periphery of the jaw where a large number of diagonal edges are distributed. Such an edge property does not change with the overall illumination change, and it is advantageous to extract a geometric characteristic that is hard to extract from a characteristic based on a pixel value.
EOH 특징 추출부(114)는 엣지 영상 생성부(113)에서 생성한 각 엣지 방향의 강도값들을 사용하여 EOH 특징 정보를 추출할 수 있다. 영상의 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 수학식 10을 통해 구할 수 있다. 수학식 10에서 R은 영상 내의 서브 윈도우, Ek(R)는 서브 윈도우 R에 대한 k번째 엣지 방향의 강도를 의미한다. 도 5e는 눈 주위를 서브 윈도우로 잡은 것을 나타내며, 도 5f는 서브 윈도우 R에서 0도(수평), 45도, 90도(수직), 135도 엣지 방향 성분에 대한 강도값을 구한 것이다.The EOH
서브 윈도우 내에서 뽑은 각 엣지 방향의 강도들 사이의 비율을 수학식 11과 같이 구하여 특징값 A로 사용할 수 있다. A의 값이 어느 정도 안정된 범위에서 분포할 수 있도록 수학식 11의 분모와 분자에 상수 ε을 더했다. 구분한 엣지 방향 이 K일 때, 총 KC2개의 특징값을 얻을 수 있다. 도 5g는 도 5f의 값을 이용하여 얻은 특징값 A로써, 서브 윈도우 R에서 각 엣지 방향의 강도 사이의 비율(상대적인 비율)을 나타낸다. The ratio between the intensities in the edge directions extracted in the sub window can be obtained as Equation (11) and used as the characteristic value A. A constant ε is added to the denominator and the numerator of the equation (11) so that the value of A can be distributed in a somewhat stable range. When the edge direction is K, the total K C 2 feature values can be obtained. FIG. 5G shows the ratio (relative ratio) between the intensities in the edge directions in the sub window R, with the feature value A obtained using the values in FIG. 5F.
서브 윈도우 내에서 뽑은 각 엣지 방향의 강도가 서브 윈도우 내 전체 엣지 강도에서 차지하는 비율을 수학식 12와 같이 구하여 특징값 B로 사요할 수 있다. 마찬가지로 B의 값이 어느 정도 안정된 범위에 분포할 수 있도록 식의 분모와 분자에 상수 ε을 더했다. 구분한 엣지 방향이 K일 때, 총 K의 특징값을 얻을 수 있다. 도 5h는 도 5f의 값을 이용하여 얻은 특징값 B로써, 서브 윈도우 R에서 각 엣지 방향의 강도의 차지 비율(절대적인 비율)을 나타낸다.The ratio of the intensity of each edge direction drawn in the sub window to the total edge intensity in the sub window can be calculated as shown in Equation (12) and used as the characteristic value B. Similarly, a constant ε is added to the denominator and the numerator of the equation so that the value of B can be distributed in a somewhat stable range. When the divided edge direction is K, the feature value of the total K can be obtained. FIG. 5H shows a characteristic ratio B obtained by using the values in FIG. 5F, and shows a charge ratio (absolute ratio) of intensity in each edge direction in the sub window R. FIG.
정보 조합수단(130)은 학습 데이터에 의한 서브 윈도우 내에서 추출한 할-라이크 특징(프로토타입에서 밝은 영역의 픽셀 합과 어두운 영역의 픽셀합의 차이값) 및 EOH 특징(서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율(A값) 및 각 엣지 방향의 강도의 차지 비율(B값))을 조합한다. 도 6은 하나의 서브 윈도우에서 얻은 정보를 나타내며, 첫번째로 1개의 서브 윈도우에서 4방향의 강도(1, 45, 90, 135)에 대한 EOH 특징값(총 10개:r1-r10)을 구하고, 해당 서브 윈도우에서 4종의 프로토타입에 대한 할-라이크 특징값(총4개:h1-h4)을 계산한다. The information combination means 130 is a combination of the So-and-liked features (the difference between the pixel sum of the bright region and the pixel sum of the dark region in the prototype) extracted in the subwindow by the learning data and the EOH characteristic (A value) and the charge ratio (B value) of the intensity in each edge direction are combined. 6 shows information obtained from one subwindow. First, the EOH feature values (10 in total: r 1 -r 10 ) for intensity (1, 45, 90, 135) Like feature values (four in total: h 1 -h 4 ) for the four prototypes in the corresponding subwindow.
얼굴 검출수단(130)은 조합된 할-라이크 특징값(h1-h4) 및 EOH 특징값(r1-r10)에 캐스캐이드 아다부스트 알고리즘을 통해 선별된 특징을 이용하여 얼굴을 검출한다. 도 7에는 캐스케이드 아다부스트 알고리즘으로 제작한 검출기를 이용하여 얼굴을 분류하는 방법을 도시한 흐름도 이다. 아다부스트는 데이터들로부터 반복 연산을 통해 에러가 적은 약한 분류기들을 선별하여 이 분류기들의 선형 조합을 통해 정확도가 높은 강한 분류기를 만들어 주는 알고리즘이다. 아다부스트 학습 알고리즘은 가장 잘 알려진 부스트 알고리즘이며, 단순하면서도 효율적이라는 장점을 지닌다. 도 7을 참조하면, 캐스케이드 아다부스트 학습 알고리즘은 지정된 서브윈도우들에서 추출한 할-라이크 특징값(h1-h4) 및 EOH 특징값(r1-r10)을 단계별(720, 730, 740, 750)로 추출하여 지정된 서브윈도우가 얼굴인지 판단 한다. 각 단계를 지날수록 더 성능이 좋은 분류기를 통해 서브윈도우가 얼굴인지 분류한다. 이 방법을 통해 더욱 빠른 검출 알고리즘을 구현할 수 있다. 첫단계(720)에서는 적은 수의 특징값들로 분류기를 제작 하고, 다음 단계(730)에서는 첫 단계(720)에서 보다 더 많은 수의 특징값들을 가지고 전 단계보다 정밀한 분류기를 만든다. 입력 영상의 대부분은 얼굴이 아닌 부분이 차지하고 있으므로 영역이 검출기의 각 단계를 지나면서 대부분의 비얼굴은 초기 단계에서 걸러지게 되므로 빠른 속도의 검출기를 제작할 수 있다..The
도 8은 저장수단(120)에 저장된 학습 데이터 생성을 설명하는 도면이다.8 is a diagram for explaining generation of learning data stored in the storage means 120. Fig.
도 8에 도시된 바와 같이 학습데이터는 학습 분류기(800)에 의해 생성된 후, 저장수단(120)에 저장된다. 학습 분류기(800)는 적분영상 생성부(810), 엣지영상 생성부(820), 할-라이크 특징 추출부(830), EOH 특징 추출부(840) 및 아다부스트 학습부(850)을 포함한다.As shown in FIG. 8, the learning data is generated by the learning
적분영상 생성부(810) 및 엣지영상 생성부(820)로 입력되는 학습 데이터 영상은 얼굴 및 비얼굴 여부를 판단할 수 있고, 사이즈가 정해져 있는(예를 들어 16×16) 그레이 영상이다.The training data image input to the integral
적분영상 생성부(810)는 입력되는 학습 데이터 영상의 픽셀 합을 모두 구하여 생성한다. 적분영상 생성에 대한 상세한 설명은 상기에 개시되어 있으므로 생략한다.The
엣지영상 생성부(820)는 입력되는 학습 데이터 영상에 소벨마스크를 이용하여 엣지영상을 구하며, 구해진 엣지영상으로부터 각 엣지 방향의 강도를 구한다. 엣지영상 생성에 대한 상세한 설명은 상기에 개시되어 있으므로 생략한다.The edge
할-라이크 특징 추출부(830)는 적분된 학습 데이터 영상으로부터 서브 윈도우 내에서 다양한 종류의 프로토타입의 밝은영역 픽셀 합과 어두운영역 픽셀합의 차이값을 추출한다. The likelike
EOH 특징 추출부(840)는 엣지영상의 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 추출하며, 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율 및 각 엣지 방향의 강도의 차지 비율을 추출한다. The EOH
아다부스트 학습부(850)는 할-라이크 특징값 및 EOH 특징값에 아다부스트 알고리즘을 적용하여 최적의 할-라이크 특징값 및 EOH 특징값을 추출하기 위한 서브윈도우의 위치, 크기 및 특징의 종류를 산출하며, 이를 학습 결과 데이터로 저장수단(120)에 저장한다.The
저장수단(120)에 저장된 학습 결과 데이터는 도 1에서 할-라이크 특징 추출 및 EOH 특징 추출을 위한 서브윈도우의 위치, 크기 및 특징의 종류를 알려주어, 도 7의 각 단계를 이루는 검출기를 구성한다.The learning result data stored in the storage means 120 indicates the positions, sizes, and types of sub windows for extracting the Hal-like feature and EOH feature extraction in FIG. 1, and constitutes a detector constituting each step of FIG. 7 .
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
도 1은 본 발명에 따른 얼굴 검출 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a face detection apparatus according to the present invention.
도 2는 도 1에서 적분영상 생성을 설명하는 도면이다.FIG. 2 is a view for explaining generation of an integral image in FIG.
도 3은 도 1에서 Haar-Like 특징 추출을 설명하는 도면이다.FIG. 3 is a diagram for explaining Haar-Like feature extraction in FIG.
도 4는 도 1에서 엣지영상 생성을 설명하는 도면이다.FIG. 4 is a view for explaining edge image generation in FIG.
도 5는 도 1에서 EOH 특징 추출을 설명하는 도면이다.FIG. 5 is a view for explaining EOH feature extraction in FIG. 1; FIG.
도 6는 도 1에서 추출된 Haar-Like 및 EOH 특징 조합을 설명하는 도면이다.FIG. 6 is a diagram illustrating Haar-Like and EOH feature combinations extracted in FIG. 1; FIG.
도 7은 도 1에서 얼굴 검출을 위한 아다부스트 알고리즘을 설명하는 도면이다.FIG. 7 is a view for explaining the Adaboost algorithm for face detection in FIG.
도 8은 도 1에서 저장수단에 저장된 학습데이터 생성을 설명하는 도면이다.FIG. 8 is a diagram for explaining generation of learning data stored in the storage means in FIG.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090077609A KR101415325B1 (en) | 2009-08-21 | 2009-08-21 | Apparatus for detecting face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090077609A KR101415325B1 (en) | 2009-08-21 | 2009-08-21 | Apparatus for detecting face |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110019969A KR20110019969A (en) | 2011-03-02 |
KR101415325B1 true KR101415325B1 (en) | 2014-07-08 |
Family
ID=43929389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090077609A KR101415325B1 (en) | 2009-08-21 | 2009-08-21 | Apparatus for detecting face |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101415325B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9443137B2 (en) | 2012-05-08 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts |
KR101531037B1 (en) * | 2013-12-06 | 2015-06-23 | 전자부품연구원 | Surf hardware apparatus and method for generating integral image thereof |
US9412036B2 (en) | 2014-03-07 | 2016-08-09 | Samsung Electronics Co., Ltd. | Methods and systems for object detection based on column-wise and row-wise sums of pixel values |
CN105260744B (en) * | 2015-10-08 | 2018-08-14 | 北京航空航天大学 | The automatic on-line diagnostic method and system of a kind of goods train coupler yoke key position failure |
KR101887756B1 (en) | 2016-09-13 | 2018-08-13 | 주식회사 네오시큐 | System for detecting human using the projected figure for eye |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250772A (en) | 2004-03-03 | 2005-09-15 | Fuji Photo Film Co Ltd | Object identification apparatus and method, learning method and program |
JP2006244385A (en) | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | Face-discriminating apparatus, program and learning method for the apparatus |
-
2009
- 2009-08-21 KR KR1020090077609A patent/KR101415325B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005250772A (en) | 2004-03-03 | 2005-09-15 | Fuji Photo Film Co Ltd | Object identification apparatus and method, learning method and program |
JP2006244385A (en) | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | Face-discriminating apparatus, program and learning method for the apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20110019969A (en) | 2011-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5010905B2 (en) | Face recognition device | |
US7957560B2 (en) | Unusual action detector and abnormal action detecting method | |
JP4743823B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5629803B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US9355305B2 (en) | Posture estimation device and posture estimation method | |
US9036917B2 (en) | Image recognition based on patterns of local regions | |
US7925093B2 (en) | Image recognition apparatus | |
Gizatdinova et al. | Feature-based detection of facial landmarks from neutral and expressive facial images | |
KR101415325B1 (en) | Apparatus for detecting face | |
Amjad et al. | Multiple face detection algorithm using colour skin modelling | |
JP2008251039A (en) | Image recognition system, recognition method thereof and program | |
Sharma | Designing of face recognition system | |
Lee et al. | Robust Face Detection Based on Knowledge‐Directed Specification of Bottom‐Up Saliency | |
KR101408344B1 (en) | Apparatus for detecting face | |
Pishchulin et al. | In Good Shape: Robust People Detection based on Appearance and Shape. | |
Ribarić et al. | Personal recognition based on the Gabor features of colour palmprint images | |
Abdullah-Al-Wadud et al. | Skin segmentation using color distance map and water-flow property | |
Curran et al. | The use of neural networks in real-time face detection | |
CN109086738A (en) | A kind of character identifying method and device based on template matching | |
JP2005209137A (en) | Method and apparatus for object identification, and face direction identification apparatus | |
Phung et al. | A new image feature for fast detection of people in images | |
Jalilian et al. | Face and hand shape segmentation using statistical skin detection for sign language recognition | |
JP4789526B2 (en) | Image processing apparatus and image processing method | |
JP2022522429A (en) | A method for identifying an object in an image having a user's biometric characteristics and verifying the user's ID by separating the part of the image containing the biometric characteristics from other parts. | |
Ribeiro et al. | Access control in the wild using face verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170529 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180521 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190527 Year of fee payment: 6 |