KR101415325B1 - Apparatus for detecting face - Google Patents

Apparatus for detecting face Download PDF

Info

Publication number
KR101415325B1
KR101415325B1 KR1020090077609A KR20090077609A KR101415325B1 KR 101415325 B1 KR101415325 B1 KR 101415325B1 KR 1020090077609 A KR1020090077609 A KR 1020090077609A KR 20090077609 A KR20090077609 A KR 20090077609A KR 101415325 B1 KR101415325 B1 KR 101415325B1
Authority
KR
South Korea
Prior art keywords
edge
image
feature information
feature
eoh
Prior art date
Application number
KR1020090077609A
Other languages
Korean (ko)
Other versions
KR20110019969A (en
Inventor
전승선
고한석
이영현
구본화
송태엽
배정민
Original Assignee
고려대학교 산학협력단
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단, 삼성테크윈 주식회사 filed Critical 고려대학교 산학협력단
Priority to KR1020090077609A priority Critical patent/KR101415325B1/en
Publication of KR20110019969A publication Critical patent/KR20110019969A/en
Application granted granted Critical
Publication of KR101415325B1 publication Critical patent/KR101415325B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

본 발명은 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크 특징 정보 및 EOH 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치에 관한 것이다. 얼굴 검출 장치는 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 기 저장된 학습 데이터를 이용하여 상기 적분영상으로부터 할-라이크(Haar-like) 특징 정보를 추출하고, 상기 엣지영상으로부터 EOH(Edge of Orientation Histogram) 특징 정보를 추출하는 특징정보 추출수단; 및 상기 조합된 할-라이크 특징 정보 및 EOH 특징 정보에 아다부스트 알고리즘을 적용하여 얼굴을 검출하는 얼굴 검출수단을 포함한다.The present invention relates to a face detection apparatus for obtaining an integral image and an edge image from an input image, extracting Hal-like feature information and EOH feature information therefrom, and combining the extracted information to detect a face. The face detection apparatus generates an integral image and an edge image from an input image, extracts Haar-like feature information from the integral image using pre-stored training data, and extracts Edge of Orientation (EOH) from the edge image. Feature information extracting means for extracting feature information from the histogram feature information; And face detecting means for detecting a face by applying an AdaBoost algorithm to the combined no-like feature information and EOH feature information.

할-라이크 특징값 추출, EOH 특징값 추출, 특징값 조합, 아다부스트 알고리즘 Hal-like feature extraction, EOH feature extraction, feature value combination, AdaBoost algorithm

Description

얼굴 검출 장치{Apparatus for detecting face}[0001] Apparatus for detecting face [0002]

본 발명은 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크(Haar-like) 특징 정보 및 EOH(Edge of Orientation Histogram) 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치에 관한 것이다.The present invention relates to an image processing apparatus and method, which obtains an integral image and an edge image from an input image, extracts Haar-like feature information and Edge of Orientation Histogram (EOH) feature information therefrom, combines extracted information, ≪ / RTI >

디지털 영상 처리 기술에서 얼굴을 인식하는 방법은 지식 기반 방법, 특징 기반 방법, 탬플릿 매칭 방법 및 외형 기반 방법 등 다양하게 존재한다.In digital image processing technology, there are various methods of face recognition such as knowledge-based method, feature-based method, template matching method, and appearance-based method.

지식 기반 방법은 사람의 얼굴이 눈썹, 눈, 코, 입 등을 포함하고 있고, 각각의 얼굴 성분들은 서로 일정한 거리와 위치 관계를 가지고 있다는 것을 전제로하여 연구자의 지식을 기반으로 얼굴을 검출하는 방법이다.The knowledge-based method is based on the assumption that the human face includes eyebrows, eyes, nose, mouth, etc., and each face component has a certain distance and positional relationship with each other. to be.

특징 기반 방법은 얼굴 특징 성분들의 크기와 모양, 상호 연관성, 얼굴의 색상과 질감(texture) 정보, 또는 이러한 요소들의 혼합된 형태의 정보를 이용해서 얼굴을 검출하는 방법이다.The feature-based method is a method of detecting a face by using the size, shape, correlation, facial color and texture information of the facial feature components, or mixed type information of the facial feature components.

템플릿 매칭 방법은 수동적으로 대상이 되는 모든 얼굴에 대한 표준 얼굴 패턴을 만든 후, 입력영상과 비교하여 얼굴을 검출하는 방법이다.The template matching method is a method of manually creating a standard face pattern for all the target faces, and then comparing the face with the input image.

외형 기반 방법은 다양한 영상을 입력 받아 훈련 과정을 통해 만든 모델을 이용하여 얼굴을 검출하는 방법이다.The appearance-based method is a method of detecting a face using a model created through a training process by receiving various images.

이러한 종래의 얼굴 인식 방법들은 얼굴 검출을 위한 특징값 추출을 위해 한 종류의 특징, 예를 들어 intensity 성분 또는 엣지 성분만을 이용하여 얼굴을 검출하고 있다. intensity 성분을 이용하여 얼굴을 검출하는 경우, 얼굴 검출 시에 조명이 불균일 하다면 영상의 intensity에 영향을 주어 검출 성능이 저하되는 문제점이 있다. 엣지 성분을 이용하여 얼굴을 검출하는 경우, 저해상도 환경에서는 엣지 정보에 손실이 생겨서 얼굴 특징 성분이 감소하여 얼굴 검출 성능이 저하되는 문제점이 있다.Such conventional face recognition methods detect a face using only one type of feature, for example, an intensity component or an edge component, in order to extract feature values for face detection. When the face is detected using the intensity component, if the illumination is non-uniform at the time of detecting the face, there is a problem that the detection performance is deteriorated because it affects the intensity of the image. In the case of detecting a face using an edge component, edge information is lost in a low-resolution environment, so that facial feature components are reduced and face detection performance is deteriorated.

본 발명이 해결하고자 하는 기술적인 과제는 입력영상에서 적분영상 및 엣지영상을 각각 구하고 그로부터 할-라이크(Haar-like) 특징 정보 및 EOH(Edge of Orientation Histogram) 특징 정보를 추출하고 추출된 정보들을 조합하여 얼굴을 검출하는 얼굴 검출 장치를 제공하는데 있다.The technical problem to be solved by the present invention is to obtain an integral image and an edge image from an input image, extract Ha-like feature information and Edge of Orientation Histogram (EOH) feature information from the input image, Thereby detecting a face.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 얼굴 검출 장치는 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 기 저장된 학습 데이터를 이용하여 상기 적분영상으로부터 할-라이크(Haar-like) 특징 정보를 추출하고, 상기 엣지영상으로부터 EOH(Edge of Orientation Histogram) 특징 정보를 추출하는 특징정보 추출수단; 및 상기 조합된 할-라이크 특징 정보 및 EOH 특징 정보에 아다부스트 알고리즘을 적용하여 얼굴을 검출하는 얼굴 검출수단을 포함하는 것이 바람직하다.According to an aspect of the present invention, there is provided a face detection apparatus for generating an integral image and an edge image from an input image, and generating Haar-like feature information from the integral image using pre- Extracting feature information extracting means for extracting Edge of Orientation Histogram (EOH) feature information from the edge image; And face detecting means for detecting a face by applying an AdaBoost algorithm to the combined no-like feature information and EOH feature information.

제 1항에 있어서, 상기 특징정보 추출부는 상기 입력영상을 적분하여 적분영상을 생성하는 적분영상 생성부; 상기 입력영상으로부터 엣지영상을 생성하고, 상기 엣지 영상으로부터 각 엣지 방향의 강도를 구하는 엣지영상 생성부; 상기 학습 데이터를 이용하여 적분된 입력영상으로부터 지정된 서브 윈도우 내에서 프로토타입의 밝은영역 픽셀 합과 어두운영역 픽셀합의 차이값을 산출하는 할-라이크 특징 추출부; 및 상기 학습 데이터를 이용하여 상기 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율값 및 각 엣지 방향의 강도의 차지 비율값을 추출하는 EOH 특징 추출부를 포함할 수 있다.The apparatus of claim 1, wherein the feature information extracting unit comprises: an integral image generating unit for generating an integral image by integrating the input image; An edge image generating unit for generating an edge image from the input image and obtaining an intensity in each edge direction from the edge image; Likelihood feature extracting unit for calculating a difference value between a sum of a bright area pixel and a sum of a dark area pixel in a designated sub window from the input image integrated using the learning data; And an EOH feature extraction unit for extracting a ratio value between the intensities in the edge directions in the subwindow and a charge ratio value of the intensities in each edge direction using the learning data.

본 발명에 있어서, 상기 할-라이크 특징 산출부는 상기 프로토타입의 종류를, 4개의 영역으로 구성되어 밝은영역 및 어두운영역이 대각으로 서로 대칭되도록 하는 제1타입, 2개의 영역으로 구성되어 어두운영역 및 밝은영역이 상하로 위치한 제2타입, 2개의 영역으로 구성되어 밝은영역 및 어두운영역이 좌우로 위치한 제3타입 및 3개의 영역으로 구성되어 어두운영역, 밝은영역, 어두운 영역이 순차적으로 위치한 제4타입으로 구분하고, 상기 서브 윈도우 내에서 제1 내지 제4 프로토타입의 할-라이크 특징 정보를 산출할 수 있다.In the present invention, the above-mentioned do-by-like feature calculating section may classify the type of the prototype as a first type which is composed of four regions and in which bright regions and dark regions are symmetrically diagonal to each other, A second type in which a bright region is located on the upper and lower sides, a third type in which a bright region and a dark region are located in the left and right, and a fourth type in which a dark region, Like feature information of the first to fourth prototypes in the sub-window.

본 발명에 있어서, 상기 엣지영상 생성부는 상기 입력영상을 흑백영상으로 변환하는 변환부; 상기 흑백영상에 소벨마스크를 적용하여 수평/수직방향의 각 좌표에 대한 경도를 구하고 그로부터 엣지의 크기를 산출하는 제1산출부; 상기 각 좌표의 수평/수직방향의 엣지 크기의 제곱을 합산하여 각 좌표의 엣지 강도를 산출하는 제2산출부; 상기 엣지 강도에 허용치를 설정하여 노이즈를 제거하는 노이즈 제거부; 상기 수평/수직 방향의 엣지의 크기로부터 각 좌표의 엣지 방향을 산출하는 제3산출부; 및 상기 엣지 방향들을 K개의 방향으로 양자화 하고, 각 방향에 대해 방향성을 가지는 좌표의 엣지 값을 모아 K개의 엣지 방향에 대한 엣지 영상을 산출하는 제4산출부를 포함할 수 있다.In the present invention, the edge image generation unit may include a conversion unit that converts the input image into a monochrome image; A first calculating unit for calculating a hardness for each coordinate in the horizontal / vertical direction by applying a Sobel mask to the monochrome image and calculating the size of the edge from the hardness; A second calculation unit for calculating an edge strength of each coordinate by summing the squares of the edge sizes in the horizontal / vertical directions of the respective coordinates; A noise eliminator for eliminating noise by setting an allowable value for the edge intensity; A third calculating unit for calculating an edge direction of each coordinate from a size of the edge in the horizontal / vertical direction; And a fourth calculation unit for quantizing the edge directions in K directions, collecting the edge values of the coordinates having the directionality in each direction, and calculating an edge image for the K edge directions.

본 발명에 있어서, 상기 EOH 특징 산출부는엣지 방향을 수평, 수직, 제1 및 제2 대각 방향으로 설정할 수 있다.In the present invention, the EOH characteristic calculating unit may set the edge direction to be horizontal, vertical, and first and second diagonal directions.

본 발명에 있어서, 상기 EOH 특징 산출부는 상기 서브 윈도우 내의 엣지 방향 수평방향과제1대각방향, 수평방향과수직방향, 수평방향과제2대각방향, 제1대각방향과수직방향, 제1대각방향과제2대각방향, 수직방향과제2대각방향의 강도 사이의 비율값을 추출하고, 상기 엣지 방향인 수평방향, 제1대각방향, 수직방향 및 제2대각방향의 차지 비율값을 추출할 수 있다.In the present invention, the EOH feature calculating section calculates the EOH feature value in the sub-window in the edge direction in the horizontal direction, the horizontal direction and the vertical direction, the horizontal direction problem 2 diagonal direction, the first diagonal direction and the vertical direction, The ratio values between the intensities in the diagonal direction and the vertical direction and the diagonal directions in the vertical direction can be extracted and the charge ratio values in the horizontal direction, the first diagonal direction, the vertical direction, and the second diagonal direction, which are the edge directions, can be extracted.

상술한 바와 같이 본 발명에 따르면, 얼굴 검출 시에 intensity 및 엣지의 특징을 함께 사용함으로써, 일반 환경에 대한 성능이 종래 얼굴 검출 기술에 비해 떨어지지 않으면서 동시에 종래 얼굴 검출 기술의 성능이 저하되는 환경에 대해 강인한 성능을 가지게 된다.As described above, according to the present invention, by using the characteristics of intensity and edge at the time of face detection, the performance against the general environment is not lower than that of the conventional face detection technology, and at the same time, So that it has a robust performance.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 얼굴 검출 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a face detection apparatus according to the present invention.

도 1에 도시된 얼굴 검출 장치는 특징정보 추출수단(110), 저장수단(120), 정보 조합수단(130) 및 얼굴 검출수단(140)을 포함한다. 본 발명에 있어서, 특징정보 추출수단(110)은 적분영상 생성부(111), 할-라이크 특징 추출부(112), 엣지영상 생성부(113) 및 EOH 특징 추출부(114)를 포함한다.The face detection apparatus shown in FIG. 1 includes a feature information extraction unit 110, a storage unit 120, an information combination unit 130, and a face detection unit 140. The feature information extracting unit 110 includes an integral image generating unit 111, a likelihood feature extracting unit 112, an edge image generating unit 113, and an EOH feature extracting unit 114.

특징정보 추출수단(110)은 입력영상으로부터 적분영상 및 엣지영상을 생성하고, 저장수단(120)에 저장된 학습 데이터를 이용하여 적분영상으로부터 할-라이크 특징정보를 추출하고, 저장수단(120)에 저장된 학습 데이터를 이용하여 엣지영상으 로부터 EOH 특징정보를 추출한다. 저장수단(120)에 저장된 학습 데이터에 대해서는 후술하기로 한다.The feature information extraction means 110 extracts the do-or-like feature information from the integral image using the learning data stored in the storage means 120, and outputs the feature information to the storage means 120 EOH feature information is extracted from the edge image using the stored training data. The learning data stored in the storage means 120 will be described later.

적분영상 생성부(111)는 입력영상의 픽셀 합을 모두 구하여 생성한다. 미리 영상에 대한 픽셀 합을 구한 상태에서 할-라이크 특징값을 구하게 되므로, 사각형 영역 내 전체 픽셀을 더하지 않고 일부 픽셀값만을 이용하여 특징값을 구할 수 있다. 수학식 1은 입력영상 i를 적분영상 ii로 변환하는 수식이다. 수학식 1에서 x, y는 픽셀의 위치이고, x', y'는 이전 픽셀의 위치이다. The integral image generating unit 111 obtains and generates all the pixel sum of the input image. Likelihood feature values are obtained in a state in which the pixel sum of the image is obtained in advance. Therefore, the feature value can be obtained using only some pixel values without adding all the pixels in the rectangular area. Equation (1) is a formula for converting the input image i into the integral image ii. In Equation (1), x, y are the positions of the pixels, and x ', y' are the positions of the previous pixels.

Figure 112009051257418-pat00001
Figure 112009051257418-pat00001

적분영상의 수식을 이용하여 영상을 변환할 때 수학식 2로 구할 수 있다. 수학식 2에서 s(x, y)는 픽셀값들의 합이고, 계산 시에 초기값(계산의 첫번째 값)은 s(x,-1)=0, ii(-1,y)=0이다.When the image is transformed using the formula of the integral image, it can be obtained by the following equation (2). In the equation (2), s (x, y) is the sum of the pixel values and the initial value (the first value of the calculation) is s (x, -1) = 0 and ii (-1, y) = 0 in the calculation.

Figure 112009051257418-pat00002
Figure 112009051257418-pat00002

도 2와 같은 4×4 영상이 있다고 할 때, 도 2a가 원본 영상의 intensity 값이면, 변환한 영상의 intensity 값은 도 2b와 같다. 도 2c 및 도 2d는 실제 영상과 그것을 적분한 후 255로 정규화시킨 결과이다. 영상을 적분한 후 원하는 구간 내의 픽셀값의 총합은 도 2e와 같이 해당 사각형의 좌표가 위치한 지점의 픽셀값이 된다.Assuming that there is a 4x4 image as shown in FIG. 2, if FIG. 2A is an intensity value of the original image, the intensity value of the transformed image is as shown in FIG. FIGS. 2C and 2D are actual images and results obtained by integrating them and normalizing them to 255. FIG. The sum of the pixel values within a desired interval after the image is integrated is a pixel value at a position where the coordinates of the corresponding rectangle are located, as shown in FIG.

할-라이크 특징 추출부(112)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 적분된 입력영상으로부터 해당 서브 윈도우의 할-라이크 특징 즉, 해당 서브 윈도우 내에서 프로토타입의 밝 영역 픽셀 합과 어두운영역 픽셀합의 차이값을 추출한다.Likelike feature of the subwindow from the integrated input image using the learning data (the position, size, and prototype type of the subwindow) stored in the storage unit 120, And subtracts the difference between the bright region pixel sum and the dark region pixel sum of the prototype in the corresponding sub window.

할-라이크 특징을 추출하기 위해, 다음에 할-라이크의 특징을 기술한다.In order to extract Hal-like features, we next describe the features of Hal-like.

얼굴 영상은 얼굴 고유한 패턴을 가지고 있으며, 고유 패턴들을 이용하여 얼굴과 다른 개체들간의 차이를 분류한다. 도 3a와 같이 영상의 내용을 사람이 얼굴로 분류하는 이유는 실제 사람의 얼굴, 장난감 얼굴 모양, 바위 얼굴 모양, 모두가 얼굴로 판단할 수 있는 눈, 코, 입 등의 얼굴만의 고유 패턴을 가지고 있기 때문이다. 컬러영상을 이용하여 패턴을 구하면 패턴의 색상에 따라서 계산 복잡도가 커지게 되므로, 흑백영상으로 변환, 픽셀들을 휘도값 기분으로 분류하여 쉽게 패턴들을 표시할 수 있다.Face images have a unique pattern of faces, and classify differences between faces and other objects using unique patterns. As shown in Fig. 3A, the reason why human beings classify the contents of a video as a face is that the face of a real person, the shape of a toy face, the shape of a rock face, and a unique pattern of a face such as eyes, I have. When a pattern is obtained using a color image, the calculation complexity increases according to the color of the pattern. Therefore, the pattern can be converted into a monochrome image, and the pixels can be easily classified into luminance value moods.

할-라이크 특징은 Papageorgiou가 개처 검출을 위해 할-웨이블릿(Haar-wavelet)을 특징으로 제안하였고, P.Viola와 M.Jones가 개체 검출을 위해 할-웨이블릿과 유사한 형태의 특징을 사용하였다. 할-라이크는 도 3b와 같은 프로토타입들을 가지고 있다. 이 프로토타입은 얼굴 영상의 intensity가 낮은 부분을 검은 사각형으로, 높은 부분을 백색 사각형이라고 보고 그 위치에서 얻을 수 있는 값을 얼굴과 비얼굴을 분류하는 패턴으로 이용한다(도 3c).The Hal-like features are proposed by Papageorgiou for Haar-wavelet detection, and P. Viola and M. Jones used features similar to wavelet-like features for object detection. The Hal-like has prototypes like Figure 3b. In this prototype, the lower part of the face image is regarded as a black rectangle and the higher part is regarded as a white rectangle, and the value obtained at that position is used as a pattern for classifying the face and the non-face (FIG.

할-라이크 특징값의 계산은 도 3d에 도시된 바와 같이 프로토타입 중 밝은 영역의 사각형 내 픽셀값들의 총합(a)에서 어두운 영역의 사각형 내 픽셀 값들의 총합(b)을 빼서 계산한다. 수학식 3은 할-라이크 특징값을 계산하는 식이다.The calculation of the Hal-like feature value is calculated by subtracting the sum (b) of the pixel values in the rectangle of the dark region from the sum (a) of the pixel values in the rectangle of the bright region in the prototype as shown in FIG. Equation (3) is an equation for calculating a hall-likelihood characteristic value.

Figure 112009051257418-pat00003
Figure 112009051257418-pat00003

계산 방법의 단순함으로 인해 타 특징 보다 특징값 계산 속도가 빠르다. 개체 연산 방법은 개념적으로는 간단하지만, 실제 연산을 위해서 서브 윈도우의 모든 픽셀의 값을 더해야 하므로 0(n2)(가로연산*세로연산)의 계산량을 가진다. 이는 검출 속도에 치명적인 영향을 미치는 요소로써 연산 속도를 개선하기 위하여, 적분영상 방법을 이용하여 검출할 영상을 변환하여 처리한다. Due to the simplicity of the calculation method, the feature value calculation speed is faster than other features. The object operation method is simple in concept, but it has a calculation amount of 0 (n2) (horizontal operation * vertical operation) since the values of all pixels of the subwindow must be added for the actual operation. This is a factor that has a critical effect on the detection speed, and in order to improve the operation speed, the image to be detected is converted and processed using the integral imaging method.

할-라이크 특징 추출부(112)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 적분된 입력영상으로부터 해당 서브 윈도우 내에서 프로토타입의 밝은 영역의 픽셀 합과 어두운 영역의 픽셀합의 차이값을 추출한다. The likelihood feature extractor 112 extracts the highlight area of the prototype from the integrated input image using the learning data (the position, size, and prototype type of the sub window) stored in the storage unit 120, And a difference value between the pixel sum of the dark region and the pixel sum of the dark region.

일 예로서, 도 3e와 같은 프로토타입이 있을 때, 적분영상으로 변환된 부분의 6개 픽셀값을 이용하여 쉽게 연산을 할 수 있으며, 도 3e의 할-라이크 특징값을 계산하는 식이 수학식 4에 개시되어 있다.As an example, when there is a prototype as shown in FIG. 3E, it is possible to easily perform calculation using the six pixel values of the portion converted into the integral image, and the equation for calculating the hall- .

Figure 112009051257418-pat00004
Figure 112009051257418-pat00004

엣지영상 생성부(113)는 입력영상을 흑백영상으로 변환하고 소벨마스크를 이용하여 엣지영상을 구하며, 구해진 엣지영상으로부터 각 엣지 방향의 강도를 구한다.The edge image generating unit 113 converts an input image into a monochrome image, obtains an edge image using a Sobel mask, and obtains an intensity in each edge direction from the obtained edge image.

엣지영상을 생성하기 위해서는 몇단계 전처리 과정이 필요하다. 영상 내에 분포하는 엣지 정보를 간단하고 효율적으로 뽑아내기 위해서 소벨 마스크(sobel mask, 미도시)를 사용한다. 우선 영상의 컬러 성분은 엣지 정보 추출에 영향을 미치지 않으므로 도 4a에 도시된 바와 같이 컬러영상을 흑백영상으로 변환한다.Several steps of preprocessing are required to generate an edge image. A sobel mask (not shown) is used to simply and efficiently extract the edge information distributed in the image. First, since the color component of the image does not affect the edge information extraction, the color image is converted into a monochrome image as shown in FIG. 4A.

변환된 흑백영상에 소벨 마스크를 사용하여 원 영상의 각 좌표에 대한 경도를 구한다. 도 4b는 흑백영상에 수평방향 소벨 마스크를 사용하여 구한 엣지영상이고, 도 4c는 흑백영상에 수직방향 소벨 마스크를 사용하여 구한 영상이다. 수학식 5-1에는 수평 방향 소벨 마스크를 사용하여 엣지의 크기를 구하는 수학식이 개시되어 있고, 수학식 5-2에는 수직 방향 소벨 마스크를 사용하여 엣지의 크기를 구하는 수학식이 개시되어 있다.And the hardness of each coordinate of the original image is obtained by using the Sobel mask on the converted monochrome image. 4B is an edge image obtained by using a horizontal direction Sobel mask on a monochrome image, and FIG. 4C is an image obtained by using a vertical direction Sobel mask on a monochrome image. Equation 5-1 discloses a mathematical expression for obtaining the size of an edge using a horizontal direction Sobel mask, and Equation 5-2 discloses a mathematical expression for obtaining the size of an edge using a vertical direction Sobel mask.

Figure 112009051257418-pat00005
Figure 112009051257418-pat00005

수학식 5에서 I는 원 영상, Gx, Gy는 소벨 마스크를 사용하여 구한 수평/수직 방향의 엣지영상, Sobelx, Sobely는 수평/수직 방향 소벨 마스크, I(x,y)는 원영상에서 (x,y)지점의 픽셀값을 의미하며, Gx(x,y), Gy(x,y)는 수평/수직 방향 소벨 마스크에 의해 구해진 영상에서 (x,y)지점의 값, 즉 수평/수직 방향에 대한 엣지의 크기를 의미한다.In Equation 5 I is the original image, G x, G y is horizontal / the edge image in the vertical direction, Sobel x, Sobel y are (x, y) horizontal / vertical direction Sobel mask, I determined using a Sobel mask circle G x (x, y) and G y (x, y) represent the pixel values of the (x, y) point in the image obtained by the horizontal / , I.e., the size of the edge in the horizontal / vertical direction.

수학식 5를 통해 구한 영상의 (x,y)좌표에서 수평/수직 방향의 엣지 크기를 사용하여 수학식 6과 같이 각 좌표의 엣지 강도를 구할 수 있으며, 도 4d에 엣지 강도값을 갖는 영상이 도시되어 있다. 수학식 6에서 G는 엣지 강도값을 갖는 영상을 의미한다.The edge intensity of each coordinate can be obtained by using the edge size in the horizontal / vertical direction in the (x, y) coordinates of the image obtained through Equation (5), and the edge intensity of each coordinate can be obtained as shown in Equation (6) Respectively. In Equation (6), G denotes an image having an edge strength value.

Figure 112009051257418-pat00006
Figure 112009051257418-pat00006

그러나 구해진 각 좌표의 엣지 강도 중 그 값이 작은 것은 엣지 특징에 대한 기여도가 떨어지기 때문에 허용치를 설정하여 그 이하의 값들은 무시할 수 있다. 사용하는 허용치는 사용자가 수동으로 직접 설정해야 하는데, 일 예로 80으로 설정할 수 있다. 수학식 7에는 엣지 특징에 대한 기여도가 떨어진 엣지 강도를 노이즈로 판단하는 수학식이 나타나 있고, 도 4e에는 엣지 특징에 대한 기여도가 떨어진 엣지 강도를 노이즈로 판단하고, 노이즈 성분분이 제거된 엣지 강도 영상이 도시되어 있다. 수학식 7에서 T는 허용치, G'는 노이즈 성분이 제거된 엣지영상을 의미한다.However, since the edge strength of each of the obtained coordinates is small, the contribution to the edge characteristic is degraded, so that the allowable value can be set and the lower values can be ignored. The allowable value to be used must be set manually by the user, for example, 80. In Equation (7), an equation for judging the edge strength with a small contribution to the edge characteristic as noise is shown. In FIG. 4E, the edge intensity with a low contribution to the edge characteristic is judged as noise and the edge intensity image from which the noise component is removed Respectively. In Equation (7), T denotes an allowable value, and G 'denotes an edge image from which noise components are removed.

Figure 112009051257418-pat00007
Figure 112009051257418-pat00007

수학식 7을 통해 구한 영상의 (x,y)좌표의 수평/수직 방향의 엣지 크기를 사용하여 수학식 8과 같이 각 좌표의 엣지 방향을 구할 수 있고, 도 4f에는 엣지 방향값을 가지는 영상이 도시되어 있다. 수학식 8에서 θ는 엣지 방향 값을 가지는 영상을 의미한다.The edge direction of each coordinate can be obtained by using the horizontal / vertical direction edge size of the (x, y) coordinates of the image obtained through Equation (7), and the edge direction of each coordinate as shown in Equation (8) Respectively. In Equation (8),? Denotes an image having an edge direction value.

Figure 112009051257418-pat00008
Figure 112009051257418-pat00008

수학식 8을 통해 구한 엣지 방향들을 K개의 방향으로 양자화(quantization) 하고 각 방향에 대해 그 방향을 가지는 좌표의 엣지 값을 모아 K개의 엣지 방향에 따른 엣지영상을 구할 수 있으며, 그 식이 수학식 9에 개시되어 있고, 도 4g에는 엣지 방향에 따른 엣지영상이 도시되어 있다. 수학식 9에서 bink는 k번째 엣지 방향, ψk는 k번째 엣지 방향 성분만 가지는 엣지 크기 영상을 의미한다.An edge image along the K edge directions can be obtained by quantizing the edge directions obtained through Equation 8 into K directions and collecting edge values of the coordinates having the direction with respect to each direction, And an edge image along the edge direction is shown in Fig. 4G. In Equation (9), bin k denotes an edge-size image having only a k-th edge direction component and ψ k denotes an edge-direction image component having only a k-th edge component.

Figure 112009051257418-pat00009
Figure 112009051257418-pat00009

본 발명에서는 엣지 방향을 도 4h 내지 도 4k에 도시된 바와 같이, 수평방향, 45도 방향, 수직방향, 135도 방향으로 한정한다.In the present invention, the edge direction is defined as a horizontal direction, a 45-degree direction, a vertical direction, and a 135-degree direction as shown in Figs. 4H to 4K.

EOH 특징 추출부(114)는 저장수단(120)에 저장된 학습 데이터(서브 윈도우의 위치, 크기, 프로토타입의 종류)를 이용하여 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 추출하며, 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율 및 각 엣지 방향의 강도의 차지 비율을 추출한다. The EOH feature extraction unit 114 extracts The edge intensity magnitudes for each edge direction in the subwindow are all summed up using the learning data (position, size, and prototype type of the subwindow) stored in the storage means 120 to obtain a scalar intensity value And the ratio between the intensities in the edge directions in the sub window and the charge ratios of the intensities in each edge direction are extracted.

EOH 특징은 엣지 기반의 특징으로서 얼굴에서 지역적으로 나타나는 엣지 성분에 대한 특성을 이용한다. 일반적으로 사람들의 얼굴은 몇가지 엣지 기반의 공통된 요소를 가진다. 사람 얼굴의 안쪽 부분은 대체적으로 수직성분에 비해 수형성분의 엣지 방향을 많이 가지며(도 5a), 얼굴 내의 수평성분과 수직성분의 비율은 무한히 발산하지 않고 어느 정도 닫혀있는 값을 가진다(도 5b). 또한 얼굴 내의 위치에 따라 국소적으로 분포하는 엣지 방향이 다른다. 도 5c는 수형방향 엣지가 많이 분포된 눈 주위를 표시한 것이고, 도 5d는 대각방향 엣지가 많이 분포된 턱 주위를 표시한 것이다. 이와 같은 엣지 특성은 전체적인 조명변화에 변하지 않으며, 픽셀값에 기반한 특징으로는 뽑아내기 어려운 기하학적인 특성을 뽑아 낼 수 있는 장점이 있다.The EOH feature is an edge-based feature that utilizes features for edge components that appear locally in the face. In general, people's faces have some edge-based common elements. 5A). The ratio of the horizontal component to the vertical component in the face is not infinitely divergent but has a certain degree of closed value (FIG. 5B) . In addition, edge directions are distributed locally according to positions in the face. FIG. 5C is a view showing the periphery of the eye in which a large number of edges are distributed, and FIG. 5D is a view of the periphery of the jaw where a large number of diagonal edges are distributed. Such an edge property does not change with the overall illumination change, and it is advantageous to extract a geometric characteristic that is hard to extract from a characteristic based on a pixel value.

EOH 특징 추출부(114)는 엣지 영상 생성부(113)에서 생성한 각 엣지 방향의 강도값들을 사용하여 EOH 특징 정보를 추출할 수 있다. 영상의 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 수학식 10을 통해 구할 수 있다. 수학식 10에서 R은 영상 내의 서브 윈도우, Ek(R)는 서브 윈도우 R에 대한 k번째 엣지 방향의 강도를 의미한다. 도 5e는 눈 주위를 서브 윈도우로 잡은 것을 나타내며, 도 5f는 서브 윈도우 R에서 0도(수평), 45도, 90도(수직), 135도 엣지 방향 성분에 대한 강도값을 구한 것이다.The EOH feature extraction unit 114 can extract the EOH feature information using intensity values in each edge direction generated by the edge image generation unit 113. [ The edge intensity magnitudes for each edge direction in the sub-window of the image may be summed to obtain a scalar intensity value using equation (10). In Equation (10), R denotes a sub-window in an image, and E k (R) denotes an intensity in a k-th edge direction with respect to a sub-window R. FIG. 5E shows that the eye periphery is taken as a subwindow, and FIG. 5F shows intensity values for 0 degree (horizontal), 45 degree, 90 degree (vertical), and 135 degree edge direction components in the sub window R.

Figure 112009051257418-pat00010
Figure 112009051257418-pat00010

서브 윈도우 내에서 뽑은 각 엣지 방향의 강도들 사이의 비율을 수학식 11과 같이 구하여 특징값 A로 사용할 수 있다. A의 값이 어느 정도 안정된 범위에서 분포할 수 있도록 수학식 11의 분모와 분자에 상수 ε을 더했다. 구분한 엣지 방향 이 K일 때, 총 KC2개의 특징값을 얻을 수 있다. 도 5g는 도 5f의 값을 이용하여 얻은 특징값 A로써, 서브 윈도우 R에서 각 엣지 방향의 강도 사이의 비율(상대적인 비율)을 나타낸다. The ratio between the intensities in the edge directions extracted in the sub window can be obtained as Equation (11) and used as the characteristic value A. A constant ε is added to the denominator and the numerator of the equation (11) so that the value of A can be distributed in a somewhat stable range. When the edge direction is K, the total K C 2 feature values can be obtained. FIG. 5G shows the ratio (relative ratio) between the intensities in the edge directions in the sub window R, with the feature value A obtained using the values in FIG. 5F.

Figure 112009051257418-pat00011
Figure 112009051257418-pat00011

서브 윈도우 내에서 뽑은 각 엣지 방향의 강도가 서브 윈도우 내 전체 엣지 강도에서 차지하는 비율을 수학식 12와 같이 구하여 특징값 B로 사요할 수 있다. 마찬가지로 B의 값이 어느 정도 안정된 범위에 분포할 수 있도록 식의 분모와 분자에 상수 ε을 더했다. 구분한 엣지 방향이 K일 때, 총 K의 특징값을 얻을 수 있다. 도 5h는 도 5f의 값을 이용하여 얻은 특징값 B로써, 서브 윈도우 R에서 각 엣지 방향의 강도의 차지 비율(절대적인 비율)을 나타낸다.The ratio of the intensity of each edge direction drawn in the sub window to the total edge intensity in the sub window can be calculated as shown in Equation (12) and used as the characteristic value B. Similarly, a constant ε is added to the denominator and the numerator of the equation so that the value of B can be distributed in a somewhat stable range. When the divided edge direction is K, the feature value of the total K can be obtained. FIG. 5H shows a characteristic ratio B obtained by using the values in FIG. 5F, and shows a charge ratio (absolute ratio) of intensity in each edge direction in the sub window R. FIG.

Figure 112009051257418-pat00012
Figure 112009051257418-pat00012

정보 조합수단(130)은 학습 데이터에 의한 서브 윈도우 내에서 추출한 할-라이크 특징(프로토타입에서 밝은 영역의 픽셀 합과 어두운 영역의 픽셀합의 차이값) 및 EOH 특징(서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율(A값) 및 각 엣지 방향의 강도의 차지 비율(B값))을 조합한다. 도 6은 하나의 서브 윈도우에서 얻은 정보를 나타내며, 첫번째로 1개의 서브 윈도우에서 4방향의 강도(1, 45, 90, 135)에 대한 EOH 특징값(총 10개:r1-r10)을 구하고, 해당 서브 윈도우에서 4종의 프로토타입에 대한 할-라이크 특징값(총4개:h1-h4)을 계산한다. The information combination means 130 is a combination of the So-and-liked features (the difference between the pixel sum of the bright region and the pixel sum of the dark region in the prototype) extracted in the subwindow by the learning data and the EOH characteristic (A value) and the charge ratio (B value) of the intensity in each edge direction are combined. 6 shows information obtained from one subwindow. First, the EOH feature values (10 in total: r 1 -r 10 ) for intensity (1, 45, 90, 135) Like feature values (four in total: h 1 -h 4 ) for the four prototypes in the corresponding subwindow.

얼굴 검출수단(130)은 조합된 할-라이크 특징값(h1-h4) 및 EOH 특징값(r1-r10)에 캐스캐이드 아다부스트 알고리즘을 통해 선별된 특징을 이용하여 얼굴을 검출한다. 도 7에는 캐스케이드 아다부스트 알고리즘으로 제작한 검출기를 이용하여 얼굴을 분류하는 방법을 도시한 흐름도 이다. 아다부스트는 데이터들로부터 반복 연산을 통해 에러가 적은 약한 분류기들을 선별하여 이 분류기들의 선형 조합을 통해 정확도가 높은 강한 분류기를 만들어 주는 알고리즘이다. 아다부스트 학습 알고리즘은 가장 잘 알려진 부스트 알고리즘이며, 단순하면서도 효율적이라는 장점을 지닌다. 도 7을 참조하면, 캐스케이드 아다부스트 학습 알고리즘은 지정된 서브윈도우들에서 추출한 할-라이크 특징값(h1-h4) 및 EOH 특징값(r1-r10)을 단계별(720, 730, 740, 750)로 추출하여 지정된 서브윈도우가 얼굴인지 판단 한다. 각 단계를 지날수록 더 성능이 좋은 분류기를 통해 서브윈도우가 얼굴인지 분류한다. 이 방법을 통해 더욱 빠른 검출 알고리즘을 구현할 수 있다. 첫단계(720)에서는 적은 수의 특징값들로 분류기를 제작 하고, 다음 단계(730)에서는 첫 단계(720)에서 보다 더 많은 수의 특징값들을 가지고 전 단계보다 정밀한 분류기를 만든다. 입력 영상의 대부분은 얼굴이 아닌 부분이 차지하고 있으므로 영역이 검출기의 각 단계를 지나면서 대부분의 비얼굴은 초기 단계에서 걸러지게 되므로 빠른 속도의 검출기를 제작할 수 있다..The face detection unit 130 detects the face using the feature selected through the cascaded AdaBoost algorithm on the combined hash-like feature value h 1 -h 4 and the EOH feature value r 1 -r 10 do. FIG. 7 is a flowchart illustrating a method of classifying faces using a detector manufactured by a cascaded AdaBoost algorithm. Adaboost is an algorithm that selects weak classifiers with low error by iterative operation from data and creates a strong classifier with high accuracy through linear combination of these classifiers. The AdaBoost learning algorithm is the most well known boost algorithm and has the advantage of being simple and efficient. Referring to FIG. 7, the cascaded AdaBoost learning algorithm calculates the Hall-likelihood values h 1 -h 4 and the EOH feature values r 1 -r 10 extracted from the designated subwindows at step 720, 730, 740, 750) to determine whether the designated sub-window is a face. As each step passes, the sub window is classified as a face through a classifier with better performance. With this method, a faster detection algorithm can be implemented. In the first step 720, a classifier is manufactured with a small number of feature values. In the next step 730, a more accurate classifier is created than the previous step with a larger number of feature values than in the first step 720. Since most of the input image occupies the non-face part, most of the non-face is filtered at the initial stage as the area passes through each step of the detector, so that a high-speed detector can be manufactured.

도 8은 저장수단(120)에 저장된 학습 데이터 생성을 설명하는 도면이다.8 is a diagram for explaining generation of learning data stored in the storage means 120. Fig.

도 8에 도시된 바와 같이 학습데이터는 학습 분류기(800)에 의해 생성된 후, 저장수단(120)에 저장된다. 학습 분류기(800)는 적분영상 생성부(810), 엣지영상 생성부(820), 할-라이크 특징 추출부(830), EOH 특징 추출부(840) 및 아다부스트 학습부(850)을 포함한다.As shown in FIG. 8, the learning data is generated by the learning classifier 800 and then stored in the storage means 120. FIG. The learning classifier 800 includes an integral image generating unit 810, an edge image generating unit 820, a likelike feature extracting unit 830, an EOH feature extracting unit 840, and an adaboard learning unit 850 .

적분영상 생성부(810) 및 엣지영상 생성부(820)로 입력되는 학습 데이터 영상은 얼굴 및 비얼굴 여부를 판단할 수 있고, 사이즈가 정해져 있는(예를 들어 16×16) 그레이 영상이다.The training data image input to the integral image generating unit 810 and the edge image generating unit 820 is a gray image having a predetermined size (for example, 16 × 16), which can determine whether or not the face and the face are non-face images.

적분영상 생성부(810)는 입력되는 학습 데이터 영상의 픽셀 합을 모두 구하여 생성한다. 적분영상 생성에 대한 상세한 설명은 상기에 개시되어 있으므로 생략한다.The integral image generator 810 obtains and generates all the pixel sum of the input learning data image. Detailed description of the generation of the integral image is omitted since it is described above.

엣지영상 생성부(820)는 입력되는 학습 데이터 영상에 소벨마스크를 이용하여 엣지영상을 구하며, 구해진 엣지영상으로부터 각 엣지 방향의 강도를 구한다. 엣지영상 생성에 대한 상세한 설명은 상기에 개시되어 있으므로 생략한다.The edge image generating unit 820 obtains an edge image using the Sobel mask on the input learning data image, and obtains the intensity in each edge direction from the obtained edge image. The detailed description of the edge image generation has been given above and will be omitted here.

할-라이크 특징 추출부(830)는 적분된 학습 데이터 영상으로부터 서브 윈도우 내에서 다양한 종류의 프로토타입의 밝은영역 픽셀 합과 어두운영역 픽셀합의 차이값을 추출한다. The likelike feature extraction unit 830 extracts difference values between the sum of the bright region pixels and the sum of the dark region pixels of the various types of prototypes in the subwindow from the integrated learning data image.

EOH 특징 추출부(840)는 엣지영상의 서브 윈도우 내 각 엣지 방향에 대한 엣지 강도크기들을 모두 더해서 하나의 스칼라(scalar) 형태의 강도값을 추출하며, 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율 및 각 엣지 방향의 강도의 차지 비율을 추출한다. The EOH feature extraction unit 840 extracts Of the edge image The edge intensity magnitudes for each edge direction in the subwindow are all summed to extract intensity values in the form of a single scalar and the ratio between the intensities in each edge direction in the subwindow and the ratio of the intensity in each edge direction is extracted do.

아다부스트 학습부(850)는 할-라이크 특징값 및 EOH 특징값에 아다부스트 알고리즘을 적용하여 최적의 할-라이크 특징값 및 EOH 특징값을 추출하기 위한 서브윈도우의 위치, 크기 및 특징의 종류를 산출하며, 이를 학습 결과 데이터로 저장수단(120)에 저장한다.The AdaBoost learning unit 850 applies the AdaBoost algorithm to the Hal-like feature value and the EOH feature value to determine the position, size, and feature type of the sub window for extracting the optimal do-like feature value and the EOH feature value And stores it in the storage means 120 as learning result data.

저장수단(120)에 저장된 학습 결과 데이터는 도 1에서 할-라이크 특징 추출 및 EOH 특징 추출을 위한 서브윈도우의 위치, 크기 및 특징의 종류를 알려주어, 도 7의 각 단계를 이루는 검출기를 구성한다.The learning result data stored in the storage means 120 indicates the positions, sizes, and types of sub windows for extracting the Hal-like feature and EOH feature extraction in FIG. 1, and constitutes a detector constituting each step of FIG. 7 .

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1은 본 발명에 따른 얼굴 검출 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing a configuration of a face detection apparatus according to the present invention.

도 2는 도 1에서 적분영상 생성을 설명하는 도면이다.FIG. 2 is a view for explaining generation of an integral image in FIG.

도 3은 도 1에서 Haar-Like 특징 추출을 설명하는 도면이다.FIG. 3 is a diagram for explaining Haar-Like feature extraction in FIG.

도 4는 도 1에서 엣지영상 생성을 설명하는 도면이다.FIG. 4 is a view for explaining edge image generation in FIG.

도 5는 도 1에서 EOH 특징 추출을 설명하는 도면이다.FIG. 5 is a view for explaining EOH feature extraction in FIG. 1; FIG.

도 6는 도 1에서 추출된 Haar-Like 및 EOH 특징 조합을 설명하는 도면이다.FIG. 6 is a diagram illustrating Haar-Like and EOH feature combinations extracted in FIG. 1; FIG.

도 7은 도 1에서 얼굴 검출을 위한 아다부스트 알고리즘을 설명하는 도면이다.FIG. 7 is a view for explaining the Adaboost algorithm for face detection in FIG.

도 8은 도 1에서 저장수단에 저장된 학습데이터 생성을 설명하는 도면이다.FIG. 8 is a diagram for explaining generation of learning data stored in the storage means in FIG.

Claims (6)

입력영상으로부터 적분영상 및 엣지영상을 생성하고, 기 저장된 학습 데이터를 이용하여 상기 적분영상으로부터 할-라이크(haar-like) 특징 정보를 추출하고, 상기 엣지영상으로부터 EOH(edge of histogram) 특징 정보를 추출하는 특징정보 추출수단;Extracts haar-like feature information from the integral image using the pre-stored training data, and generates EOH (edge of histogram) feature information from the edge image Feature information extracting means for extracting feature information; 상기 할-라이크 특징 정보 및 상기 EOH 특징 정보를 조합하여 조합 결과를 출력하는 정보 조합수단; 및Information combining means for combining the above-described Likelihood feature information and the EOH feature information and outputting a combination result; And 상기 조합 결과에 아다부스트(adaboost) 알고리즘을 적용하여 얼굴을 검출하는 얼굴 검출수단을 포함하는 얼굴 검출 장치.And face detection means for detecting faces by applying an adaboost algorithm to the combination result. 제 1항에 있어서, 상기 특징정보 추출수단은The apparatus according to claim 1, wherein the feature information extracting means 상기 입력영상을 적분하여 적분영상을 생성하는 적분영상 생성부;An integral image generating unit for integrating the input image to generate an integral image; 상기 입력영상으로부터 엣지영상을 생성하고, 상기 엣지 영상으로부터 각 엣지 방향의 강도를 구하는 엣지영상 생성부;An edge image generating unit for generating an edge image from the input image and obtaining an intensity in each edge direction from the edge image; 상기 학습 데이터를 이용하여 적분된 입력영상으로부터 지정된 서브 윈도우 내에서 프로토타입의 밝은영역 픽셀 합과 어두운영역 픽셀합의 차이값을 산출하는 할-라이크 특징 추출부; 및Likelihood feature extracting unit for calculating a difference value between a sum of a bright area pixel and a sum of a dark area pixel in a designated sub window from the input image integrated using the learning data; And 상기 학습 데이터를 이용하여 상기 서브 윈도우 내의 각 엣지 방향의 강도 사이의 비율값 및 각 엣지 방향의 강도의 차지 비율값을 추출하는 EOH 특징 추출부를 포함하는 것을 특징으로 하는 얼굴 검출 장치.And an EOH feature extraction unit for extracting a ratio value between intensities in each edge direction in the subwindow and a charge ratio value of intensity in each edge direction using the learning data. 청구항 3은(는) 설정등록료 납부시 포기되었습니다.Claim 3 has been abandoned due to the setting registration fee. 상기 프로토타입의 종류를, 4개의 영역으로 구성되어 밝은영역 및 어두운영역이 대각으로 서로 대칭되도록 하는 제1타입, 2개의 영역으로 구성되어 어두운영역 및 밝은영역이 상하로 위치한 제2타입, 2개의 영역으로 구성되어 밝은영역 및 어두운영역이 좌우로 위치한 제3타입 및 3개의 영역으로 구성되어 어두운영역, 밝은영역, 어두운 영역이 순차적으로 위치한 제4타입으로 구분하고, 상기 서브 윈도우 내에서 제1 내지 제4 프로토타입의 할-라이크 특징 정보를 산출하는 것을 특징으로 하는 얼굴 검출장치.The type of the prototype is divided into a first type which is composed of four regions and a second type in which a bright region and a dark region are symmetrically diagonal to each other, a second type which is composed of two regions, And a fourth type in which a dark region, a bright region, and a dark region are sequentially located, each of which is composed of a third type and a third type in which a bright region and a dark region are located right and left, Likelike feature information of the fourth prototype is calculated. 청구항 4은(는) 설정등록료 납부시 포기되었습니다.Claim 4 has been abandoned due to the setting registration fee. 제 2항에 있어서, 상기 엣지영상 생성부는3. The apparatus of claim 2, wherein the edge image generation unit 상기 입력영상을 흑백영상으로 변환하는 변환부;A conversion unit for converting the input image into a monochrome image; 상기 흑백영상에 소벨마스크를 적용하여 수평/수직방향의 각 좌표에 대한 경도를 구하고 그로부터 엣지의 크기를 산출하는 제1산출부;A first calculating unit for calculating a hardness for each coordinate in the horizontal / vertical direction by applying a Sobel mask to the monochrome image and calculating the size of the edge from the hardness; 상기 각 좌표의 수평/수직방향의 엣지 크기의 제곱을 합산하여 각 좌표의 엣지 강도를 산출하는 제2산출부;A second calculation unit for calculating an edge strength of each coordinate by summing the squares of the edge sizes in the horizontal / vertical directions of the respective coordinates; 상기 엣지 강도에 허용치를 설정하여 노이즈를 제거하는 노이즈 제거부;A noise eliminator for eliminating noise by setting an allowable value for the edge intensity; 상기 수평/수직 방향의 엣지의 크기로부터 각 좌표의 엣지 방향을 산출하는 제3산출부; 및A third calculating unit for calculating an edge direction of each coordinate from a size of the edge in the horizontal / vertical direction; And 상기 엣지 방향들을 K개의 방향으로 양자화 하고, 각 방향에 대해 방향성을 가지는 좌표의 엣지 값을 모아 K개의 엣지 방향에 대한 엣지 영상을 산출하는 제4 산출부를 포함하는 것을 특징으로 하는 얼굴 검출 장치.And a fourth calculation unit for quantizing the edge directions in K directions and collecting edge values of coordinates having directionality in each direction to calculate an edge image for K edge directions. 청구항 5은(는) 설정등록료 납부시 포기되었습니다.Claim 5 has been abandoned due to the setting registration fee. 제 2항에 있어서, 상기 EOH 특징 산출부는3. The apparatus according to claim 2, wherein the EOH characteristic calculating unit 엣지 방향을 수평, 수직, 제1 및 제2 대각 방향으로 설정하는 것을 특징으로 하는 얼굴 검출 장치.And the edge direction is set to the horizontal, vertical, and first and second diagonal directions. 청구항 6은(는) 설정등록료 납부시 포기되었습니다.Claim 6 has been abandoned due to the setting registration fee. 제 5항에 있어서, 상기 EOH 특징 산출부는6. The apparatus according to claim 5, wherein the EOH characteristic calculating unit 상기 서브 윈도우 내의 엣지 방향 수평방향과제1대각방향, 수평방향과수직방향, 수평방향과제2대각방향, 제1대각방향과수직방향, 제1대각방향과제2대각방향, 수직방향과제2대각방향의 강도 사이의 비율값을 추출하고, 상기 엣지 방향 수평방향, 제1대각방향, 수직방향 및 제2대각방향의 차지 비율값을 추출하는 것을 특징으로 하는 얼굴 검출 장치.In the sub-window, an edge direction horizontal directional task 1 diagonal direction, a horizontal direction and a vertical direction, a horizontal direction task 2 diagonal direction, a first diagonal direction and a vertical direction, a first diagonal direction task 2 diagonal direction, And extracts a ratio value between the intensities in the edge direction, the edge direction, the first diagonal direction, the vertical direction, and the second diagonal direction.
KR1020090077609A 2009-08-21 2009-08-21 Apparatus for detecting face KR101415325B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090077609A KR101415325B1 (en) 2009-08-21 2009-08-21 Apparatus for detecting face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090077609A KR101415325B1 (en) 2009-08-21 2009-08-21 Apparatus for detecting face

Publications (2)

Publication Number Publication Date
KR20110019969A KR20110019969A (en) 2011-03-02
KR101415325B1 true KR101415325B1 (en) 2014-07-08

Family

ID=43929389

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090077609A KR101415325B1 (en) 2009-08-21 2009-08-21 Apparatus for detecting face

Country Status (1)

Country Link
KR (1) KR101415325B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443137B2 (en) 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
KR101531037B1 (en) * 2013-12-06 2015-06-23 전자부품연구원 Surf hardware apparatus and method for generating integral image thereof
US9412036B2 (en) 2014-03-07 2016-08-09 Samsung Electronics Co., Ltd. Methods and systems for object detection based on column-wise and row-wise sums of pixel values
CN105260744B (en) * 2015-10-08 2018-08-14 北京航空航天大学 The automatic on-line diagnostic method and system of a kind of goods train coupler yoke key position failure
KR101887756B1 (en) 2016-09-13 2018-08-13 주식회사 네오시큐 System for detecting human using the projected figure for eye

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250772A (en) 2004-03-03 2005-09-15 Fuji Photo Film Co Ltd Object identification apparatus and method, learning method and program
JP2006244385A (en) 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Face-discriminating apparatus, program and learning method for the apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250772A (en) 2004-03-03 2005-09-15 Fuji Photo Film Co Ltd Object identification apparatus and method, learning method and program
JP2006244385A (en) 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd Face-discriminating apparatus, program and learning method for the apparatus

Also Published As

Publication number Publication date
KR20110019969A (en) 2011-03-02

Similar Documents

Publication Publication Date Title
JP5010905B2 (en) Face recognition device
US7957560B2 (en) Unusual action detector and abnormal action detecting method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9355305B2 (en) Posture estimation device and posture estimation method
US9036917B2 (en) Image recognition based on patterns of local regions
US7925093B2 (en) Image recognition apparatus
Gizatdinova et al. Feature-based detection of facial landmarks from neutral and expressive facial images
KR101415325B1 (en) Apparatus for detecting face
Amjad et al. Multiple face detection algorithm using colour skin modelling
JP2008251039A (en) Image recognition system, recognition method thereof and program
Sharma Designing of face recognition system
Lee et al. Robust Face Detection Based on Knowledge‐Directed Specification of Bottom‐Up Saliency
KR101408344B1 (en) Apparatus for detecting face
Pishchulin et al. In Good Shape: Robust People Detection based on Appearance and Shape.
Ribarić et al. Personal recognition based on the Gabor features of colour palmprint images
Abdullah-Al-Wadud et al. Skin segmentation using color distance map and water-flow property
Curran et al. The use of neural networks in real-time face detection
CN109086738A (en) A kind of character identifying method and device based on template matching
JP2005209137A (en) Method and apparatus for object identification, and face direction identification apparatus
Phung et al. A new image feature for fast detection of people in images
Jalilian et al. Face and hand shape segmentation using statistical skin detection for sign language recognition
JP4789526B2 (en) Image processing apparatus and image processing method
JP2022522429A (en) A method for identifying an object in an image having a user's biometric characteristics and verifying the user's ID by separating the part of the image containing the biometric characteristics from other parts.
Ribeiro et al. Access control in the wild using face verification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180521

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190527

Year of fee payment: 6