KR100338807B1 - Method and apparatus for face detection using classified face images and net type search area - Google Patents

Method and apparatus for face detection using classified face images and net type search area Download PDF

Info

Publication number
KR100338807B1
KR100338807B1 KR1019990044297A KR19990044297A KR100338807B1 KR 100338807 B1 KR100338807 B1 KR 100338807B1 KR 1019990044297 A KR1019990044297 A KR 1019990044297A KR 19990044297 A KR19990044297 A KR 19990044297A KR 100338807 B1 KR100338807 B1 KR 100338807B1
Authority
KR
South Korea
Prior art keywords
face
image
filter response
input image
images
Prior art date
Application number
KR1019990044297A
Other languages
Korean (ko)
Other versions
KR20010037022A (en
Inventor
이성욱
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019990044297A priority Critical patent/KR100338807B1/en
Publication of KR20010037022A publication Critical patent/KR20010037022A/en
Application granted granted Critical
Publication of KR100338807B1 publication Critical patent/KR100338807B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 그룹화된 얼굴 영상과 그물망 구조의 특징점 매칭을 이용한 얼굴 검출 방법 및 그 장치를 개시한다. 입력 영상에서 사람의 얼굴을 찾는 본 발명에 의한 얼굴 검출 방법은, (a) 얼굴을 찾는데 참조가 될 얼굴 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 단계 및 (b) 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용하여 입력 영상에서 상기 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 단계를 구비한다.The present invention discloses a method and apparatus for face detection using feature point matching of grouped face images and a network structure. According to the present invention, a face detection method of searching for a face of a person includes: (a) generating a model image database by grouping face images to be referred to for finding a face, and (b) size of a face to be found. And detecting a face matching the model image database from the input image using a corresponding search region in the form of a mesh.

Description

그룹화된 얼굴 영상들과 그물망 형태의 탐색 영역을 이용한 얼굴 검출 방법 및 그 장치{Method and apparatus for face detection using classified face images and net type search area}[Method and apparatus for face detection using classified face images and net type search area}

본 발명은 영상 필터를 이용한 얼굴 검출에 관한 것으로, 특히 그룹화된 얼굴 영상들과 그물망 형태의 탐색 영역을 이용한 얼굴 검출 방법 및 그 장치에 관한 것이다.The present invention relates to face detection using an image filter, and more particularly, to a face detection method and apparatus using grouped face images and a network-type search area.

특정한 위치에서의 영상 필터 반응값을 이용하여 얼굴을 검출하는 관련 연구의 역사 및 그 결과는 현재로서는 아직까지 미미한 편이며, 또한 이를 적용한 사업화나 특허 출원 현황 역시 이제 막 시작단계를 벗어나고 있다. 얼굴을 찾는 기술은 침입자 감지, 출입문 개폐 등의 보안 시스템을 포함한 HCI(Human and Computer Interaction) 관련 기술 등을 사업화 또는 상품화하는데 가장 기반이 되는 기술중 하나이다. 그러나, 복잡한 배경에서 사람의 얼굴을 적은 계산량으로 빠르고 정확하게 찾는 것은 서로 상반되는 문제점을 해결해야 되는 어려움을 가진다. 최근에 이러한 문제점을 해결하기 위한 많은 연구가 활발히 이루어지고 있으며, 다양한 방법들이 제시되고 있다.The history and results of related researches that detect faces using image filter response values at specific locations are still insignificant at present, and the commercialization and patent application status of these applications are also just beginning. Face finding technology is one of the most fundamental technologies for commercializing or commercializing HCI (Human and Computer Interaction) -related technologies including security systems such as intruder detection and door opening and closing. However, finding a human face quickly and accurately with a small amount of computation in a complex background has a difficulty in solving the mutually opposite problems. Recently, many studies have been actively conducted to solve these problems, and various methods have been proposed.

얼굴을 찾기 위한 종래의 기술 중 대표적인 것은 영역이나 형상의 특성 정보를 이용한 방법들이다. 얼굴의 윤곽선을 이용하는 방법(후지 필름사 US5629752 (1997, 5)), 신경망등을 이용하여 얼굴 영역을 직접 비교하는 방법(지멘스사 EP0474307(1992, 3)) 및 피부색이나 머리색, 얼굴 구성요소들의 위치적 특성을 이용한 방법(소니사 US5812193(1998, 9), 산요사 JP8287216(1996, 1))등을 예로 들 수 있다. 그러나, 이러한 방법들은 조명 조건이나 배경등의 사용 환경에 대한 제약이 심하고, 적용 대상에 많은 제약을 가지며, 상품화에 성공하기에는 미흡한 성능을 보이는 것이 대부분이다.A typical technique for finding a face is methods using characteristic information of an area or a shape. Method of using facial contours (Fuji Film Corporation US5629752 (1997, 5)), direct comparison of facial areas using neural networks (Siemens EP0474307 (1992, 3)), and skin color, hair color, and facial components. The method using a positional characteristic (Sony Corporation US5812193 (1998, 9), Sanyo Corporation JP8287216 (1996, 1)) etc. are mentioned, for example. However, these methods have severe restrictions on the use environment, such as lighting conditions and backgrounds, have a lot of limitations on application targets, and most of them show insufficient performance for successful commercialization.

이러한 문제점을 해결하기 위한 대안으로 많이 연구되는 것이 PCA 방법(엠.아이.티. US5710833(1998, 1))인데, 현재 가장 좋은 성능을 보이는 방법 중 하나이다. 이 방법은 얼굴 템플릿(template)에서 중요한 정보만을 1차원 정보 형태로 추출하는 것으로 일종의 영상 압축 방법이라고 할 수 있다. 그러나, 이 방법은 얼굴 영상을 잘 정렬하여 훈련(training)시켜야 하고, 또한 얼굴의 회전과 크기, 표정변화에 따라 많은 계산량과 함께 성능의 변화가 심한 단점을 가진다.An alternative solution to this problem is the PCA method (M.I.T. US5710833 (1998, 1)), which is one of the best performing methods at present. This method extracts only the important information from the face template in the form of one-dimensional information, which is a kind of image compression method. However, this method has to train the face images well aligned, and also has a disadvantage in that the performance changes with a large amount of calculation according to the rotation, size, and facial expression of the face.

현재 가장 우수하다고 평가되는 방법은 얼굴내의 특정 위치점들(fiducial points)에서의 영상 필터 반응값을 이용한 것으로 얼굴의 표정 변화와 회전 등에 강인하며, 사용 환경에 비교적 유연한 장점을 가진다. 그러나, 영상 필터의 반응값을 이용한 종래의 얼굴 검출 방법으로서, 번치 그래프 매칭(Bunch Graph Matching) 방법('Automatic digital image recognition system(자동 디지탈 영상 인식 시스템)' ZENTRUM FUER NEURO INFORMATIK G, 1995, 6,29, DE4406020, 'Face Recognition by Elastic Bunch Graph Matching(탄력있는 번치 그래프 매칭에 의한 얼굴 인식)' 내부 보고서 96-08 ZENTRUM FUER NEURO INFORMATIK G, 1996)은 특정 위치점들을 반드시 잘 찾아야만 얼굴을 나타내는 그래프를 구성할 수 있고, 이 특정 위치점들을 잘 찾기 위해서 번치내의 모든 제트(Jet) 모델들과 비교 연산을 수행하므로 많은 계산량을 필요로 한다. 또한, 전술한 바와 같이 얼굴내의 특정 위치점을 찾는데 필요한 번치를 구성하여 비교하지 않고, 단순히 영상 필터의 전체 평균값만을 이용한 방법('The Role of Topographical Constraints in Face Recognition(얼굴 인식에서의 위치적 제약의 역할)' Pattern Recognition Letters, 20(1):89-96)은 계산량면에서 이득을 볼 수 있으나, 얼굴 검출의 신뢰성면에서 문제가 있다.Currently, the method that is evaluated as the best is using image filter response values at specific location points (fiducial points) in the face, which is robust to facial expression changes and rotations, and has a relatively flexible advantage in the use environment. However, as a conventional face detection method using a response value of an image filter, a Bunch Graph Matching method ('Automatic digital image recognition system' ZENTRUM FUER NEURO INFORMATIK G, 1995, 6, 29, DE4406020, 'Face Recognition by Elastic Bunch Graph Matching' Internal Report 96-08 ZENTRUM FUER NEURO INFORMATIK G, 1996 In order to find these specific position points well, the comparison operation is performed with all the Jet models in the bunch, which requires a large amount of computation. In addition, as described above, instead of constructing and comparing the bunches needed to find a specific location point in the face, the method simply uses the overall average value of the image filter ('The Role of Topographical Constraints in Face Recognition'). Role) 'Pattern Recognition Letters, 20 (1): 89-96), can benefit from the calculation, but there is a problem in the reliability of face detection.

본 발명이 이루고자 하는 기술적 과제는, 그룹화된 얼굴 영상들과 그물망 형태의 탐색 영역을 이용함으로써 유지해야할 데이타베이스의 크기를 작게 하면서 신뢰성있는 얼굴 검출을 가능케하는, 얼굴 검출 방법을 제공하는데 있다.An object of the present invention is to provide a face detection method which enables reliable face detection while reducing the size of a database to be maintained by using grouped face images and a network type search area.

본 발명이 이루고자 하는 다른 기술적 과제는, 상기 방법을 수행하는 얼굴 검출 장치를 제공하는데 있다.Another object of the present invention is to provide a face detection apparatus for performing the method.

도 1은 본 발명에 의한 얼굴 검출 장치의 블럭도이다.1 is a block diagram of a face detection apparatus according to the present invention.

도 2a는 본 발명에 의한 얼굴 검출 방법을 설명하기 위한 플로우챠트이다.2A is a flowchart for explaining a face detection method according to the present invention.

도 2b는 도 2a에서 참조된 모델 영상 데이터베이스를 구성하는 방법을 설명하기 위한 플로우챠트이다.FIG. 2B is a flowchart for describing a method of configuring the model image database referenced in FIG. 2A.

도 3은 얼굴 영상 그룹화의 일예를 나타낸다.3 shows an example of face image grouping.

도 4는 가버 필터를 이용하여 평균 필터 반응값을 계산하는 방법을 설명하기 위한 도면이다.4 is a view for explaining a method of calculating an average filter response value using a Gabor filter.

도 5는 그물망 구조를 이용한 특징점 매칭을 위한 모델 영상의 훈련예를 나타낸다.5 shows an example of training a model image for feature point matching using a network structure.

도 6 (a)~(c)는 얼굴 검출에 대한 매칭예들을 나타낸다.6 (a) to 6 (c) show matching examples for face detection.

상기 과제를 이루기 위하여, 입력 영상에서 사람의 얼굴을 찾는 본 발명에 의한 얼굴 검출 방법은,In order to achieve the above object, the face detection method according to the present invention to find the face of the person in the input image,

(a) 얼굴을 찾는데 참조가 될 얼굴 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 단계 및 (b) 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용하여 입력 영상에서 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 단계를 구비하는 것을 특징으로 한다.(a) generating a model image database by grouping facial images to be referred to for finding a face; and (b) model image database from an input image using a network-type search region corresponding to a face size to be found. And detecting a face matched with.

상기 다른 과제를 이루기 위하여, 입력 영상에서 사람의 얼굴을 찾는 본 발명에 의한 얼굴 검출 장치는,In order to achieve the above another object, the face detection device according to the present invention to find a face of a person in the input image,

얼굴을 찾는데 참조가 될 얼굴 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 얼굴 영상 참조부 및 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용하여 입력 영상에서 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 얼굴 검출부를 구비하는 것을 특징으로 한다.A face image reference that generates a model image database by grouping face images to be referred to in finding a face, and a mesh-shaped search area corresponding to the size of the face to be searched are matched to the model image database in the input image. And a face detection unit for detecting a face.

이하, 본 발명에 의한 얼굴 검출 방법 및 그 장치를 첨부한 도면을 참조하여 다음과 같이 설명한다.Hereinafter, with reference to the accompanying drawings, a face detection method and apparatus according to the present invention will be described.

본 발명은 크게 두 부분으로 나눈다. 얼굴을 찾는데 참조가 될 얼굴 영상들 즉, 모델 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 훈련 부분과, 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용한 입력 영상과 훈련된 모델 영상 데이타베이스와의 매칭을 통해 얼굴 영상에서 얼굴을 검출하는 부분으로 구성된다.The present invention is divided into two parts. The training part for creating a model image database by grouping the face images, that is, the model images by features, to be referred to for finding a face, and the input image and the trained model image using a search area in the form of a mesh corresponding to the face size to be searched for. It consists of the part that detects the face in the face image through matching with the database.

도 1은 본 발명에 의한 얼굴 검출 장치의 블럭도로서, 그룹핑부(102), 제1 영상 필터(104), 모델 영상 데이타베이스(106)로 구성된 얼굴 영상 참조부와, 제2 영상 필터(112), 제1 탐색부(120) 및 제2 탐색부(130)로 구성된 얼굴 검출부로 구성된다.1 is a block diagram of a face detection apparatus according to the present invention, which includes a face image reference unit including a grouping unit 102, a first image filter 104, and a model image database 106, and a second image filter 112. ), A face detector including a first searcher 120 and a second searcher 130.

도 2a는 본 발명에 의한 얼굴 검출 방법을 설명하기 위한 플로우챠트이고, 도 2b는 도 2a에서 참조된 모델 영상 데이터베이스를 구성하는 방법을 설명하기 위한 플로우챠트이다.FIG. 2A is a flowchart for explaining a face detection method according to the present invention, and FIG. 2B is a flowchart for explaining a method for configuring a model image database referenced in FIG. 2A.

도 2a 및 도 2b를 참조하여 도 1에 도시된 장치의 동작을 살펴보면, 얼굴 영상 참조부에서 그룹핑부(102)는 모델 영상(100)을 입력하여 특징별로 그룹화한다(제208단계).Referring to FIGS. 2A and 2B, the operation of the apparatus illustrated in FIG. 1 will be described. In operation 208, the grouping unit 102 inputs a model image 100 and groups the features according to features (step 208).

모델 영상들은 배경, 얼굴을 왜곡하는 물리적 요소, 조명 등 얼굴 영상에 특징을 줄 수 있는 요소들을 고려하여 특징별로 각각 그룹으로 분류된다. 얼굴 인식과는 달리 배경 영상속에서 얼굴을 검출하는 것은 얼굴간의 변별력 보다는 얼굴과얼굴이 아닌 부분과의 변별력을 크게하는 방향으로 모델 영상 데이타베이스를 훈련시켜야 한다. 따라서, 참조가 될 얼굴 영상들을 특징별로 그룹화함으로써, 특징 공간(feature domain)을 투영했을 때 배경과 구별되는 사람의 얼굴을 하나의 특징 영역으로 본다면, 이 영역이 가지는 복잡성과, 다양한 변화의 폭에 대응할 수 있게 된다.The model images are classified into groups by features in consideration of elements that can characterize the face image, such as a background, a physical element that distorts the face, and an illumination. Unlike face recognition, detecting a face in a background image requires training a model image database in such a way as to distinguish between a face and a non-face part rather than a face-to-face discrimination. Therefore, by grouping face images to be referred to as features, if a face of a person distinguished from the background when projecting a feature domain is viewed as a feature region, the complexity of the region and the breadth of the change are different. It becomes possible to cope.

사용자에 의해 찾고자 하는 얼굴 크기에 대응하는 그물망 구조 즉, 그물망 형태의 탐색 영역이 선정된다(제210단계,제200단계). 즉, 그물망 구조를 구성하도록 특징점들이 선택된다. 그물망 구조는 얼굴내의 특징점들이 상호간에 위치적 제약(topographical constraints)을 가지는 구조이다. 제1 영상 필터(104)는 선정된 그물망 형태의 탐색 영역을 이용하여 그룹화된 얼굴 영상을 필터링한다(제212단계). 그물망 구조내의 각 특징점에 대해 각 그룹내의 얼굴 영상들에 대한 필터 반응값을 구하고, 그 평균 필터 반응값을 해당 특징점에 대한 대표값으로 출력한다.A network structure corresponding to the size of the face desired to be searched by the user, that is, a search area having a mesh shape, is selected (steps 210 and 200). That is, the feature points are selected to constitute the network structure. The network structure is a structure in which feature points in a face have topographical constraints on each other. The first image filter 104 filters the grouped face images using the selected search region having a mesh shape (operation 212). For each feature point in the network structure, a filter response value for the face images in each group is obtained, and the average filter response value is output as a representative value for the feature point.

그룹화된 얼굴 영상의 평균 필터 반응값은 투영된 특징 공간에서 얼굴 그룹들의 중심을 의미한다. 따라서, 중심에서의 거리와 임계치만을 가지고 용이하게 얼굴인지의 여부를 판별가능하게 되므로, 모든 모델들과 하나하나 비교해 가면서 얼굴인지의 여부를 판별하는 종래의 방법에 비해서 계산량이 적다. 또한, 모든 모델들과 비교하는 경우에 있을 수 있는 특별히 예외적인 특정 모델로 인한 오류의 가능성도 방지할 수 있다. 이러한 장점을 가진 얼굴 영상 그룹의 평균 필터 반응값은 다양한 얼굴 크기 변화에 대응하기 위해 여러 해상도로 훈련된다.The mean filter response of the grouped face images refers to the center of the face groups in the projected feature space. Therefore, it is possible to easily determine whether or not the face with only the distance from the center and the threshold value, compared with all the models one by one compared to the conventional method for determining whether or not the face is less. It also avoids the possibility of errors due to particular exceptional models that may be present when compared to all models. The average filter response of the face image group with this advantage is trained at various resolutions to cope with various face size changes.

모델 영상 데이타베이스(106)는 그룹핑부(102)에서 얻은 각 그룹을 대표하는 얼굴 영상들과, 이들에 대한 제1 영상 필터(104)에서 구해진 그룹화된 얼굴 영상의 평균 필터 반응값들을 저장한다(제214단계). 또한, 모델 영상 데이타베이스(106)는 다양한 얼굴 크기 변화에 대응하기 위해 여러 해상도로 훈련된 그룹화된 얼굴 영상의 평균 필터 반응값들을 저장한다. 생성될 모델 영상 데이타베이스는 이후 얼굴 검출시에 참조되며, 필요시에만 재훈련 또는 재생성하면 된다.The model image database 106 stores face images representing each group obtained by the grouping unit 102 and average filter response values of the grouped face images obtained by the first image filter 104 (see FIG. Step 214). The model image database 106 also stores average filter response values of grouped face images trained at different resolutions to respond to various face size variations. The model image database to be generated is then referred to for face detection and only needs to be retrained or regenerated if necessary.

얼굴 검출부에서, 제2 영상 필터(112)는 입력 영상(110)을 필터링한다(제202단계). 입력 영상 전체에 걸쳐 필터 반응값을 구한다. 제1 탐색부(120)는 그물망 구조를 이용하여 입력 영상(110)과 모델 영상 데이타베이스(106)와의 매칭을 수행한다(제204단계). 여기서, 그물망 구조는 제1 영상 필터(104)에서 그룹화된 얼굴 영상의 평균 필터 반응값들을 구하는데 이용된 탐색 영역이다.In the face detector, the second image filter 112 filters the input image 110 (operation 202). The filter response is calculated over the entire input image. The first search unit 120 performs matching between the input image 110 and the model image database 106 using a mesh structure (step 204). Here, the network structure is a search region used to obtain average filter response values of the face images grouped by the first image filter 104.

제1 탐색부(120)는 그물망 구조를 입력 영상(110) 전체에 걸쳐 스캔하면서, 그물망 구조내의 각 점의 필터 반응값과 모델 영상 데이타베이스(106)에 포함된 그룹화된 얼굴 영상에서의 대응하는 특징점의 평균 필터 반응값을 비교한다. 비교 결과, 입력 영상에서 모델 영상 데이타베이스에 매치되는 얼굴을 검출한다(제206단계). 또한, 제1 탐색부(120)는 입력 영상의 크기 및/또는 모델 영상 데이타베이스에서의 얼굴 영상 크기를 가변시킨 후, 전술한 매칭 과정을 수행한다. 또한, 그물망 구조는 가변 크기로 조정가능하다.The first search unit 120 scans the network structure over the entire input image 110, and corresponds to the filter response value of each point in the network structure and the grouped face images included in the model image database 106. Compare the average filter response of the feature points. As a result of the comparison, a face matching the model image database is detected from the input image (step 206). In addition, the first searcher 120 may change the size of the input image and / or the size of the face image in the model image database, and then perform the above-described matching process. In addition, the mesh structure is adjustable in variable size.

한편, 부가적으로 제2 탐색부(130)가 포함될 수 있다. 제1 탐색부(120)에서 검출된 얼굴들을 얼굴 후보 영역으로 하고, 제2 탐색부(130)에서 보다 정밀하게 얼굴을 검출한다. 즉, 제2 탐색부(130)는 얼굴 후보 영역에서 얼굴임을 확인할 수 있는 정확한 특징점을 추출한다.Meanwhile, the second search unit 130 may additionally be included. The faces detected by the first searcher 120 are used as face candidate areas, and the second searcher 130 detects faces more precisely. That is, the second search unit 130 extracts an accurate feature point that can identify the face in the face candidate region.

이제, 본 발명에 의한 얼굴 검출 방법 및 그 장치를 적용한 얼굴 검출 실험예를 살펴본다.Now, a face detection method according to the present invention and a face detection experiment to which the apparatus is applied will be described.

도 3은 얼굴 영상 그룹화의 일예를 나타낸다.3 shows an example of face image grouping.

본 발명의 성능 검증을 위한 실험에서 도 3에 도시된 바와 같이 모델 영상들을 단순 배경, 역광, 순광, 안경착용 여부, 눈 영역 영상의 왜곡 여부의 5개 그룹으로 나누었다. 또한, 전체 영상에 대한 평균까지 총 6개 그룹으로 나누고, 각 그룹의 평균 필터 반응값을 2개의 해상도(scale)로 훈련하였다.In the experiment for verifying the performance of the present invention, as shown in FIG. 3, the model images were divided into five groups of simple background, backlight, daylight, glasses wearing, and distortion of the eye region image. In addition, the average of the overall image was divided into a total of six groups, and the average filter response values of each group were trained at two scales.

도 4는 가버 필터를 이용하여 평균 필터 반응값을 계산하는 방법을 설명하기 위한 도면이다.4 is a view for explaining a method of calculating an average filter response value using a Gabor filter.

실험에서 가버 웨이브렛(Gabor wavelet)을 갖는 가버 필터(Gabor filter)가 이용되었다. 도 4를 살펴보면, 모델 영상에서 얼굴을 나타내는 특징을 포함한 영역에 탐색 영역인 그물망 구조(402)가 위치되어 있다. 그물망 구조의 각 점에 대해 가버 필터(410,412,...,414)를 통해 각 그룹내의 얼굴 영상들(400,402,...,404)에 대한 필터 반응값들(420,422,...424)이 구해진다. 다음에, 그 평균 필터 반응값(430)이 구해져 그물망 구조의 해당 점에 대한 대표값이 된다.In the experiment, a Gabor filter with a Gabor wavelet was used. Referring to FIG. 4, a network structure 402, which is a search region, is located in an area including a feature representing a face in a model image. For each point in the network structure, filter response values 420, 422, ... 424 for face images 400, 402, ..., 404 in each group are obtained through Gabor filters 410, 412, ..., 414. Is saved. Next, the average filter response value 430 is obtained and becomes a representative value for the corresponding point of the network structure.

도 5는 그물망 구조를 이용한 특징점 매칭을 위한 모델 영상의 훈련예를 나타낸다.5 shows an example of training a model image for feature point matching using a network structure.

도 5에서 500은 보통(평균) 크기의 얼굴 영상을 나타내고, 502는 1/2 크기로축소된 얼굴 영상을 나타낸다. 즉, 직사각형 모양의 그물망 구조를 2개의 해상도로에 적용하여 훈련하였다. 훈련 과정에서 사용된 그물망 구조는 입력 영상에도 같은 모양으로 적용되어 다양한 크기에 대응하게 된다. 도 5에서 처럼, 2개의 해상도를 가지도록 훈련될 경우에, 훈련시 사용되는 얼굴 영상의 평균 크기를 M이라 하면, 대략 M/2 ~ 2*M 크기 범위내의 얼굴을 검출할 수 있다.In FIG. 5, 500 represents a normal (average) sized face image, and 502 represents a face image reduced to 1/2 size. That is, we trained by applying a rectangular mesh structure to two resolutions. The network structure used in the training process is applied to the input image in the same shape to correspond to various sizes. As illustrated in FIG. 5, when training to have two resolutions, if the average size of a face image used in training is M, a face within an M / 2 to 2 * M size range may be detected.

도 6 (a)~(c)는 얼굴 검출에 대한 매칭예들을 나타낸다.6 (a) to 6 (c) show matching examples for face detection.

도 6 (a) 및 도 6 (b)는 입력 영상에 포함된 다양한 크기의 얼굴이 모델 영상 데이타베이스와 어떻게 매칭되는가를 보여준다. 도 6 (a)은 입력 영상에서의 얼굴(600)이 평균 크기를 가질 때 얼굴 검출에 대한 매칭예이다. 입력 영상(600)에서 얼굴이 평균 크기이면, 평균 크기의 모델 영상(500)과 매칭되고, 또한 도 6 (a)에서와 같이 1/2로 줄인 입력 영상(602)이 1/2 크기 모델 영상(502)과 매칭된다. 한편, 도 6 (b)은 입력 영상에서의 얼굴(610)이 큰 크기(2*평균)를 가질 때 얼굴 검출에 대한 매칭예이다. 입력 영상(610)에서 얼굴이 큰 크기이면, 1/2로 줄인 입력 영상이 보통 크기 모델 영상(500)과 매칭된다.6 (a) and 6 (b) show how faces of various sizes included in the input image match the model image database. 6A illustrates an example of face detection when the face 600 in the input image has an average size. If the face is the average size in the input image 600, the input image 602 that matches the model image 500 of the average size and is reduced to 1/2 as shown in FIG. Match 502. 6 (b) is a matching example for face detection when the face 610 in the input image has a large size (2 * average). If the face is large in the input image 610, the input image reduced by 1/2 is matched with the normal size model image 500.

도 6 (c)는 실제 입력 영상에서 그물망 구조의 크기가 어떻게 변화되어 적용될 수 있는가를 보여준다. 검은 점들은 입력 영상에서 필터 반응값이 계산되어지는 점들이고, 하얀 점은 다양한 크기에 각각 해당하는 직사각형 모양의 그물망 구조를 나타낸다. 도 6 (c)에서와 같이 입력 영상의 크기를 줄이거나 늘리지 않고, 그물망 구조의 크기를 가변시켜 모델 영상 데이타베이스와 매칭시킬 수 있다.6 (c) shows how the size of the network structure can be changed and applied to the actual input image. The black dots are the points from which the filter response values are calculated in the input image, and the white dots represent rectangular network structures of various sizes. As shown in FIG. 6C, the size of the network structure may be changed to match the model image database without reducing or increasing the size of the input image.

전술한 과정에 따라 실제 사무실 환경(복잡한 조명 및 배경)하에서 획득한실험 영상에 대한 결과는 다음과 같다. 비교예로 든 종래의 제1 방법인 번치 그래프 매칭법(Bunch Graph Matching)은 얼굴 검출률이 76%이었고, 제2 방법인 독립 모델 데이타베이스를 갖는 격자 매칭법은 얼굴 검출률이 91%이었다. 반면, 본 발명은 얼굴 검출률이 96%로 가장 좋은 성능을 나타냈다.According to the above-described process, the results of the experimental images acquired in the real office environment (complex lighting and background) are as follows. The conventional first method, Bunch Graph Matching, as a comparative example, had a face detection rate of 76%, and the second method, a lattice matching method with an independent model database, had a face detection rate of 91%. On the other hand, the present invention showed the best performance with a face detection rate of 96%.

실험 결과, 본 발명은 번치 그래프 매칭법에 비해 유지해야 할 모델 영상 데이타베이스의 크기가 작고, 매칭시 필요한 계산량을 줄여주며, 단일 필터 평균값을 이용하는 격자 매칭법에 비해 신뢰성 있는 얼굴 검출을 실현하였다. 그물망 구조를 이용하여 매칭을 시도하는 본 발명의 방법은 여러 점들을 독립적으로 추출해 그래프를 구성하는 번치 그래프 매칭법에서 한 두개의 특징점을 잘못 찾았을 경우에 발생되는 오검출의 문제를 극복하며, 다중 해상도를 적용하는 다른 방법들에 비해 비교적 적은 계산량으로 동일한 해상도 범위의 탐색을 가능케 하였다.As a result of the experiment, the present invention has a smaller size of the model image database to be maintained compared to the batch graph matching method, reduces the amount of computation required for matching, and realizes more reliable face detection than the lattice matching method using a single filter mean value. The method of the present invention, which attempts to match using a network structure, overcomes the problem of misdetection that occurs when one or two feature points are incorrectly found in a bunch graph matching method that independently extracts several points and constructs a graph. Compared to other methods of applying the resolution, the same resolution range can be searched with a relatively small amount of computation.

이상에서 설명한 바와 같이, 본 발명에 의한 얼굴 검출 방법 및 그 장치는, 첫째, 매칭시에 소요되는 계산량이 번치 그래프 매칭법이나 개별 매칭법에 비해 현저히 적고, 각 특징점에 대한 매칭 작업시 최대 (얼굴 영상 그룹의 수/번치내의 특징 모델의 수)만큼의 계산량을 감소시킨다.As described above, in the face detection method and apparatus according to the present invention, first, the amount of calculation required during matching is significantly smaller than that of the bunch graph matching method or the individual matching method, and the maximum (face The computation amount by the number of feature groups in the number / number of image groups).

둘째, 특징점 상호간의 위치적 제약을 가지는 그물망 형태의 탐색 영역을 이용한 매칭을 통해 특징점을 개별적으로 찾는 방법에 비해 신뢰성을 높이고, 단순 평균값이 아닌 그룹화된 모델 얼굴 영상들에 대한 각 그룹별 평균 반응값을 사용함으로써 얼굴 검출 성능을 향상시킨다.Second, compared with the method of finding the feature points individually through matching using a network-type search area with positional constraints among the feature points, it improves the reliability and average response value of each group for the grouped model face images rather than a simple average value. By using it, face detection performance is improved.

세번째, 그룹에 대한 평균값만을 가지고 모델 데이타베이스를 구성하므로, 번치 그래프 매칭법이나 개별 매칭법에서의 데이타베이스에 비해 현저히 작은 크기의 특징 모델 데이타베이스를 유지하면 된다.Third, since we construct a model database with only mean values for groups, we need to maintain a feature model database that is significantly smaller than the database for bunch graph matching or individual matching.

네번째, 다양한 크기의 그물망 구조를 적용하여 모델 데이타베이스를 훈련시키고, 매칭에 적용함으로써 얼굴의 크기 변화에 유연하게 대응한다.Fourth, the model database is trained by applying network structures of various sizes and applied to matching to flexibly respond to face size changes.

Claims (10)

입력 영상에서 사람의 얼굴을 찾는 얼굴 검출 방법에 있어서,In the face detection method for finding a human face in the input image, (a) 얼굴을 찾는데 참조가 될 얼굴 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 단계; 및(a) generating a model image database by grouping facial images to be referred to for finding a face by feature; And (b) 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용하여 입력 영상에서 상기 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 단계를 구비하는 것을 특징으로 하는 얼굴 검출 방법.and (b) detecting a face matched with the model image database from an input image by using a network-type search region corresponding to a face size to be searched for. 제1항에 있어서, 상기 (a) 단계는,According to claim 1, wherein the step (a), (a1) 얼굴 영상들을 특징별로 그룹화하는 단계;(a1) grouping facial images by features; (a2) 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 정하는 단계;(a2) determining a search area having a mesh shape corresponding to a face size to be searched for; (a3) 탐색 영역내의 각 특징점에 대해 그룹별로 각 그룹내의 얼굴 영상들에 대한 필터 반응값들을 구하고, 그 평균 필터 반응값을 해당 특징점에 대한 대표값으로 구하는 단계; 및(a3) obtaining filter response values for the face images in each group for each feature point in the search region, and obtaining the average filter response value as a representative value for the feature point; And (a4) 탐색 영역에 대한 그룹화된 얼굴 영상의 평균 필터 반응값들로 모델 영상 데이타베이스를 구성하는 단계를 구비하는 것을 특징으로 하는 얼굴 검출 방법.and (a4) constructing a model image database with average filter response values of the grouped face images for the search region. 제2항에 있어서, 상기 (a) 단계는,The method of claim 2, wherein step (a) comprises: (a5) 얼굴 영상의 평균 필터 반응값이 다양한 얼굴 크기에 대응하도록 상기 얼굴 영상을 다양한 해상도로 변화시켜 상기 모델 영상 데이타베이스를 트레이닝하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 검출 방법.(a5) training the model image database by changing the face image at various resolutions so that an average filter response value of the face image corresponds to various face sizes. 제1항에 있어서, 상기 (b) 단계는,According to claim 1, wherein step (b), (b1) 입력 영상 전체에 걸쳐 필터 반응값들을 구하는 단계;(b1) obtaining filter response values over the entire input image; (b2) 상기 (a) 단계에서 그룹화된 얼굴 영상의 평균 필터 반응값들을 구하는데 이용된 그물망 형태의 탐색 영역을 확인하는 단계;(b2) identifying a network type search area used to obtain average filter response values of the face images grouped in step (a); (b3) 상기 탐색 영역을 입력 영상 전체에 걸쳐 스캔하면서, 탐색 영역내의 각 점의 필터 반응값과 상기 모델 영상 데이타베이스에 포함된 그룹화된 얼굴 영상에서의 대응하는 특징점의 평균 필터 반응값과 비교하는 단계; 및(b3) comparing the filter response value of each point in the search region with the average filter response value of the corresponding feature points in the grouped face images included in the model image database while scanning the search region over the entire input image. step; And (b4) 비교 결과, 입력 영상에서 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 단계를 구비하는 것을 특징으로 하는 얼굴 검출 방법.and (b4) detecting a face matching the model image database from the input image as a result of the comparison. 제4항에 있어서, 상기 (b3) 단계는,The method of claim 4, wherein step (b3), 상기 입력 영상의 크기 및/또는 상기 모델 영상 데이타베이스에서의 얼굴 영상 크기를 가변시킨 후 수행되는 것을 특징으로 하는 얼굴 검출 방법.And changing the size of the input image and / or the size of a face image in the model image database. 제4항에 있어서, 상기 그물망 형태의 탐색 영역은,The method of claim 4, wherein the mesh-shaped search area, 가변 크기로 조정가능한 것을 특징으로 하는 얼굴 검출 방법.Face detection method characterized in that it is adjustable to a variable size. 입력 영상에서 사람의 얼굴을 찾는 얼굴 검출 장치에 있어서,In the face detection device for finding a face of a person in the input image, 얼굴을 찾는데 참조가 될 얼굴 영상들을 특징별로 그룹화하여 모델 영상 데이타베이스를 생성하는 얼굴 영상 참조부; 및A face image reference unit for generating a model image database by grouping face images to be referred to for finding a face by feature; And 찾고자 하는 얼굴 크기에 대응하는 그물망 형태의 탐색 영역을 이용하여 입력 영상에서 모델 영상 데이타베이스에 매치되는 얼굴을 검출하는 얼굴 검출부를 구비하는 것을 특징으로 하는 얼굴 검출 장치.And a face detector which detects a face matching the model image database from the input image by using a mesh-shaped search region corresponding to the face size to be searched for. 제7항에 있어서, 상기 얼굴 영상 참조부는,The apparatus of claim 7, wherein the face image reference unit comprises: 얼굴 영상들을 특징별로 그룹화하여 출력하는 그룹핑부;A grouping unit which groups and outputs face images according to features; 상기 탐색 영역을 이용하여 탐색 영역내의 각 특징점에 대해 각 그룹내의 얼굴 영상들에 대한 필터 반응값을 구하고, 그 평균 필터 반응값을 해당 특징점에 대한 대표값으로 출력하는 영상 필터부; 및An image filter unit for obtaining a filter response value of the face images in each group for each feature point in the search area using the search area, and outputting the average filter response value as a representative value for the feature point; And 각 그룹을 대표하는 얼굴 영상과, 그에 대한 상기 영상 필터부에서 구해진 평균 필터 반응값들을 저장한 모델 영상 데이타베이스를 구비하는 것을 특징으로하는 얼굴 검출 장치.And a model image database storing a face image representing each group and average filter response values obtained by the image filter unit. 제8항에 있어서, 상기 얼굴 검출부는,The method of claim 8, wherein the face detection unit, 입력 영상 전체에 걸쳐 필터 반응값을 구하는 영상 필터;An image filter obtaining a filter response value over the entire input image; 상기 탐색 영역을 입력 영상 전체에 걸쳐 스캔하면서, 탐색 영역내의 각 점의 필터 반응값과 상기 모델 영상 데이타베이스의 얼굴 영상에서의 대응하는 특징점의 평균 필터 반응값을 비교하여 입력 영상에서 얼굴 후보 영역을 검출하는 제1 탐색부; 및While scanning the search region over the entire input image, the face candidate region in the input image is compared by comparing the filter response value of each point in the search region with the average filter response value of the corresponding feature point in the face image of the model image database. A first search unit for detecting; And 상기 얼굴 후보 영역에서 얼굴을 나타내는 특징점을 검출하는 제2 탐색부를 구비하는 것을 특징으로 하는 얼굴 검출 장치.And a second search unit for detecting a feature point representing a face in the face candidate region. 제7항에 있어서, 상기 그물망 형태의 탐색 영역은,The method of claim 7, wherein the search area in the form of a mesh, 가변 크기로 조정가능한 것을 특징으로 하는 얼굴 검출 장치.Face detection apparatus, characterized in that adjustable to a variable size.
KR1019990044297A 1999-10-13 1999-10-13 Method and apparatus for face detection using classified face images and net type search area KR100338807B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990044297A KR100338807B1 (en) 1999-10-13 1999-10-13 Method and apparatus for face detection using classified face images and net type search area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990044297A KR100338807B1 (en) 1999-10-13 1999-10-13 Method and apparatus for face detection using classified face images and net type search area

Publications (2)

Publication Number Publication Date
KR20010037022A KR20010037022A (en) 2001-05-07
KR100338807B1 true KR100338807B1 (en) 2002-05-31

Family

ID=19615165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990044297A KR100338807B1 (en) 1999-10-13 1999-10-13 Method and apparatus for face detection using classified face images and net type search area

Country Status (1)

Country Link
KR (1) KR100338807B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012033776A2 (en) * 2010-09-06 2012-03-15 Datewithbait.Com Llc Computerized face photograph-based dating recommendation system
US8812519B1 (en) 2010-09-06 2014-08-19 Jonathan Binnings Bent Face photograph-based dating recommendation system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054824A (en) * 2000-06-27 2000-09-05 이성환 System for Searching Ideal Partners Using Face Image and Controlling Method
CN110705695B (en) * 2019-10-10 2022-11-18 北京百度网讯科技有限公司 Method, device, equipment and storage medium for searching model structure

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315137A (en) * 1995-05-23 1996-11-29 Nec Corp Feature point extracting method for face image using pattern recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315137A (en) * 1995-05-23 1996-11-29 Nec Corp Feature point extracting method for face image using pattern recognition

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012033776A2 (en) * 2010-09-06 2012-03-15 Datewithbait.Com Llc Computerized face photograph-based dating recommendation system
WO2012033776A3 (en) * 2010-09-06 2012-06-14 Datewithbait.Com Llc Computerized face photograph-based dating recommendation system
US8812519B1 (en) 2010-09-06 2014-08-19 Jonathan Binnings Bent Face photograph-based dating recommendation system

Also Published As

Publication number Publication date
KR20010037022A (en) 2001-05-07

Similar Documents

Publication Publication Date Title
Dua et al. Biometric iris recognition using radial basis function neural network
Rowley et al. Human face detection in visual scenes
US7912253B2 (en) Object recognition method and apparatus therefor
JP5010905B2 (en) Face recognition device
Rowley et al. Neural network-based face detection
JP4863423B2 (en) IDENTIFICATION SYSTEM AND METHOD USING IRIS AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING IDENTIFICATION PROGRAM FOR PERFORMING THE METHOD
KR100453943B1 (en) Iris image processing recognizing method and system for personal identification
KR20050025927A (en) The pupil detection method and shape descriptor extraction method for a iris recognition, iris feature extraction apparatus and method, and iris recognition system and method using its
De Vel et al. Line-based face recognition under varying pose
Lu et al. A survey of face detection, extraction and recognition
JP2000512047A (en) Biometric recognition using neural network classification
IL153925A (en) System and method for automatically detecting neutral expressionless faces in digital images
KR20140067604A (en) Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition
JP7151875B2 (en) Image processing device, image processing method, and program
KR20020022295A (en) Device And Method For Face Recognition Using 3 Dimensional Shape Information
El-Naggar et al. Which dataset is this iris image from?
KR100338807B1 (en) Method and apparatus for face detection using classified face images and net type search area
El-Sayed et al. An identification system using eye detection based on wavelets and neural networks
Alirezaee et al. An efficient algorithm for face localization
Buchala et al. The role of global and feature based information in gender classification of faces: a comparison of human performance and computational models
Goranin et al. Evolutionary Algorithms Application Analysis in Biometric Systems.
Guo et al. Human face recognition using a spatially weighted Hausdorff distance
Lucey et al. Improved facial-feature detection for AVSP via unsupervised clustering and discriminant analysis
Pacut et al. Iris biometrics for secure remote access
Kith et al. A feature and appearance based method for eye detection on gray intensity face images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130422

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140424

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20150422

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20160422

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20180423

Year of fee payment: 17

FPAY Annual fee payment

Payment date: 20190418

Year of fee payment: 18