KR100950138B1 - A method for detecting the pupils in a face image - Google Patents

A method for detecting the pupils in a face image Download PDF

Info

Publication number
KR100950138B1
KR100950138B1 KR1020090075731A KR20090075731A KR100950138B1 KR 100950138 B1 KR100950138 B1 KR 100950138B1 KR 1020090075731 A KR1020090075731 A KR 1020090075731A KR 20090075731 A KR20090075731 A KR 20090075731A KR 100950138 B1 KR100950138 B1 KR 100950138B1
Authority
KR
South Korea
Prior art keywords
pupil
mask
candidate
image
brightness value
Prior art date
Application number
KR1020090075731A
Other languages
Korean (ko)
Inventor
구은경
Original Assignee
퍼스텍주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퍼스텍주식회사 filed Critical 퍼스텍주식회사
Priority to KR1020090075731A priority Critical patent/KR100950138B1/en
Application granted granted Critical
Publication of KR100950138B1 publication Critical patent/KR100950138B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A method for detecting a pupil in a facial image is provided to promptly detect an eye through a mobile terminal. CONSTITUTION: An eye extraction range is set up in an inputted facial image, and the start position of pupil detection is determined in the facial image(102). A first template consisting of first and second masks is applied to an eye extraction range. Based on the difference between the brightness value in the region covered by a second mask and the brightness value of the region converted by a first mask, pupil candidate groups are detected(103). Among the candidate groups, the final pupil candidate group is determined based on the difference between the brightness values of inner and outer portions in a radius of pupil.

Description

얼굴 이미지에서의 눈동자 검출 방법{A METHOD FOR DETECTING THE PUPILS IN A FACE IMAGE}A METHOD FOR DETECTING THE PUPILS IN A FACE IMAGE}

본 발명은 얼굴 이미지 파일에서 얼굴형상을 추출하는 방법에 관한 것으로, 보다 구체적으로는, 얼굴 이미지에서 눈동자를 검출하는 방법으로서 모바일 기기 등에서도 눈동자 검출을 신속하고 효과적으로 행할 수 있도록 하는 검출 방법에 관한 것이다. The present invention relates to a method of extracting a face shape from a face image file. More particularly, the present invention relates to a method of detecting a pupil from a face image, and more particularly, to a detection method capable of quickly and effectively detecting a pupil even in a mobile device. .

종래부터 얼굴을 촬영한 이미지 파일로부터 얼굴형상을 인식하고 검출하는 기술이 널리 알려져 있고, 이러한 얼굴형상 인식기술은 신원 증명 등의 보안관련 분야, 얼굴 합성, 2세 예측 등의 엔터테인먼트 분야 등에서 응용되어 왔다. Background Art Conventionally, a technique for recognizing and detecting a face shape from a face image file has been widely known, and the face shape recognition technology has been applied in security-related fields such as identity verification, entertainment fields such as face synthesis, and second generation prediction. .

특히 엔터테인먼트 분야에서는, 예컨대 2개의 얼굴 이미지로부터 검출된 각각의 얼굴 형상을 합성하여 보여주거나(얼굴 합성), 카메라로 촬영된 인물 사진에 메이크업이나 헤어, 의상 등을 변화시켜 색다른 모습으로 꾸미거나(얼굴 꾸미기), 또는 연인의 사진을 합성하여 2세 모습을 예측하는 것(2세 예측) 등으로 다양하게 활용됨으로써 이용자들에게 기대와 호기심을 유발하는 새로운 흥미요소로 자리하고 있다. Particularly in the entertainment field, for example, each face shape detected from two face images is synthesized and displayed (face synthesis), or a makeup, hair, clothes, etc. are changed in a portrait photographed by a camera, and a different look is made (face). Decorating), or by combining photos of lovers and predicting the appearance of 2 years old (predicting 2 years old), etc., has become a new element of interest that induces expectations and curiosity for users.

이러한 얼굴 형상 추출방법은, 기술적으로는, 일단 얼굴 특징점을 검출하는 것이 우선이고, 그 다음 단계에서 얼굴합성, 얼굴 꾸미기 또는 2세 예측 등의 응용작업이 수행된다. In such a face shape extraction method, technically, the facial feature point is first detected first, and in the next step, application work such as face synthesis, face decoration, or second generation prediction is performed.

얼굴 특징점 검출은 얼굴을 구성하는 눈, 코, 입과 같은 주요 특징부를 검출하는 것으로, 얼굴 합성, 얼굴 꾸미기 등의 후속 작업을 위해 가장 기본이 되는 기술이다. 도1은 얼굴 특징점 검출을 위한 수행단계를 간단히 나타내고 있다. Facial feature point detection detects key features such as eyes, nose and mouth constituting the face, and is the most basic technique for subsequent operations such as face synthesis and face decoration. Fig. 1 simply shows an operation step for face feature point detection.

우선, 얼굴 검출의 대상이 되는 얼굴 이미지 파일을 퍼스널 컴퓨터 또는 얼굴검출 전용 장치 등의 디바이스로 입력한다(단계10). 그 후, 입력된 이미지로부터 기본 특징점을 추출한다(단계20). 기본 특징점이란 모든 특징점의 기준이 되는 것으로, 예컨대 눈동자와 입술 중앙부가 될 수 있다. 기본 특징점이 추출되면, 이 정보를 기초로 전체 특징점을 구한다(단계30). 전체 특징점은 예컨대 눈썹, 눈꺼풀, 코, 입술, 턱선 등이 될 수 있다. 이와 같이 얼굴 이미지로부터 얼굴 특징점을 검출하게 되며, 그 후 검출된 특징점들을 사용하여 얼굴합성, 얼굴 꾸미기, 2세 예측 등과 같은 응용처리를 수행한다. First, a face image file that is a face detection target is input to a device such as a personal computer or a face detection device (step 10). Thereafter, basic feature points are extracted from the input image (step 20). The basic feature point is a standard for all the feature points, and may be, for example, the center of the eyes and the lips. Once the basic feature point is extracted, the entire feature point is obtained based on this information (step 30). Global feature points can be, for example, eyebrows, eyelids, nose, lips, jawline and the like. In this way, the facial feature points are detected from the face image, and then application processes such as face synthesis, face decoration, and second generation prediction are performed using the detected feature points.

최근 휴대전화 등의 모바일 기기가 보편화하면서 휴대전화에 내장된 카메라로 사진촬영, 저장, 및 편집을 행하는 기술도 점차 발달함에 따라 얼굴 사진을 이용하여 얼굴 합성, 변형, 꾸미기 등의 작업을 휴대전화 상에서도 바로 수행할 수 있는 기술이 나오고 있다. Recently, as mobile devices such as mobile phones are becoming more common, technology for taking, storing, and editing pictures with a camera embedded in a mobile phone is gradually developed. Therefore, face synthesis, transformation, and decoration can be performed on a mobile phone using face pictures. There is a technology out there that can do it right away.

그런데 휴대전화 등의 모바일 기기에 내장된 프로세서의 성능은 일반적인 얼굴검출 전용 디바이스나 데스크탑 컴퓨터 내에 탑재된 프로세서와는 현저히 차이가 나기 때문에, 기존의 얼굴 검출 방법을 그대로 모바일 기기에 적용할 수는 없었다. 더욱이 언급하였듯이 얼굴 검출에 있어서 기본 특징점이 신속하고 정확하게 검출되어야만 다른 특징점도 정확히 검출될 수 있으므로 기본 특징점 추출을 빠르고 정확히 행하는 것이 중요하다. However, since the performance of a processor embedded in a mobile device such as a cellular phone is remarkably different from a processor installed in a general face detection device or a desktop computer, the existing face detection method cannot be applied to a mobile device as it is. Furthermore, as mentioned above, it is important to perform basic feature point extraction quickly and accurately since the basic feature points must be detected quickly and accurately in face detection.

따라서 예컨대 눈동자와 같은 기본 특징점을 정확히 검출할 수 있고 또한 모바일 기기상에서도 신속하고 원활하게 동작할 수 있는 신규한 얼굴 검출 방법이 요구된다. Therefore, there is a need for a novel face detection method capable of accurately detecting basic feature points such as, for example, pupils, and capable of quickly and smoothly operating on a mobile device.

상기와 같은 목적을 달성하기 위하여 본 발명에서는, 얼굴 이미지에서 눈동자를 검출하는 방법에 있어서, In the present invention to achieve the above object, in the method for detecting the pupil in the face image,

입력된 얼굴 이미지 중에서 눈동자를 검출할 범위(눈 추출범위)를 설정하고 얼굴 이미지 상에서 눈동자 검출의 시작위치를 결정하는 단계;Setting a range (eye extraction range) to detect pupils from the input face images and determining a start position of pupil detection on the face image;

제1 마스크 및 제2 마스크로 이루어진 제1 템플릿을 상기 눈 추출범위에 적용하여, 상기 눈 추출범위 중 제1 마스크에 의해 커버되는 영역의 밝기값 및 제2 마스크에 의해 커버되는 영역의 밝기값의 차이에 기초하여 눈동자 후보군을 검출하는 단계; 및 By applying a first template consisting of a first mask and a second mask to the eye extraction range, the brightness value of the area covered by the first mask of the eye extraction range and the brightness value of the area covered by the second mask Detecting a pupil candidate group based on the difference; And

상기 눈동자 후보군 중에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값의 차이에 기초하여 최종 눈동자 후보를 결정하는 단계;를 포함하는 것을 특징으로 하는 눈동자 검출 방법을 제공한다. From the pupil candidate group, determining the final pupil candidate based on the difference between the brightness value inside the pupil radius and the outside brightness value; provides a pupil detection method comprising a.

이상과 같은 눈동자 디텍팅 방법에 의해, 얼굴 이미지에서의 눈동자 위치 및 크기를 정확히 검출할 수 있고 또한 모바일 기기상에서도 눈동자 디텍팅을 신속하고 효율적으로 수행함으로써, 얼굴의 전체 특징점 검출 및 더 나아가 얼굴 합성, 얼굴꾸미기 등의 각종 응용작업을 보다 신속하게 수행할 수 있는 작용효과를 갖게 된다. By the above-described eye detection method, it is possible to accurately detect the position and size of the pupil in the face image and perform the eye detection quickly and efficiently on a mobile device, thereby detecting the entire feature point of the face and furthermore the face synthesis, It will have an effect that can perform a variety of applications such as face decorating more quickly.

상기 목적 달성을 위해 본 발명은 얼굴 이미지에서 눈동자를 검출하는 방법에 있어서, 입력된 얼굴 이미지 중에서 눈동자를 검출할 범위(눈 추출범위)를 설정하고, 얼굴 이미지 상에서 눈동자 검출의 시작위치를 결정하는 단계; 제1 마스크 및 제2 마스크로 이루어진 제1 템플릿을 상기 눈 추출범위에 적용하여, 상기 눈 추출범위 중 제1 마스크에 의해 커버되는 영역의 밝기값 및 제2 마스크에 의해 커버되는 영역의 밝기값의 차이에 기초하여 눈동자 후보군을 검출하는 단계; 및 상기 눈동자 후보군 중에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값의 차이에 기초하여 최종 눈동자 후보를 결정하는 단계;를 포함하는 것을 특징으로 하는 눈동자 검출 방법을 개시한다. In order to achieve the above object, the present invention provides a method for detecting a pupil in a face image, the method comprising: setting a range (eye extraction range) to detect a pupil from an input face image, and determining a start position of pupil detection on the face image; ; By applying a first template consisting of a first mask and a second mask to the eye extraction range, the brightness value of the area covered by the first mask of the eye extraction range and the brightness value of the area covered by the second mask Detecting a pupil candidate group based on the difference; And determining a final pupil candidate among the pupil candidate groups based on a difference between a brightness value inside a pupil radius and an outside brightness value.

이하에서 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도2는 도1의 기본 특징점 검출(20)에 대응되는 단계로서, 특히 얼굴 특징점 중 눈동자 위치를 검출하는 단계의 일 실시예를 나타내는 순서도이다. FIG. 2 is a flowchart corresponding to the basic feature point detection 20 of FIG. 1, and in particular, a flowchart illustrating an embodiment of detecting a pupil position among facial feature points.

처음 단계(101)에서 얼굴 이미지를 입력받고 디텍팅에 적합하도록 초기화 작업을 행한다. 그 후 이미지상의 어느 위치에서 눈동자 디텍팅을 수행할지를 판단하기 위해, 디텍팅 시작위치를 결정하고(102), 결정된 시작위치에서부터 일정 범위내의 모든 픽셀을 검사하여 눈동자 후보군을 만들고(103), 그 후 눈동자 후보군 중에서 최종 후보를 결정하고(104), 보정 및 재검출 작업을 통해 눈동자 검출을 완료(105)하게 된다. 다만, 일 실시예에 의할 경우 도9에서와 같은 재보정 작업을 추가로 거칠 수 있으며 이를 통해 보다 정교한 눈동자 검출작업을 수행할 수 있다.In step 101, a face image is input and an initialization operation is performed to be suitable for detecting. Then, in order to determine at which position on the image the pupil detection is to be performed, a detection starting position is determined (102), and all pupils within a range are examined from the determined starting position to create a pupil candidate group (103). A final candidate is determined from the pupil candidate group (104), and the pupil detection is completed (105) through correction and redetection operations. However, according to an embodiment, the recalibration operation as shown in FIG. 9 may be additionally roughened, and thus, more precise eye detection may be performed.

도3은 도2의 이미지 준비단계(101)의 일 실시예를 나타낸다. 3 shows an embodiment of the image preparation step 101 of FIG.

본 발명에 따른 눈동자 검출을 위해, 본 발명의 눈동자 검출 방법을 구현한 프로그램이 설치된 디바이스(예컨대, 휴대폰, 데스크탑, 또는 전용 검출장치 등)로 얼굴 이미지를 입력받아 디텍팅에 적합하도록 초기화 작업을 행한다. In order to detect pupils according to the present invention, a face image is input to a device (for example, a mobile phone, a desktop, or a dedicated detection device) on which a program implementing the pupil detection method of the present invention is installed, and an initialization operation is performed to be suitable for detecting. .

입력되는 이미지는 JPG 등 공지된 파일형식의 이미지 파일이 될 수 있다. 입력 이미지의 크기나 해상도가 이미지마다 상이할 수 있지만, 도시된 본 발명의 바람직한 실시예에서는 가로×세로가 200×300 픽셀 크기의 이미지를 사용하며, 따라서 입력 이미지가 이 크기와 다를 경우 이미지 크기를 상기 크기로 변환한다. The input image may be an image file of a known file format such as JPG. Although the size or resolution of the input image may differ from image to image, the preferred embodiment of the present invention shown uses a 200 × 300 pixel image in width x height, so if the input image is different from this size, Convert to this size.

눈동자 검출을 하려면 전체 얼굴 이미지 중 눈동자가 위치할 것으로 예상되는 일부 영역에 대해서만 눈동자 검출작업을 행하면 되는데, 본 발명의 실시예에서는 도 3(a)에 도시된 것처럼 200×300 픽셀 이미지에서 좌상단 모서리의 (w,h)를 (0,0)으로 설정했을 때 (w,h) = (0.1, 0.27)되는 지점 및 (0.4, 0.6) 되는 지점을 모서리로 하는 사각형을 오른쪽 눈동자 검출을 위한 눈 추출범위로, 그리고 (0.6, 0.27), (0.9, 0.6) 되는 지점을 모서리로 하는 사각형을 왼쪽 눈동자 검출을 위한 눈 추출범위로 설정해 놓는다. In order to detect the pupil, the pupil detection operation may be performed on only a part of the entire face image where the pupil is expected to be located. In the embodiment of the present invention, as shown in FIG. When (w, h) is set to (0,0), a rectangle with the corner where (w, h) = (0.1, 0.27) and (0.4, 0.6) becomes the eye extraction range for right eye detection The squares with the corners at the points (0.6, 0.27) and (0.9, 0.6) are set as the eye extraction range for left eye detection.

이러한 영역 범위는 200×300 픽셀의 얼굴사진에 있어서 거의 모든 경우 상기 추출범위 내에 눈동자가 위치하게 된다는 통계적 근거에 의해 설정된 것으로, 그 범위는 실시형태에 따라 변경될 수 있다. This area range is set based on the statistical basis that the pupil is located in the extraction range in almost all cases of the 200 × 300 pixel face photograph, and the range may be changed according to the embodiment.

한편 바람직한 실시예에서는 도3(b)에서와 같이, 입력된 컬러 얼굴 이미지에서 R,G,B 중 R 채널로 추출된 이미지를 사용하는데, 눈동자의 흰자위와 검은자위가 피부색과 R 값에서 두드러진 차이를 보여주기 때문이다. 또한 부가적으로, 명암을 더 분명히 드러내기 위해 자동대비(autocontrast) 필터를 1회 이상 적용할 수도 있다(도3(c) 참조). Meanwhile, in the preferred embodiment, as shown in FIG. 3 (b), an image extracted by the R channel among the R, G, and B colors is used in the input color face image, and the white and the black color of the eyes are markedly different in skin color and R value. Because it shows. Additionally, an autocontrast filter may be applied one or more times to make the contrast more apparent (see FIG. 3 (c)).

그 후 위에서 언급한 자동 설정된 눈 추출범위의 좌표값에 따라 눈동자 디텍팅을 위한 두 개의 사각형을 잘라낸다(도3(d) 참조). 바람직하게는, 잘라낸 각 추출범위에 대해 미디언(median) 필터링을 1회 이상 적용할 수 있는데, 이것은 얼굴 이미지상의 눈동자 검은자위에 나타나기 쉬운 '하이라이트'(조명 아래서 찍은 사진에서 눈동자의 검은자위 부분이 조명에 의해 흰색으로 반사되는 현상) 등의 노이즈를 제거하기 위한 것이다(도3(e) 참조). After that, according to the coordinate values of the above-described automatic eye extraction range, two rectangles for pupil detection are cut out (see FIG. 3 (d)). Preferably, median filtering can be applied one or more times for each cropped extraction range, which is a 'highlight' that tends to appear on the eye blacks on the face image (the black part of the eyes in the picture taken under lighting). This is to remove noise such as the phenomenon of reflection in white by illumination (see Fig. 3 (e)).

그 후 도2의 디텍팅 시작위치 찾기 단계(102)로 넘어간다. 도4a 및 도4b는 얼굴 이미지에서 눈동자 디텍팅 시작위치를 찾는 단계를 예시한다. 이 단계는 처음 입력된 얼굴 이미지(즉, 도3(a) 단계에서의 이미지) 상에서 수행되는 것으로, 전체 얼굴 이미지 내에서 (눈썹 부분 등 눈동자 디텍팅에 불필요한 영역을 제거하여) 눈동자가 위치할 확률이 가장 높은 영역만을 디텍팅하기 위한 목적으로 행해진다. Thereafter, the process proceeds to the detecting starting position search step 102 of FIG. 4A and 4B illustrate the step of finding the pupil detection starting position in the face image. This step is performed on the face image first input (i.e., the image in FIG. 3 (a)), and the probability of the pupil's position within the entire face image (by removing the unnecessary area such as the eyebrow part for eye detection). This is done for the purpose of detecting only this highest area.

우선, 도4에 도시된 것처럼 컬러 이미지에서 R 채널을 추출한다. 이 단계는 도3(b)와 관련하여 설명된 것과 동일한 과정이므로, 도3(b) 단계에서 수행한 결과를 그대로 사용해도 무방하다. First, the R channel is extracted from the color image as shown in FIG. Since this step is the same process as described with reference to FIG. 3 (b), the result performed in FIG. 3 (b) may be used as it is.

R 채널 추출단계 후에, 추출된 얼굴 이미지는 발제점(피부와 머리카락의 경계선)을 기준으로 잘려진다. 일반적으로 얼굴 형태를 분석해보면 (양쪽 귀를 포함하지 않는) 얼굴 가로길이와 (턱에서 이마까지의) 얼굴 세로길이의 비는 통계적으로 1:1.38 내지 1:1.4 정도 된다. 따라서, 본 발명의 일 실시예에서는 이러한 통계자료를 이용하여, 최초에 이미지의 하단부에 얼굴 턱이 위치하도록 입력된 얼굴 이미지에서 가로 길이의 대략 1.4 정도의 세로 높이만을 남겨두고 그 윗부분을 제거한다(도4a의 두번째 그림). After the R channel extraction step, the extracted face image is cropped based on the topic point (the boundary between the skin and the hair). In general, the analysis of the shape of the face shows that the ratio of face length (not including both ears) to face length (from chin to forehead) is 1: 1.38 to 1: 1.4. Therefore, in one embodiment of the present invention, by using such statistics, the upper part of the face image, which is initially input so that the face chin is positioned at the lower end of the image, is removed, leaving only the vertical height of approximately 1.4 horizontal lengths. Second figure of FIG. 4A).

그 후 디텍팅 시작위치를 찾기 위해 '마스크'를 이 발제된 이미지에 적용한다. 일 실시예에서 마스크는 도4b 좌측에 도시된 마스크(11)를 이용한다. 도시된 것처럼 마스크(11)는 '凸'형태의 흰 영역(11-1) 및 두 개의 검은 영역(11-2)으로 이루어져 있는 직사각형으로 그 크기는 미리 설정되어 있다. 또한 일 실시예에서 검은 영역(11-2) 세로길이는 마스크(11) 세로길이의 1/2 이다. We then apply a 'mask' to this presented image to find the starting position for detection. In one embodiment, the mask uses the mask 11 shown on the left side of Fig. 4B. As shown in the drawing, the mask 11 is a rectangle composed of a white region 11-1 and two black regions 11-2 having a '凸' shape, and its size is preset. Also, in one embodiment, the length of the black region 11-2 is 1/2 of the length of the mask 11.

일 실시예에서 마스크(11)는 도4b의 우측 그림에서와 같이 적용된다. In one embodiment the mask 11 is applied as in the right figure of Figure 4b.

즉 마스크(11) 높이의 1/2 되는 지점(11-4)이 발제된 얼굴 이미지의 1/3 높이 되는 지점(12-1)에 위치하도록 마스크를 위치시킨다. 다음으로, 이미지 중 마스크의 검은 영역(11-2)에 의해 커버되는 부분의 밝기 평균치와 마스크의 흰 영역(11-1)에 의해 커버되는 부분의 밝기 평균치를 계산하여, 두 평균치의 차이를 비교한다. 그 후, 마스크(11)를 한 픽셀만큼 아래로 (화살표(12-3) 방향으로) 내려서, 위와 같이 두 평균치 차를 계산하고 비교하는 작업을 수행하고, 이러한 방법으로, 상기 평균치 계산 및 비교 작업을 마스크의 중간부분(11-4)이, 이미지상 지점(12-1)에서부터 화살표(12-3) 방향으로 아래쪽으로 점차 내려가서 이미지의 1/2 되는 지점(12-2)에 이르기까지 수행한다. That is, the mask is positioned so that the point 11-4, which is 1/2 of the height of the mask 11, is located at the point 12-1, which is 1/3 of the height of the presented facial image. Next, the brightness average value of the portion of the image covered by the black area 11-2 of the mask and the area covered by the white area 11-1 of the mask are calculated, and the difference between the two average values is compared. do. Then, the mask 11 is lowered by one pixel (in the direction of the arrow 12-3) to calculate and compare the difference between the two average values as above, and in this way, calculate and compare the average value. The middle part 11-4 of the mask is gradually moved downward from the point 12-1 on the image in the direction of the arrow 12-3 to the point 12-2 of the image. do.

마스크(11)의 흰 영역(11-1)에 의해 커버되는 이미지 부분의 평균치와 검은 영역(11-2)에 의해 커버되는 이미지 부분의 평균치의 차이가 크다는 것은, 눈동자가 마스크의 검은 부분(11-2)에 의해 커버되는 부분에 위치하고 있을 가능성이 그만큼 큰 것을 의미하므로, 두 평균치의 차이가 가장 클 때의 마스크의 위치를 선택한다. 다음으로, 상기와 같이 마스크(11)의 위치가 결정되면, 마스크 상단(11-3)로부터 마스크 높이의 1/4 아래쪽의 높이를 눈동자 디텍팅의 시작 위치(y)로 정하고, 이 때의 픽셀의 y 위치를 기억한다. The difference between the average value of the image portion covered by the white region 11-1 of the mask 11 and the average value of the image portion covered by the black region 11-2 is large. Since the possibility of being located in the part covered by -2) is so large, the position of the mask is selected when the difference between the two average values is greatest. Next, when the position of the mask 11 is determined as mentioned above, the height below 1/4 of the mask height from the mask top 11-3 is set as the starting position y of the pupil detection, and the pixel at this time Remember the y position of.

그 후 본 발명의 방법은 도2에서 눈동자 후보군을 찾는 단계(103)로 넘어간다. 일 실시예에서, 이 단계에서는 도3(e)에 도시된 추출범위에 대해 도6에 도시된 '눈동자 마스크(말발굽 템플릿)'를 적용하여 눈동자 후보군을 찾는다. The method then proceeds to step 103 of finding a pupil candidate group in FIG. In one embodiment, the pupil candidate group is searched for by applying the 'eye mask (horseshoe template)' shown in FIG. 6 to the extraction range shown in FIG. 3 (e).

본 발명에서 도6에 도시한 것과 같은 말발굽 형태를 쓰는 이유는, 실제 사람의 눈동자는 원형이긴 하지만 일반적으로 사진에 찍히는 얼굴에서는 윗 눈꺼풀이 눈동자 윗부분을 약간 가리기 때문에(도3, 도4 등 참조), 눈동자 디텍팅을 위해서는 원형 마스크가 아니라 U자 형태의 마스크를 사용하는 것이 더 효과적이기 때문이다. In the present invention, the reason for using the shape of the horseshoe as shown in Fig. 6 is that although the actual human eye is circular, the upper eyelid slightly covers the upper part of the eye in the face usually taken in the picture (see Fig. 3, Fig. 4, etc.). For the purpose of eye detection, it is more effective to use a U-shaped mask instead of a circular mask.

본 발명의 일 실시예로서 도6에 도시된 말발굽 템플릿은 크기가 13×13 픽셀 및 31×31 픽셀로 각각 미리 설정된 내부 마스크 및 외부 마스크로 이루어져 있다. 상기 내부 마스크 및 외부 마스크의 크기는, 사람의 발제된 얼굴 크기가 200×300 픽셀인 경우 통계적으로 눈동자 크기가 몇 픽셀 정도 되는가를 미리 구하여 설정한 것으로, 실시예에 따라 그 크기가 달라질 수 있다. As an embodiment of the present invention, the horseshoe template shown in FIG. 6 is composed of an inner mask and an outer mask, each of which has a size of 13 × 13 pixels and 31 × 31 pixels. The size of the inner mask and the outer mask is obtained by setting in advance how many pixels the pupil size is statistically when the size of the presented face of the person is 200 × 300 pixels, and the size may vary according to embodiments.

도5에 도시된 것처럼, 이 두 마스크를 합쳤을 때의 마스크(이하, '말발굽 템플릿'이라 한다)를 도3(e)의 추출범위에 적용시켜 눈동자 후보군을 찾는다. 예컨대 왼쪽 눈 이미지의 경우, 말발굽 템플릿의 좌측이 왼쪽 눈 추출범위의 좌측에 겹치도록 한 상태에서, 말발굽 템플릿의 정 중앙부가 위 단계(102)에서 구한 디텍팅 시작위치(y 위치)에 놓인 상태에서(도5 좌측그림 참조), 말발굽 템플릿의 내부 마스크에 의해 커버되는 이미지 영역의 밝기 평균값('내부마스크에 의한 밝기 평균값') 및 외부 마스크에 의해 커버되는 이미지 영역의 밝기 평균값('외부마스크에 의한 밝기 평균값')을 계산하고, As shown in Fig. 5, the mask when the two masks are combined (hereinafter referred to as a horseshoe template) is applied to the extraction range of Fig. 3 (e) to find a pupil candidate group. For example, in the case of a left eye image, with the left side of the horseshoe template overlapping the left side of the left eye extraction range, the center of the horseshoe template is placed at the detection start position (y position) obtained in step 102 above. (See Figure 5 left), the average brightness of the image area covered by the inner mask of the horseshoe template ('average brightness by the internal mask') and the average brightness of the image area covered by the outer mask ('by the external mask'). Average brightness "),

'내부마스크에 의한 밝기 평균값' < '외부마스크에 의한 밝기 평균값'*0.57 'Average brightness by internal mask' <'Average brightness by external mask' * 0.57

의 조건식을 만족하는지 판정한다. 이 때 0.57의 값은 실험에 의해 선택된, 바람직한 일 실시예에서의 값이며, 전체 이미지의 픽셀 크기, 이미지의 명암도 등에 따라 달리 설정될 수 있다. It is determined whether the conditional expression is satisfied. At this time, the value of 0.57 is a value in a preferred embodiment selected by an experiment, and may be set differently according to the pixel size of the entire image, the contrast of the image, and the like.

그 후, 말발굽 템플릿의 우측이 왼쪽 눈 이미지의 우측에 도달할 때까지, 말발굽 템플릿을 한 픽셀씩 우측으로 이동하면서 상기 평균값 계산 및 판정을 계속하고, 이러한 방식으로 눈 추출범위의 y 위치 아래쪽의 픽셀에 대해, 말발굽 템플릿의 아래측이 눈 추출범위의 아래쪽에 도달할 때까지 계속한다. 그러면, 말발굽 템플릿의 정중앙 위치가 도5에 도시된 빨간 사각형 내부의 위치하는 모든 경우에 대해 상기 작업이 수행된다. 상기와 같이 평균값 계산 및 판정작업을 행하여 상기 조건식을 만족하는 모든 픽셀의 x,y 좌표값을 눈동자 후보군으로서 저장하며, 바람직한 일 실시예에서 눈동자 후보군의 최대 개수는 1000개 이다. Thereafter, the horseshoe template is moved to the right one pixel by one pixel until the right side of the horseshoe template reaches the right side of the left eye image, and the average value calculation and determination is continued, in this way the pixels below the y position of the eye extraction range. For, continue until the bottom side of the horseshoe template reaches the bottom of the eye extraction range. This operation is then performed for all cases where the exact center position of the horseshoe template is located inside the red rectangle shown in FIG. As described above, the average value calculation and determination are performed to store the x, y coordinate values of all pixels satisfying the conditional expression as the pupil candidate group, and in a preferred embodiment, the maximum number of pupil candidate groups is 1000.

한편, 본 발명의 일 실시예에서, 상기 조건식을 만족하는 눈동자 후보군에 대해, 눈동자의 검은자위와 흰자위를 구분하기 위해 눈동자 반지름도 구한다. 눈동자 반지름을 구하는 일 실시예는, 상기 말발굽 템플릿의 내부 마스크의 반지름 범위를 6~10 픽셀내에서 픽셀을 하나씩 증가시키면서, 내부 마스크에 의해 커버되는 이미지 영역의 밝기를 각각 구한 다음, 그 영역의 밝기가 가장 어두우면서 반지름이 가장 큰 경우의 반지름을 눈동자 반지름으로 판정한다.  On the other hand, in one embodiment of the present invention, for the pupil candidate group that satisfies the above conditional expression, the pupil radius is also determined to distinguish between the black and white of the pupil. In one embodiment of obtaining a pupil radius, the brightness range of the image area covered by the inner mask is obtained by increasing pixels by 6 pixels within the range of 6 to 10 pixels within the radius range of the horseshoe template, and then the brightness of the area. The radius of the darkest and the largest radius is determined as the pupil radius.

이와 같이 하여, 상기와 같은 평균값 계산과 비교 및 눈동자 반지름 계산을 통해 눈동자 후보군의 각 픽셀에 대한 픽셀의 x,y 좌표값 및 그 때의 눈동자 반지름을 메모리에 저장해 놓는다. In this way, the x, y coordinate values and the pupil radius at that time for each pixel of the pupil candidate group are stored in the memory through the above average value calculation, comparison, and pupil radius calculation.

그 후 본 발명에 따른 검출 방법은 눈동자 최종후보 결정 단계(104)로 진행된다. 이 단계에서, 최종 눈동자 위치는, 각 눈동자 후보별로 해당 반지름을 기준으로 반지름 내부 밝기값 평균과 반지름 외부 밝기값 평균을 구한 후 그 차이값이 가장 큰 후보를 선택한다. 차이값이 같은 후보가 둘 이상 있을 경우에는 내부 밝기값이 가장 작은 후보를 선택한다. 또한, 이 때 밝기값 평균을 구할 때, 원형이 아닌 도6의 말발굽 템플릿과 같은 형태로 계산한다. The detection method according to the present invention then proceeds to the pupil final candidate determination step 104. In this step, the final pupil position is obtained for each pupil candidate based on the radius, the average radius inner brightness value and the radius outer brightness value average, and then select the candidate having the largest difference. If there is more than one candidate with the same difference, the candidate having the smallest internal brightness is selected. In addition, at this time, when the average value of the brightness value is calculated, it is calculated in the same form as the horseshoe template of FIG.

또한 본 발명의 바람직할 일 실시예에서는 내부 밝기값 평균을 구하기 전에, 눈동자 안쪽의 하이라이트가 제거된 평균값을 구한다(도7 참조). 하이라이트를 제거하는 일 실시예에서, 눈동자 내부의 모든 픽셀값에 대해. 1차적으로 구한 밝기값 평균보다 (밝기를 256단계로 나눈 경우) 50이상 밝은 픽셀에 대해서는 합산에서 제외하고 평균을 구한다. In addition, in an exemplary embodiment of the present invention, the average value of the inner highlight of the pupil is removed before the average of the internal brightness values is obtained (see FIG. 7). In one embodiment of removing highlights, for every pixel value inside the pupil. Pixels brighter than 50 (in case of dividing the brightness into 256 levels) above the first averaged brightness value are calculated by excluding them from the summation.

이상과 같이 눈동자 후보군 중에서 최종 후보를 결정하면, 다음 단계(105)에서 결정된 눈동자 위치에 대한 보정 및 재검출 작업이 진행된다. 이와 관련하여 도8은 검출된 눈동자 위치에 대한 보정 및 재검출 작업의 바람직한 일 실시예를 도시하고 있다. When the final candidate is determined from the pupil candidate group as described above, the correction and redetection operation for the pupil position determined in the next step 105 is performed. In this regard, Fig. 8 shows one preferred embodiment of the correction and redetection operations for the detected pupil positions.

상기 일 실시예에서, 왼쪽과 오른쪽 눈동자 각각에 대해 디텍팅한 좌표가 실제의 눈동자 좌표가 맞는지를 판단하기 위해 디텍팅된 좌표를 기준으로 템플릿 매칭을 수행한다. 즉, 도3(d)의 눈 추출범위를 중앙을 대칭으로 접어서 겹치게 했을 때, 이론적으로는 검출된 오른쪽 눈동자 및 왼쪽 눈동자 위치가 일치해야 하지만, 실제 검출된 위치는 약간 차이가 날 수 있다. 이 때 양쪽 눈동자의 후보 좌표의 거리차 이가 큰 경우(일 실시예에서, 거리차이가 20 픽셀 이상일 때), 눈동자 모양으로서 적합한지 여부를 판단하기 위해 템플릿을 이용하여 좌우 눈동자 후보 좌표의 적합도를 각각 계산하여, 둘 중 적합도가 낮은 쪽은 후보군들에 템플릿 적용하여 적합도가 높은 곳을 재검출한다. 이 때, 사용되는 템플릿은 예컨대 왼쪽 눈에 대한 템플릿을 도8의 좌측 그림과 같이 미리 생성하여 놓고 오른쪽 눈에 대한 템플릿은 이 왼쪽 눈 템플릿을 대칭시켜서 생성하는 방식으로 좌우 눈에 대한 템플릿을 만들 수 있다. 또한 이 때의 템플릿 형상은, 이미 디텍팅되어 위치 결정된 눈동자 후보에 대해 적용하는 것이므로, 정확한 눈모양일 필요는 없고, 도8에 도시된 것처럼 대강의 눈동자 형태를 갖는 것으로 미리 설정하여도 무방하다. In the above embodiment, template matching is performed based on the detected coordinates in order to determine whether the coordinates detected for each of the left and right pupils are correct. That is, when the eye extraction range of FIG. 3 (d) is folded and symmetrically overlapped in the center, theoretically, the detected right eye and left eye positions should coincide, but the actual detected position may be slightly different. In this case, when the distance difference between the candidate coordinates of both pupils is large (in one embodiment, when the distance difference is 20 pixels or more), the suitability of the left and right pupil candidate coordinates is respectively determined by using a template to determine whether the pupil is suitable as the pupil shape. By calculating, the one with the low suitability of the two is templated to the candidate groups and rediscovered with the high suitability. At this time, the template for the left eye can be created by creating a template for the left eye in advance, as shown in the left figure of FIG. 8, and a template for the right eye by mirroring the left eye template. have. In addition, since the template shape at this time applies to the already-detected and positioned pupil candidate, it does not need to be an exact eye shape, but may be preset to have a rough eye shape as shown in FIG.

한편, 양쪽 눈동자의 후보 좌표의 거리차이가 20 픽셀 미만일 경우에는 두 후보 좌표를 기준으로 각각 5×5 픽셀 영역(즉 25개의 픽셀)에 대해서만 상기 템플릿을 적용하여 좀더 세밀하게 눈동자 위치좌표를 개선할 수 있다. On the other hand, if the distance difference between the candidate coordinates of both pupils is less than 20 pixels, the template is applied only for 5 × 5 pixel regions (ie 25 pixels) based on the two candidate coordinates to improve the pupil position coordinates more precisely. Can be.

이상과 같이, 본 발명에 따르면 도3 내지 도8을 참조하여 설명한 상기 단계를 수행함으로써 얼굴 이미지에서 눈동자의 최종 위치 및 그 때의 눈동자 반지름을 구할 수 있게 된다. 그 후 상기 방법으로 결정된 눈동자 위치 및 반지름은 후속 단계에서 눈동자 외의 다른 기본 특징점 및 눈썹, 코, 입술, 턱선 등의 전체 특징점을 결정하는 기본 데이터로 사용된다. As described above, according to the present invention, the final position of the pupil in the face image and the pupil radius at that time can be obtained by performing the above steps described with reference to FIGS. 3 to 8. The pupil position and radius determined by the method are then used as basic data to determine other basic feature points other than the pupil and the overall feature points of the eyebrows, nose, lips, jawline, etc. in subsequent steps.

그런데 상기와 같이 디텍팅된 눈동자 위치 및 크기(반지름)를 그대로 사용해도 무방하지만, 보다 정확히 디텍팅하기 위해 눈동자 위치의 보정 및/또는 재검출 단계를 추가로 수행해도 무방하다. However, although the detected pupil position and size (radius) may be used as it is, the correction and / or redetection of the pupil position may be further performed in order to detect more accurately.

이와 관련하여 도9는 도3 내지 도8까지의 실시예에 따라 디텍팅된 눈동자 위치에 대한 2차 보정 및 재검출을 행하는 단계를 나타내는 순서도이고, 도10은 상기 2차 보정 및 재검출을 위한 이미지 초기화 단계를 예시하고, 도11은 2차 보정 및 재검출을 수행하는 일 실시예를 예시하는 도면이다. In this regard, FIG. 9 is a flowchart illustrating a step of performing secondary correction and redetection on the detected pupil positions according to the embodiments of FIGS. 3 to 8. FIG. 10 is a flowchart illustrating the second correction and redetection. Illustrating an image initialization step, FIG. 11 is a diagram illustrating an embodiment of performing secondary correction and redetection.

이미지 준비단계(201)는 도8까지 수행함으로써 디텍팅한 눈동자 위치를 기준으로 좀더 세밀한 좌표 디텍팅을 행하기 위해 필요한 이미지를 준비하는 단계이다. 일 실시예에서, 도10에 도시된 것처럼 디텍팅된 좌우 눈동자 각각을 중심으로 일정 크기의 이미지(예컨대 60×40 픽셀)를 선택하고, 노이즈를 제거하기 위해 미디언 필터링을 예컨대 2회 실시한다. 그 후 이미지 크기를 1.5배 확대하고, R 채널로 추출한다. The image preparation step 201 is a step of preparing an image necessary for performing finer coordinate detection based on the detected pupil position by performing up to FIG. 8. In one embodiment, an image of a certain size (eg, 60 × 40 pixels) is selected around each of the detected left and right pupils as shown in FIG. 10, and median filtering is performed twice, for example, to remove noise. The image is then enlarged 1.5 times and extracted into the R channel.

그 후 도11a에 도시된 것처럼 도6의 말발굽 템플릿 적용단계와 유사한 단계를 수행한다. 도11a에서는, 반지름이 8 내지 19 픽셀인 크기를 갖는 제2 말발굽 모양의 템플릿을 생성하여 (혹은, 메모리에 미리 저장되어 있던 상기 템플릿을 불러내어) 도10의 좌우 눈동자 이미지에 각각 적용시킨다. Thereafter, as shown in FIG. 11A, a step similar to the step of applying the horseshoe template of FIG. 6 is performed. In FIG. 11A, a second horseshoe-shaped template having a size of 8 to 19 pixels in radius is generated (or retrieved from the template previously stored in memory) and applied to the left and right eye images of FIG.

바람직한 일 실시예에서 제2 말발굽 템플릿은 45×45 픽셀 크기를 가진다. 또한 제2 말발굽 템플릿은 검은자위 영역, 흰자위 영역, 및 계산 불필요 영역을 각각의 별도의 마스크로 구성할 수도 있지만, 바람직한 일 실시예에서는 도11a에 도시된 것처럼 검은자위 영역, 흰자위 영역, 및 계산 불필요 영역으로 이루어진 하나의 마스크로 제2 말발굽 템플릿을 구성한다. In a preferred embodiment the second horseshoe template has a size of 45 × 45 pixels. In addition, although the second horseshoe template may comprise the black region, the white region, and the calculation-free region as separate masks, in a preferred embodiment, as shown in FIG. 11A, the black masturbation region, the white region, and no calculation are required. The second horseshoe template is made up of one mask consisting of the areas.

이와 같이 반지름 8~19 픽셀 범위로 제2 말발굽 템플릿을 각 반지름별로 생성하여, 이미 디텍팅된 눈동자 중심위치에서 상하좌우 10픽셀 범위내의 픽셀들에 대해, 제2 템플릿의 흰자위 부분에 의해 커버되는 이미지 영역의 밝기 평균값과 제2 템플릿의 검은자위 부분에 의해 커버되는 이미지 영역의 밝기 평균값을 계산한다. 밝기 평균값의 차이가 클수록 눈동자 중심에 가깝다는 의미이므로, 상기 밝기 평균값의 차이가 가장 큰 경우의 눈동자 위치를 최종 눈동자 위치로 결정한다. As such, a second horseshoe template is created for each radius with a radius of 8 to 19 pixels, and the image covered by the white part of the second template is applied to pixels within 10 pixels of the top, bottom, left, and right positions of the detected eye center. The brightness average value of the area and the brightness average value of the image area covered by the black masturbation portion of the second template are calculated. Since the greater the difference in brightness average value means the closer to the center of the pupil, the pupil position when the difference in brightness average value is greatest is determined as the final pupil position.

이상과 같이 도9 내지 도11에서 설명한 제2 보정 및 재검출 단계는 도8까지의 단계를 통해 이미 디텍팅된 결과에 템플릿을 적용하여 수행하는 것이기 때문에 보다 세밀한 보정 효과를 나타낸다. 그러나 일 실시예에서는 도3 내지 도8까지의 단계만으로도 필요에 충분한 정도의 정확성을 가진 눈동자 검출이 가능하기 때문에 이러한 제2 보정 및 재검출 단계를 생략할 수 있다. As described above, since the second correction and redetection steps described with reference to FIGS. 9 to 11 are performed by applying a template to the results already detected through the steps up to FIG. 8, the second correction and redetection steps have more detailed correction effects. However, in the exemplary embodiment, the second correction and redetection step may be omitted since the pupil detection with the accuracy enough to be necessary may be performed by only the steps of FIGS. 3 to 8.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되지 않고 다양한 변형이 가능하다. 예컨대, 도3의 이미지 준비단계(101)와 디텍팅 시작위치 찾기 단계(102)는 서로 바뀌어도 무방하다. 즉 단계(102)가 먼저 실행되어 마스크를 적용하기 위한 y값이 먼저 결정된 다음, 원본 얼굴 이미지에서 눈 추출범위를 선택하여 상기 y값 위치에서부터 눈동자 후보군을 찾는 단계(103)를 수행할 수도 있다. 또한 본 발명의 일 실시예에서 언급된 마스크(11), 도6의 말발굽 템플릿, 도8의 양쪽 눈 템플릿, 도11a의 제2 말발굽 템플릿에 대한 정보는 얼굴검출 디바이스의 메모리 내에 미리 저장되어 있을 수도 있고, 각 단계에서 특정 템플릿이 요구될 때마다 이 템플릿을 생성하는 미리 정해진 함수에 따라 생성되어 사용될 수도 있다. The present invention described above is not limited to the above-described embodiment and the accompanying drawings, and various modifications are possible. For example, the image preparation step 101 and the detection start position finding step 102 of FIG. 3 may be interchanged. In other words, step 102 may be performed first to determine a y value for applying a mask first, and then select an eye extraction range from the original face image to search for a pupil candidate group from the y value position. Also, the information about the mask 11, the horseshoe template of FIG. 6, the two eye templates of FIG. 8, and the second horseshoe template of FIG. 11A mentioned in an embodiment of the present invention may be stored in advance in the memory of the face detection device. Each time a specific template is required in each step, it may be generated and used according to a predetermined function for generating the template.

보안 및 엔터테인먼트 산업분야 등에 적용가능하다.Applicable to security and entertainment industries.

도1은 얼굴 이미지 파일에서 얼굴의 특징점을 검출하는 단계를 간단히 나타내는 순서도, 1 is a flow chart briefly illustrating a step of detecting feature points of a face in a face image file;

도2는 얼굴 특징점 중 눈동자 위치를 검출하는 단계를 나타내는 순서도,2 is a flowchart showing a step of detecting a pupil position among facial feature points;

도3은 눈동자 검출을 위한 이미지 준비단계를 예시하는 도면,3 is a diagram illustrating an image preparation step for pupil detection;

도4a 및 도4b는 얼굴 이미지에서 눈동자 디텍팅 시작위치를 찾는 단계를 예시하는 도면,4A and 4B illustrate a step of finding a pupil detecting starting position in a face image;

도5는 눈동자 디텍팅으로 눈동자 후보군을 찾는 단계를 예시하는 도면,5 is a diagram illustrating a step of finding a pupil candidate group by pupil detection;

도6은 눈동자 디텍팅에 사용되는 마스크의 일 실시예를 나타내는 도면, 6 illustrates an embodiment of a mask used for pupil detection;

도7은 눈동자 최종 후보를 결정하는 단계를 예시하는 도면,7 illustrates a step of determining a pupil final candidate;

도8은 눈동자 후보의 보정/재검출 단계를 예시하는 도면, 8 illustrates a correction / redetection step of a pupil candidate;

도9는 도3 내지 도8의 단계에 의해 검출된 눈동자 위치에 대한 2차 보정/재검출을 행하는 단계를 나타내는 순서도, 9 is a flowchart showing a step of performing secondary correction / redetection on the pupil position detected by the steps of FIGS. 3 to 8;

도10은 상기 2차 보정/재검출을 위한 이미지 초기화 단계를 예시하는 도면,10 is a diagram illustrating an image initialization step for the secondary correction / redetection;

도11은 2차 보정/재검출을 수행하는 일 실시예를 예시하는 도면. Figure 11 illustrates one embodiment of performing secondary correction / redetection.

Claims (10)

얼굴 이미지에서 눈동자를 검출하는 방법에 있어서, In the method for detecting the pupil in the face image, 입력된 얼굴 이미지 중에서 눈동자를 검출할 범위(눈 추출범위)를 설정하고 얼굴 이미지 상에서 눈동자 검출의 시작위치를 결정하는 단계;Setting a range (eye extraction range) to detect pupils from the input face images and determining a start position of pupil detection on the face image; 제1 마스크 및 제2 마스크로 이루어진 제1 템플릿을 상기 눈 추출범위에 적용하여, 상기 눈 추출범위 중 제1 마스크에 의해 커버되는 영역의 밝기값 및 제2 마스크에 의해 커버되는 영역의 밝기값의 차이에 기초하여 눈동자 후보군을 검출하는 단계; 및 By applying a first template consisting of a first mask and a second mask to the eye extraction range, the brightness value of the area covered by the first mask of the eye extraction range and the brightness value of the area covered by the second mask Detecting a pupil candidate group based on the difference; And 상기 눈동자 후보군 중에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값의 차이에 기초하여 최종 눈동자 후보를 결정하는 단계;를 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법. Determining a final pupil candidate among the pupil candidate groups based on a difference between a brightness value inside a pupil radius and an outside brightness value. 제 1 항에 있어서, 상기 눈동자 검출 시작위치를 결정하는 단계는, The method of claim 1, wherein the determining of the pupil detection start position comprises: 제1 및 제2 영역으로 이루어진 제3 마스크(11)를 얼굴 이미지에 적용하여, 상기 얼굴 이미지 중 상기 제1 영역에 의해 커버되는 부분의 밝기값 및 제2 영역에 의해 커버되는 부분의 밝기값의 차이에 기초하여 상기 눈동자 검출의 시작위치를 결정하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법.The third mask 11 including the first and second regions is applied to the face image to determine the brightness value of the portion covered by the first region and the brightness value of the portion covered by the second region. Determining the starting position of the pupil detection based on the difference. 제 1 항에 있어서, 상기 눈동자 후보군을 검출하는 단계는, 검출된 모든 눈 동자 후보에 대해 눈동자 반지름을 구하는 단계를 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법. The method of claim 1, wherein the detecting of the pupil candidate group comprises obtaining a pupil radius for all detected pupil candidates. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 4. The method according to any one of claims 1 to 3, 상기 눈동자 후보군을 검출하는 단계에서, 상기 제1 마스크는 반원형상이고 눈동자 검은자위에 대응하는 내부 마스크이고, 상기 제2 마스크는 U자 형상이고 눈동자 검은자위 이외의 부분에 대응하는 외부 마스크인 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법.In the detecting of the pupil candidate group, the first mask is a semicircular shape and an inner mask corresponding to the pupil black spot, and the second mask is an U-shaped outer mask corresponding to a portion other than the pupil black spot. Eye detection method in the face image. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 4. The method according to any one of claims 1 to 3, 상기 최종 눈동자 후보를 결정하는 단계에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값이 동일할 경우, 내부 밝기값이 가장 작은 후보를 최종 눈동자 후보로 선택하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법. In the step of determining the final pupil candidate, if the brightness value inside the pupil radius and the outside brightness value is the same, the pupil detection in the face image, characterized in that the candidate with the smallest internal brightness value is selected as the final pupil candidate Way. 제 5 항에 있어서, 상기 눈동자 반지름 내부의 밝기값을 구하기 전에, 눈동자 내의 하이라이트 제거하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법. 6. The method of claim 5, further comprising the step of removing highlights in the pupil before obtaining the brightness value within the pupil radius. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 4. The method according to any one of claims 1 to 3, 상기 최종 눈동자 후보를 결정하는 단계 후에, 결정된 최종 좌우측 눈동자 후보의 좌표가 실제 눈동자 좌표와 일치하는지 여부를 판단하고 보정하는 제1 보정 단계를 더 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법.And after the determining of the final pupil candidate, a first correction step of determining and correcting whether the determined coordinates of the final left and right pupil candidates coincide with the actual pupil coordinates. 제 7 항에 있어서, 상기 제1 보정 단계는, The method of claim 7, wherein the first correction step, 좌우 눈에 대한 상기 눈 추출범위를 대칭시켰을 때의 최종 좌우 눈동자 후보 좌표의 거리차이를 측정하는 단계; 및 Measuring a distance difference between final left and right pupil candidate coordinates when the eye extraction ranges for the left and right eyes are mirrored; And 상기 거리차이가 소정값 보다 큰 경우, 눈동자 모양으로서 적합한지에 대한 적합도 여부를 계산하고, 좌우측 눈동자 중 적합도가 낮은 쪽에 대해 상기 검출된 눈동자 후보군 중에서 적합도가 가장 높은 좌표를 재검출하고, 상기 거리차이가 상기 소정값 보다 작은 경우, 좌우 눈동자 후보 좌표를 중심으로 소정 거리내에 있는 픽셀에 대해 적합도 여부를 계산하여 적합도가 가장 높은 좌표를 선택하는 단계;를 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법.If the distance difference is larger than a predetermined value, the fitness for calculating whether the eye is suitable as the shape of the pupil is calculated, the coordinates having the highest suitability among the detected pupil candidate groups are re-detected for the lower-fitting eye among the left and right pupils, and the distance difference is If less than the predetermined value, calculating the goodness of fit of the pixels within a predetermined distance from the left and right pupil candidate coordinates to select the coordinates with the highest suitability; comprising a pupil detection method in the face image . 제 7 항에 있어서, The method of claim 7, wherein 상기 제1 보정 단계 이후에, 검출된 최종 눈동자 후보의 위치에 대한 제2 보정 단계를 더 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법. And after the first correction step, a second correction step for the position of the detected final pupil candidate. 제 9 항에 있어서, 상기 제2 보정 단계는, The method of claim 9, wherein the second correction step, 검출된 최종 눈동자 후보 좌표를 중심으로 소정 크기의 이미지를 선택하는 단계;Selecting an image having a predetermined size based on the detected final pupil candidate coordinates; 상기 선택된 이미지를 확대하는 단계;Enlarging the selected image; 눈동자의 검은자위와 흰자위를 나타내는 U자 형상의 제3 마스크로 이루어지고 상기 U자 형상의 반지름의 크기가 각각 상이한 복수개의 제2 템플릿을, 상기 확대된 이미지에서 상기 최종 눈동자 후보의 좌표가 중심에 위치하는 소정 크기의 픽셀 영역에 각각 적용하는 단계; 및 A plurality of second templates consisting of a third U-shaped mask representing black and white of the pupil and having different sizes of the U-shaped radius, the coordinates of the final pupil candidate in the enlarged image are centered. Applying each to a pixel area of a predetermined size located; And 상기 제3 마스크의 검은자위와 흰자위의 각 부분에 의해 커버되는 이미지 영역간의 밝기값 차이에 기초하여 최종 눈동자 후보의 좌표를 보정하는 단계;를 포함하는 것을 특징으로 하는 얼굴 이미지에서의 눈동자 검출 방법.Correcting the coordinates of the final pupil candidate based on the difference in brightness values between the black and white portions of the third mask, the image regions covered by the white and white portions of the third mask.
KR1020090075731A 2009-08-17 2009-08-17 A method for detecting the pupils in a face image KR100950138B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090075731A KR100950138B1 (en) 2009-08-17 2009-08-17 A method for detecting the pupils in a face image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090075731A KR100950138B1 (en) 2009-08-17 2009-08-17 A method for detecting the pupils in a face image

Publications (1)

Publication Number Publication Date
KR100950138B1 true KR100950138B1 (en) 2010-03-30

Family

ID=42183935

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090075731A KR100950138B1 (en) 2009-08-17 2009-08-17 A method for detecting the pupils in a face image

Country Status (1)

Country Link
KR (1) KR100950138B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9762773B2 (en) 2015-03-26 2017-09-12 Omron Corporation Image processing apparatus and method for increasing sharpness of images
WO2018105830A1 (en) * 2016-12-07 2018-06-14 주식회사 쓰리이 Pupil center detection method
CN110598635A (en) * 2019-09-12 2019-12-20 北京大学第一医院 Method and system for face detection and pupil positioning in continuous video frames
CN112989878A (en) * 2019-12-13 2021-06-18 Oppo广东移动通信有限公司 Pupil detection method and related product

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361497B1 (en) 1999-01-08 2002-11-18 엘지전자 주식회사 Method of extraction of face from video image
KR20050007427A (en) * 2002-06-03 2005-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. Face-recognition using half-face images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100361497B1 (en) 1999-01-08 2002-11-18 엘지전자 주식회사 Method of extraction of face from video image
KR20050007427A (en) * 2002-06-03 2005-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. Face-recognition using half-face images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9762773B2 (en) 2015-03-26 2017-09-12 Omron Corporation Image processing apparatus and method for increasing sharpness of images
WO2018105830A1 (en) * 2016-12-07 2018-06-14 주식회사 쓰리이 Pupil center detection method
KR101866867B1 (en) * 2016-12-07 2018-06-14 주식회사 쓰리이 Method for detecting center of pupil
US10383515B2 (en) 2016-12-07 2019-08-20 3E Co., Ltd. Method of detecting pupil center
CN110598635A (en) * 2019-09-12 2019-12-20 北京大学第一医院 Method and system for face detection and pupil positioning in continuous video frames
CN110598635B (en) * 2019-09-12 2022-05-27 北京大学第一医院 Method and system for face detection and pupil positioning in continuous video frames
CN112989878A (en) * 2019-12-13 2021-06-18 Oppo广东移动通信有限公司 Pupil detection method and related product

Similar Documents

Publication Publication Date Title
US10304166B2 (en) Eye beautification under inaccurate localization
CN107771336B (en) Feature detection and masking in images based on color distribution
US10616475B2 (en) Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium
US8625859B2 (en) Information processing apparatus, information processing method, and program
KR101733512B1 (en) Virtual experience system based on facial feature and method therefore
US8520089B2 (en) Eye beautification
US8331619B2 (en) Image processing apparatus and image processing method
CN105205480B (en) Human-eye positioning method and system in a kind of complex scene
US20180204052A1 (en) A method and apparatus for human face image processing
JP2006012062A (en) Image processor and its method, program and imaging device
JP2007272435A (en) Face feature extraction device and face feature extraction method
CN111814564A (en) Multispectral image-based living body detection method, device, equipment and storage medium
KR100950138B1 (en) A method for detecting the pupils in a face image
KR101827998B1 (en) Virtual experience system based on facial feature and method therefore
Rahman et al. Real-time face-priority auto focus for digital and cell-phone cameras
JP4148903B2 (en) Image processing apparatus, image processing method, and digital camera
CN110766631A (en) Face image modification method and device, electronic equipment and computer readable medium
CN113837020B (en) Cosmetic progress detection method, device, equipment and storage medium
JP6467817B2 (en) Image processing apparatus, image processing method, and program
TWI743413B (en) Single-photo generating device and method and non-volatile computer-readable media thereof
JP6467994B2 (en) Image processing program, image processing apparatus, and image processing method
CN113837018A (en) Cosmetic progress detection method, device, equipment and storage medium
JP5603258B2 (en) Detection apparatus and detection method
KR20210050649A (en) Face verifying method of mobile device
Rahman et al. Real-time face-based auto-focus for digital still and cell-phone cameras

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130118

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140121

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151222

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170203

Year of fee payment: 8