KR100950138B1 - A method for detecting the pupils in a face image - Google Patents
A method for detecting the pupils in a face image Download PDFInfo
- Publication number
- KR100950138B1 KR100950138B1 KR1020090075731A KR20090075731A KR100950138B1 KR 100950138 B1 KR100950138 B1 KR 100950138B1 KR 1020090075731 A KR1020090075731 A KR 1020090075731A KR 20090075731 A KR20090075731 A KR 20090075731A KR 100950138 B1 KR100950138 B1 KR 100950138B1
- Authority
- KR
- South Korea
- Prior art keywords
- pupil
- mask
- candidate
- image
- brightness value
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 얼굴 이미지 파일에서 얼굴형상을 추출하는 방법에 관한 것으로, 보다 구체적으로는, 얼굴 이미지에서 눈동자를 검출하는 방법으로서 모바일 기기 등에서도 눈동자 검출을 신속하고 효과적으로 행할 수 있도록 하는 검출 방법에 관한 것이다. The present invention relates to a method of extracting a face shape from a face image file. More particularly, the present invention relates to a method of detecting a pupil from a face image, and more particularly, to a detection method capable of quickly and effectively detecting a pupil even in a mobile device. .
종래부터 얼굴을 촬영한 이미지 파일로부터 얼굴형상을 인식하고 검출하는 기술이 널리 알려져 있고, 이러한 얼굴형상 인식기술은 신원 증명 등의 보안관련 분야, 얼굴 합성, 2세 예측 등의 엔터테인먼트 분야 등에서 응용되어 왔다. Background Art Conventionally, a technique for recognizing and detecting a face shape from a face image file has been widely known, and the face shape recognition technology has been applied in security-related fields such as identity verification, entertainment fields such as face synthesis, and second generation prediction. .
특히 엔터테인먼트 분야에서는, 예컨대 2개의 얼굴 이미지로부터 검출된 각각의 얼굴 형상을 합성하여 보여주거나(얼굴 합성), 카메라로 촬영된 인물 사진에 메이크업이나 헤어, 의상 등을 변화시켜 색다른 모습으로 꾸미거나(얼굴 꾸미기), 또는 연인의 사진을 합성하여 2세 모습을 예측하는 것(2세 예측) 등으로 다양하게 활용됨으로써 이용자들에게 기대와 호기심을 유발하는 새로운 흥미요소로 자리하고 있다. Particularly in the entertainment field, for example, each face shape detected from two face images is synthesized and displayed (face synthesis), or a makeup, hair, clothes, etc. are changed in a portrait photographed by a camera, and a different look is made (face). Decorating), or by combining photos of lovers and predicting the appearance of 2 years old (predicting 2 years old), etc., has become a new element of interest that induces expectations and curiosity for users.
이러한 얼굴 형상 추출방법은, 기술적으로는, 일단 얼굴 특징점을 검출하는 것이 우선이고, 그 다음 단계에서 얼굴합성, 얼굴 꾸미기 또는 2세 예측 등의 응용작업이 수행된다. In such a face shape extraction method, technically, the facial feature point is first detected first, and in the next step, application work such as face synthesis, face decoration, or second generation prediction is performed.
얼굴 특징점 검출은 얼굴을 구성하는 눈, 코, 입과 같은 주요 특징부를 검출하는 것으로, 얼굴 합성, 얼굴 꾸미기 등의 후속 작업을 위해 가장 기본이 되는 기술이다. 도1은 얼굴 특징점 검출을 위한 수행단계를 간단히 나타내고 있다. Facial feature point detection detects key features such as eyes, nose and mouth constituting the face, and is the most basic technique for subsequent operations such as face synthesis and face decoration. Fig. 1 simply shows an operation step for face feature point detection.
우선, 얼굴 검출의 대상이 되는 얼굴 이미지 파일을 퍼스널 컴퓨터 또는 얼굴검출 전용 장치 등의 디바이스로 입력한다(단계10). 그 후, 입력된 이미지로부터 기본 특징점을 추출한다(단계20). 기본 특징점이란 모든 특징점의 기준이 되는 것으로, 예컨대 눈동자와 입술 중앙부가 될 수 있다. 기본 특징점이 추출되면, 이 정보를 기초로 전체 특징점을 구한다(단계30). 전체 특징점은 예컨대 눈썹, 눈꺼풀, 코, 입술, 턱선 등이 될 수 있다. 이와 같이 얼굴 이미지로부터 얼굴 특징점을 검출하게 되며, 그 후 검출된 특징점들을 사용하여 얼굴합성, 얼굴 꾸미기, 2세 예측 등과 같은 응용처리를 수행한다. First, a face image file that is a face detection target is input to a device such as a personal computer or a face detection device (step 10). Thereafter, basic feature points are extracted from the input image (step 20). The basic feature point is a standard for all the feature points, and may be, for example, the center of the eyes and the lips. Once the basic feature point is extracted, the entire feature point is obtained based on this information (step 30). Global feature points can be, for example, eyebrows, eyelids, nose, lips, jawline and the like. In this way, the facial feature points are detected from the face image, and then application processes such as face synthesis, face decoration, and second generation prediction are performed using the detected feature points.
최근 휴대전화 등의 모바일 기기가 보편화하면서 휴대전화에 내장된 카메라로 사진촬영, 저장, 및 편집을 행하는 기술도 점차 발달함에 따라 얼굴 사진을 이용하여 얼굴 합성, 변형, 꾸미기 등의 작업을 휴대전화 상에서도 바로 수행할 수 있는 기술이 나오고 있다. Recently, as mobile devices such as mobile phones are becoming more common, technology for taking, storing, and editing pictures with a camera embedded in a mobile phone is gradually developed. Therefore, face synthesis, transformation, and decoration can be performed on a mobile phone using face pictures. There is a technology out there that can do it right away.
그런데 휴대전화 등의 모바일 기기에 내장된 프로세서의 성능은 일반적인 얼굴검출 전용 디바이스나 데스크탑 컴퓨터 내에 탑재된 프로세서와는 현저히 차이가 나기 때문에, 기존의 얼굴 검출 방법을 그대로 모바일 기기에 적용할 수는 없었다. 더욱이 언급하였듯이 얼굴 검출에 있어서 기본 특징점이 신속하고 정확하게 검출되어야만 다른 특징점도 정확히 검출될 수 있으므로 기본 특징점 추출을 빠르고 정확히 행하는 것이 중요하다. However, since the performance of a processor embedded in a mobile device such as a cellular phone is remarkably different from a processor installed in a general face detection device or a desktop computer, the existing face detection method cannot be applied to a mobile device as it is. Furthermore, as mentioned above, it is important to perform basic feature point extraction quickly and accurately since the basic feature points must be detected quickly and accurately in face detection.
따라서 예컨대 눈동자와 같은 기본 특징점을 정확히 검출할 수 있고 또한 모바일 기기상에서도 신속하고 원활하게 동작할 수 있는 신규한 얼굴 검출 방법이 요구된다. Therefore, there is a need for a novel face detection method capable of accurately detecting basic feature points such as, for example, pupils, and capable of quickly and smoothly operating on a mobile device.
상기와 같은 목적을 달성하기 위하여 본 발명에서는, 얼굴 이미지에서 눈동자를 검출하는 방법에 있어서, In the present invention to achieve the above object, in the method for detecting the pupil in the face image,
입력된 얼굴 이미지 중에서 눈동자를 검출할 범위(눈 추출범위)를 설정하고 얼굴 이미지 상에서 눈동자 검출의 시작위치를 결정하는 단계;Setting a range (eye extraction range) to detect pupils from the input face images and determining a start position of pupil detection on the face image;
제1 마스크 및 제2 마스크로 이루어진 제1 템플릿을 상기 눈 추출범위에 적용하여, 상기 눈 추출범위 중 제1 마스크에 의해 커버되는 영역의 밝기값 및 제2 마스크에 의해 커버되는 영역의 밝기값의 차이에 기초하여 눈동자 후보군을 검출하는 단계; 및 By applying a first template consisting of a first mask and a second mask to the eye extraction range, the brightness value of the area covered by the first mask of the eye extraction range and the brightness value of the area covered by the second mask Detecting a pupil candidate group based on the difference; And
상기 눈동자 후보군 중에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값의 차이에 기초하여 최종 눈동자 후보를 결정하는 단계;를 포함하는 것을 특징으로 하는 눈동자 검출 방법을 제공한다. From the pupil candidate group, determining the final pupil candidate based on the difference between the brightness value inside the pupil radius and the outside brightness value; provides a pupil detection method comprising a.
이상과 같은 눈동자 디텍팅 방법에 의해, 얼굴 이미지에서의 눈동자 위치 및 크기를 정확히 검출할 수 있고 또한 모바일 기기상에서도 눈동자 디텍팅을 신속하고 효율적으로 수행함으로써, 얼굴의 전체 특징점 검출 및 더 나아가 얼굴 합성, 얼굴꾸미기 등의 각종 응용작업을 보다 신속하게 수행할 수 있는 작용효과를 갖게 된다. By the above-described eye detection method, it is possible to accurately detect the position and size of the pupil in the face image and perform the eye detection quickly and efficiently on a mobile device, thereby detecting the entire feature point of the face and furthermore the face synthesis, It will have an effect that can perform a variety of applications such as face decorating more quickly.
상기 목적 달성을 위해 본 발명은 얼굴 이미지에서 눈동자를 검출하는 방법에 있어서, 입력된 얼굴 이미지 중에서 눈동자를 검출할 범위(눈 추출범위)를 설정하고, 얼굴 이미지 상에서 눈동자 검출의 시작위치를 결정하는 단계; 제1 마스크 및 제2 마스크로 이루어진 제1 템플릿을 상기 눈 추출범위에 적용하여, 상기 눈 추출범위 중 제1 마스크에 의해 커버되는 영역의 밝기값 및 제2 마스크에 의해 커버되는 영역의 밝기값의 차이에 기초하여 눈동자 후보군을 검출하는 단계; 및 상기 눈동자 후보군 중에서, 눈동자 반지름 내부의 밝기값과 외부의 밝기값의 차이에 기초하여 최종 눈동자 후보를 결정하는 단계;를 포함하는 것을 특징으로 하는 눈동자 검출 방법을 개시한다. In order to achieve the above object, the present invention provides a method for detecting a pupil in a face image, the method comprising: setting a range (eye extraction range) to detect a pupil from an input face image, and determining a start position of pupil detection on the face image; ; By applying a first template consisting of a first mask and a second mask to the eye extraction range, the brightness value of the area covered by the first mask of the eye extraction range and the brightness value of the area covered by the second mask Detecting a pupil candidate group based on the difference; And determining a final pupil candidate among the pupil candidate groups based on a difference between a brightness value inside a pupil radius and an outside brightness value.
이하에서 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도2는 도1의 기본 특징점 검출(20)에 대응되는 단계로서, 특히 얼굴 특징점 중 눈동자 위치를 검출하는 단계의 일 실시예를 나타내는 순서도이다. FIG. 2 is a flowchart corresponding to the basic
처음 단계(101)에서 얼굴 이미지를 입력받고 디텍팅에 적합하도록 초기화 작업을 행한다. 그 후 이미지상의 어느 위치에서 눈동자 디텍팅을 수행할지를 판단하기 위해, 디텍팅 시작위치를 결정하고(102), 결정된 시작위치에서부터 일정 범위내의 모든 픽셀을 검사하여 눈동자 후보군을 만들고(103), 그 후 눈동자 후보군 중에서 최종 후보를 결정하고(104), 보정 및 재검출 작업을 통해 눈동자 검출을 완료(105)하게 된다. 다만, 일 실시예에 의할 경우 도9에서와 같은 재보정 작업을 추가로 거칠 수 있으며 이를 통해 보다 정교한 눈동자 검출작업을 수행할 수 있다.In
도3은 도2의 이미지 준비단계(101)의 일 실시예를 나타낸다. 3 shows an embodiment of the
본 발명에 따른 눈동자 검출을 위해, 본 발명의 눈동자 검출 방법을 구현한 프로그램이 설치된 디바이스(예컨대, 휴대폰, 데스크탑, 또는 전용 검출장치 등)로 얼굴 이미지를 입력받아 디텍팅에 적합하도록 초기화 작업을 행한다. In order to detect pupils according to the present invention, a face image is input to a device (for example, a mobile phone, a desktop, or a dedicated detection device) on which a program implementing the pupil detection method of the present invention is installed, and an initialization operation is performed to be suitable for detecting. .
입력되는 이미지는 JPG 등 공지된 파일형식의 이미지 파일이 될 수 있다. 입력 이미지의 크기나 해상도가 이미지마다 상이할 수 있지만, 도시된 본 발명의 바람직한 실시예에서는 가로×세로가 200×300 픽셀 크기의 이미지를 사용하며, 따라서 입력 이미지가 이 크기와 다를 경우 이미지 크기를 상기 크기로 변환한다. The input image may be an image file of a known file format such as JPG. Although the size or resolution of the input image may differ from image to image, the preferred embodiment of the present invention shown uses a 200 × 300 pixel image in width x height, so if the input image is different from this size, Convert to this size.
눈동자 검출을 하려면 전체 얼굴 이미지 중 눈동자가 위치할 것으로 예상되는 일부 영역에 대해서만 눈동자 검출작업을 행하면 되는데, 본 발명의 실시예에서는 도 3(a)에 도시된 것처럼 200×300 픽셀 이미지에서 좌상단 모서리의 (w,h)를 (0,0)으로 설정했을 때 (w,h) = (0.1, 0.27)되는 지점 및 (0.4, 0.6) 되는 지점을 모서리로 하는 사각형을 오른쪽 눈동자 검출을 위한 눈 추출범위로, 그리고 (0.6, 0.27), (0.9, 0.6) 되는 지점을 모서리로 하는 사각형을 왼쪽 눈동자 검출을 위한 눈 추출범위로 설정해 놓는다. In order to detect the pupil, the pupil detection operation may be performed on only a part of the entire face image where the pupil is expected to be located. In the embodiment of the present invention, as shown in FIG. When (w, h) is set to (0,0), a rectangle with the corner where (w, h) = (0.1, 0.27) and (0.4, 0.6) becomes the eye extraction range for right eye detection The squares with the corners at the points (0.6, 0.27) and (0.9, 0.6) are set as the eye extraction range for left eye detection.
이러한 영역 범위는 200×300 픽셀의 얼굴사진에 있어서 거의 모든 경우 상기 추출범위 내에 눈동자가 위치하게 된다는 통계적 근거에 의해 설정된 것으로, 그 범위는 실시형태에 따라 변경될 수 있다. This area range is set based on the statistical basis that the pupil is located in the extraction range in almost all cases of the 200 × 300 pixel face photograph, and the range may be changed according to the embodiment.
한편 바람직한 실시예에서는 도3(b)에서와 같이, 입력된 컬러 얼굴 이미지에서 R,G,B 중 R 채널로 추출된 이미지를 사용하는데, 눈동자의 흰자위와 검은자위가 피부색과 R 값에서 두드러진 차이를 보여주기 때문이다. 또한 부가적으로, 명암을 더 분명히 드러내기 위해 자동대비(autocontrast) 필터를 1회 이상 적용할 수도 있다(도3(c) 참조). Meanwhile, in the preferred embodiment, as shown in FIG. 3 (b), an image extracted by the R channel among the R, G, and B colors is used in the input color face image, and the white and the black color of the eyes are markedly different in skin color and R value. Because it shows. Additionally, an autocontrast filter may be applied one or more times to make the contrast more apparent (see FIG. 3 (c)).
그 후 위에서 언급한 자동 설정된 눈 추출범위의 좌표값에 따라 눈동자 디텍팅을 위한 두 개의 사각형을 잘라낸다(도3(d) 참조). 바람직하게는, 잘라낸 각 추출범위에 대해 미디언(median) 필터링을 1회 이상 적용할 수 있는데, 이것은 얼굴 이미지상의 눈동자 검은자위에 나타나기 쉬운 '하이라이트'(조명 아래서 찍은 사진에서 눈동자의 검은자위 부분이 조명에 의해 흰색으로 반사되는 현상) 등의 노이즈를 제거하기 위한 것이다(도3(e) 참조). After that, according to the coordinate values of the above-described automatic eye extraction range, two rectangles for pupil detection are cut out (see FIG. 3 (d)). Preferably, median filtering can be applied one or more times for each cropped extraction range, which is a 'highlight' that tends to appear on the eye blacks on the face image (the black part of the eyes in the picture taken under lighting). This is to remove noise such as the phenomenon of reflection in white by illumination (see Fig. 3 (e)).
그 후 도2의 디텍팅 시작위치 찾기 단계(102)로 넘어간다. 도4a 및 도4b는 얼굴 이미지에서 눈동자 디텍팅 시작위치를 찾는 단계를 예시한다. 이 단계는 처음 입력된 얼굴 이미지(즉, 도3(a) 단계에서의 이미지) 상에서 수행되는 것으로, 전체 얼굴 이미지 내에서 (눈썹 부분 등 눈동자 디텍팅에 불필요한 영역을 제거하여) 눈동자가 위치할 확률이 가장 높은 영역만을 디텍팅하기 위한 목적으로 행해진다. Thereafter, the process proceeds to the detecting starting position search step 102 of FIG. 4A and 4B illustrate the step of finding the pupil detection starting position in the face image. This step is performed on the face image first input (i.e., the image in FIG. 3 (a)), and the probability of the pupil's position within the entire face image (by removing the unnecessary area such as the eyebrow part for eye detection). This is done for the purpose of detecting only this highest area.
우선, 도4에 도시된 것처럼 컬러 이미지에서 R 채널을 추출한다. 이 단계는 도3(b)와 관련하여 설명된 것과 동일한 과정이므로, 도3(b) 단계에서 수행한 결과를 그대로 사용해도 무방하다. First, the R channel is extracted from the color image as shown in FIG. Since this step is the same process as described with reference to FIG. 3 (b), the result performed in FIG. 3 (b) may be used as it is.
R 채널 추출단계 후에, 추출된 얼굴 이미지는 발제점(피부와 머리카락의 경계선)을 기준으로 잘려진다. 일반적으로 얼굴 형태를 분석해보면 (양쪽 귀를 포함하지 않는) 얼굴 가로길이와 (턱에서 이마까지의) 얼굴 세로길이의 비는 통계적으로 1:1.38 내지 1:1.4 정도 된다. 따라서, 본 발명의 일 실시예에서는 이러한 통계자료를 이용하여, 최초에 이미지의 하단부에 얼굴 턱이 위치하도록 입력된 얼굴 이미지에서 가로 길이의 대략 1.4 정도의 세로 높이만을 남겨두고 그 윗부분을 제거한다(도4a의 두번째 그림). After the R channel extraction step, the extracted face image is cropped based on the topic point (the boundary between the skin and the hair). In general, the analysis of the shape of the face shows that the ratio of face length (not including both ears) to face length (from chin to forehead) is 1: 1.38 to 1: 1.4. Therefore, in one embodiment of the present invention, by using such statistics, the upper part of the face image, which is initially input so that the face chin is positioned at the lower end of the image, is removed, leaving only the vertical height of approximately 1.4 horizontal lengths. Second figure of FIG. 4A).
그 후 디텍팅 시작위치를 찾기 위해 '마스크'를 이 발제된 이미지에 적용한다. 일 실시예에서 마스크는 도4b 좌측에 도시된 마스크(11)를 이용한다. 도시된 것처럼 마스크(11)는 '凸'형태의 흰 영역(11-1) 및 두 개의 검은 영역(11-2)으로 이루어져 있는 직사각형으로 그 크기는 미리 설정되어 있다. 또한 일 실시예에서 검은 영역(11-2) 세로길이는 마스크(11) 세로길이의 1/2 이다. We then apply a 'mask' to this presented image to find the starting position for detection. In one embodiment, the mask uses the
일 실시예에서 마스크(11)는 도4b의 우측 그림에서와 같이 적용된다. In one embodiment the
즉 마스크(11) 높이의 1/2 되는 지점(11-4)이 발제된 얼굴 이미지의 1/3 높이 되는 지점(12-1)에 위치하도록 마스크를 위치시킨다. 다음으로, 이미지 중 마스크의 검은 영역(11-2)에 의해 커버되는 부분의 밝기 평균치와 마스크의 흰 영역(11-1)에 의해 커버되는 부분의 밝기 평균치를 계산하여, 두 평균치의 차이를 비교한다. 그 후, 마스크(11)를 한 픽셀만큼 아래로 (화살표(12-3) 방향으로) 내려서, 위와 같이 두 평균치 차를 계산하고 비교하는 작업을 수행하고, 이러한 방법으로, 상기 평균치 계산 및 비교 작업을 마스크의 중간부분(11-4)이, 이미지상 지점(12-1)에서부터 화살표(12-3) 방향으로 아래쪽으로 점차 내려가서 이미지의 1/2 되는 지점(12-2)에 이르기까지 수행한다. That is, the mask is positioned so that the point 11-4, which is 1/2 of the height of the
마스크(11)의 흰 영역(11-1)에 의해 커버되는 이미지 부분의 평균치와 검은 영역(11-2)에 의해 커버되는 이미지 부분의 평균치의 차이가 크다는 것은, 눈동자가 마스크의 검은 부분(11-2)에 의해 커버되는 부분에 위치하고 있을 가능성이 그만큼 큰 것을 의미하므로, 두 평균치의 차이가 가장 클 때의 마스크의 위치를 선택한다. 다음으로, 상기와 같이 마스크(11)의 위치가 결정되면, 마스크 상단(11-3)로부터 마스크 높이의 1/4 아래쪽의 높이를 눈동자 디텍팅의 시작 위치(y)로 정하고, 이 때의 픽셀의 y 위치를 기억한다. The difference between the average value of the image portion covered by the white region 11-1 of the
그 후 본 발명의 방법은 도2에서 눈동자 후보군을 찾는 단계(103)로 넘어간다. 일 실시예에서, 이 단계에서는 도3(e)에 도시된 추출범위에 대해 도6에 도시된 '눈동자 마스크(말발굽 템플릿)'를 적용하여 눈동자 후보군을 찾는다. The method then proceeds to step 103 of finding a pupil candidate group in FIG. In one embodiment, the pupil candidate group is searched for by applying the 'eye mask (horseshoe template)' shown in FIG. 6 to the extraction range shown in FIG. 3 (e).
본 발명에서 도6에 도시한 것과 같은 말발굽 형태를 쓰는 이유는, 실제 사람의 눈동자는 원형이긴 하지만 일반적으로 사진에 찍히는 얼굴에서는 윗 눈꺼풀이 눈동자 윗부분을 약간 가리기 때문에(도3, 도4 등 참조), 눈동자 디텍팅을 위해서는 원형 마스크가 아니라 U자 형태의 마스크를 사용하는 것이 더 효과적이기 때문이다. In the present invention, the reason for using the shape of the horseshoe as shown in Fig. 6 is that although the actual human eye is circular, the upper eyelid slightly covers the upper part of the eye in the face usually taken in the picture (see Fig. 3, Fig. 4, etc.). For the purpose of eye detection, it is more effective to use a U-shaped mask instead of a circular mask.
본 발명의 일 실시예로서 도6에 도시된 말발굽 템플릿은 크기가 13×13 픽셀 및 31×31 픽셀로 각각 미리 설정된 내부 마스크 및 외부 마스크로 이루어져 있다. 상기 내부 마스크 및 외부 마스크의 크기는, 사람의 발제된 얼굴 크기가 200×300 픽셀인 경우 통계적으로 눈동자 크기가 몇 픽셀 정도 되는가를 미리 구하여 설정한 것으로, 실시예에 따라 그 크기가 달라질 수 있다. As an embodiment of the present invention, the horseshoe template shown in FIG. 6 is composed of an inner mask and an outer mask, each of which has a size of 13 × 13 pixels and 31 × 31 pixels. The size of the inner mask and the outer mask is obtained by setting in advance how many pixels the pupil size is statistically when the size of the presented face of the person is 200 × 300 pixels, and the size may vary according to embodiments.
도5에 도시된 것처럼, 이 두 마스크를 합쳤을 때의 마스크(이하, '말발굽 템플릿'이라 한다)를 도3(e)의 추출범위에 적용시켜 눈동자 후보군을 찾는다. 예컨대 왼쪽 눈 이미지의 경우, 말발굽 템플릿의 좌측이 왼쪽 눈 추출범위의 좌측에 겹치도록 한 상태에서, 말발굽 템플릿의 정 중앙부가 위 단계(102)에서 구한 디텍팅 시작위치(y 위치)에 놓인 상태에서(도5 좌측그림 참조), 말발굽 템플릿의 내부 마스크에 의해 커버되는 이미지 영역의 밝기 평균값('내부마스크에 의한 밝기 평균값') 및 외부 마스크에 의해 커버되는 이미지 영역의 밝기 평균값('외부마스크에 의한 밝기 평균값')을 계산하고, As shown in Fig. 5, the mask when the two masks are combined (hereinafter referred to as a horseshoe template) is applied to the extraction range of Fig. 3 (e) to find a pupil candidate group. For example, in the case of a left eye image, with the left side of the horseshoe template overlapping the left side of the left eye extraction range, the center of the horseshoe template is placed at the detection start position (y position) obtained in step 102 above. (See Figure 5 left), the average brightness of the image area covered by the inner mask of the horseshoe template ('average brightness by the internal mask') and the average brightness of the image area covered by the outer mask ('by the external mask'). Average brightness "),
'내부마스크에 의한 밝기 평균값' < '외부마스크에 의한 밝기 평균값'*0.57 'Average brightness by internal mask' <'Average brightness by external mask' * 0.57
의 조건식을 만족하는지 판정한다. 이 때 0.57의 값은 실험에 의해 선택된, 바람직한 일 실시예에서의 값이며, 전체 이미지의 픽셀 크기, 이미지의 명암도 등에 따라 달리 설정될 수 있다. It is determined whether the conditional expression is satisfied. At this time, the value of 0.57 is a value in a preferred embodiment selected by an experiment, and may be set differently according to the pixel size of the entire image, the contrast of the image, and the like.
그 후, 말발굽 템플릿의 우측이 왼쪽 눈 이미지의 우측에 도달할 때까지, 말발굽 템플릿을 한 픽셀씩 우측으로 이동하면서 상기 평균값 계산 및 판정을 계속하고, 이러한 방식으로 눈 추출범위의 y 위치 아래쪽의 픽셀에 대해, 말발굽 템플릿의 아래측이 눈 추출범위의 아래쪽에 도달할 때까지 계속한다. 그러면, 말발굽 템플릿의 정중앙 위치가 도5에 도시된 빨간 사각형 내부의 위치하는 모든 경우에 대해 상기 작업이 수행된다. 상기와 같이 평균값 계산 및 판정작업을 행하여 상기 조건식을 만족하는 모든 픽셀의 x,y 좌표값을 눈동자 후보군으로서 저장하며, 바람직한 일 실시예에서 눈동자 후보군의 최대 개수는 1000개 이다. Thereafter, the horseshoe template is moved to the right one pixel by one pixel until the right side of the horseshoe template reaches the right side of the left eye image, and the average value calculation and determination is continued, in this way the pixels below the y position of the eye extraction range. For, continue until the bottom side of the horseshoe template reaches the bottom of the eye extraction range. This operation is then performed for all cases where the exact center position of the horseshoe template is located inside the red rectangle shown in FIG. As described above, the average value calculation and determination are performed to store the x, y coordinate values of all pixels satisfying the conditional expression as the pupil candidate group, and in a preferred embodiment, the maximum number of pupil candidate groups is 1000.
한편, 본 발명의 일 실시예에서, 상기 조건식을 만족하는 눈동자 후보군에 대해, 눈동자의 검은자위와 흰자위를 구분하기 위해 눈동자 반지름도 구한다. 눈동자 반지름을 구하는 일 실시예는, 상기 말발굽 템플릿의 내부 마스크의 반지름 범위를 6~10 픽셀내에서 픽셀을 하나씩 증가시키면서, 내부 마스크에 의해 커버되는 이미지 영역의 밝기를 각각 구한 다음, 그 영역의 밝기가 가장 어두우면서 반지름이 가장 큰 경우의 반지름을 눈동자 반지름으로 판정한다. On the other hand, in one embodiment of the present invention, for the pupil candidate group that satisfies the above conditional expression, the pupil radius is also determined to distinguish between the black and white of the pupil. In one embodiment of obtaining a pupil radius, the brightness range of the image area covered by the inner mask is obtained by increasing pixels by 6 pixels within the range of 6 to 10 pixels within the radius range of the horseshoe template, and then the brightness of the area. The radius of the darkest and the largest radius is determined as the pupil radius.
이와 같이 하여, 상기와 같은 평균값 계산과 비교 및 눈동자 반지름 계산을 통해 눈동자 후보군의 각 픽셀에 대한 픽셀의 x,y 좌표값 및 그 때의 눈동자 반지름을 메모리에 저장해 놓는다. In this way, the x, y coordinate values and the pupil radius at that time for each pixel of the pupil candidate group are stored in the memory through the above average value calculation, comparison, and pupil radius calculation.
그 후 본 발명에 따른 검출 방법은 눈동자 최종후보 결정 단계(104)로 진행된다. 이 단계에서, 최종 눈동자 위치는, 각 눈동자 후보별로 해당 반지름을 기준으로 반지름 내부 밝기값 평균과 반지름 외부 밝기값 평균을 구한 후 그 차이값이 가장 큰 후보를 선택한다. 차이값이 같은 후보가 둘 이상 있을 경우에는 내부 밝기값이 가장 작은 후보를 선택한다. 또한, 이 때 밝기값 평균을 구할 때, 원형이 아닌 도6의 말발굽 템플릿과 같은 형태로 계산한다. The detection method according to the present invention then proceeds to the pupil final candidate determination step 104. In this step, the final pupil position is obtained for each pupil candidate based on the radius, the average radius inner brightness value and the radius outer brightness value average, and then select the candidate having the largest difference. If there is more than one candidate with the same difference, the candidate having the smallest internal brightness is selected. In addition, at this time, when the average value of the brightness value is calculated, it is calculated in the same form as the horseshoe template of FIG.
또한 본 발명의 바람직할 일 실시예에서는 내부 밝기값 평균을 구하기 전에, 눈동자 안쪽의 하이라이트가 제거된 평균값을 구한다(도7 참조). 하이라이트를 제거하는 일 실시예에서, 눈동자 내부의 모든 픽셀값에 대해. 1차적으로 구한 밝기값 평균보다 (밝기를 256단계로 나눈 경우) 50이상 밝은 픽셀에 대해서는 합산에서 제외하고 평균을 구한다. In addition, in an exemplary embodiment of the present invention, the average value of the inner highlight of the pupil is removed before the average of the internal brightness values is obtained (see FIG. 7). In one embodiment of removing highlights, for every pixel value inside the pupil. Pixels brighter than 50 (in case of dividing the brightness into 256 levels) above the first averaged brightness value are calculated by excluding them from the summation.
이상과 같이 눈동자 후보군 중에서 최종 후보를 결정하면, 다음 단계(105)에서 결정된 눈동자 위치에 대한 보정 및 재검출 작업이 진행된다. 이와 관련하여 도8은 검출된 눈동자 위치에 대한 보정 및 재검출 작업의 바람직한 일 실시예를 도시하고 있다. When the final candidate is determined from the pupil candidate group as described above, the correction and redetection operation for the pupil position determined in the next step 105 is performed. In this regard, Fig. 8 shows one preferred embodiment of the correction and redetection operations for the detected pupil positions.
상기 일 실시예에서, 왼쪽과 오른쪽 눈동자 각각에 대해 디텍팅한 좌표가 실제의 눈동자 좌표가 맞는지를 판단하기 위해 디텍팅된 좌표를 기준으로 템플릿 매칭을 수행한다. 즉, 도3(d)의 눈 추출범위를 중앙을 대칭으로 접어서 겹치게 했을 때, 이론적으로는 검출된 오른쪽 눈동자 및 왼쪽 눈동자 위치가 일치해야 하지만, 실제 검출된 위치는 약간 차이가 날 수 있다. 이 때 양쪽 눈동자의 후보 좌표의 거리차 이가 큰 경우(일 실시예에서, 거리차이가 20 픽셀 이상일 때), 눈동자 모양으로서 적합한지 여부를 판단하기 위해 템플릿을 이용하여 좌우 눈동자 후보 좌표의 적합도를 각각 계산하여, 둘 중 적합도가 낮은 쪽은 후보군들에 템플릿 적용하여 적합도가 높은 곳을 재검출한다. 이 때, 사용되는 템플릿은 예컨대 왼쪽 눈에 대한 템플릿을 도8의 좌측 그림과 같이 미리 생성하여 놓고 오른쪽 눈에 대한 템플릿은 이 왼쪽 눈 템플릿을 대칭시켜서 생성하는 방식으로 좌우 눈에 대한 템플릿을 만들 수 있다. 또한 이 때의 템플릿 형상은, 이미 디텍팅되어 위치 결정된 눈동자 후보에 대해 적용하는 것이므로, 정확한 눈모양일 필요는 없고, 도8에 도시된 것처럼 대강의 눈동자 형태를 갖는 것으로 미리 설정하여도 무방하다. In the above embodiment, template matching is performed based on the detected coordinates in order to determine whether the coordinates detected for each of the left and right pupils are correct. That is, when the eye extraction range of FIG. 3 (d) is folded and symmetrically overlapped in the center, theoretically, the detected right eye and left eye positions should coincide, but the actual detected position may be slightly different. In this case, when the distance difference between the candidate coordinates of both pupils is large (in one embodiment, when the distance difference is 20 pixels or more), the suitability of the left and right pupil candidate coordinates is respectively determined by using a template to determine whether the pupil is suitable as the pupil shape. By calculating, the one with the low suitability of the two is templated to the candidate groups and rediscovered with the high suitability. At this time, the template for the left eye can be created by creating a template for the left eye in advance, as shown in the left figure of FIG. 8, and a template for the right eye by mirroring the left eye template. have. In addition, since the template shape at this time applies to the already-detected and positioned pupil candidate, it does not need to be an exact eye shape, but may be preset to have a rough eye shape as shown in FIG.
한편, 양쪽 눈동자의 후보 좌표의 거리차이가 20 픽셀 미만일 경우에는 두 후보 좌표를 기준으로 각각 5×5 픽셀 영역(즉 25개의 픽셀)에 대해서만 상기 템플릿을 적용하여 좀더 세밀하게 눈동자 위치좌표를 개선할 수 있다. On the other hand, if the distance difference between the candidate coordinates of both pupils is less than 20 pixels, the template is applied only for 5 × 5 pixel regions (ie 25 pixels) based on the two candidate coordinates to improve the pupil position coordinates more precisely. Can be.
이상과 같이, 본 발명에 따르면 도3 내지 도8을 참조하여 설명한 상기 단계를 수행함으로써 얼굴 이미지에서 눈동자의 최종 위치 및 그 때의 눈동자 반지름을 구할 수 있게 된다. 그 후 상기 방법으로 결정된 눈동자 위치 및 반지름은 후속 단계에서 눈동자 외의 다른 기본 특징점 및 눈썹, 코, 입술, 턱선 등의 전체 특징점을 결정하는 기본 데이터로 사용된다. As described above, according to the present invention, the final position of the pupil in the face image and the pupil radius at that time can be obtained by performing the above steps described with reference to FIGS. 3 to 8. The pupil position and radius determined by the method are then used as basic data to determine other basic feature points other than the pupil and the overall feature points of the eyebrows, nose, lips, jawline, etc. in subsequent steps.
그런데 상기와 같이 디텍팅된 눈동자 위치 및 크기(반지름)를 그대로 사용해도 무방하지만, 보다 정확히 디텍팅하기 위해 눈동자 위치의 보정 및/또는 재검출 단계를 추가로 수행해도 무방하다. However, although the detected pupil position and size (radius) may be used as it is, the correction and / or redetection of the pupil position may be further performed in order to detect more accurately.
이와 관련하여 도9는 도3 내지 도8까지의 실시예에 따라 디텍팅된 눈동자 위치에 대한 2차 보정 및 재검출을 행하는 단계를 나타내는 순서도이고, 도10은 상기 2차 보정 및 재검출을 위한 이미지 초기화 단계를 예시하고, 도11은 2차 보정 및 재검출을 수행하는 일 실시예를 예시하는 도면이다. In this regard, FIG. 9 is a flowchart illustrating a step of performing secondary correction and redetection on the detected pupil positions according to the embodiments of FIGS. 3 to 8. FIG. 10 is a flowchart illustrating the second correction and redetection. Illustrating an image initialization step, FIG. 11 is a diagram illustrating an embodiment of performing secondary correction and redetection.
이미지 준비단계(201)는 도8까지 수행함으로써 디텍팅한 눈동자 위치를 기준으로 좀더 세밀한 좌표 디텍팅을 행하기 위해 필요한 이미지를 준비하는 단계이다. 일 실시예에서, 도10에 도시된 것처럼 디텍팅된 좌우 눈동자 각각을 중심으로 일정 크기의 이미지(예컨대 60×40 픽셀)를 선택하고, 노이즈를 제거하기 위해 미디언 필터링을 예컨대 2회 실시한다. 그 후 이미지 크기를 1.5배 확대하고, R 채널로 추출한다. The image preparation step 201 is a step of preparing an image necessary for performing finer coordinate detection based on the detected pupil position by performing up to FIG. 8. In one embodiment, an image of a certain size (eg, 60 × 40 pixels) is selected around each of the detected left and right pupils as shown in FIG. 10, and median filtering is performed twice, for example, to remove noise. The image is then enlarged 1.5 times and extracted into the R channel.
그 후 도11a에 도시된 것처럼 도6의 말발굽 템플릿 적용단계와 유사한 단계를 수행한다. 도11a에서는, 반지름이 8 내지 19 픽셀인 크기를 갖는 제2 말발굽 모양의 템플릿을 생성하여 (혹은, 메모리에 미리 저장되어 있던 상기 템플릿을 불러내어) 도10의 좌우 눈동자 이미지에 각각 적용시킨다. Thereafter, as shown in FIG. 11A, a step similar to the step of applying the horseshoe template of FIG. 6 is performed. In FIG. 11A, a second horseshoe-shaped template having a size of 8 to 19 pixels in radius is generated (or retrieved from the template previously stored in memory) and applied to the left and right eye images of FIG.
바람직한 일 실시예에서 제2 말발굽 템플릿은 45×45 픽셀 크기를 가진다. 또한 제2 말발굽 템플릿은 검은자위 영역, 흰자위 영역, 및 계산 불필요 영역을 각각의 별도의 마스크로 구성할 수도 있지만, 바람직한 일 실시예에서는 도11a에 도시된 것처럼 검은자위 영역, 흰자위 영역, 및 계산 불필요 영역으로 이루어진 하나의 마스크로 제2 말발굽 템플릿을 구성한다. In a preferred embodiment the second horseshoe template has a size of 45 × 45 pixels. In addition, although the second horseshoe template may comprise the black region, the white region, and the calculation-free region as separate masks, in a preferred embodiment, as shown in FIG. 11A, the black masturbation region, the white region, and no calculation are required. The second horseshoe template is made up of one mask consisting of the areas.
이와 같이 반지름 8~19 픽셀 범위로 제2 말발굽 템플릿을 각 반지름별로 생성하여, 이미 디텍팅된 눈동자 중심위치에서 상하좌우 10픽셀 범위내의 픽셀들에 대해, 제2 템플릿의 흰자위 부분에 의해 커버되는 이미지 영역의 밝기 평균값과 제2 템플릿의 검은자위 부분에 의해 커버되는 이미지 영역의 밝기 평균값을 계산한다. 밝기 평균값의 차이가 클수록 눈동자 중심에 가깝다는 의미이므로, 상기 밝기 평균값의 차이가 가장 큰 경우의 눈동자 위치를 최종 눈동자 위치로 결정한다. As such, a second horseshoe template is created for each radius with a radius of 8 to 19 pixels, and the image covered by the white part of the second template is applied to pixels within 10 pixels of the top, bottom, left, and right positions of the detected eye center. The brightness average value of the area and the brightness average value of the image area covered by the black masturbation portion of the second template are calculated. Since the greater the difference in brightness average value means the closer to the center of the pupil, the pupil position when the difference in brightness average value is greatest is determined as the final pupil position.
이상과 같이 도9 내지 도11에서 설명한 제2 보정 및 재검출 단계는 도8까지의 단계를 통해 이미 디텍팅된 결과에 템플릿을 적용하여 수행하는 것이기 때문에 보다 세밀한 보정 효과를 나타낸다. 그러나 일 실시예에서는 도3 내지 도8까지의 단계만으로도 필요에 충분한 정도의 정확성을 가진 눈동자 검출이 가능하기 때문에 이러한 제2 보정 및 재검출 단계를 생략할 수 있다. As described above, since the second correction and redetection steps described with reference to FIGS. 9 to 11 are performed by applying a template to the results already detected through the steps up to FIG. 8, the second correction and redetection steps have more detailed correction effects. However, in the exemplary embodiment, the second correction and redetection step may be omitted since the pupil detection with the accuracy enough to be necessary may be performed by only the steps of FIGS. 3 to 8.
이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되지 않고 다양한 변형이 가능하다. 예컨대, 도3의 이미지 준비단계(101)와 디텍팅 시작위치 찾기 단계(102)는 서로 바뀌어도 무방하다. 즉 단계(102)가 먼저 실행되어 마스크를 적용하기 위한 y값이 먼저 결정된 다음, 원본 얼굴 이미지에서 눈 추출범위를 선택하여 상기 y값 위치에서부터 눈동자 후보군을 찾는 단계(103)를 수행할 수도 있다. 또한 본 발명의 일 실시예에서 언급된 마스크(11), 도6의 말발굽 템플릿, 도8의 양쪽 눈 템플릿, 도11a의 제2 말발굽 템플릿에 대한 정보는 얼굴검출 디바이스의 메모리 내에 미리 저장되어 있을 수도 있고, 각 단계에서 특정 템플릿이 요구될 때마다 이 템플릿을 생성하는 미리 정해진 함수에 따라 생성되어 사용될 수도 있다. The present invention described above is not limited to the above-described embodiment and the accompanying drawings, and various modifications are possible. For example, the
보안 및 엔터테인먼트 산업분야 등에 적용가능하다.Applicable to security and entertainment industries.
도1은 얼굴 이미지 파일에서 얼굴의 특징점을 검출하는 단계를 간단히 나타내는 순서도, 1 is a flow chart briefly illustrating a step of detecting feature points of a face in a face image file;
도2는 얼굴 특징점 중 눈동자 위치를 검출하는 단계를 나타내는 순서도,2 is a flowchart showing a step of detecting a pupil position among facial feature points;
도3은 눈동자 검출을 위한 이미지 준비단계를 예시하는 도면,3 is a diagram illustrating an image preparation step for pupil detection;
도4a 및 도4b는 얼굴 이미지에서 눈동자 디텍팅 시작위치를 찾는 단계를 예시하는 도면,4A and 4B illustrate a step of finding a pupil detecting starting position in a face image;
도5는 눈동자 디텍팅으로 눈동자 후보군을 찾는 단계를 예시하는 도면,5 is a diagram illustrating a step of finding a pupil candidate group by pupil detection;
도6은 눈동자 디텍팅에 사용되는 마스크의 일 실시예를 나타내는 도면, 6 illustrates an embodiment of a mask used for pupil detection;
도7은 눈동자 최종 후보를 결정하는 단계를 예시하는 도면,7 illustrates a step of determining a pupil final candidate;
도8은 눈동자 후보의 보정/재검출 단계를 예시하는 도면, 8 illustrates a correction / redetection step of a pupil candidate;
도9는 도3 내지 도8의 단계에 의해 검출된 눈동자 위치에 대한 2차 보정/재검출을 행하는 단계를 나타내는 순서도, 9 is a flowchart showing a step of performing secondary correction / redetection on the pupil position detected by the steps of FIGS. 3 to 8;
도10은 상기 2차 보정/재검출을 위한 이미지 초기화 단계를 예시하는 도면,10 is a diagram illustrating an image initialization step for the secondary correction / redetection;
도11은 2차 보정/재검출을 수행하는 일 실시예를 예시하는 도면. Figure 11 illustrates one embodiment of performing secondary correction / redetection.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090075731A KR100950138B1 (en) | 2009-08-17 | 2009-08-17 | A method for detecting the pupils in a face image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090075731A KR100950138B1 (en) | 2009-08-17 | 2009-08-17 | A method for detecting the pupils in a face image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100950138B1 true KR100950138B1 (en) | 2010-03-30 |
Family
ID=42183935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090075731A KR100950138B1 (en) | 2009-08-17 | 2009-08-17 | A method for detecting the pupils in a face image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100950138B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9762773B2 (en) | 2015-03-26 | 2017-09-12 | Omron Corporation | Image processing apparatus and method for increasing sharpness of images |
WO2018105830A1 (en) * | 2016-12-07 | 2018-06-14 | 주식회사 쓰리이 | Pupil center detection method |
CN110598635A (en) * | 2019-09-12 | 2019-12-20 | 北京大学第一医院 | Method and system for face detection and pupil positioning in continuous video frames |
CN112989878A (en) * | 2019-12-13 | 2021-06-18 | Oppo广东移动通信有限公司 | Pupil detection method and related product |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100361497B1 (en) | 1999-01-08 | 2002-11-18 | 엘지전자 주식회사 | Method of extraction of face from video image |
KR20050007427A (en) * | 2002-06-03 | 2005-01-17 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Face-recognition using half-face images |
-
2009
- 2009-08-17 KR KR1020090075731A patent/KR100950138B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100361497B1 (en) | 1999-01-08 | 2002-11-18 | 엘지전자 주식회사 | Method of extraction of face from video image |
KR20050007427A (en) * | 2002-06-03 | 2005-01-17 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Face-recognition using half-face images |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9762773B2 (en) | 2015-03-26 | 2017-09-12 | Omron Corporation | Image processing apparatus and method for increasing sharpness of images |
WO2018105830A1 (en) * | 2016-12-07 | 2018-06-14 | 주식회사 쓰리이 | Pupil center detection method |
KR101866867B1 (en) * | 2016-12-07 | 2018-06-14 | 주식회사 쓰리이 | Method for detecting center of pupil |
US10383515B2 (en) | 2016-12-07 | 2019-08-20 | 3E Co., Ltd. | Method of detecting pupil center |
CN110598635A (en) * | 2019-09-12 | 2019-12-20 | 北京大学第一医院 | Method and system for face detection and pupil positioning in continuous video frames |
CN110598635B (en) * | 2019-09-12 | 2022-05-27 | 北京大学第一医院 | Method and system for face detection and pupil positioning in continuous video frames |
CN112989878A (en) * | 2019-12-13 | 2021-06-18 | Oppo广东移动通信有限公司 | Pupil detection method and related product |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10304166B2 (en) | Eye beautification under inaccurate localization | |
CN107771336B (en) | Feature detection and masking in images based on color distribution | |
US10616475B2 (en) | Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium | |
US8625859B2 (en) | Information processing apparatus, information processing method, and program | |
KR101733512B1 (en) | Virtual experience system based on facial feature and method therefore | |
US8520089B2 (en) | Eye beautification | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
CN105205480B (en) | Human-eye positioning method and system in a kind of complex scene | |
US20180204052A1 (en) | A method and apparatus for human face image processing | |
JP2006012062A (en) | Image processor and its method, program and imaging device | |
JP2007272435A (en) | Face feature extraction device and face feature extraction method | |
CN111814564A (en) | Multispectral image-based living body detection method, device, equipment and storage medium | |
KR100950138B1 (en) | A method for detecting the pupils in a face image | |
KR101827998B1 (en) | Virtual experience system based on facial feature and method therefore | |
Rahman et al. | Real-time face-priority auto focus for digital and cell-phone cameras | |
JP4148903B2 (en) | Image processing apparatus, image processing method, and digital camera | |
CN110766631A (en) | Face image modification method and device, electronic equipment and computer readable medium | |
CN113837020B (en) | Cosmetic progress detection method, device, equipment and storage medium | |
JP6467817B2 (en) | Image processing apparatus, image processing method, and program | |
TWI743413B (en) | Single-photo generating device and method and non-volatile computer-readable media thereof | |
JP6467994B2 (en) | Image processing program, image processing apparatus, and image processing method | |
CN113837018A (en) | Cosmetic progress detection method, device, equipment and storage medium | |
JP5603258B2 (en) | Detection apparatus and detection method | |
KR20210050649A (en) | Face verifying method of mobile device | |
Rahman et al. | Real-time face-based auto-focus for digital still and cell-phone cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130118 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140121 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150106 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20151222 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170203 Year of fee payment: 8 |