KR20020019629A - A method of the feature extraction of eyes - Google Patents

A method of the feature extraction of eyes Download PDF

Info

Publication number
KR20020019629A
KR20020019629A KR1020000046744A KR20000046744A KR20020019629A KR 20020019629 A KR20020019629 A KR 20020019629A KR 1020000046744 A KR1020000046744 A KR 1020000046744A KR 20000046744 A KR20000046744 A KR 20000046744A KR 20020019629 A KR20020019629 A KR 20020019629A
Authority
KR
South Korea
Prior art keywords
eye
image
region
eyes
feature extraction
Prior art date
Application number
KR1020000046744A
Other languages
Korean (ko)
Other versions
KR100380957B1 (en
Inventor
이필규
김동훈
Original Assignee
조양호
학교법인 인하학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조양호, 학교법인 인하학원 filed Critical 조양호
Priority to KR10-2000-0046744A priority Critical patent/KR100380957B1/en
Publication of KR20020019629A publication Critical patent/KR20020019629A/en
Application granted granted Critical
Publication of KR100380957B1 publication Critical patent/KR100380957B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

PURPOSE: A method for extracting eye features is provided to detect precisely and rapidly the feature areas of the eyes by detecting the slope of an image area and applying the image of the eyes to a template model. CONSTITUTION: A gray level image is inputted through a CCD(Charge Coupled device)(10). It is judged that eye information exists in the inputted image(20). In case that image information doesn't exist, face candidate areas are selected through a face detection algorithm(30). Then, as image preprocessing for the eye image is carried out(40), eye features are extracted(50). If eye feature extraction is completed, extracted eye feature information is transmitted.

Description

눈의 특징 추출방법{A method of the feature extraction of eyes}A method of the feature extraction of eyes}

본 발명은 영역 기울기를 이용하여 눈의 특징을 추출하는 눈의 특징 추출방법에 관한 것으로서, 더욱 상세하게는 얼굴인식, 얼굴 인증, 얼굴 애니메이션, 표정 추출, 사용자 인터페이스, 및 드라이버 알람(driver alarm) 등에 적용되는 눈의 특징 추출방법에 관한 것이다.The present invention relates to an eye feature extraction method for extracting eye features using area gradient, and more particularly, to face recognition, face authentication, face animation, facial expression extraction, user interface, driver alarm, and the like. The present invention relates to a method of extracting eye features to be applied.

일반적으로 얼굴인식, 얼굴 인증, 얼굴 애니메이션, 표정 추출, 사용자 인터페이스, 및 드라이버 알람(driver alarm) 등의 분야에서는 정확성의 향상을 위하여 얼굴 영상에서 눈의 특징을 추출하고 있다.In general, in the fields of face recognition, face authentication, facial animation, facial expression extraction, user interface, and driver alarm, eye features are extracted from facial images to improve accuracy.

특히 눈의 특징을 추출하는 과정에서는 그 영역을 분할하는 방법이 주로 사용되고 있는데, 얼굴 영상에서 눈의 특징 영역 분할은 다음의 조건을 만족해야 한다.In particular, in the process of extracting eye features, the segmentation method is mainly used. The segmentation of eye features in the face image must satisfy the following conditions.

1. 실시간으로 눈의 특징 추출이 가능해야 한다.1. It should be possible to extract the eye features in real time.

2. 정확한 눈의 영역을 추출해야 한다.2. Extract the correct eye area.

3. 잡음이나 조명의 영향을 최소로 할 수 있는 특징 영역을 추출해야한다.3. Extract feature areas to minimize noise and light effects.

4. 기울어진 얼굴 영상에서도 눈의 특징 추출이 가능해야 한다.4. It should be possible to extract the features of the eyes from the tilted face image.

5. 좌우로 돌아간 얼굴 영상에서도 눈의 특징 추출이 가능해야 한다.5. Eye features should be able to be extracted from face images turned left and right.

6. 눈의 깜빡임 정보를 뽑아 낼 수 있어야 한다.6. Be able to extract eye blink information.

7. 눈의 특징을 자동으로 검출해 낼 수 있어야 한다.7. Be able to automatically detect eye features.

결국 영역의 기울기 검출 방법을 사용하여 눈의 특징영역을 분할해 내는데있어서, 효율성, 정확성 및 수행 속도의 향상을 성취하기 위해서는 상기의 7가지 조건을 만족하여야 한다.As a result, the above seven conditions must be satisfied in order to achieve an improvement in efficiency, accuracy, and performance in dividing the eye feature region using the tilt detection method of the region.

종래 기술에 있어서 얼굴 이미지에서 눈의 특징을 추출하는 방법은 크게 특징 기반 매칭방법과, 템플릿 기반 매칭방법으로 구분된다.In the prior art, a method of extracting eye features from a face image is largely classified into a feature-based matching method and a template-based matching method.

상기 특징기반 매칭방법은 에지, 벨리, 세그멘테이션에 의한 방법을 사용하여 특징 영역에 대한 특징을 정확히 분리해 냄으로써 눈의 특징 영역을 분리 해낸다. 그러나 상기와 같은 특징 기반 매칭방법은 실시간으로 추출이 가능하다는 장점은 있으나, 상기의 7가지 조건 중 2,3,4,5,6,7 조건을 만족시키지 못하는 문제점이 있다.The feature-based matching method separates the feature region of the eye by accurately separating the feature of the feature region using a method of edge, valley, and segmentation. However, the feature-based matching method as described above has the advantage that it can be extracted in real time, but there is a problem that does not satisfy the conditions 2, 3, 4, 5, 6, 7 of the seven conditions.

또한 상기 템플릿 기반 매칭방법은 미리 정의된 템플릿 모델을 사용하여 특징 영역을 분리 해내는 방법으로서, 정의된 템플릿 모델의 에너지 방정식에 의하여 정확한 특징 영역을 분리 해낸다. 그러나 상기 적용되는 템플릿 모델은 사용하는 파라미터에 따라 수렴 속도가 결정되지만 대부분의 템플릿 모델은 수렴 속도가 느리다는 문제점을 가지고 있다. 또한 초기 영역을 잡아 줌으로 인해서 조건 7을 만족하지 못하게 되고, 조건 3,4 의 경우에 대해서는 템플릿 모델을 적용하는데 있어서 눈썹의 영역을 눈의 영역으로 분리해 냄으로써, 눈의 특징 영역 검출이 힘들다는 문제점이 있다.In addition, the template-based matching method is a method of separating a feature region using a predefined template model, and separates an exact feature region by an energy equation of the defined template model. However, although the convergence speed is determined according to the parameter used for the applied template model, most template models have a problem of slow convergence speed. In addition, the condition 7 is not satisfied due to the initial area, and in the case of conditions 3 and 4, it is difficult to detect the feature area of the eye by separating the eyebrow area into the eye area in applying the template model. There is a problem.

상기와 같은 각각의 문제점 해결을 위하여 두 가지 방법 즉, 특징 기반 매칭방법과 템플릿 기반 매칭방법을 혼합한 방법이 제안되기도 했는데, 이와 같은 방법에서도 조건 3,4를 여전히 해결할 수 없는 문제점이 발생하였다.In order to solve the above problems, a combination of two methods, that is, a feature-based matching method and a template-based matching method, has also been proposed. In this method, however, there is a problem that conditions 3 and 4 cannot be solved.

또한 최근에 조명이나 잡음의 문제 해결을 위하여 웨이브릿(wavelet) 방법을 적용하여 눈의 특징 영역을 분리하는 방법이 제안되기도 하였으나, 이와 같은 방법에서도 조건 1을 만족시킬 수 없는 문제점이 발생하였다.Also, recently, a method of separating a feature region of an eye by applying a wavelet method has been proposed to solve an illumination or noise problem. However, a problem that cannot satisfy condition 1 also occurs in such a method.

본 발명은 눈의 특징을 추출함에 있어서, 최소 자승법을 통하여 이미지 영역의 기울기를 검출하고, 눈의 이미지를 템플릿 모델에 적용함으로써 눈의 특징 영역을 정확하고 신속하게 검출할 수 있는 방법을 제공함에 있다.The present invention provides a method for accurately and quickly detecting the feature region of an eye by extracting an eye feature, detecting an inclination of an image region through a least square method, and applying the eye image to a template model. .

상기와 같은 목적을 달성하기 위한 본 발명에 있어서,In the present invention for achieving the above object,

그레이 레벨 이미지가 CCD를 통해 입력되는 제 1 단계;A first step of inputting a gray level image through the CCD;

상기 입력된 이미지에서 눈에 대한 정보가 파악되어 있는지 판단하는 제 2 단계;A second step of determining whether information on eyes is recognized in the input image;

상기에서 눈에 대한 정보가 파악되지 않을 때 눈에 대한 이미지를 찾기 위해 얼굴 탐색 알고리즘을 사용하는 제 3 단계;A third step of using a face search algorithm to find an image of the eye when the information on the eye is not detected;

눈에 대한 이미지를 전처리하는 제 4 단계;A fourth step of preprocessing the image for the eye;

추출된 눈의 특징 정보를 전송하는 제 5 단계로 구성됨을 특징으로 한다.And a fifth step of transmitting the extracted feature information of the eye.

도 1은 본 발명의 실시예에 따라 눈의 특징을 추출하는 과정을 나타내는 흐름도1 is a flowchart illustrating a process of extracting eye features according to an embodiment of the present invention.

도 2는 본 발명의 얼굴 후보영역에서 눈의 위치를 탐지하기 위한 탐색영역을 나타내는 도면2 is a diagram illustrating a search region for detecting the position of an eye in a face candidate region of the present invention.

도 3은 본 발명에서 적용되는 최소 자승법을 설명하기 위한 도면3 is a diagram for explaining a least squares method applied in the present invention.

도 4는 본 발명에서 영역 분리 과정을 설명하기 위한 도면4 is a view for explaining a region separation process in the present invention;

도 5는 본 발명의 영역 분리 과정에서 기준이 되는 이진화 픽셀을 설명하기 위한 도면5 is a diagram for describing a binarization pixel as a reference in the region separation process of the present invention.

도 6은 본 발명에서 사용된 양쪽 눈의 템플릿 모델을 나타내는 도면6 shows a template model of both eyes used in the present invention.

도 7은 본 발명에서 사용된 타원 템플릿 모델을 나타내는 도면7 shows an elliptic template model used in the present invention.

도 8은 본 발명에서 타원 템플릿 모델의 타당성을 설명하기 위한 도면8 is a view for explaining the validity of the elliptic template model in the present invention

도 9는 본 발명에서 탐색영역의 이동거리를 계산하는 과정을 설명하기 위한 도면9 is a view for explaining a process of calculating the moving distance of a search area in the present invention.

본 발명의 상술한 목적과 여러 가지 장점은 이 기술분야에 숙련된 사람들에 의해, 첨부된 도면을 참조하여 후술되는 본 발명의 바람직한 실시예로부터 더욱 명확하게 될 것이다.The above objects and various advantages of the present invention will become more apparent from the preferred embodiments of the present invention described below with reference to the accompanying drawings by those skilled in the art.

이하 본 발명에 의한 눈의 특징 추출방법의 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명하고자 한다.Hereinafter, exemplary embodiments of an eye feature extraction method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따라 눈의 특징을 추출하는 과정을 나타내는 흐름도이고, 도 2는 본 발명의 얼굴 후보영역에서 눈의 위치를 탐지하기 위한 탐색영역을 나타내는 도면이고, 도 3은 본 발명에서 적용되는 최소 자승법을 설명하기 위한 도면이고, 도 4는 본 발명에서 영역 분리 과정을 설명하기 위한 도면이고, 도 5는 본 발명의 영역 분리 과정에서 기준이 되는 이진화 픽셀을 설명하기 위한 도면이고, 도 6은 본 발명에서 사용된 양쪽 눈의 템플릿 모델을 나타내는 도면이고, 도 7은 본 발명에서 사용된 타원 템플릿 모델을 나타내는 도면이고, 도 8은 본 발명에서 타원 템플릿 모델의 타당성을 설명하기 위한 도면이고, 도 9는 본 발명에서 탐색영역의 이동거리를 계산하는 과정을 설명하기 위한 도면이다.1 is a flowchart illustrating a process of extracting eye features according to an embodiment of the present invention, FIG. 2 is a view showing a search area for detecting the position of the eye in the face candidate area of the present invention, and FIG. 4 is a view for explaining a least square method applied to the present invention, FIG. 4 is a view for explaining a region separation process in the present invention, and FIG. 5 is a view for explaining a binarization pixel as a reference in the region separation process of the present invention. 6 is a view showing a template model of both eyes used in the present invention, FIG. 7 is a view showing an elliptic template model used in the present invention, Figure 8 is a view for explaining the validity of the elliptic template model in the present invention 9 is a view for explaining a process of calculating the moving distance of a search area in the present invention.

우선 도 1에서, 정면 또는 두 눈을 확인할 수 있는 그레이 레벨(gray level)의 이미지가 CCD(charge coupled device)를 통해 입력되고 이미지 캡쳐(image capture)단계 10를 거친 후 실시간으로 눈의 특징을 검출한다. 눈의 특징 검출 순서는 상기 단계 10을 통해 이미지를 입력받고, 상기 이미지 정보에서 눈에 대한 정보가 있는가 판단하는 아이 인포메이션(eye information)단계 20에 의해 정보 유무를 판단 후 정보가 있으면 이미지를 전처리(image preprocessing)하는 단계 40으로 가고 정보가 없으면 얼굴을 탐색하는 알고리즘(face detection algorism)을 통해 얼굴의 후보 영역을 선택하는 단계 30을 거쳐 이미지를 전처리(imagepreprocessing)하는 단계 40으로 진행한다. 상기 이미지를 전처리(image preprocessing)하는 단계 40에서 전기적인 잡음제거와 영역 분할과 연결된 영역의 오류 방지와 연결된 영역의 기울기 검출 순서로 진행하여 세션화 과정을 완료하면 눈의 특징을 추출(feature extraction)하는 단계 50으로 진행하고 상기 단계 50이 완료되면 눈의 특징을 가진 영역 정보를 전송하는 과정을 거치는 눈의 특징 추출 방법을 나타낸다.First, in FIG. 1, a gray level image that can identify the front or both eyes is input through a charge coupled device (CCD), and after the image capture step 10, detects eye characteristics in real time. do. In order to detect the feature of the eye, the image is input through the step 10, and the eye information step 20 determines whether there is information on the eye in the image information. If there is no information, the process proceeds to the step 40 of image preprocessing, and the step 30 of selecting a candidate region of the face through face detection algorism if there is no information, and proceeds to the step 40 of preprocessing the image. In step 40 of pre-processing the image, the feature of eye extraction is completed when the process of sessionization is completed by proceeding with electric noise reduction and error prevention of the region connected with region segmentation. In step 50 of the present invention, when the step 50 is completed, the eye feature extraction method undergoes a process of transmitting region information having eye features.

상기 단계 10에서 CCD를 통해 들어온 그레이 이미지 중 처음 들어온 이미지에 얼굴 탐색 알고리즘 단계 30을 적용한다. 얼굴 탐색 알고리즘 단계 30은 전체 이미지 영역에서 모자이크 방법과 화상의 윤곽선이나 영역의 경계선을 알아내는 에지 검출 방법을 이용한 계층적인 지식 기반 방법을 사용한다. 그리고 입력된 이미지에 대하여 모자이크 방법으로 처리후 신경망 출력을 통한 다수개의 영역 선택 방법을 사용하여 얼굴의 후보 영역을 구한다.In step 10, the face search algorithm step 30 is applied to the first image of the gray image input through the CCD. The face search algorithm step 30 uses a hierarchical knowledge-based method using a mosaic method and an edge detection method for detecting the contours or boundary lines of an image in the entire image area. The candidate image of the face is obtained by using a plurality of region selection methods through neural network output after processing the input image by a mosaic method.

상기 언급한 얼굴 후보 영역에 대하여, 초기에는 각각의 얼굴 후보에 대해 이진화(2치화) 이미지를 구하고, 눈을 탐색한다. 나머지 프레임에 대해서는 이전 프레임의 정보를 사용하여 탐색 영역으로 이동하는 방법을 사용한다.For the face candidate regions mentioned above, binarization (binarization) images are initially obtained for each face candidate, and eyes are searched. For the remaining frames, the method moves to the search area using the information of the previous frame.

상기 얼굴의 후보 영역에서 눈을 탐색하는 방법은 눈의 영역이 벗어나지 않을 만한 영역을 눈의 탐색영역으로 도 2와 같이 결정하여 최소 수행 시간에 역점을 둔다. 결정된 눈의 탐색 영역에 대하여 이미지 이진화 수행 방법은 세그멘테이션(Segmentation)과 에지 디텍션(Edge Detection) 방법을 능동적으로 혼용하여 눈의 특징이 도 3의 a와 b와 같이 가장 잘 나타나도록 하는 것이다.In the method of searching the eye in the candidate area of the face, an area in which the area of the eye does not deviate is determined as the search area of the eye as shown in FIG. The method of performing image binarization on the determined search region of the eye actively mixes segmentation and edge detection so that the eye features are best represented as shown in a and b of FIG. 3.

이 때 머리카락의 영향이나, 조명의 영향이 이미지 이진화 수행에 장애가 되므로 다수의 임계값을 추출하되 본 발명에서는 임계값을 실험 결과에 의해서 능동적으로 대처하도록 하기 위하여 최적의 임계값을 구하는 방법을 사용하였다.At this time, since the influence of the hair or the influence of the lighting is an obstacle to the performance of image binarization, a plurality of threshold values are extracted, but in the present invention, an optimal threshold value method is used to actively cope with the threshold values based on the experimental results. .

도 3의 a와 같이 눈의 이미지가 독립되어 분리되면 이상적인 영상이지만, 도 3의 b처럼 그렇지 않은 경우가 많이 있다. 즉, 눈의 가로로 연결된 선이 끈기는 현상이 많다. 더구나 눈을 감고 있는 경우, 상기 문제는 더욱 심각할 수 있다. 상기와 같은 이유로 눈의 영역이 분할되어 온전한 눈의 영역으로 추출되지 못하는 경우가 발생한다.As shown in a of FIG. 3, the image of the eye is ideally separated and separated, but in many cases, such as b of FIG. 3. In other words, the lines connected horizontally of the eyes tend to stick. Moreover, if the eyes are closed, the problem may be more serious. For the same reason as above, an eye region may be divided and extracted into an intact eye region.

본 발명에서는 가로 방향이 절단되는 현상을 방지하기 위하여 픽셀간의 연결강도를 조절하는 방법을 사용하여 연결된 영역으로 눈으로써 온전한 분리 과정을 거쳤다. 여기에서 연결 강도를 조절하는 방법은 가로 픽셀간의 연결 강도 조사와 세로 픽셀간의 연결 강도 조사로 나눌 수 있는데, 결과 값으로 이미지의 뚜렷함의 정도를 나타내는 레벨 이미지를 생성한다.In the present invention, in order to prevent the horizontal direction from being cut, the entire separation process is performed by looking into the connected area using a method of adjusting the connection strength between pixels. Here, the method of controlling the connection strength can be divided into the connection strength investigation between the horizontal pixels and the connection strength investigation between the vertical pixels. As a result, a level image representing the degree of clarity of the image is generated.

가로 연결 강도의 조사 방법은 도 4와 같이 좌측에서 우측으로 픽셀이 연속적으로 얼마나 존재하는지에 따라, 픽셀의 일정한 레벨을 결정하였다. 또 같은 방법으로 우측에서 좌측으로 픽셀의 연속적인 분포에 따라 픽셀의 일정한 레벨을 결정한다.The method of investigating the horizontal connection strength is a constant level of pixels, depending on how many pixels are continuously from left to right as shown in FIG. Was determined. In the same way, a constant level of pixels according to the continuous distribution of pixels from right to left Determine.

연결 강도에 따라 1 - 3픽셀이 떨어져 있는 경우에도 연결이 가능하도록 연결레벨을 결정한다. 상기 내용은 하기와 같이 더욱 구체화된다.Depending on the strength of the connection, the connection level is determined so that the connection can be made even when 1-3 pixels are separated. The above contents are further embodied as follows.

if () thenif ( ) then

if(Set level)if (Set level )

elseelse

if(Set level)if (Set level )

And 0 α<1 , 1< βAnd 0 α <1, 1 <β

여기서은 좌측으로부터 n번째 존재하는 픽셀이다.here Is the nth pixel present from the left.

이와 같은 방법으로,레벨 이미지를 구하여,레벨 이미지를 구한다.In this way , Obtain the level image, Obtain the level image.

세로 영역의 연결 강도도 같은 방법으로 구하는데, 상기 가로 영역의 연결 강도를 구하는 방법과 다른 점은 α, β 의 변화 폭이 가로 영역의 연결 강도 보다 작다는 점이다. 그리고 가로 영역의 연결 강도와 세로 영역의 연결 강도를 합하여, 연결 강도에 의해 생성된 이미지에 대하여 연결되는 예를 도 5를 통해 간략히 볼 수 있다.The connection strength of the vertical region is also obtained by the same method. The difference from the method of obtaining the connection strength of the transverse region is that the change width of α and β is smaller than the connection strength of the horizontal region. The sum of the connection strength of the horizontal area and the connection strength of the vertical area may be briefly illustrated with reference to FIG. 5 to connect to an image generated by the connection strength.

상기와 같은 처리로 얻은 연결된 영역의 정보에 아직도 남아 있을지 모르는 영역의 오류를 방지하고 연결된 영역이 눈의 영역으로 타당성이 있는지를 판단함이 필요한데, 이를 위하여 가로축 방향으로 연결된 영역을 픽셀들의 분포가 정규분포 또는 한쪽으로 치우친 정규분포를 이룰 수 있도록 인접 영역에 대한 영역 병합과 영역의 분리 과정을 거친다. 위 조건에 미달되는 눈의 이미지 후보는 눈의 후보영역에서 제거되는 방법으로 눈의 특징 추출을 조절한다.It is necessary to prevent the error of the area which may still remain in the information of the connected area obtained by the above process, and to determine whether the connected area is valid as the eye area. Regions are merged and separated into adjacent regions to achieve a distribution or one-sided normal distribution. The image candidates of the eye that do not meet the above conditions are controlled by eye feature extraction by removing them from the eye candidate area.

눈은 특성상 가로가 길고, 세로가 짧은 영역 분포를 나타낸다. 그리고 양쪽 눈의 영역의 기울기 분포 즉, 두 눈이 이루는 각은 도 6과 같이 대칭적인 분포를 이룬다. 즉 눈의 영역의 기울기를 구함으로써, 연결된 영역의 후보 가운데 눈의 후보 쌍으로 결정할 수 있는 하나의 방법이 결정된다. 도 6의 예는 왼쪽 눈이 아래로 내려가고, 오른쪽 눈이 위로 올라간 기울어진 얼굴에 해당되는 예이며, 설명을 쉽게 하기 위해 편의상 눈의 양쪽 가장자리가 상당히 처진 사람의 예를 나타냈다. 실제로 보통사람의 눈에서는 두 눈의 중점을 지나는 직선과 이루는 각은 이보다 작은 각이다.The eyes have a long horizontal and short vertical distribution. The slope distribution of the areas of both eyes, that is, the angle formed by the two eyes, forms a symmetrical distribution as shown in FIG. 6. In other words, by determining the slope of the eye region, one method of determining the candidate pair of eyes among the candidates of the connected regions is determined. The example of FIG. 6 corresponds to an inclined face in which the left eye is lowered and the right eye is upward. For convenience of explanation, an example of a person whose both edges of the eye are drastically sag is shown. In fact, in the eyes of ordinary people, the angle formed by the straight line passing through the center of the two eyes is smaller than this.

즉 직선 L1과 L2가 이루는 기울기()와 직선 L1과 L3가 이루는 기울기()는 하기 수학식1과 같은 결과를 보인다.That is, the slope between the straight lines L1 and L2 ( ) And the slope of the straight lines L1 and L3 ( ) Shows the same result as Equation 1 below.

따라서 연결된 영역에서 기울기 검출은 정확한 눈 이미지를 추출하기 위하여 필수적으로 이루어져야 한다.Therefore, tilt detection in the connected area must be made in order to extract an accurate eye image.

한편 도 3에서 눈의 이진화 된 이미지를 살펴보면 각 픽셀들을 가로축 세로축에 대응하는 픽셀의 분포로 정의 할 수 있다. 즉, 한 독립 변수와 이에 대응하는 종속 변수의 값을 예측하거나 추정하여 두 변수간의 관계를 표현하는 수학적 함수 관계 Y = f(X)로 명할 수 있다. 따라서 눈의 영역 픽셀의 분포는 회귀직선의 특성을 나타내는 하기 조건을 만족한다.Meanwhile, referring to the binarized image of the eye in FIG. 3, each pixel may be defined as a distribution of pixels corresponding to a vertical axis of a horizontal axis. That is, a mathematical function relationship Y = f (X) expressing a relationship between two variables by predicting or estimating a value of one independent variable and a dependent variable corresponding thereto may be called. Therefore, the distribution of the area pixels of the eye satisfies the following condition indicating the characteristics of the regression line.

(a) E( Y|x ) = (a) E (Y | x) =

(b) (b)

(c) Var () = Var () = ... Var ()(c) Var ( ) = Var ( ) = ... Var ( )

(d),, ... (d) , , ...

상기 수학식에서 (a)는 직선관계를 나타내고 (b)는 정규성을 나타내며 (c)는 등분산성을 (d)는 독립성을 나타낸다. 회귀직선의 추론 방법의 하나인 최소 자승법에 의하여 영역을 지나는 직선을 구할때 하기 수학식 2의 (a) 만큼의 오차를 갖는 (b) 직선을 추론 할 수 있다.In the above equation, (a) represents a linear relationship, (b) represents normality, (c) represents equal dispersion, and (d) represents independence. When a straight line passing through the area is obtained by the least square method, which is one of the inference methods of the regression line, it is possible to infer the straight line (b) having an error as shown in Equation 2 below.

(a) E(Y|x) = α+ βxi + ei(a) E (Y | x) = α + βxi + ei

(b) (b)

상기 수학식 2에서 α , β는 하기 수학식 3에 의하여 추론한다.In Equation 2, α, β is inferred by the following equation (3).

, ,

물론, 기울기이다.Of course, the slope to be.

눈의 위치를 탐지하기 위하여 눈이라고 할 수 있는 후보 쌍으로 묶어서, 가능한 후보쌍에 대하여 템플릿 에너지()를 구한다.In order to detect the position of the eye, it is grouped into candidate pairs called eyes, and the template energy ( )

우선 도 3-a과 도 3-b영역의 정규 분포의 정도에 따른 에너지()를 구한다. 그 다음으로 눈의 기울기 분포도에 따른 방법을 이용한 에너지()를 구한다. 그리고, 휴러스틱 규칙에 의한 에너지()를 구한다. 즉, 두눈의 후보 쌍이 면적이나 가로 세로 길이가 비슷한 정도와 눈의 영역이라고 했을 경우 그레이 레벨 상에서 좌우 픽셀의 대칭성의 정도 그리고 눈 위에 눈썹의 영역의 존재 여부에 따라 에너지를 가산한다.First, the energy according to the degree of normal distribution of the region of FIGS. ) Next, the energy using the method according to the distribution of the slope of the eye ( ) And energy by the heuristic rule ) That is, if the candidate pair of eyes is similar in area or width and length and the area of the eye, energy is added according to the degree of symmetry of the left and right pixels on the gray level and the presence of the area of the eyebrow on the eye.

if(< Threshold1) continueif ( <Threshold1) continue

if(< Threshold2) continueif ( <Threshold2) continue

if(< Threshold3) continueif ( <Threshold3) continue

=++ = + +

, n=후보 갯수 , n = number of candidates

위와 같은 방법으로 가장 큰 에너지 값을 얻은 후보가 눈의 위치로 선정된다.In this way, the candidate with the highest energy value is selected as the eye position.

눈의 보다 정확한 특징 추출의 필요성은 눈의 어떠한 상태, 즉, 감고 있거나 뜨고 있거나, 아니면 한쪽만을 뜨고 있는 상태를 포함한 눈의 깜빡임 정보까지 표현할 수 있어야 하기 때문이다. 현재까지 설명된 방법으로 추출된 영역은 눈의 위치 정보로는 사용가능 하지만, 정확한 영역 정보는 가지고 있다고 할 수 없다. 따라서 눈의 영역 정보에서 정확한 눈의 특징을 추출하기 위하여, 얼굴 영상의 처리 방법을 여러 방면으로 늘이는 것이 필요하며 이를 위해 다양한 얼굴의 상태와 기울어진 영상 및 좌우로 돌아간 영상에서도 눈의 정확한 특징 정보를 추출할 수 있는 처리 방법이 필요하다. 이를 위하여 하기와 방법을 사용한다.The necessity of extracting more accurate features of the eye is because it must be able to express eye blinking information including any state of the eye, that is, the state of being closed, floating, or only opening one side. The region extracted by the method described so far can be used as eye position information, but it cannot be said to have accurate region information. Therefore, in order to extract accurate eye features from the eye area information, it is necessary to extend the processing method of the face image in various directions. There is a need for a treatment method that can be extracted. To do this, use the following method.

눈의 형태를 표현하는 방법에는 직사각형 형태나 타원 형태로 표현하기도 하고 또는 특정함수를 사용하여 표현하기도 한다. 상기 방법 중 본 발명에서는 눈의 특징을 타원 형태로 추출하는 방법을 선택한다. 눈의 특징을 타원 형태의 템플릿으로 정의했을 때, 어떤 과정으로 에너지 함수를 정의하는가가 중요하고 어떤 데이터를 취하고 어떤 보간법을 사용하여 데이터를 보간할 지를 결정해야 함이 중요하다. 본 발명에서는 PCA(Principal components analysis)에 의한 방법으로 눈의 에너지 함수를 정의하였다. 눈에 적용한 정의된 템플릿 모형은 도 7과 같은 타원이다. 여기서 x1은 가로축을 나타내고 x2은 세로축을 나타내며 c1은 본 발명에서 적용한 타원형 템플릿 모형에서 원점으로부터 타원까지 가장 긴 길이를 나타내며 c2는 본 발명에서 적용한 타원형 템플릿 모형에서 원점으로부터 타원까지 가장 짧은 길이를 나타낸다. 상기 도 7의 타원형 템플릿 모형을 실제 이진화 된 필셀에 적용한 예를 도 8에서 볼 수 있다. 도 8은 본 발명에서 타원 템플릿 모델의 타당성을 설명하기 위한 도면으로 도 8에서 눈의 영역을 표 1의 픽셀의 데이터의 통계량를 사용하고 수학식 4에 의하여 타원의 영역으로 바꾸어 줌으로써 보다 정확한 눈의 외각 정보를 추출할 수 있다.The eye can be expressed in the form of a rectangle, an ellipse, or a specific function. Among the above methods, the present invention selects a method of extracting eye features in an elliptic form. When defining the characteristics of an eye as an elliptic template, it is important to determine how the energy function is defined and to determine which data to take and which interpolation method to use to interpolate the data. In the present invention, the energy function of the eye is defined by the method by Principal components analysis (PCA). The defined template model applied to the eye is an ellipse as shown in FIG. Here x1 represents the horizontal axis, x2 represents the vertical axis, c1 represents the longest length from the origin to the ellipse in the elliptic template model applied in the present invention and c2 represents the shortest length from the origin to the ellipse in the elliptic template model applied in the present invention. An example of applying the elliptic template model of FIG. 7 to an actual binarized fill cell can be seen in FIG. 8. 8 is a view for explaining the validity of the elliptic template model in the present invention by using the statistics of the data of the pixel of Table 1 in FIG. Information can be extracted.

StatisticStatistic X1X1 X2X2 N(Pixel)N (Pixel) NN NN MeanMean Standard deviationStandard deviation VarianceVariance CorrelationCorrelation rr

상기 표 1은 픽셀의 데이터 통계를 보여준다.Table 1 shows data statistics of pixels.

상기 방법에서 사용하는 트래킹 방법은 이전 프레임에서 찾은 영역의 특징을 이용하여, 다음 프레임에서도 가장 비슷한 영역을 찾아주는 방법이다. 그래서 탐색 영역을 결정해 주어야 하는 과정이 필요하다.The tracking method used in the above method is to find the most similar area in the next frame by using the feature of the area found in the previous frame. So we need to determine the search area.

한편 탐색 영역의 이동에 있어서, 이동 처리 시간은 탐색영역의 면적과 비례관계를 가지므로 다음 프레임에서 특징을 포함 할 수 있는 최소의 영역으로 그 탐색영역을 한정하여야 한다. 탐색 영역의 이동은 물체의 운동법칙과 이미지 중심에 얼굴 중심이 올 수 있도록 하는 가중치를 부여함으로써 가능하다. 즉 중심에서 멀어 질수록 얼굴의 이동 거리의 비율을 도 9와 같이 점점 작게 줌으로써 가능하다.On the other hand, in the movement of the search area, since the movement processing time is proportional to the area of the search area, the search area should be limited to the minimum area that can include the feature in the next frame. Movement of the search area is possible by assigning weights to the face law to the law of motion of the object and the image center. That is, as the distance from the center increases, the ratio of the moving distance of the face is gradually reduced as shown in FIG. 9.

도 9는 본 발명에서 탐색영역의 이동거리를 계산하는 과정을 설명하기 위한 도면으로 도 9에서 원의 호 부분은 반구의 한 단면을 말한다. 구의 표면에 이미지가 텍스쳐 맵핑되었을 때, 점 A에서 점 B는 실제 이미지상의 거리이다. 점 A에서 점 C 까지의 거리는 위에서 설명한 부분으로 실제 영역 이동에 사용되는 거리이다.FIG. 9 is a view for explaining a process of calculating a moving distance of a search area in the present invention. In FIG. 9, an arc portion of a circle refers to a cross section of a hemisphere. When the image is texture mapped to the surface of the sphere, point A to point B are the distances on the actual image. The distance from point A to point C is the distance used to move the actual area as described above.

이와 같은 운동 법칙에 따라 정리하면 프레임(FRAME)의 처리시간()을 전 프레임(Frame)과 비교하고 두 눈 중점의 이동 거리(), 전 프레임에서의 두 눈의 중점 이동 속도 ()를 수학식 5에 적용하여 이번 프레임 가속도(), 벡터()를 계산하여 다음 영역의 두 눈 중점이 위치할 영역을 구해진 눈의 이동 속도에 따라 결정한다.According to this law of motion, the processing time of the frame (FRAME) ) Is compared with the previous frame, and the distance ), The speed at which the binocular moves in all frames ( ) Is applied to Equation 5, this frame acceleration ( ), Vector ( ) Is determined according to the movement speed of the obtained eye.

상술한 바와 같이 본 발명은 눈의 특징 추출 발명으로 얼굴인식, 얼굴 인증, 얼굴 애니메이션, 표정 추출, 사용자 인터페이스와 특히 드라이버 알람(driver alarm) 등에 광범위하게 사용될 때 최소 자승법에 의한 영역의 기울기 검출과 타원형 템플릿 모델을 사용하므로써 효율성과 정확성 및 수행속도의 향상을 성취할 수 있는 효과가 있다.As described above, the present invention is an invention of eye feature extraction, which is widely used for face recognition, face authentication, face animation, facial expression extraction, user interface, and especially driver alarm, inclination detection and ellipse of the area by the least square method. The use of a template model has the effect of improving efficiency, accuracy and performance.

Claims (10)

영역 기울기를 이용하여 눈의 특징을 추출하는 눈의 특징 추출 방법에 있어서,In the eye feature extraction method for extracting eye features using area gradient, 그레이 레벨 이미지가 CCD를 통해 입력되는 제 1 단계;A first step of inputting a gray level image through the CCD; 상기 입력된 이미지에서 눈에 대한 정보가 파악되어 있는지 판단하는 제 2 단계;A second step of determining whether information on eyes is recognized in the input image; 상기에서 눈에 대한 정보가 파악되지 않을 때 눈에 대한 이미지를 찾기 위해 얼굴 탐색 알고리즘을 사용하는 제 3 단계;A third step of using a face search algorithm to find an image of the eye when the information on the eye is not detected; 눈에 대한 이미지를 전처리하는 제 4 단계;A fourth step of preprocessing the image for the eye; 추출된 눈의 특징 정보를 전송하는 제 5 단계로 이루어진 눈의 특징 추출 방법.An eye feature extraction method comprising a fifth step of transmitting the extracted eye feature information. 제1항에 있어서, 제 3단계는,The method of claim 1, wherein the third step is 모자이크 방법과 화상의 윤곽선이나 영역의 경계선을 알아내는 에지 검출 방법을 통해 계층적인 지식 기반 방법을 사용하여 상기 그레이 레벨의 입력된 이미지를 상기 모자이크 방법과 에지 검출 방법을 이용하여 모자이크 처리하는 제 3-1단계;A third method of mosaicing the input image of the gray level using the mosaic method and the edge detection method using a hierarchical knowledge-based method through a mosaic method and an edge detection method for finding the contour line or region boundary of an image Stage 1; 상기 모자이크 처리후 신경망 출력에 의한 다수개의 영역 선택 방법을 사용하여 얼굴의 후보 영역을 구하는 제 3-2단계로 이루어진 눈의 특징 추출 방법.3. The eye feature extraction method of claim 2, wherein the candidate region of the face is obtained by using a plurality of region selection methods by neural network output after the mosaic processing. 제1항에 있어서, 제 4단계는,The method of claim 1, wherein the fourth step is 얼굴의 후보 영역에 대하여 이진화 이미지를 구하는 제 4-1단계;Obtaining a binarization image for the candidate region of the face; 상기 이진화 이미지가 된 얼굴의 후보 영역에서 눈의 탐색 영역을 결정하는 제 4-2단계;Step 4-2 determining the search region of the eye from the candidate region of the face which has become the binarization image; 상기 결정된 눈의 탐색 영역에 대하여 이미지 이진화를 수행하는 제 4-3단계;4-3, performing image binarization on the determined search region of the eye; 상기 눈의 탐색 영역을 이미지 이진화할 때 눈의 영역이 분리되는 것을 방지하기 위하여 연결 강도를 조절하는 제 4-4단계;Adjusting connection strength to prevent separation of the eye area when the image is binarized of the search area of the eye; 상기 연결 강도를 조절하여 결과값으로 레벨 이미지를 생성하는 제 4-5단계;4-5 step of generating a level image as a result value by adjusting the connection strength; 상기 레벨 이미지를 통해 연결된 영역 이미지에서 오류를 방지하고 연결된 영역이 눈의 영역으로 타당성이 있는지 여부를 판단하는 제 4-6단계;Steps 4-6 to prevent an error in the region image connected through the level image and determine whether the connected region is valid as an eye region; 상기 눈의 영역으로 타당성이 있는 이미지가 다수일 때 눈의 위치 탐지를 위해 가능한 눈의 후보쌍을 묶어 템플릿 에너지를 구하는 제 4-7단계;Steps 4 to 7 obtaining a template energy by binding candidate pairs of possible eyes for position detection of eyes when there are a number of valid images in the eye region; 상기 템플릿 에너지 값이 가장 큰 눈의 후보쌍을 눈의 위치로 결정하는 제 4-8단계;Steps 4-8 for determining candidate eye pairs having the largest template energy values as eye positions; 상기 눈의 위치로 결정된 눈의 후보쌍에서 정확한 영역 이미지를 얻기 위하여 눈의 형태를 표현하는 방법을 사용하여 눈의 특징을 추출하는 제 4-9단계로 이루어진 눈의 특징 추출 방법.4 to 9, wherein the eye feature is extracted using a method of expressing the eye shape to obtain an accurate region image from the candidate pair of eyes determined as the eye position. 제3항에 있어서, 이미지 이진화 수행 방법은 세그멘테이션과 에지 검출 방법을 혼용한 눈의 특징 추출 방법.The method of claim 3, wherein the image binarization is performed by using a segmentation method and an edge detection method. 제3항에 있어서, 상기 연결 강도 조절 방법은 가로 픽셀간 연결 강도 조사 방법과 세로 픽셀간 연결 강도 조사 방법으로 이루어진 눈의 특징 추출 방법.The eye feature extraction method of claim 3, wherein the connection strength control method comprises a connection strength investigation method between horizontal pixels and a vertical strength connection strength investigation method. 제3항에 있어서, 최소 자승법을 사용하여 영역의 기울기를 구함으로써 연결된 영역의 후보 가운데 눈의 후보쌍으로 결정하는 눈의 특징 추출 방법.The eye feature extraction method of claim 3, wherein the slope of the region is determined by using a least square method to determine a candidate pair of eyes among candidates of the connected regions. 제3항에 있어서, 눈의 위치를 탐지하기 위하여 가능한 후보쌍에 대하여 템플릿 에너지를 구할 때 정규 분포의 정도에 따른 에너지와 눈의 기울기 분포도에 따른 방법을 이용한 에너지와 휴러스틱 규칙에 의한 에너지를 가산하여 가장 큰 에너지를 얻은 눈의 후보쌍이 눈의 위치로 결정되는 눈의 특징 추출 방법.The method according to claim 3, wherein the energy according to the degree of the normal distribution and the energy based on the heuristic rule and the energy according to the heuristic rule are added when obtaining the template energy for the possible candidate pairs for detecting the position of the eye. The eye feature extraction method in which the candidate pair of eyes with the highest energy is determined by the eye position. 제3항에 있어서, 눈의 형태 표현 방법은 타원형 템플릿 모델을 사용한 눈의 특징 추출 방법.The method of claim 3, wherein the eye shape expression method uses an elliptic template model. 영역 기울기를 이용하여 눈의 특징을 추출하는 눈의 특징 추출 방법에 있어서,In the eye feature extraction method for extracting eye features using area gradient, 그레이 레벨 이미지가 CCD를 통해 입력되는 제 1 단계;A first step of inputting a gray level image through the CCD; 상기 입력된 이미지에서 눈에 대한 정보가 파악되어 있는지 판단하는 제 2 단계;A second step of determining whether information on eyes is recognized in the input image; 상기에서 눈에 대한 정보가 파악되었을 때 눈에 대한 이미지를 전처리하는 제 3 단계;A third step of pre-processing the image of the eye when the information on the eye is identified; 추출된 눈의 특징 정보를 전송하는 제 4 단계로 이루어진 눈의 특징 추출 방법.The eye feature extraction method comprising the fourth step of transmitting the extracted eye feature information. 현 이미지 프레임의 처리시간과 상기 현 이미지 프레임과 전 이미지 프레임을 비교하여 두 눈의 중점의 이동 거리 및 전 이미지 프레임에서 현 이미지 프레임으로 이동시 발생하는 두 눈의 중점 이동 속도를 구하는 제 1 단계;A first step of comparing a processing time of the current image frame with the current image frame and a previous image frame to obtain a moving distance of the midpoint of the two eyes and a midpoint moving speed of the two eyes generated when moving from the previous image frame to the current image frame; 프레임 가속도 및 속도벡터를 계산하여 두 눈의 중점이 위치할 다음 영역을구해진 눈의 이동 속도에 따라 결정하는 제 2 단계로 이루어진 눈의 특징 추출 방법.A method of extracting eye features comprising a second step of calculating a frame acceleration and a velocity vector to determine a next region in which two eye centers are to be located according to a movement speed of the eye.
KR10-2000-0046744A 2000-08-12 2000-08-12 A method of the feature extraction of eyes KR100380957B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0046744A KR100380957B1 (en) 2000-08-12 2000-08-12 A method of the feature extraction of eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0046744A KR100380957B1 (en) 2000-08-12 2000-08-12 A method of the feature extraction of eyes

Publications (2)

Publication Number Publication Date
KR20020019629A true KR20020019629A (en) 2002-03-13
KR100380957B1 KR100380957B1 (en) 2003-04-23

Family

ID=19682946

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0046744A KR100380957B1 (en) 2000-08-12 2000-08-12 A method of the feature extraction of eyes

Country Status (1)

Country Link
KR (1) KR100380957B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020038162A (en) * 2000-11-16 2002-05-23 구자홍 Iris recognition method for iris recognition system using both of the eyes
KR100724932B1 (en) * 2005-08-02 2007-06-04 삼성전자주식회사 apparatus and method for extracting human face in a image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166320A (en) * 1997-08-12 1999-03-09 Mitsubishi Electric Corp Eye image tracking device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020038162A (en) * 2000-11-16 2002-05-23 구자홍 Iris recognition method for iris recognition system using both of the eyes
KR100724932B1 (en) * 2005-08-02 2007-06-04 삼성전자주식회사 apparatus and method for extracting human face in a image
US7929771B2 (en) 2005-08-02 2011-04-19 Samsung Electronics Co., Ltd Apparatus and method for detecting a face

Also Published As

Publication number Publication date
KR100380957B1 (en) 2003-04-23

Similar Documents

Publication Publication Date Title
US7643659B2 (en) Facial feature detection on mobile devices
US5715325A (en) Apparatus and method for detecting a face in a video image
US7953253B2 (en) Face detection on mobile devices
CN111428604A (en) Facial mask recognition method, device, equipment and storage medium
KR100752640B1 (en) Method and apparatus for segmenting fingerprint region using directional gradient filters
CN107066916A (en) Scene Semantics dividing method based on deconvolution neutral net
KR101641500B1 (en) Fast Eye Detection Method Using Block Contrast and Symmetry in Mobile Device
US7715632B2 (en) Apparatus and method for recognizing an image
KR100664956B1 (en) Method and apparatus for eye detection
EP3961495A1 (en) System and method for finding an area of an eye from a facial image
JP4788319B2 (en) Opening and closing eye determination device and method
KR100380957B1 (en) A method of the feature extraction of eyes
JP4749884B2 (en) Learning method of face discriminating apparatus, face discriminating method and apparatus, and program
JP4749879B2 (en) Face discrimination method, apparatus, and program
KR101614468B1 (en) Eye Detection and Its Opening and Closing State Recognition Method Using Block Contrast in Mobile Device
JP2003317084A (en) System, method and program for detecting gaze from face image
CN111160292A (en) Human eye detection method
JP4795737B2 (en) Face detection method, apparatus, and program
JP2011170890A (en) Face detecting method, face detection device, and program
JPH07311833A (en) Human face detecting device
CN114863492A (en) Method and device for repairing low-quality fingerprint image
JP5035139B2 (en) Eye image processing device
CN114463814A (en) Rapid certificate photo glasses detection method based on image processing
So et al. Face detection using sketch operators and vertical symmetry
Akimoto et al. Feature Extraction from Front and Side Views of Faces for 3D Facial Model Creation.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130215

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140319

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20160401

Year of fee payment: 14

LAPS Lapse due to unpaid annual fee