KR20110077210A - Eye detection method from face image - Google Patents
Eye detection method from face image Download PDFInfo
- Publication number
- KR20110077210A KR20110077210A KR1020090133708A KR20090133708A KR20110077210A KR 20110077210 A KR20110077210 A KR 20110077210A KR 1020090133708 A KR1020090133708 A KR 1020090133708A KR 20090133708 A KR20090133708 A KR 20090133708A KR 20110077210 A KR20110077210 A KR 20110077210A
- Authority
- KR
- South Korea
- Prior art keywords
- eye
- region
- area
- recognizing
- recognition
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
본 발명은 얼굴영상으로부터 안구영역을 인식하는 안구인식방법에 관한 것으로서, 더욱 상세하게는, 저비용으로 보다 정확한 안구인식이 가능하여 높은 안구인식률을 나타내는 안구인식방법에 관한 것이다. The present invention relates to an eye recognition method for recognizing an eyeball area from a face image. More particularly, the present invention relates to an eye recognition method showing high eye recognition rate by enabling accurate eye recognition at low cost.
카메라로부터 입력되는 영상 정보를 이용한 인식 시스템은 다양한 분야에서 널리 사용되고 있는데, 그 분야는 보안, 교육, 국방 또는 엔터테인먼트 등과 같이 광범위하다. 이러한 영상을 이용한 인식 시스템의 성능은 주변 환경에 따라 차이가 있다. Recognition systems using image information input from cameras are widely used in various fields, such as security, education, defense or entertainment. The performance of the recognition system using these images is different depending on the surrounding environment.
영상 정보는 태양광, 실내광 또는 주위의 반사광 등 조명의 영향을 크게 받으며 그 차이로 인하여 인식률의 차이로 인하여 사용 환경이 상당히 제한적이다. 예를 들어, 얼굴영상에 반사광이 존재할 경우에는 반사광의 영향으로 인하여 안구영역을 정확히 찾지 못할 수 있다. 따라서, 안구영역 주변의 눈썹이나 안구영역 하 단의 피부, 또는 어긋난 안구영역을 안구로 잘못 판단함으로 인하여 응용 프로그램에서 추가적으로 진행하는 인식을 제대로 수행하지 못하는 경우가 발생한다. 만약, 차량에서 안구영역을 이용하여 졸음방지시스템이 작동하고 있는 경우로 가정하면, 안구영역이 부정확한 경우 졸음상태인지를 정확히 판단할 수 없어서 차량운행의 위험성이 높아질 수 있다. Image information is greatly influenced by illumination such as sunlight, indoor light or ambient reflected light, and due to the difference, the use environment is very limited due to the difference in recognition rate. For example, when reflected light is present in the face image, the eyeball area may not be accurately found due to the influence of the reflected light. As a result, the application program may not properly perform further recognition because the eyebrows around the eyeball area, the skin below the eyeball area, or the misaligned eyeball area are incorrectly determined as the eyeball. If it is assumed that the drowsiness prevention system is operating by using the eyeball area in the vehicle, if the eyeball area is inaccurate, it may not be possible to accurately determine whether it is drowsy.
이러한 문제점을 해결하기 위하여 주변환경의 영향을 제거하기 위한 부가적인 장치가 요구되고 그 결과로 시스템의 제조비용이 높아지는 문제점이 있다. 따라서 실제 환경에서의 정보를 분석하여 실환경에서 발생하는 정보를 분석하고 그에 맞는 알고리즘을 채용함으로 불필요한 시스템의 부가 장치를 없애고 단순화하고자 하는 기술의 개발이 요청된다. In order to solve this problem, an additional device is required to remove the influence of the surrounding environment, and as a result, the manufacturing cost of the system is high. Therefore, by analyzing the information generated in the real environment by analyzing the information generated in the real environment and adopting an algorithm corresponding thereto, it is required to develop a technology to eliminate and simplify the additional equipment of the unnecessary system.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 저비용으로 보다 정확한 안구인식이 가능하여 높은 안구인식률을 나타내는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법을 제공하는데 있다. The present invention is to solve the above-described problems, an object of the present invention is to provide an eye recognition method for recognizing the eye area from the face image showing a high eye recognition rate can be more accurate eye recognition at low cost.
이상과 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 얼굴영상으로부터 안구영역을 인식하는 안구인식방법은, 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계; 얼굴영역에서 관심영역을 설정하는 관심영역설정단계; 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및 관심영역 중 좌측분리안구영역 및 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함한다. According to an aspect of the present invention, an eye recognition method for recognizing an eyeball area from a face image includes: a face area recognition step of recognizing a face area from a face image; A region of interest setting step of setting a region of interest in the face region; A left and right separation region recognition step of recognizing a left separation eye region and a right separation eye region from a region of interest, respectively; And a total eye region recognition step of recognizing a region corresponding to a left separated eye region and a right separated eye region among the regions of interest as the whole eye region.
또한, 관심영역으로부터 상측분리안구영역 및 하측분리안구영역을 각각 인식하는 단계;를 더 포함할 수 있어서, 전체안구영역인식단계는, 관심영역 중 좌측분리안구영역, 우측분리안구영역, 상측분리안구영역 및 하측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하여 수행될 수 있다. The method may further include recognizing an upper separation eye region and a lower separation eye region from the region of interest, wherein the entire eye region recognition step may include a left separation eye region, a right separation eye region, and an upper separation eye region of the region of interest. It can be performed by recognizing the region corresponding to the region and the lower divided eye region as the whole eye region.
여기서, 좌측분리안구영역 및 우측분리안구영역은, 반사광이 형성된 부분을 제외하고 인식될 수 있고, 좌측분리안구영역 및 우측분리안구영역은, 안구 중 동공부분을 제외하고 인식될 수 있으며, 좌측분리안구영역 및 우측분리안구영역은, 안구 중 홍채부분을 제외하고 인식될 수 있다. Here, the left separation eye area and the right separation eye area may be recognized except for the portion where the reflected light is formed, and the left separation eye area and the right separation eye area may be recognized except the pupil part of the eye, and the left separation eye area may be recognized. The eyeball area and the right separate eyeball area can be recognized except for the iris portion of the eyeball.
얼굴영역인식단계는, 얼굴영상으로부터 색상, 패턴 또는 얼굴구조를 이용하여 얼굴영역을 인식할 수 있다. In the face area recognition step, the face area may be recognized using a color, a pattern, or a face structure from the face image.
관심영역을 설정하는 단계는, 전체 얼굴영역을 기준으로 하여 길이방향으로 하단으로부터 50% 내지 85% 사이의 영역 중 일부의 영역으로 설정될 수 있다. The setting of the ROI may be set to a part of an area between 50% and 85% from the bottom in the longitudinal direction with respect to the entire face area.
전체안구영역인식단계는, 좌측분리안구영역 및 우측분리안구영역과 관심영역의 상관도를 추출하여 일치하는지 여부를 판단하여 수행될 수 있다. The whole eyeball area recognition step may be performed by extracting a correlation between the left eyeball area, the right eyeball area, and the region of interest.
또한, 전체안구영역인식단계 후에, 기준안구영역을 이용하여 검증하는 단계;를 더 포함할 수 있다. The method may further include verifying by using the reference eye region after the whole eye region recognition step.
본 발명에 따르면, 얼굴영상으로부터 안구영역을 인식할 때, 외부환경의 영향을 최소로 할 수 있어서 보다 정확한 안구영역을 인식할 수 있어 신뢰성 높은 안구인식방법을 수행할 수 있는 효과가 있다. 또한, 외부환경요인을 감소시키기 위한 부가적인 장치 추가없이 안구인식이 가능하므로 제조비용절감의 효과가 있다. According to the present invention, when recognizing the eyeball area from the face image, it is possible to minimize the influence of the external environment to recognize the more accurate eyeball area, it is possible to perform a reliable eye recognition method. In addition, since eye recognition is possible without adding an additional device to reduce external environmental factors, manufacturing cost is reduced.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로 한정되는 것은 아니다. 본 발명의 실시형태는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, embodiments of the present invention may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art.
도 1은 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 본 발명에 따른 얼굴영상으로부터 안구영역을 인식하는 안구인식방법은, 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계; 얼굴영역에서 관심영역을 설정하는 관심영역설정단계; 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및 관심영역 중 좌측분리안구영역 및 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함한다. 1 is a flow chart provided in the description of the eye recognition method according to an embodiment of the present invention. In the present invention Eye recognition method for recognizing the eye region from the face image according to the face image recognition step of recognizing the face region from the face image; A region of interest setting step of setting a region of interest in the face region; A left and right separation region recognition step of recognizing a left separation eye region and a right separation eye region from a region of interest, respectively; And a total eye region recognition step of recognizing a region corresponding to a left separated eye region and a right separated eye region among the regions of interest as the whole eye region.
본 발명에 따라 얼굴영상으로부터 안구영역을 인식하기 위하여는 먼저 얼굴영상으로부터 얼굴영역을 인식한다(S110). 도 3a에는 얼굴영상으로부터 인식된 얼굴영역(300)이 나타나있다. 얼굴영상으로부터 얼굴영역(300)을 인식하는 방법으로 는 색상을 이용한 방법, 패턴을 이용한 방법 또는 얼굴의 구조를 이용한 방법이 있다. In order to recognize the eyeball area from the face image according to the present invention, the face area is first recognized from the face image (S110). 3A illustrates a
얼굴영역(300)이 인식되면, 얼굴영역(300)으로부터 안구를 인식하여야 한다. 먼저 정확한 안구의 위치를 찾기 보다 안구가 위치할 만한 영역을 설정할 필요가 있다. 얼굴에서 안구의 위치는 일반적으로 얼굴의 하단(C1)으로부터 약 50%위치(C2)에서부터 85%(C3) 위치에 존재한다. 따라서, 이 영역을 안구가 위치할 만한 영역인 관심영역으로 설정(S120)한 후에 이 영역에서 안구를 찾을 수 있다. 도 3b에는 안구가 위치하고 있는 관심영역(310)이 도시되어 있다. When the
도 3b와 같이 관심영역(310)이 설정되면, 그 중 하나의 안구를 먼저 선택한다. 도 3c에는 도 3b의 관심영역(310) 중 임의로 선택된 왼쪽안구(320)가 도시되어 있다. 눈은 눈주위의 피부, 눈 상단의 눈썹, 눈영역 및 피부영역의 경계에 위치한 속눈썹 등이 있고, 내부에는 정면에서 보아 가장 가장자리에 위치하는 백색부분인 공막부분(321), 홍채부분(322), 및 가장 안쪽에 위치하는 동공부분(323)으로 구분되는 안구(320)가 위치한다. If the
관심영역(310) 이 설정되면, 관심영역(310)으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식한다. 도 4a 및 도 4b에서는 도 3c의 왼쪽안구(320)를 C4 로 절단한 좌측 및 우측분리안구영역이 각각 도시되어 있다. 왼쪽안구(320)에 대한 분리안구영역을 인식한 후 나머지 안구에 대하여도 각각의 분리안구영역을 인식한다. When the
좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하면, 이를 이용하여 관심영역과의 상관도(corelation)을 추출한다(S140). 상관도를 추출하여 좌측분리안구영역(410) 및 우측분리안구영역(420)이 결합되는 영역에 위치하는 영역과 일치하면(S150: Y) 이 영역을 하나의 안구에 대한 전체안구영역으로 인식한다. 즉, 관심영역(310) 중 좌측분리안구영역(410) 및 우측분리안구영역(420)과 일치하는 영역을 전체안구영역으로 인식한다(S160). 즉 만약, 영역이 일치하지 않으면(S150: N), 다시 좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하는 단계(S130)로 돌아간다. 안구영역을 좌측 및 우측으로 분리하여 인식하였기 때문에 전체 안구영역을 하나로 인식한 후 상관도를 추출하는 경우보다 각각에 대하여 상관도를 추출하므로 더욱 정확한 전체안구영역인식이 가능하다. When the
전체안구영역인식단계 후에, 일반적인 눈형태를 나타내는 기준안구영역을 이용하여 본 발명에 따른 안구인식방법을 검증하여 오류를 최소화하는 것이 바람직하다. After the whole eye area recognition step, it is desirable to minimize the error by verifying the eye recognition method according to the present invention using the reference eye area representing the general eye shape.
도 2는 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 도 2에서 얼굴영역인식단계(S210), 관심영역설정단계(S220), 좌측 및 우측분리안구영역인식단계(S230), 상관도 추출단계(S240) 및 일치여부판단단계(S250: Y)에 대하여는 도 1과 관련하여 전술한 바와 동일하므로 그 설명은 생략하기로 한다. 2 is a flowchart provided to explain the eye recognition method according to an embodiment of the present invention. For the face area recognition step (S210), the ROI setting step (S220), the left and right separate eyeball area recognition step (S230), the correlation extraction step (S240) and the match determination step (S250: Y) in FIG. 1 and the description thereof will be omitted.
좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식한 후, 상관도를 추출하여 일치하는지 판단하였을 때, 일치하지 않는 경우(S250: N)에는 관심영역(310)으로부터 상측분리안구영역(430) 및 하측분리안구영역(440)을 각각 인식한다. 도 4c 및 도 4d에서는 도 3c의 왼쪽안구(320)를 C5로 절단한 상측분리안구영역(430) 및 하측분리안구영역(440)이 각각 도시되어 있다. After recognizing the left
상측분리안구영역(430) 및 하측분리안구영역(440)을 이용하는 이유는, 좌측분리안구영역(410) 및 우측분리안구영역(420)만으로 상관도를 추출하였을 때 일치하지 않은 경우, 도 1에서와 같이 다시 좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하도록 하여 상관도를 재추출할 수 있지만, 이와 다른 상측분리안구영역(430) 및 하측분리안구영역(440)을 더 이용하여 오류를 감소시키기 위한 것이다. 따라서, 관심영역(310) 중 좌측분리안구영역(410), 우측분리안구영역(420), 상측분리안구영역(430), 및 하측분리안구영역(440)과 일치하는 영역을 전체안구영역으로 찾으면 보다 오류를 줄여 정확한 안구인식이 가능하다. The reason for using the upper-
도 5a는 실제 차량에서 촬영된 얼굴영상 중 눈영역을 나타내는 도면이다. 도 5a의 눈에는 홍채나 동공 부분에 반사광이 있는 것을 알 수 있다. 영상 데이터는 주변 환경에 위치한 광원의 영향을 받는다. 광원으로서는 태양광, 실내조명등, 또는 주변 구조물에 반사된 빛 등이 있다. 그러한 광원으로부터 발생하는 광선은 눈영역에 반사되어 영상정보를 획득하는 카메라에 입력된다. 그 결과로서 도 5a에서와 같이 눈에 반사광이 위치한다. 5A illustrates an eye region of a face image photographed in an actual vehicle. It can be seen that the eye of FIG. 5A has reflected light in the iris or pupil part. Image data is affected by light sources located in the surrounding environment. The light source may be sunlight, indoor lighting, or light reflected by surrounding structures. Light rays generated from such light sources are reflected to the eye area and input to a camera which acquires image information. As a result, the reflected light is located in the eye as in FIG. 5A.
도 5a에서 빛을 반사하지 않는 눈 주위의 피부 영역 및 눈 영역 내에서 가장 밝은 눈 영역 내에 위치한 공막의 백색영역에서는 반사광이 보이지 않는다. 반사광은 눈 영역에서 가장 어두운 영역인 홍채 영역 및 동공 영역에서 발생한다. 가장 어두운 영역에서 반사광이 발생함으로 나오는 결과는 눈 영역을 추출하는데 사용되는 유사도 방법, 또는 확률을 이용하는 방법에서 기본이 되는 눈 구조물과의 비교값에서 큰 오차를 발생시킨다. 이러한 오차는 반사가 적은 피부 영역에서의 반사광 또는 밝은 영역에서 더 밝은 반사광에서 발생하는 것보다, 어두운 영역이 밝아짐으로 발생하는 오차값이 계산식에 있어 매우 큰 영향을 미친다. In FIG. 5A, the reflected light is not visible in the skin region around the eye which does not reflect light and in the white region of the sclera located in the brightest eye region in the eye region. The reflected light is generated in the iris region and the pupil region, which are the darkest regions in the eye region. The result of the reflected light in the darkest area generates a large error in the comparison with the eye structure that is the basis of the similarity method used to extract the eye area, or the method using probability. This error is much more influenced by the calculation of the error value caused by the brightening of the dark area than the reflection light in the less-reflected skin area or the brighter reflected light in the bright area.
따라서, 좌측분리안구영역 및 우측분리안구영역은, 반사광이 형성된 부분을 제외하고 인식될 수 있거나, 안구 중 동공부분을 제외하고 인식되거나 또는 안구 중 홍채부분을 제외하고 인식될 수 있다. 도 5b는 반사광이 형성된 부분(Ar)을 제외하고 좌측분리안구영역(511) 및 우측분리안구영역(521)을 인식한 것을 나타내는 도면이고, 도 5c는 홍채부분(Ai)을 제외하고 좌측분리안구영역(512) 및 우측분리안구영역(522)을 인식한 것을 나타내는 도면이며, 도 5d는 동공부분(Ap)을 제외하고 좌측분리안구영역(513) 및 우측분리안구영역(523)을 인식한 것을 나타내는 도면이다. 반사광이 형성된 부분(Ar), 홍채부분(Ai), 및 동공부분(Ap)은 눈에 형성되는 반사광영역이나 홍채, 동공의 위치를 통계적으로 설정하여 제외시킨다. Therefore, the left separation eye region and the right separation eye region may be recognized except for the portion where the reflected light is formed, or may be recognized except the pupil portion of the eye, or may be recognized except the iris portion of the eye. FIG. 5B is a view illustrating recognizing the left
도 5b에서와 같이 반사광이 형성되는 영역을 제외시킨 좌측분리안구영역(511) 및 우측분리안구영역(521)을 이용하여 상관도를 추출하고 전체 안구영역을 인식하는 경우, 상관도 추출에서의 오차발생을 감소시킬 수 있기 때문에 더욱 정확한 안구영역의 인식이 가능하다. 아울러, 도 5c나 도 5d와 같이 반사광이 형성되는 영역 대신 반사광이 잘 형성되는 어두운 부분인 홍채나 동공부분 또는 도시되지는 않았으나 양자 모두를 제외시키는 경우에도 별도의 부가적인 장치없이도 더욱 정확한 안구영역의 인식이 가능하다. As shown in FIG. 5B, when the correlation is extracted using the left
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니라, 첨부된 청구범위에 의해 해석되어야 한다. 또한, 본 발명에 대하여 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변 형 및 변경이 가능하다는 것은 당해 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The invention is not to be limited by the foregoing embodiments and the accompanying drawings, but should be construed by the appended claims. In addition, it will be apparent to those skilled in the art that various forms of substitution, modification, and alteration are possible with respect to the present invention without departing from the technical spirit of the present invention described in the claims.
도 1은 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 1 is a flow chart provided in the description of the eye recognition method according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 2 is a flowchart provided to explain the eye recognition method according to an embodiment of the present invention.
도 3a는 얼굴영역이고, 도 3b는 관심영역이며, 도 3c는 도 3c의 관심영역 중 왼쪽안구를 나타낸 도면이다. 3A is a face region, FIG. 3B is a region of interest, and FIG. 3C is a view showing a left eye of the region of interest of FIG. 3C.
도 4a는 도 3c에 도시된 눈의 좌측분리안구영역이고, 도 4b는 우측분리안구영역이고, 도 4c는 상측분리안구영역이며, 도 4d는 하측분리안구영역이다. FIG. 4A is a left separation eye region of the eye shown in FIG. 3C, FIG. 4B is a right separation eye region, FIG. 4C is an upper separation eye region, and FIG. 4D is a lower separation eye region.
도 5a는 실제 차량에서 촬영된 얼굴영상 중 눈영역을 나타내는 도면이다. 5A illustrates an eye region of a face image photographed in an actual vehicle.
도 5b는 반사광이 형성된 부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이고, 도 5c는 홍채부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이며, 도 5d는 동공부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이다. FIG. 5B is a view illustrating recognizing left and right separated eye regions except for a portion where reflected light is formed, and FIG. 5C is a view illustrating recognizing left and right separated eye regions except an iris portion, and FIG. 5D is a pupil. Except for the part, the figure shows recognition of the left and right separate eye regions.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090133708A KR101051434B1 (en) | 2009-12-30 | 2009-12-30 | Eye Recognition Method for Recognizing Eye Region from Face Image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090133708A KR101051434B1 (en) | 2009-12-30 | 2009-12-30 | Eye Recognition Method for Recognizing Eye Region from Face Image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110077210A true KR20110077210A (en) | 2011-07-07 |
KR101051434B1 KR101051434B1 (en) | 2011-07-22 |
Family
ID=44916817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090133708A KR101051434B1 (en) | 2009-12-30 | 2009-12-30 | Eye Recognition Method for Recognizing Eye Region from Face Image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101051434B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102464368B1 (en) | 2017-11-07 | 2022-11-07 | 삼성전자주식회사 | Meta projector and electronic apparatus including the same |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100552709B1 (en) * | 2004-05-21 | 2006-02-20 | 삼성전자주식회사 | Apparatus and method for detecting eyes |
KR100734849B1 (en) * | 2005-11-26 | 2007-07-03 | 한국전자통신연구원 | Method for recognizing face and apparatus thereof |
KR100903096B1 (en) * | 2007-06-27 | 2009-06-16 | 포항공과대학교 산학협력단 | Eye detection method using eye verification and correction |
-
2009
- 2009-12-30 KR KR1020090133708A patent/KR101051434B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR101051434B1 (en) | 2011-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6630999B2 (en) | Image recognition device, image recognition method, and image recognition program | |
JP6322986B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10891479B2 (en) | Image processing method and system for iris recognition | |
Boehnen et al. | A fast multi-modal approach to facial feature detection | |
EP2584525B1 (en) | Determining ambient light reflection | |
JP5776323B2 (en) | Corneal reflection determination program, corneal reflection determination device, and corneal reflection determination method | |
US11651624B2 (en) | Iris authentication device, iris authentication method, and recording medium | |
US20180174309A1 (en) | Eye Motion Detection Method, Program, Program Storage Medium, and Eye Motion Detection Device | |
US20230394778A1 (en) | Iris recognition system, iris recognition method, and storage medium | |
EP2639743A2 (en) | Image processing device, image processing program, and image processing method | |
US20200372272A1 (en) | Living-body detection method and apparatus for face, and computer readable medium | |
US10163009B2 (en) | Apparatus and method for recognizing iris | |
US20190320890A1 (en) | Eyelid detection device, drowsiness determination device, and eyelid detection method | |
EP3676793A1 (en) | Iris recognition system, iris recognition method, and storage medium | |
US11636711B2 (en) | Image processing system, image processing method, and storage medium | |
KR101051434B1 (en) | Eye Recognition Method for Recognizing Eye Region from Face Image | |
US9842406B2 (en) | System and method for determining colors of foreground, and computer readable recording medium therefor | |
JP2012068719A (en) | Image processing program and image processing device | |
US20230162534A1 (en) | Liveliness detection using a device comprising an illumination source | |
JP5957996B2 (en) | Corneal reflection detection apparatus, corneal reflection detection program, and corneal reflection detection method | |
US20210097713A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |