KR101492933B1 - Apparatus and method for periocular recognition - Google Patents

Apparatus and method for periocular recognition Download PDF

Info

Publication number
KR101492933B1
KR101492933B1 KR20140062500A KR20140062500A KR101492933B1 KR 101492933 B1 KR101492933 B1 KR 101492933B1 KR 20140062500 A KR20140062500 A KR 20140062500A KR 20140062500 A KR20140062500 A KR 20140062500A KR 101492933 B1 KR101492933 B1 KR 101492933B1
Authority
KR
South Korea
Prior art keywords
eye
pupil
image
face image
coordinate system
Prior art date
Application number
KR20140062500A
Other languages
Korean (ko)
Inventor
박강령
뉴엔치엔잣
조소라
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR20140062500A priority Critical patent/KR101492933B1/en
Application granted granted Critical
Publication of KR101492933B1 publication Critical patent/KR101492933B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a device and a method for recognizing eyes, capable of recognizing eye regions considering the rotation of a face image to improve recognition rates of eye regions extracted from the face image. The device of the present invention comprises: an input unit to input a face image; a pupil detection unit to detect both eyes from the face image, to detect pupils of the detected eyes to calculate pupil center coordinates, and to calculate a rotation angle according to rotation of the face image using the pupil center coordinates; an image generation unit to generate eye images of polar coordinates from eye regions of the face image; and a feature extraction unit to extract feature codes from the eye images of the polar coordinates and to bit-shift the extracted feature codes in correspondence to the rotation angle.

Description

눈 인식 장치 및 방법{Apparatus and method for periocular recognition}[0001] Apparatus and method for periocular recognition [

본 발명은 영상인식 기술에 관한 것으로서, 보다 상세하게는 눈 인식 장치 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition technology, and more particularly, to an apparatus and method for recognizing an eye.

본인 여부를 확인하는데 사용되는 사람의 바이오 정보는 지문, 홍채, 정맥, 얼굴 등으로부터 획득하는 정보이다. 이러한 바이오 정보는 망각, 분실, 도난, 복제가 어렵고, 사용이 편리하여 전자 상거래, 접근 통제 시스템, 출입국 관리, 범죄자 또는 미아 찾기, 디지털 문서 보안등에 유용하게 사용되는 장점이 있다.The bio information of the person used to confirm whether or not he / she is the information obtained from the fingerprint, iris, vein, face, and the like. Such bio information is advantageous to be used for electronic commerce, access control system, immigration control, criminal or child finding, and digital document security because it is difficult to forget, lost, stolen, and copied.

하지만, 바이오 정보를 획득하는 과정에서 품질 좋은 영상을 취득하기 위해서는, 사용자는 움직임 제약으로 거부감 및 불편함을 느끼게 된다. 최근, 이러한 사용자의 불편함을 줄여주기 위한 눈 영역 인식 방법이 연구되었다. 눈 영역 인식 방법은 눈 주변의 정보를 포함하는 눈 영역을 인식하는 방법으로, 다른 바이오 정보에 비하여 영상 취득이 편리한 장점이 있다. 그러나, 눈 영역을 이용한 인식방법은 영상의 회전에 민감하게 반응하여 인식에 사용 되기 전 단계에서 영상 정규화 과정이 요구되는 단점이 있다.
However, in order to acquire a good quality image in the process of acquiring biometric information, the user feels rejection and inconvenience due to restriction of movement. Recently, eye area recognition methods have been studied to reduce the inconvenience of such users. The eye area recognition method is a method of recognizing an eye area including information around the eye, which is advantageous in that the image acquisition is convenient compared with other bio information. However, the recognition method using the eye region is sensitive to the rotation of the image and has a disadvantage in that an image normalization process is required before the recognition is used.

본 발명은 얼굴 영상으로부터 추출되는 눈 영역의 인식률을 향상시키기 위하여 얼굴 영상의 회전을 고려하여 눈 영역을 인식하는 것이다.
In order to improve the recognition rate of the eye region extracted from the face image, the present invention recognizes the eye region by considering the rotation of the face image.

본 발명의 일 측면에 따르면, 눈 인식 장치가 개시된다.According to an aspect of the present invention, an eye recognition apparatus is disclosed.

본 발명의 실시예에 따른 눈 인식 장치는 얼굴 영상을 입력받는 입력부, 상기 얼굴 영상에서 양 눈을 검출하고, 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출하고, 상기 동공 중심 좌표를 이용하여 상기 얼굴 영상의 회전에 따른 회전각을 산출하는 동공 검출부, 상기 얼굴 영상의 눈 영역으로부터 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 영상 생성부 및 상기 극 좌표계의 눈 영상에서 특징 코드를 추출하고, 상기 추출된 특징 코드를 상기 회전각에 상응하게 비트 이동(Bit-shifting)시키는 특징 추출부를 포함한다.An eye recognizing apparatus according to an embodiment of the present invention includes an input unit for receiving a face image, an eye detecting unit for detecting both eyes in the face image, detecting pupil of the detected eye to calculate pupil center coordinates, A pupil detection unit for calculating a rotation angle according to the rotation of the face image, an image generation unit for generating a snow image of a polar coordinate system from the eye region of the face image, and a feature code extraction unit for extracting a feature code from the eye image of the polar coordinate system And a feature extracting unit for bit-shifting the extracted feature code according to the rotation angle.

상기 영상 생성부는 상기 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성한다.The image generating unit divides the eye region from the pupil center to a predetermined distance in the face image by a predetermined angle interval, and generates eye images of a polar coordinate system in which divided eye regions are combined in a row.

상기 극 좌표계의 눈 영상은 동공 영역, 홍채 영역 및 눈 주변 영역으로 구분되고, 상기 동공 영역은 상기 얼굴 영상의 획득 시, 주변 조명으로 인한 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되고, 상기 영상 생성부는 상기 극 좌표계의 눈 영상에서 상기 동공 영역을 제거한다.The eye image of the polar coordinate system is divided into a pupil area, an iris area, and an eye surrounding area, and the pupil area causes illumination reduction light due to ambient illumination when acquiring the face image, The generation unit removes the pupil region from the eye image of the polar coordinate system.

상기 동공 검출부는 상기 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출한다.The pupil detection unit calculates a pupil center coordinate of the detected pupil by applying a Cartesian coordinate to the face image.

상기 동공 검출부는 상기 동공 중심 좌표를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 상기 회전각으로 산출한다.The pupil detection unit calculates an angle formed by a line segment connecting the center of the pupil of both eyes and a horizontal line using the pupil center coordinates as the rotation angle.

상기 특징 추출부는 LBP(Local Binary Pattern)를 이용하여 상기 극 좌표계의 눈 영상에서 상기 특징 코드를 추출한다.The feature extraction unit extracts the feature code from the eye image of the polar coordinate system using LBP (Local Binary Pattern).

상기 얼굴 영상의 회전에 따른 상기 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로 발생하고, 상기 특징 추출부는 상기 극 좌표계의 눈 영상의 픽셀을 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동시킨다.Wherein the rotation of the eye image in the polar coordinate system according to the rotation of the face image occurs in the left and right directions and the feature extraction unit extracts pixels of the eye image of the polar coordinate system in the left and right directions by the number of pixels corresponding to the ± rotation angle × 8 bits .

상기 입력된 얼굴 영상과 등록된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별하는 식별부를 더 포함한다.And an identification unit for comparing the input face image with the registered face image feature code to identify whether or not the registered face image is a person.

본 발명의 다른 측면에 따르면, 눈 인식 장치가 수행하는 눈 인식 방법이 개시된다.According to another aspect of the present invention, an eye recognition method performed by an eye recognition apparatus is disclosed.

본 발명의 실시예에 따른 눈 인식 방법은 얼굴 영상을 입력받는 단계, 상기 얼굴 영상에서 양 눈을 검출하는 단계, 상기 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출하는 단계, 상기 동공 중심 좌표를 이용하여 상기 얼굴 영상의 회전에 따른 회전각을 산출하는 단계, 상기 얼굴 영상의 눈 영역으로부터 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계, 상기 극 좌표계의 눈 영상에서 특징 코드를 추출하는 단계 및 상기 추출된 특징 코드를 상기 회전각에 상응하게 비트 이동(Bit-shifting)시키는 단계를 포함한다.A method for recognizing an eye according to an embodiment of the present invention includes receiving a face image, detecting both eyes in the face image, detecting a pupil of the detected eye to calculate a pupil center coordinate, Calculating a rotation angle of the face image based on the rotation of the face image, generating an eye image of a polar coordinate system from the eye region of the face image, extracting a feature code from the eye image of the polar coordinate system And bit-shifting the extracted feature code according to the rotation angle.

상기 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계는, 상기 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계를 포함한다.The step of generating the eye image of the polar coordinate system comprises the steps of dividing the eye region from the center of the pupil to a certain distance in the face image by a predetermined angle interval and using a polar coordinate system And generating an eye image.

상기 극 좌표계의 눈 영상은 동공 영역, 홍채 영역 및 눈 주변 영역으로 구분되고, 상기 동공 영역은 상기 얼굴 영상의 획득 시, 주변 조명으로 인한 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되고, 상기 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계는, 상기 극 좌표계의 눈 영상에서 상기 동공 영역을 제거하는 단계를 포함하는 포함한다.The eye image of the polar coordinate system is divided into a pupil region, an iris region, and an eye surrounding region, and the pupil region causes reflected light due to ambient illumination when acquiring the face image, The step of generating an eye image of a polar coordinate system includes removing the pupil region from the eye image of the polar coordinate system.

상기 동공 중심 좌표를 산출하는 단계는, 상기 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출하는 단계를 포함한다.The step of calculating the pupil center coordinates may include calculating a pupil center coordinate of the pupil detected by applying a Cartesian coordinate to the face image.

상기 회전각을 산출하는 단계는, 상기 동공 중심 좌표를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 상기 회전각으로 산출하는 단계를 포함한다.The step of calculating the rotation angle includes calculating an angle formed by a line segment connecting the center of the pupil of both eyes and a horizontal line using the pupil center coordinates as the rotation angle.

상기 특징 코드를 추출하는 단계는, LBP(Local Binary Pattern)를 이용하여 상기 극 좌표계의 눈 영상에서 상기 특징 코드를 추출하는 단계를 포함한다.The step of extracting the feature code includes extracting the feature code from the eye image of the polar coordinate system using LBP (Local Binary Pattern).

상기 얼굴 영상의 회전에 따른 상기 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로 발생하고, 상기 비트 이동시키는 단계는, 상기 극 좌표계의 눈 영상의 픽셀을 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동시키는 단계를 포함한다.Wherein the rotation of the eye image in the polar coordinate system according to the rotation of the facial image occurs in the left and right directions, and the bit shifting step is a step of shifting the pixels of the eye image of the polar coordinate system by the number of pixels corresponding to +/- rotation angle x 8 bits To the left and right directions.

상기 입력된 얼굴 영상과 등록된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별하는 단계를 더 포함한다.
And comparing the input face image with the registered face image feature code to identify whether or not the user is a person.

본 발명은 발명은 얼굴 영상의 회전을 고려하여 눈 영역을 인식함으로써, 얼굴 영상으로부터 추출되는 눈 영역의 인식률을 향상시킬 수 있다.
The present invention can improve the recognition rate of the eye region extracted from the face image by recognizing the eye region in consideration of the rotation of the face image.

도 1은 눈 인식 장치의 구성을 개략적으로 예시한 도면.
도 2는 얼굴 영상의 회전에 따른 회전각 산출 방법을 예시한 도면.
도 3 및 도 4는 극좌표계의 눈 영상을 생성하는 방법을 예시한 도면.
도 5는 극 좌표계의 눈 영상에서 특징 코드를 추출하는 방법을 예시한 도면.
도 6은 비회전된 눈 영상과 회전된 눈 영상을 극 좌표계로 나타낸 예시도.
도 7은 도 1의 눈 인식 장치에서의 눈 인식 방법을 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a view schematically illustrating a configuration of an eye recognizing apparatus. Fig.
2 is a diagram illustrating a method of calculating a rotation angle according to rotation of a facial image;
FIGS. 3 and 4 are diagrams illustrating a method of generating a polar coordinate eye image; FIG.
5 is a diagram illustrating a method of extracting a feature code from an eye image of a polar coordinate system.
6 is an exemplary view showing a non-rotated eye image and a rotated eye image in a polar coordinate system.
7 is a diagram illustrating a method of recognizing an eye in the eye recognizing device of FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the present invention has been described in connection with certain exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate a thorough understanding of the present invention, the same reference numerals are used for the same means regardless of the number of the drawings.

도 1은 눈 인식 장치의 구성을 개략적으로 예시한 도면이다.1 is a view schematically illustrating the configuration of an eye recognition apparatus.

도 1을 참조하면, 눈 인식 장치는 입력부(10), 동공 검출부(20), 영상 생성부(30), 특징 추출부(40) 및 식별부(50)를 포함한다.Referring to FIG. 1, the eye recognition apparatus includes an input unit 10, a pupil detection unit 20, an image generation unit 30, a feature extraction unit 40, and an identification unit 50.

입력부(10)는 얼굴 영상을 입력받는다.The input unit 10 receives a face image.

동공 검출부(20)는 입력된 얼굴 영상에서 양 눈을 검출하고, 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출한다. 예를 들어, 동공 검출부(20)는 Adaboost 알고리즘 등을 이용하여 대략적인 양 눈의 위치를 검출할 수 있다. 그리고, 동공 검출부(20)는 대략적인 양 눈의 위치에서 CED(Circle Edge Detection)를 이용하여 동공의 위치를 검출할 수 있다. 그리고, 동공 검출부(20)는 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출할 수 있다.The pupil detection unit 20 detects both eyes from the inputted face image, and detects the pupil of the detected eye to calculate the pupil center coordinates. For example, the pupil detector 20 can detect an approximate position of both eyes using an Adaboost algorithm or the like. Then, the pupil detection unit 20 can detect the position of the pupil by using CED (Circle Edge Detection) at the approximate positions of both eyes. The pupil detection unit 20 can calculate the pupil center coordinates of the detected pupil by applying a Cartesian coordinate to the facial image.

그리고, 동공 검출부(20)는 입력된 얼굴 영상의 회전에 따른 회전각을 산출한다. 예를 들어, 도 2는 얼굴 영상의 회전에 따른 회전각 산출 방법을 예시한 도면이다. 도 2를 참조하면, 동공 검출부(20)는 산출된 양 눈의 동공 중심 좌표(210, 220)를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 회전각으로 산출할 수 있다.Then, the pupil detection unit 20 calculates a rotation angle corresponding to the rotation of the inputted face image. For example, FIG. 2 illustrates a method of calculating a rotation angle according to rotation of a facial image. Referring to FIG. 2, the pupil detection unit 20 can calculate an angle formed by a line segment connecting the center of the pupil of both eyes and a horizontal line using the calculated pupil center coordinates 210 and 220 of the both eyes, as a rotation angle.

영상 생성부(30)는 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성한다. 예를 들어, 도 3 및 도 4는 극좌표계의 눈 영상을 생성하는 방법을 예시한 도면이다. 도 3 및 도 4를 참조하면, 영상 생성부(30)는 도 3에서의 동공 중심(330)으로부터 일정 거리(310)를 도 4의 극 좌표계에서의 눈 영상 길이축(410)으로, 도 3에서 x축을 기준으로 반시계 방향으로 0도부터 360도까지를 일정 각도로 나눈 섹션(Section)들을 도 4의 섹션축(420)에 대응시켜 극 좌표계의 눈 영상을 생성할 수 있다. 이때, 생성된 극 좌표계의 눈 영상은 도 4에 도시된 바와 같이, 동공 영역(430), 홍채 영역(440) 및 눈 주변 영역(450)으로 구분될 수 있다. 여기서, 동공 영역(430)은 얼굴 영상 획득 시, 주변 조명으로 인하여 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되므로, 영상 생성부(30)는 극 좌표계의 눈 영상에서 동공 영역(430)를 제거한다.The image generating unit 30 divides the eye region from the center of the pupil to a predetermined distance in the face image at predetermined angular intervals and generates an eye image of a polar coordinate system in which divided eye regions are combined in a row. For example, FIGS. 3 and 4 illustrate a method of generating an eye image of a polar coordinate system. 3 and 4, the image generating unit 30 generates a predetermined distance 310 from the pupil center 330 in FIG. 3 by the eye image length axis 410 in the polar coordinate system of FIG. 4, The eye image of the polar coordinate system can be generated by corresponding sections of the section axis 420 of FIG. 4 by dividing the angle of 0 to 360 degrees by a predetermined angle in the counterclockwise direction with respect to the x axis. At this time, the generated eye image of the polar coordinate system may be divided into a pupil region 430, an iris region 440, and an eye surrounding region 450, as shown in FIG. Here, the pupil region 430 includes illumination reflected light due to surrounding illumination at the time of acquiring a face image, which causes degradation of the recognition rate. Therefore, the image generation unit 30 removes the pupil region 430 from the eye image of the polar coordinate system do.

특징 추출부(40)는 생성된 극 좌표계의 눈 영상에서 특징 코드를 추출하고, 산출된 얼굴 영상의 회전각에 상응하게 추출된 특징 코드를 비트 이동(Bit-shifting)시킨다.The feature extraction unit 40 extracts a feature code from the eye image of the generated polar coordinate system, and bit-shifts the extracted feature code according to the rotation angle of the calculated face image.

예를 들어, 특징 추출부(40)는 LBP(Local Binary Pattern)를 이용하여 극 좌표계의 눈 영상에서 특징 코드를 추출할 수 있다. 도 5를 참조하면, 도 5는 극 좌표계의 눈 영상에서 특징 코드를 추출하는 방법을 예시한 도면이다. 도 4에서 섹션 1과 섹션 N-1은 극 좌표계의 눈 영상의 생성 전의 원 영상에서 연결된 부분이므로, 도 5에 도시된 바와 같이, 특징 코드 추출 시의 마스크의 P1, P8, P7은 550열에 해당하는 560, 570, 580의 픽셀 값을 각각 참조하게 된다. 그리고, 마스크가 우측 방향으로 픽셀 한 칸씩 계속 이동하여, 마스크의 중심 위치 P0가 550열의 570 픽셀 위치에 다다랐을 때, 마스크의 P3, P4, P5은 540열에 해당하는 510, 520, 530의 픽셀 값을 각각 참조하게 된다.For example, the feature extracting unit 40 can extract the feature code from the eye image of the polar coordinate system using LBP (Local Binary Pattern). 5, FIG. 5 is a diagram illustrating a method of extracting a feature code from an eye image of a polar coordinate system. In FIG. 4, since the section 1 and the section N-1 are connected to each other in the original image before generation of the eye image of the polar coordinate system, as shown in FIG. 5, the P1, P8, 560, 570, and 580, respectively. P3, P4 and P5 of the mask have pixel values of 510, 520 and 530 corresponding to 540 columns, respectively, when the center position P0 of the mask reaches 570 pixels in the 550 column, Respectively.

예를 들어, 도 6은 비회전된 눈 영상과 회전된 눈 영상을 극 좌표계로 나타낸 예시도이다. 도 6을 참조하면, 동일인의 눈 영상이라 할 지라도 비회전된 눈 영상(610)과 회전된 눈 영상(630)은 유사도를 측정하면, 다른 사람의 눈으로 오인식 될 가능성이 높다. 즉, 도 6에 도시된 바와 같이, 비회전된 눈 영상(610)을 극 좌표계로 나타낸 눈 영상(620)에서 650에 해당하는 영역은 눈 영상의 회전에 따라 회전된 눈 영상(630)을 극 좌표계로 나타낸 눈 영상(640)에서 660에 해당하는 영역으로 이동하므로, 비회전된 눈 영상(610)과 회전된 눈 영상(630)을 극 좌표계로 나타낸 눈 영상(620, 640)의 유사도 측정 결과는 비회전된 눈 영상(610)과 회전된 눈 영상(630)의 유사도 측정 결과와 같이 다른 사람으로 판단될 가능성이 높다. For example, FIG. 6 is an exemplary diagram showing a non-rotated eye image and a rotated eye image in a polar coordinate system. Referring to FIG. 6, it is highly likely that the non-rotated eye image 610 and the rotated eye image 630 are misrecognized by another person's eye when the similarity is measured, even if the same person's eye image is obtained. 6, an area 650 corresponding to the non-rotated eye image 610 in the polar coordinate system is referred to as a polarized image 630, which is rotated in accordance with the rotation of the eye image. Since the region of the eye image 640 represented by the coordinate system moves to the region corresponding to 660, the similarity measurement result of the non-rotated eye image 610 and the eye images 620 and 640 represented by the polar coordinate system of the rotated eye image 630 Is likely to be judged to be another person, such as the result of measuring the degree of similarity between the non-rotated eye image 610 and the rotated eye image 630.

하지만, 추출된 LBP 특징 코드가 산출된 얼굴 영상의 회전각에 상응하게 비트 이동을 하게 되면, 인식률이 향상될 수 있다. 예를 들어, 눈 영상의 크기가 가로 52, 세로 30의 픽셀이라고 가정하면, 가로 픽셀 한 개는 약 7도(360도/52픽셀)를 의미하고, 8비트의 코드 수를 갖는다. 따라서, 픽셀 한 개가 이동하면, 약 7도의 영상 회전을 보정하는 것이 가능하다. 이때, 얼굴 영상의 회전에 따른 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로만 발생하므로, 극 좌표계의 눈 영상의 픽셀이 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동되면, 특징 코드의 비트 이동을 통한 영상 회전 보정이 가능하다. 따라서, 극 좌표계를 눈 인식 방법은 얼굴이 회전된 얼굴 영상일지라도 인식의 정확성을 높일 수 있다.However, if the extracted LBP feature code is bit shifted according to the rotation angle of the facial image, the recognition rate can be improved. For example, assuming that the size of the eye image is 52 pixels horizontally and 30 pixels vertically, one horizontal pixel means about 7 degrees (360 degrees / 52 pixels) and has 8 bits of code number. Therefore, when one pixel is moved, it is possible to correct the image rotation of about 7 degrees. Since the rotation of the eye image of the polar coordinate system according to the rotation of the facial image occurs only in the left and right directions, when the pixels of the eye image of the polar coordinate system are bit-shifted to the left and right by the number of pixels corresponding to the ± rotation angle x 8 bits , It is possible to correct the image rotation through bit shift of the characteristic code. Therefore, the eye recognition method of the polar coordinate system can improve the recognition accuracy even if the face is rotated face image.

식별부(50)는 등록된 얼굴 영상과 입력된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별한다. 예를 들어, 식별부(50)는 등록된 얼굴 영상의 특징 코드와 얼굴 영상의 입력에 따라 최종 산출된 특징 코드의 유사도 판정을 통하여 산출된 비교 결과에 따라 본인 여부를 식별할 수 있다.
The identification unit 50 compares the registered face image with the feature code of the inputted face image to identify whether or not the user is the person. For example, the identification unit 50 can identify whether or not the user is a person according to the comparison result calculated through the determination of the similarity degree between the characteristic code of the registered face image and the final calculated characteristic code according to the input of the face image.

도 7은 도 1의 눈 인식 장치에서의 눈 인식 방법을 나타낸 도면이다.FIG. 7 is a diagram showing a method of recognizing an eye in the eye recognizing device of FIG. 1;

S710 단계에서, 눈 인식 장치는 얼굴 영상을 입력 받는다.In step S710, the eye recognizing device receives the face image.

S720 단계에서, 눈 인식 장치는 입력된 얼굴 영상에서 양 눈을 검출한다. 예를 들어, 눈 인식 장치는 Adaboost 알고리즘 등을 이용하여 대략적인 양 눈의 위치를 검출할 수 있다.In step S720, the eye recognizing device detects both eyes from the input face image. For example, the eye recognition apparatus can detect an approximate position of both eyes using an Adaboost algorithm or the like.

S730 단계에서, 눈 인식 장치는 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출한다. 예를 들어, 눈 인식 장치는 대략적인 양 눈의 위치에서 CED(Circle Edge Detection)를 이용하여 동공의 위치를 검출할 수 있고, 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출할 수 있다.In step S730, the eye recognizing device detects the pupil of the detected eye to calculate the pupil center coordinates. For example, the eye recognizer can detect the position of the pupil using the CED (Circle Edge Detection) at the approximate positions of both eyes, apply a Cartesian coordinate to the face image, The center coordinates can be calculated.

이때, 눈 인식 장치는 입력된 얼굴 영상의 회전에 따른 회전각을 산출한다. 예를 들어, 눈 인식 장치는 산출된 양 눈의 동공 중심 좌표를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 회전각으로 산출할 수 있다.At this time, the eye recognizing device calculates the rotation angle corresponding to the rotation of the input face image. For example, the eye recognizer can calculate the angle formed by the line connecting the center of the pupil of both eyes and the horizontal line by the rotation angle using the pupil center coordinates of the calculated binocular eyes.

S740 단계에서, 눈 인식 장치는 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성한다.In step S740, the eye recognition apparatus divides the eye region from the pupil center to a certain distance in the face image by a predetermined angle interval, and generates an eye image of a polar coordinate system in which divided eye regions are combined in a row.

S750 단계에서, 눈 인식 장치는 극 좌표계의 눈 영상에서 동공 영역(430)를 제거한다. 예를 들어, 도 3 및 도 4를 참조하면, 눈 인식 장치는 도 3에서의 동공 중심(330)으로부터 일정 거리(310)를 도 4의 극 좌표계에서의 눈 영상 길이축(410)으로, 도 3에서 x축을 기준으로 반시계 방향으로 0도부터 360도까지를 일정 각도로 나눈 섹션(Section)들을 도 4의 섹션축(420)에 대응시켜 극 좌표계의 눈 영상을 생성할 수 있다. 이때, 생성된 극 좌표계의 눈 영상은 도 4에 도시된 바와 같이, 동공 영역(430), 홍채 영역(440) 및 눈 주변 영역(450)으로 구분될 수 있다. 여기서, 동공 영역(430)은 얼굴 영상 획득 시, 주변 조명으로 인하여 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되므로, 눈 인식 장치는 극 좌표계의 눈 영상에서 동공 영역(430)를 제거한다.In step S750, the eye recognition device removes the pupil region 430 from the eye image of the polar coordinate system. For example, referring to FIGS. 3 and 4, the eye recognition device may be configured to position a distance 310 from the pupil center 330 in FIG. 3 to the eye image length axis 410 in the polar coordinate system of FIG. 4, 3, the eye image of the polar coordinate system can be generated by corresponding sections of the section axis 420 of FIG. 4 by dividing the sections from 0 degrees to 360 degrees by a predetermined angle in the counterclockwise direction with respect to the x axis. At this time, the generated eye image of the polar coordinate system may be divided into a pupil region 430, an iris region 440, and an eye surrounding region 450, as shown in FIG. Here, since the pupil region 430 includes illuminated reflected light due to surrounding illumination when acquiring the face image, it causes a decrease in the recognition rate. Therefore, the eye recognition apparatus removes the pupil region 430 from the eye image of the polar coordinate system.

S760 단계에서, 눈 인식 장치는 생성된 극 좌표계의 눈 영상에서 특징 코드를 추출한다. 예를 들어, 눈 인식 장치는 LBP(Local Binary Pattern)를 이용하여 극 좌표계의 눈 영상에서 특징 코드를 추출할 수 있다.In step S760, the eye recognition apparatus extracts the feature code from the generated eye image of the polar coordinate system. For example, the eye recognition apparatus can extract the feature code from the eye image of the polar coordinate system using the LBP (Local Binary Pattern).

S770 단계에서, 눈 인식 장치는 산출된 얼굴 영상의 회전각에 상응하게 추출된 특징 코드를 비트 이동(Bit-shifting)시킨다. 즉, 얼굴 영상의 회전에 따른 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로만 발생하므로, 극 좌표계의 눈 영상의 픽셀이 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동되면, 특징 코드의 비트 이동을 통한 영상 회전 보정이 가능하다.In step S770, the eye recognizing device bit-shifts the extracted feature code in accordance with the rotation angle of the calculated face image. That is, as the rotation of the face image in the polar coordinate system occurs only in the left and right directions, when the pixels of the eye image in the polar coordinate system are bit-shifted in the left and right directions by the number of pixels corresponding to the ± rotation angle × 8 bits , It is possible to correct the image rotation through bit shift of the characteristic code.

S780 단계에서, 눈 인식 장치는 등록된 얼굴 영상과 입력된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별한다. 예를 들어, 눈 인식 장치는 등록된 얼굴 영상의 특징 코드와 얼굴 영상의 입력에 따라 최종 산출된 특징 코드의 유사도 판정을 통하여 산출된 비교 결과에 따라 본인 여부를 식별할 수 있다.
In step S780, the eye recognizing device compares the registered face image with the feature code of the inputted face image to identify whether or not the user is the person. For example, the eye recognizing device can identify whether or not the user is a person according to the comparison result calculated through the determination of the degree of similarity between the feature code of the registered face image and the final calculated feature code according to the input of the face image.

한편, 본 발명의 실시예에 따른 눈 인식 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. Meanwhile, the eye recognition method according to an embodiment of the present invention can be implemented in a form of a program command that can be performed through various electronic information processing means, and can be recorded in a storage medium. The storage medium may include program instructions, data files, data structures, and the like, alone or in combination.

저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Program instructions to be recorded on the storage medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software. Examples of storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, magneto-optical media and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. The above-mentioned medium may also be a transmission medium such as a light or metal wire, wave guide, etc., including a carrier wave for transmitting a signal designating a program command, a data structure and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

10: 입력부
20: 동공 검출부
30: 영상 생성부
40: 특징 추출부
50: 식별부
10: Input unit
20:
30:
40: Feature extraction unit
50:

Claims (16)

얼굴 영상을 입력받는 입력부;
상기 얼굴 영상에서 양 눈을 검출하고, 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출하고, 상기 동공 중심 좌표를 이용하여 상기 얼굴 영상의 회전에 따른 회전각을 산출하는 동공 검출부;
상기 얼굴 영상의 눈 영역으로부터 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 영상 생성부; 및
상기 극 좌표계의 눈 영상에서 특징 코드를 추출하고, 상기 추출된 특징 코드를 상기 회전각에 상응하게 비트 이동(Bit-shifting)시키는 특징 추출부를 포함하는 눈 인식 장치.
An input unit for receiving a face image;
A pupil detection unit for detecting both eyes of the face image, calculating pupil center coordinates by detecting pupil of the detected eye, and calculating a rotation angle according to the rotation of the face image using the pupil center coordinates;
An image generating unit for generating an eye image of a polar coordinate system from an eye region of the face image; And
And a feature extracting unit extracting a feature code from the eye image of the polar coordinate system and bit-shifting the extracted feature code according to the rotation angle.
제1항에 있어서,
상기 영상 생성부는 상기 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
Wherein the image generating unit generates an eye image of a polar coordinate system that divides the eye region from the pupil center to a predetermined distance in the face image by a predetermined angle interval and combines the divided eye regions in a row, .
제1항에 있어서,
상기 극 좌표계의 눈 영상은 동공 영역, 홍채 영역 및 눈 주변 영역으로 구분되고, 상기 동공 영역은 상기 얼굴 영상의 획득 시, 주변 조명으로 인한 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되고,
상기 영상 생성부는 상기 극 좌표계의 눈 영상에서 상기 동공 영역을 제거하는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
The eye image of the polar coordinate system is divided into a pupil region, an iris region, and an eye surrounding region, and the pupil region causes illumination degradation due to illumination reflected light due to ambient illumination at the time of acquiring the face image,
Wherein the image generating unit removes the pupil region from the eye image of the polar coordinate system.
제1항에 있어서,
상기 동공 검출부는 상기 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출하는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
Wherein the pupil detection unit calculates a pupil center coordinate of the pupil detected by applying a Cartesian coordinate to the face image.
제1항에 있어서,
상기 동공 검출부는 상기 동공 중심 좌표를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 상기 회전각으로 산출하는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
Wherein the pupil detection unit calculates an angle formed by a line segment connecting the center of the pupil of both eyes and a horizontal line using the pupil center coordinates as the rotation angle.
제1항에 있어서,
상기 특징 추출부는 LBP(Local Binary Pattern)를 이용하여 상기 극 좌표계의 눈 영상에서 상기 특징 코드를 추출하는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
Wherein the feature extraction unit extracts the feature code from the eye image of the polar coordinate system using an LBP (Local Binary Pattern).
제1항에 있어서,
상기 얼굴 영상의 회전에 따른 상기 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로 발생하고,
상기 특징 추출부는 상기 극 좌표계의 눈 영상의 픽셀을 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동시키는 것을 특징으로 하는 눈 인식 장치.
The method according to claim 1,
The rotation in the eye image of the polar coordinate system in accordance with the rotation of the face image occurs in the left and right directions,
Wherein the feature extraction unit bit-shifts pixels of the eye image of the polar coordinate system in the left and right directions by the number of pixels x 8 bits corresponding to the ± rotation angle.
제1항에 있어서,
상기 입력된 얼굴 영상과 등록된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별하는 식별부를 더 포함하는 눈 인식 장치.
The method according to claim 1,
Further comprising an identification unit for comparing the input face image with the registered face image feature code to identify whether or not the registered face image is a person.
눈 인식 장치가 수행하는 눈 인식 방법에 있어서,
얼굴 영상을 입력받는 단계;
상기 얼굴 영상에서 양 눈을 검출하는 단계;
상기 검출된 눈의 동공을 검출하여 동공 중심 좌표를 산출하는 단계;
상기 동공 중심 좌표를 이용하여 상기 얼굴 영상의 회전에 따른 회전각을 산출하는 단계;
상기 얼굴 영상의 눈 영역으로부터 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계;
상기 극 좌표계의 눈 영상에서 특징 코드를 추출하는 단계; 및
상기 추출된 특징 코드를 상기 회전각에 상응하게 비트 이동(Bit-shifting)시키는 단계를 포함하는 눈 인식 방법.
A method of recognizing an eye performed by an eye recognition apparatus,
Receiving a face image;
Detecting both eyes in the face image;
Calculating pupil center coordinates by detecting pupil of the detected eye;
Calculating a rotation angle corresponding to the rotation of the face image using the pupil center coordinates;
Generating an eye image of a polar coordinate system from an eye region of the face image;
Extracting a feature code from the eye image of the polar coordinate system; And
And bit-shifting the extracted feature code according to the rotation angle.
제9항에 있어서,
상기 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계는,
상기 얼굴 영상에서 동공 중심으로부터 일정 거리까지의 눈 영역을 일정 각도 간격으로 나누고, 나눠진 눈 영역을 일렬로 결합한 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
The step of generating the eye image of the polar coordinate system includes:
And generating eye images of a polar coordinate system obtained by dividing the eye region from the pupil center to a certain distance in the face image by a predetermined angle interval and combining the divided eye regions in a line. .
제9항에 있어서,
상기 극 좌표계의 눈 영상은 동공 영역, 홍채 영역 및 눈 주변 영역으로 구분되고, 상기 동공 영역은 상기 얼굴 영상의 획득 시, 주변 조명으로 인한 조명 반사광이 포함되어 있어 인식률 저하의 원인이 되고,
상기 극 좌표계(Polar coordinate)의 눈 영상을 생성하는 단계는,
상기 극 좌표계의 눈 영상에서 상기 동공 영역을 제거하는 단계를 포함하는 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
The eye image of the polar coordinate system is divided into a pupil region, an iris region, and an eye surrounding region, and the pupil region causes illumination degradation due to illumination reflected light due to ambient illumination at the time of acquiring the face image,
The step of generating the eye image of the polar coordinate system includes:
And removing the pupil region from the eye image of the polar coordinate system.
제9항에 있어서,
상기 동공 중심 좌표를 산출하는 단계는,
상기 얼굴 영상에 직교 좌표계(Cartesian coordinate)를 적용하여 검출된 동공의 동공 중심 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
The step of calculating the pupil center coordinates includes:
And calculating a pupil center coordinate of the detected pupil by applying a Cartesian coordinate to the face image.
제9항에 있어서,
상기 회전각을 산출하는 단계는,
상기 동공 중심 좌표를 이용하여 양 눈의 동공 중심을 잇는 선분과 수평선이 이루는 각도를 상기 회전각으로 산출하는 단계를 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
The step of calculating the rotation angle includes:
And calculating an angle formed by a line segment connecting the center of the pupil of both eyes and a horizontal line using the pupil center coordinates as the rotation angle.
제9항에 있어서,
상기 특징 코드를 추출하는 단계는,
LBP(Local Binary Pattern)를 이용하여 상기 극 좌표계의 눈 영상에서 상기 특징 코드를 추출하는 단계를 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
Wherein the extracting of the feature code comprises:
And extracting the feature code from the eye image of the polar coordinate system using LBP (Local Binary Pattern).
제9항에 있어서,
상기 얼굴 영상의 회전에 따른 상기 극 좌표계의 눈 영상에서의 회전은 좌우측 방향으로 발생하고,
상기 비트 이동시키는 단계는,
상기 극 좌표계의 눈 영상의 픽셀을 ±회전각에 상응한 픽셀수×8비트만큼 좌우측 방향으로 비트 이동시키는 단계를 포함하는 것을 특징으로 하는 눈 인식 방법.
10. The method of claim 9,
The rotation in the eye image of the polar coordinate system in accordance with the rotation of the face image occurs in the left and right directions,
Wherein the bit shifting comprises:
And bit-shifting pixels of the eye image of the polar coordinate system in the left and right directions by the number of pixels x 8 bits corresponding to the ± rotation angle.
제9항에 있어서,
상기 입력된 얼굴 영상과 등록된 얼굴 영상의 특징 코드를 비교하여 본인 여부를 식별하는 단계를 더 포함하는 눈 인식 방법.
10. The method of claim 9,
And comparing the input face image with a registered face image feature code to identify whether or not the user is a person.
KR20140062500A 2014-05-23 2014-05-23 Apparatus and method for periocular recognition KR101492933B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140062500A KR101492933B1 (en) 2014-05-23 2014-05-23 Apparatus and method for periocular recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140062500A KR101492933B1 (en) 2014-05-23 2014-05-23 Apparatus and method for periocular recognition

Publications (1)

Publication Number Publication Date
KR101492933B1 true KR101492933B1 (en) 2015-02-12

Family

ID=52593427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140062500A KR101492933B1 (en) 2014-05-23 2014-05-23 Apparatus and method for periocular recognition

Country Status (1)

Country Link
KR (1) KR101492933B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268850A (en) * 2018-01-24 2018-07-10 成都鼎智汇科技有限公司 A kind of big data processing method based on image
KR20200078738A (en) 2018-12-21 2020-07-02 주식회사 피데스 Iris recognition authentication system
KR20210020318A (en) * 2019-08-14 2021-02-24 한국과학기술원 Method for mornitering ocular health and device for mornitering ocular health using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020071330A (en) * 2001-03-06 2002-09-12 에버미디어 주식회사 Non-contact type human iris recognition method by correction of rotated iris image
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye
KR101202448B1 (en) 2011-08-12 2012-11-16 한국기초과학지원연구원 Apparatus and method for recognizing iris

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020071330A (en) * 2001-03-06 2002-09-12 에버미디어 주식회사 Non-contact type human iris recognition method by correction of rotated iris image
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye
KR101202448B1 (en) 2011-08-12 2012-11-16 한국기초과학지원연구원 Apparatus and method for recognizing iris

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268850A (en) * 2018-01-24 2018-07-10 成都鼎智汇科技有限公司 A kind of big data processing method based on image
CN108268850B (en) * 2018-01-24 2022-04-12 贵州华泰智远大数据服务有限公司 Big data processing method based on image
KR20200078738A (en) 2018-12-21 2020-07-02 주식회사 피데스 Iris recognition authentication system
KR20210020318A (en) * 2019-08-14 2021-02-24 한국과학기술원 Method for mornitering ocular health and device for mornitering ocular health using the same
KR102297946B1 (en) * 2019-08-14 2021-09-03 한국과학기술원 Method for mornitering ocular health and device for mornitering ocular health using the same

Similar Documents

Publication Publication Date Title
US11443559B2 (en) Facial liveness detection with a mobile device
US9036876B2 (en) Method and system for authenticating biometric data
US7873189B2 (en) Face recognition by dividing an image and evaluating a similarity vector with a support vector machine
US10127439B2 (en) Object recognition method and apparatus
KR101956071B1 (en) Method and apparatus for verifying a user
KR102202690B1 (en) Method, apparatus and system for recognizing fingerprint
US11790494B2 (en) Facial verification method and apparatus based on three-dimensional (3D) image
Alonso‐Fernandez et al. Near‐infrared and visible‐light periocular recognition with Gabor features using frequency‐adaptive automatic eye detection
Kang et al. Multimodal biometric method that combines veins, prints, and shape of a finger
CN103914676A (en) Method and apparatus for use in face recognition
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
KR20160033553A (en) Face recognition method through 3-dimension face model projection and Face recognition system thereof
KR101492933B1 (en) Apparatus and method for periocular recognition
KR20180092197A (en) Method and device to select candidate fingerprint image for recognizing fingerprint
Rathgeb et al. Bit reliability-driven template matching in iris recognition
KR102063745B1 (en) Apparatus and method for user identifying based on face profiling
Shin et al. Enhanced iris recognition method based on multi-unit iris images
Poulopoulos et al. PupilTAN: A few-shot adversarial pupil localizer
KR20180014317A (en) A face certifying method with eye tracking using Haar-Like-Feature
KR102249663B1 (en) Identification system and method based on ear recognition
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
Khoh et al. Spatiotemporal spectral histogramming analysis in hand gesture signature recognition
KR20140126856A (en) Method and apparatus for hand shape recognition
WO2021025954A1 (en) Techniques for detecting a three-dimensional face during facial recognition
KR102138603B1 (en) Iris recognition authentication system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180131

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 6