WO2010041861A2 - 아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법 - Google Patents

아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법 Download PDF

Info

Publication number
WO2010041861A2
WO2010041861A2 PCT/KR2009/005704 KR2009005704W WO2010041861A2 WO 2010041861 A2 WO2010041861 A2 WO 2010041861A2 KR 2009005704 W KR2009005704 W KR 2009005704W WO 2010041861 A2 WO2010041861 A2 WO 2010041861A2
Authority
WO
WIPO (PCT)
Prior art keywords
eye
information
eye image
image
code
Prior art date
Application number
PCT/KR2009/005704
Other languages
English (en)
French (fr)
Other versions
WO2010041861A3 (ko
Inventor
최형인
김대훈
이성진
문환표
백승민
권성화
손정교
Original Assignee
아이레텍 잉크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이레텍 잉크 filed Critical 아이레텍 잉크
Priority to US13/123,230 priority Critical patent/US8433105B2/en
Priority to CN2009801449354A priority patent/CN102209975A/zh
Publication of WO2010041861A2 publication Critical patent/WO2010041861A2/ko
Publication of WO2010041861A3 publication Critical patent/WO2010041861A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Definitions

  • a semi-automatic segmentation technique which is a method of applying an algorithm to perform the remaining segmentation after the user gives an approximate segmentation guideline, but this method requires the user to manually guide the image for all images. It has a disadvantage.
  • Another problem to be solved by the present invention is to provide a method for grouping and searching the accumulated information in order to reduce the time required for searching the previously accumulated information as described above.
  • FIG. 4 is a diagram illustrating histogram, image center, and scaling normalization of an eye image according to the present invention.
  • Fig. 8 is a diagram showing a test eye code comparison method given a characteristic eye library grouped according to the present invention.
  • Given eye images can be contrast-adjusted so that the contrast range is within the same range or the contrast distribution is set to the same criteria.
  • the present invention uses a histogram equalization technique for this purpose. That is, a transformation function for giving the same contrast distribution criteria for all eye images is determined, and the transformation function is applied to the eye images by applying a relative frequency distribution to the intensity values of each eye image. Perform histogram normalization for
  • the pupil of large size (r2> r0) is enlarged.
  • the iris area The boundary of the pupil or the boundary of the iris may be found by using an existing algorithm, or may be found by the eye image transition method according to the present invention using the pupil boundary or the iris boundary as the region of interest information.
  • an example of configuring an eye code by performing principal component analysis (PCA) on an eye image in a spatial domain composed of gray level values of pixels for general eye image representation In order to obtain the principal component for the eye image through the principal component analysis, m preprocessed and standardized eye images are prepared separately from the sample eye image set, and may be extracted from the sample eye image set.
  • the prepared eye images are referred to as J_1, J_2, ..., J_m, respectively. If the lengths of the respective eye images are all equal to k, a covariance matrix (denoted M) for them becomes a k k matrix.
  • an eye code is generated for each sample eye image in the sample eye image database.
  • Each child group is assigned a representative eye code (or sometimes referred to as a 'prototype') that represents each child group. Since the igroup includes a plurality of icodes, an icode representing them is generated from the icodes in the group and given to the igroup. When the eye group is composed of only one eye code, the eye code is the representative eye code of the group.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 홍채인식 시에 인식률을 높이기 위하여 관심영역정보나 인식적 정보에 대한 아이이미지의 집합을 전처리 및 표준화하고 코드화하여 아이이미지 코드를 생성하여 메모리에 특성아이라이브러리를 구성하는 단계와 상기 특성아이라이브러리에 저장된 아이이미지들에 대한 아이코드들을 그룹화하여 다수의 그룹으로 분할 또는 덮기를 수행하여 각 아이코드그룹마다 대표아이코드를 구하는 단계를 거치며, 관심영역정보나 인식적 정보를 부여되지 않은 새로운 아이이미지를 앞서 기술된 단계에서와 같은 방법으로 전처리 및 표준화하고 코드화하여 테스트아이코드를 생성하는 단계와 상기 테스트아이이미지를 상기 특성아이라이브러리에서 가장 유사한 아이이미지에 대응시키는 단계를 거치고, 상기 대응된 아이이미지에 부여되어 있는 관심영역정보나 인식적 정보를 상기 테스트아이이미지로 전이하는 단계를 거쳐서 전이된 정보를 아이이미지의 전처리 과정에 활용하도록 구성되어 있다.

Description

아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법
본 발명은 홍채인식 시에 인식률을 높이기 위하여 관심영역정보나 인식적 정보에 대한 라이브러리로 사용할 아이이미지 집합을 구축하는 단계를 거치고, 상기 메모리상의 라이브러리에 저장되어 있는 각 샘플아이이미지에 대하여 이를 전처리 및 표준화하고 코드화하여 아이이미지 코드(이하 '아이코드'라 한다)를 생성하는 단계를 거치며, 상기 각 샘플아이이미지에 대한 관심영역정보나 인식적 정보를 추가적으로 부여한 후, 각 샘플 아이이미지에 대한 아이코드와 추가적으로 관련된 관심영역정보 또는 인식적 정보가 부여된 아이이미지의 특성아이라이브러리를 구성하는 단계를 거치고, 상기 특성아이라이브러리에 속한 아이이미지들에 대한 아이코드들을 그룹화하여 다수의 그룹으로 분할(partitioning) 또는 덮기(covering)를 수행하고 각 아이그룹마다 각 그룹을 대표하는 대표아이코드를 구하는 단계를 거치며, 관심영역정보나 인식적 정보가 부여되지 않은 새로운 아이이미지를 앞서 기술한 단계에서와 같은 방법으로 전처리 및 표준화하고 코드화하여 상기 테스트아이이미지에 대한 테스트아이코드를 생성하는 단계를 거치고, 상기 테스트아이이미지를 상기 구축한 특성아이라이브러리에서 검색하여 가장 유사한 아이코드에 대응시키는 단계를 거치며, 상기 대응된 아이이미지에 부여되어 있는 관심영역정보나 인식적 정보를 상기 테스트아이이미지로 전이(transfer)하는 단계를 거치서 홍채인식장치에서 상기 관심영역정보나 인식적 정보를 테스트아이이미지에 전이하는 전처리 과정에 활용하도록 구성된 아이이미지의 관심영역정보 또는 인식적 정보획득방법에 관한 것이다.
홍채 인식 시스템에서 성능 및 효율을 높이기 위해서는 주어진 홍채 이미지로부터 홍채 영역을 정확히 추출해내거나 사용자가 원하는 어떤 관심 영역(Region of Interest, ROI) 만을 추출해야 할 필요가 있다. 또한 아이이미지(eye-image) 내에서의 홍채 영역의 형태, 위치, 회전각도(수평에서 눈이 돌아간 각도) 등의 기하학적 특징을 찾아낼 수 있다면 이것도 홍채 인식에 있어서 매우 중요한 정보가 된다. 또한 홍채 영역이 어느 정도로 가려졌는지, 어떤 물체가 홍채를 가렸는지, 어떤 환경에서 홍채가 촬영되었는지에 대한 정보는 홍채인식장치의 응용에서 매우 유용하게 사용될 수 있다.
일반적으로 상술된 것과 같은 종류의 아이이미지 정보는 사용자의 관심영역정보와 인간이 인식하는 인식적 정보(cognitive information)라고 간주할 수 있는데, 이것은 알고리즘을 통하여 자동으로 얻어 낼 수는 있기는 하지만 정확하게 또는 원하는 방향으로 얻어내기는 매우 어렵다. 예를 들어, 홍채경계정보획득의 경우를 본다면, 홍채 촬영 시에 카메라 주위 조도의 변화로 인하여 홍채 영역의 경계(boundary)가 흐리게 되거나 눈썹, 눈꺼풀, 안경 등에 의하여 홍채 영역과 그 경계가 가려지는 경우 홍채영역경계설정이 어려워진다.
디지털 이미지에서 대상의 영역 내부와 경계를 찾아내는 것과 같은 일은 디지털 이미지처리(Digital Image Processing) 분야에서 가장 어려운 작업 중의 하나인 이미지 세그멘테이션(Image Segmentation) 작업에 속한다. 이미지 세그멘테이션은 주어진 이미지를 구성 영역들이나 대상(object)들로 분할하는 것을 말하며, 주어진 이미지에서 관심 대상이 서로 다른 대상들과 구분시켜 완전히 고립시키는 것이 주요 목적이다. 기존의 이미지 세그멘테이션 기법은 여러 가지가 있는데 일반적으로 자주 인용 및 사용되는 자동 세그멘테이션 방법들로는 이미지 내의 갑작스러운 변화를 감지함으로 세그멘테이션을 수행하는 기법, 유사한 성질을 가지는 영역을 점차적으로 증가시키면서 세그멘테이션을 수행하는 기법, 검출 대상의 모델링을 통하여 세그멘테이션을 수행하는 기법 등이 있다.
그러나 기존의 세그멘테이션 기법들은 많은 경우에 개별 이미지로부터 직접 원하는 대상을 찾는 시도를 하는 일종의 바텀업(bottom-up)형식의 방법인데, 앞에서 언급한 바와 같이 아이이미지에 노이즈가 심하게 포함되어 있거나 속눈썹에 의한 가림 등에 의하여 순수홍채영역의 경계가 비정형적으로 남는 경우와 같은 상황에서는 종종 원하지 않는 세그멘테이션 결과를 발생한다. 또한 이런 비정형적인 형태의 경계를 정확히 찾아낸다고 하더라도, 사용자가 원하는 형태로(예를 들면 다루기 좋은 정형적인 형태로)의 영역과 경계를 찾는 것은 다른 차원의 문제이며, 따라서 이런 관점에서는 기존의 자동화된 기법만을 적용하면 흡족한 결과를 얻기 어려운 문제점이 있다.
이를 해결하기 위하여 반자동으로 이루어지는 세그멘테이션 기법이 알려져 있는데, 이것은 사용자가 대략적인 세그멘테이션 가이드라인을 준 후에 알고리즘을 적용하여 나머지 세그멘테이션을 수행하는 방법이나, 이러한 방법은 모든 이미지에 대해서 가이드를 사용자가 일일이 수행해야 한다는 단점을 가지고 있다.
상술된 것과 같은 기하학적 영역에 대한 정보 외에도 아이이미지에 대한 의미론적 정보나 정황적 정보의 경우도 마찬가지로, 디지털 이미지로부터 인간은 쉽게 이들 정보를 인식할 수 있지만 알고리즘을 통해 이들 정보를 자동으로 추출해내는 것은 매우 어렵다. 지난 수십 년간 비전(vision), 머신 러닝(machine learning), 인공지능(artificial intelligence) 분야에서 다양한 바텀업 기법들이 제시되어 왔지만 이 기법들이 의미론적 정보나 정황적 정보를 체계적으로 정확히 추출하는 데 있어서 항상 유용하지는 않다는 문제점이 있다.
근래에 웹 환경에서 시맨틱 웹(semantic web)이라는 이름으로 의미론적 정확적 정보 부여를 바탕으로 지능적 웹 검색이 가능하게 하는 시도가 있는데, 이것은 현재 검색 위주의 응용으로서 주어진 매체로부터 이들 정보를 추출하기 위한 것은 아니다.
본 발명이 해결하고자 하는 과제는 아이이미지에서 사용자의 관심영역(Region of Interest, ROI)과 그 경계 등에 관한 정보를 포함하는 기하학적 정보를 얻는데 있어서, 다양한 정보에 대한 샘플 아이이미지의 데이터베이스를 구축한 후, 이들 각 샘플아이이미지에 인식적 정보를 오프라인에서 전문가의 도움(marking)으로 관심영역에 대한 기하학적 정보를 미리 부여하여 축적해 놓고, 새로 입력되는 아이이미지에 대해서는 상기 미리 축적된 기하학적 정보에 대한 검색을 통하여 상기 입력된 아이이미지로부터 관심영역에 대한 기하학적 정보를 획득하는 탑다운 형식의 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 종래의 자동화 알고리즘에 의해서 직접 추출하기 어렵거나 추출하는데 장시간이 소요되는 아이이미지에 대한 인식적 정보 획득함에 있어서, 다양한 정보에 대한 샘플 아이이미지를 메모리상에 라이브러리로 사용할 아이이미지(eye image) 집합으로 구축한 후, 이들 각 샘플아이이미지에 인식적 정보를 전문가의 도움(tagging)으로 미리 오프라인으로 부여하여 축적해 놓고, 새로 입력되는 아이이미지에 대해서는 상기 미리 축적된 정보에 대한 검색을 통하여 상기 새로 입력된 아이이미지로부터 인식적 정보를 부여하는 탑다운 형식의 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 아이이미지의 관심영역에 대한 기하학적 정보를 다른 아이이미지와의 유사성을 바탕으로 획득하게 하고, 이를 홍채인식장치에서의 전처리(preprocessing) 과정에 이용함으로써 홍채인식률을 높이는 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 상기와 같이 미리 축적된 정보를 검색 시에 소요되는 시간을 줄이기 위하여 상기 축적된 정보를 그룹화하여 검색하게 하는 방법을 제공하는 것이다.
본 발명 과제의 해결수단은 관심영역 정보나 인식적 정보(정의는 실시 예에서 후술됨)에 대하여 메모리상에 라이브러리로 사용할 아이이미지(eye image) 집합(이하 '샘플아이이미지 집합', 또는 '샘플아이이미지 데이터베이스'라 하고 동일한 의미로 간주한다)을 구축하는 단계와, 상기 샘플아이이미지 데이터베이스에 속해 있는 각 샘플아이이미지에 대하여 이를 전처리 및 표준화하고 코드화하여 아이코드를 생성하는 단계와, 상기 각 샘플아이이미지에 대한 관심영역 정보나 인식적 정보를 추가적으로 부여한 후, 각 샘플 아이이미지에 대한 아이코드와 추가적으로 관련된 관심영역정보 또는 인식적 정보로 이루어진 데이터베이스(이하 '특성아이라이브러리'라 한다)를 구성하는 단계와, 상기 특성아이라이브러리에 속한 아이이미지들에 대한 아이코드들을 그룹화하여 다수의 그룹(이하 '아이그룹(eye-group)'라 한다)으로 분할(partitioning) 또는 덮기(covering)를 수행하고, 각 아이그룹마다 그룹을 대표하는 대표아이코드를 구하는 단계와, 아직 관심영역정보나 인식적 정보를 부여되지 않은 새로운 아이이미지(이하 '테스트아이이미지'라 한다)를 상술된 단계에서와 같은 방법으로 전처리 및 표준화하고 코드화하여 상기 테스트아이이미지에 대한 아이코드(이하 '테스트아이코드'라 한다)를 생성하는 단계와, 상기 테스트아이이미지를 상기 구축한 특성아이라이브러리에서 가장 유사한 아이코드에 대응시키는 단계와, 상기 대응된 아이코드에 부여되어 있는 관심 영역정보나 인식적 정보를 상기 테스트아이이미지로 전이(transfer)하는 단계를 거치는 아이이미지의 관심영역정보 또는 인식적 정보획득방법을 구현하는데 있다.
본 발명의 또 다른 과제의 해결수단은 아이이미지에서 사용자의 관심 영역과 그 경계 등에 관한 정보를 포함하는 기하학적 정보를 얻는데 있어서, 인식적 정보를 전문가의 도움(marking)으로 관심영역에 대한 기하학적 정보를 오프라인으로 이들의 다양한 정보에 대한 샘플아이이미지를 메모리상의 데이터베이스에 축적 저장해 놓고, 새로 입력되는 아이이미지에 대해서는 상기 미리 데이터베이스에 축적 저장된 정보에 대한 검색을 통하여 상기 입력된 아이이미지로부터 관심영역에 대한 기하학적 정보를 획득하는 탑다운 형식의 방법으로 아이이미지의 전처리과정으로 관심영역정보 또는 인식적 정보획득방법을 구현하는데 있다.
본 발명의 또 다른 과제의 해결수단은 종래의 자동화 알고리즘에 의해서 직접 추출하기 어렵거나 추출하는데 장시간이 소요되는 아이이미지에 대한 인식적 정보를 획득함에 있어서, 인식적 정보를 전문가의 도움(tagging)으로 오프라인으로 이들의 다양한 정보에 대한 샘플아이이미지를 메모리상의 데이터베이스에 축적 저장해 놓고, 새로 입력되는 아이이미지에 대해서는 상기 데이터베이스에 축적 저장된 정보에 대한 검색을 통하여 상기 새로 입력된 아이이미지로부터 인식적 정보를 부여하는 탑다운 형식의 방법으로 아이이미지를 전처리하는 과정으로 관심영역정보 또는 인식적 정보획득방법을 구현하는데 있다.
본 발명의 또 다른 과제의 해결수단은 아이이미지의 관심영역에 대한 기하학적 정보를 다른 아이이미지와의 유사성을 바탕으로 획득하여 이를 홍채인식장치에서의 전처리 과정에 이용함으로써 홍채인식률을 높이거나 상기와 같이 미리 축적 저장된 정보를 검색 시에 소요되는 시간을 줄이기 위하여 상기 각 샘플아이이미지에 인식적 정보를 부여하여 축적 저장한 정보를 그룹화하여 검색하도록 구성하여 아이이미지를 전처리하는 관심영역정보 또는 인식적 정보획득방법을 구현하는데 있다.
본 발명은 아이이미지에서 사용자의 관심 영역(Region of Interest, ROI)과 그 경계 등에 관한 정보를 포함하는 기하학적 정보를 얻는데 있어서, 다양한 정보에 대한 샘플 아이이미지의 데이터베이스를 구축한 후, 이들 각 샘플아이이미지에 인식적 정보를 전문가의 도움(marking)으로 관심영역에 대한 기하학적 정보를 미리 오프라인으로 부여하여 메모리에 축적 저장해 놓고, 새로 입력되는 아이이미지에 대해서는 탑다운 형식의 방법으로 상기 미리 메모리상의 데이터베이스에 축적 저장된 정보에 대한 검색을 통하여 상기 입력된 아이이미지로부터 관심영역에 대한 기하학적 정보를 획득하는 작용효과가 있다.
본 발명의 또 다른 효과는 종래의 자동화 알고리즘에 의해서 직접 추출하기 어렵거나 추출하는데 장시간이 소요되는 아이이미지에 대한 인식적 정보 획득함에 있어서, 다양한 정보에 대한 샘플 아이이미지에 대한 데이터베이스를 구축한 후, 이들 각 샘플아이이미지에 인식적 정보를 전문가의 도움(tagging)으로 미리 오프라인으로 부여하여 데이터베이스에 축적 저장해 놓고, 새로 입력되는 아이이미지에 대해서는 탑다운 형식의 방법으로 상기 미리 데이터베이스에 축적 저장된 정보에 대한 검색을 통하여 상기 새로 입력된 아이이미지로부터 인식적 정보를 부여할 수 있도록 하는데 있다.
본 발명의 또 다른 효과는 아이이미지의 관심영역에 대한 기하학적 정보를 다른 아이이미지와의 유사성을 바탕으로 획득하게 하고, 이를 홍채인식장치에서의 전처리(preprocessing) 과정에 이용함으로써 홍채인식률을 높이는 방법을 제공하는 것이다.
본 발명의 또 다른 효과는 상기와 같이 검색 시에 소요되는 시간을 줄이기 위하여 상기 각 샘플아이이미지에 인식적 정보를 부여하여 데이터베이스에 축적 저장한 정보를 그룹화하여 신속하게 검색하게 하는 방법을 제공하는 것이다.
도1 : 본 발명의 개념도
도2 : 본 발명에 따른 전체적인 구성의 흐름도
도3 : 본 발명에 따른 아이이미지의 스케일 표준화를 도시한 도면
도4 : 본 발명에 따른 아이이미지의 히스토그램, 이미지 중심 및 스케일링 표준화를 도시한 도면
도5 : 본 발명에 따른 샘플아이이미지들에 대한 분할 및 덮기 성격의 그룹화를 도시한 도면
도6 : 본 발명에 따른 아이이미지에 기하학적 영역정보 중 경계정보를 전문가의 마킹을 부여하여 도시한 도면
도7 : 본 발명에 따른 아이이미지에 의미론적 정보부여를 도시한 도면
도8 : 본 발명에 따라 그룹화된 특성아이라이브러리가 주어졌을 때 테스트아이코드 비교방법을 다이야그램
도9 : 본 발명에 따라 테스트아이이미지에 관심영역 정보를 전이하는 방법을 다이야그램
도10 : 본 발명에 따라 테스트아이이미지에 경계 정보를 전이한 아이이미지의 도면
본 발명은 눈과 눈 주변부로 구성된 아이이미지로부터 관심영역정보 및/또는 인식적 정보를 획득하되, 아이이미지들로 구성된 샘플아이이미지의 데이터베이스를 구축하는 단계와; 상기 샘플아이이미지의 데이터베이스에 구축된 각 샘플아이이미지에 대하여 아이코드를 추출하는 단계와; 상기 각 샘플아이이미지에 대하여 추출한 아이코드와 각 샘플아이이미지에 부여된 관심영역정보 및/또는 인식적 정보로 이루어진 특성아이라이브러리를 구축하는 단계와; 관심영역정보 및/또는 인식적 정보를 추출하고자 하는 새로운 아이이미지에 대하여 아이코드를 추출하는 단계와; 상기 새로운 아이이미지에 대한 아이코드를 상기 특성아이라이브러리에 저장된 각 아이코드와 비교하여 가장 유사한 아이코드와 대응시키는 단계; 및 상기 대응된 아이코드에 대한 관심영역정보 및/또는 인식적 정보를 상기 새로운 아이이미지로 전이하는 단계로 이루어진 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법이다.
본 발명에 따른 구체적인 실시 예를 도면에 기초하여 살펴본다. 도1은 본 발명의 개념도를 나타낸 것이며, 도2는 본 발명에 따른 전체적인 구성의 흐름도를 도시한 것이다.
먼저, 본 발명에 따른 샘플아이이미지 데이터베이스를 구축에 대하여 살펴본다. 특성아이라이브러리를 만들기 위해서 먼저 샘플 아이이미지 집합을 구성한다. 일반적으로 아이이미지는 눈과 그 주변부가 포함된 확장된 영역에 대한 디지털 이미지를 의미한다.
샘플 아이이미지 집합은 얻고자 하는 관심영역정보나 인식적 정보 측면에서 큰 변이를 가지도록 다양하게 구성되는 것이 바람직하다. 예를 들어 아이이미지로부터 얻고자 하는 관심영역정보가 밖으로 드러난 눈 영역에 대한 정보라면 눈을 뜬 다양한 형태의 이미지를 샘플아이이미지로 사용한다.
샘플 아이이미지는 직접 사람의 눈을 촬영해서 획득한 이미지일 수도 있고, 눈과 눈 주변을 모델링을 하여 생성한 인공적인 아이이미지일 수도 있다. 인공 아이이미지를 생성할 경우에는 눈을 이루는 대상인 동공, 홍채, 흰자, 눈꺼풀, 속눈썹에 대한 크기, 모양, 색, 텍스쳐 특징(texture feature), 대상들간의 관계와 조명 및 안경 등의 외부 환경 등을 모델링하여 랜덤하게 눈과 눈 주변이 담긴 다수의 아이이미지를 생성한다.
다음은 특성아이라이브러리의 구성에 대하여 살펴본다. 특성아이라이브러리는 각 샘플 아이이미지로부터 생성된 아이코드(이하 샘플 아이이미지로부터 추출된 아이코드를 특별히 '샘플 아이코드'라고도 한다)와 관심영역 정보나 인식적 정보로 이루어져 있다. 각 샘플 아이이미지는 특성아이라이브러리에 포함될 수도 있고 포함되지 않을 수도 있다. 본 발명에서는 아이이미지가 그레이스케일(grayscale)의 아이이미지라고 가정한다. 칼라아이이미지라도 상관이 없다. 이러한 아이이미지의 변경은 이 기술분야에 종사하는 통상의 기술을 가진 자라면 용이하게 소프트웨어적으로 변경 설계할 수 있는 것에 해당한다.
a. 아이이미지의 전처리(preprocessing) 및 표준화(normalization)
인공 아이이미지의 경우 생성시킬 때부터 미리 표준화하여 별도의 전처리 과정이 없이 생성할 수 있지만 직접 사람의 눈을 촬영하여 획득한 아이이미지의 경우에는 다양한 조건에서 촬영되므로 정보를 추출하기 좋도록 전처리를 수행하거나 아이이미지끼리 서로 비교 가능하도록(comparable) 표준화하는 것이 필요하다. 아이이미지의 전처리와 표준화는 후술할 아이코드가 어떠한 방법으로 생성되더라도 그 방법을 고려한 전처리와 표준화가 이루어졌다고 가정한다. 아이이미지에 대한 전처리와 표준화는 얻고자 하는 관심영역정보나 인식적 정보의 종류에 의존할 수 있기 때문에 관심영역정보나 인식적 정보의 종류에 따라 여러 가지 관점에서 아이이미지 전처리 및 표준화를 수행할 수 있다. 본 발명에서는 이미지의 크기, 히스토그램, 이미지 필터링, 평행이동 및 방향, 국소적 스케일링 및 비중요부분 등의 관점에서 전처리 및 표준화 방법을 기술하기로 한다.
- 이미지의 크기
눈이 촬영될 때 카메라로부터의 거리에 따라 같은 해상도의 이미지에 대하여 촬영된 눈의 크기가 달라진다. 이러한 점을 고려하여 비슷한 크기의 눈을 가지도록 촬영된 이미지의 크기를 조절한다.
- 히스토그램(histogram)
주어진 아이이미지들을 명암 비 조정(contrast adjustment)을 통하여 명암 영역이 동일한 범위 내에 있도록 하거나 명암 분포를 동일한 기준으로 맞춘다. 본 발명에서는 이를 위하여 히스토그램 동일화(histogram equalization)기법을 사용한다. 즉, 모든 아이이미지에 대하여 동일한 명암 분포 기준을 부여하기 위한 변환 함수(transformation function)를 결정하고, 상기 변환 함수를 각 아이이미지의 명암 값에 대한 상대적 도수(relative frequency) 분포에 적용시킴으로써 아이이미지에 대한 히스토그램 표준화를 수행한다.
- 이미지 필터링
촬영된 아이이미지 중에는 촬영 환경에 따라 노이즈(noise) 수준, 블러링(blurring) 정도 등이 다를 수 있다. 노이즈 수준의 조절, 특히 스무딩(smoothing)을 수행할 경우 공간도메인에서는 가우시안 필터(gaussian filter) 또는 메디안 필터(median filter) 등으로 수행하며, 주파수도메인에서는 다양한 종류의 로우패스필터(lowpass filter)를 사용하여 제거할 수 있다. 또한 장면을 이루는 대상이 도드라져 보이게 하기 위하여 도함수를 이용한 샤프닝(sharping) 기법을 적용하고, 기타 훼손된 이미지 복원을 위해서는 디콘볼루션(deconvolution) 기법 등을 적용할 수도 있다.
- 평행이동(translation) 및 방향(orientation)
촬영된 아이이미지에 따라 눈의 중심(동공의 중심)이 아이이미지의 중심에서 벗어나는 경우가 많다. 이때 눈의 중심이 아이이미지의 중심과 일치하도록 원래의 아이이미지에서 일정 크기로 잘라내어 새로운 아이이미지를 만든다.
또한, 눈이 수평에서 회전되어 있는 각이 모두 다르므로 눈이 항상 동일한 각도 범위 내에 있도록, 예를 들면 눈이 수평을 이루도록 회전시켜 아이이미지들을 표준화한다.
- 국소적 스케일링(rescaling)
눈 촬영 시 주위 환경의 변화에 따라 동공 크기 및 홍채영역의 크기 등이 변화한다. 특히, 조명의 밝기 변화에 따라 동공이 수축되기도 하고 이완되기도 한다. 이러한 점을 감안하여 눈이 촬영된 아이이미지를 홍채의 안쪽 반경(동공의 반경)과 바깥쪽 반경(홍채영역 전체를 포함하는 원판의 반경)의 크기가 일정하도록 조정한다. <도3>에서 표준을 안쪽 반경이 r0, 바깥쪽 반경이 R0으로 설정했을 때, 이와 다른 반경을 가지는 아이이미지를 표준으로 변환하는 과정을 나타내었다. 첫 번째 그림(<도3a>)에서는 표준에 비해 작은 크기의 동공(r1 < r0)은 확대하고 홍채 영역 부분은 축소하였고, 두 번째 그림(<도3b>)에서는 큰 크기의 동공(r2 > r0)을 축소하고 홍채 영역 부분도 축소하였다. 여기서 동공의 경계나 홍채의 경계는 기존의 알고리즘을 이용하여 찾아낼 수도 있고, 또는 동공 경계나 홍채 경계를 관심영역 정보로 하여 본 발명에 따른 아이이미지 전이 방법으로 찾아내어도 된다.
그 외에도 아이이미지에서 관심 영역이 어디냐에 따라 아이이미지의 관심영역부분을 국소적으로(locally) 축소 또는 확대한다.
- 비중요부분 제거
획득하고자 하는 관심영역 정보나 인식적 정보를 고려하였을 때, 아이이미지에서 중요한 부분과 그렇지 않은 부분이 있다. 중요하지 않은 부분은 관심영역 정보나 인식적 정보를 획득하는데 있어서 방해요소가 될 수 있기 때문에 이런 부분은 아이이미지에서 제거하는 것이 상기 정보를 얻는 데 도움이 된다.
<도4>는 밖으로 드러난 눈 영역의 경계 정보를 획득하려는 관점에서, 아이이미지를 여러 단계를 거쳐 전처리 및 표준화하는 과정을 보여주고 있다. 먼저 동공의 중심을 기준으로 일정 반경, 예를 들어, 홍채 바깥쪽 반경의 1.5배 정도만큼의 바깥쪽은 원본 아이이미지로부터 잘라내고, 남아 있는 부분을 히스토그램 조정과 스케일링을 하여 새로운 아이이미지를 얻는다. 동공은 밖으로 드러난 눈 영역의 경계 정보를 얻는데 중요한 부분이 아니기 때문에 제거한다. 최종 전처리 및 표준화된 두 개의 이미지(맨 오른쪽 이미지)들을 보면 동공 부분의 크기와 홍채 영역의 두께가 서로 유사하게 되었음을 알 수 있다.
b. 아이이미지에 대한 아이코드
각 샘플아이이미지에 둘 이상의 아이코드가 부여될 수도 있다. 예를 들어, 일정 각도 범위 내에서 원본 아이이미지를 회전시킨 후 다수의 회전된 아이이미지를 새로 생성하고 이들 각각에 대한 아이코드를 생성하여 상기 아이코드집합을 원본 아이이미지에 부여할 수 있다.
각 샘플아이이미지에 단일한 아이코드가 부여된 경우와 복수 개의 아이코드가 부여된 경우 모두 본 발명의 취지를 설명하는 데에는 동일한 효과를 가지므로 본 발명의 설명을 용이하게 하기 위하여 각 샘플아이이미지에는 단일한 아이코드가 부여되었다고 가정한다.
아이코드는 아이이미지의 색(color)과 텍스쳐 특징(texture features) 을 표현하는 코드로서 다양한 도메인에서 다양한 표현 스킴(representation scheme)에 의하여 구성될 수 있다. 아이코드의 형태는 수치들의 배열로 된 특징 벡터(feature vector)이다. 먼저 아이이미지의 아이코드가 다른 아이이미지 정보 없이 획득 가능한 경우로서, 이때 아이코드는
- 이미지 내의 각 픽셀의 명도(gray level)값으로 이루어진 공간 도메인(spatial domain)에서의 표현으로부터 추출한 벡터;
- 상기 공간 도메인에서의 아이이미지 표현을 푸리에(Fourier) 변환, 웨이블릿(wavelet) 변환 등의 변환을 통해 얻은 표현으로부터 추출한 벡터;
- 상기 공간 도메인에서의 아이이미지 표현을 라돈(Radon) 변환과 같은 인테그랄(integral) 변환을 통해 얻은 표현으로부터 추출한 벡터 중 어느 하나를 선택 사용하여 구성할 수 있다.
이와는 다르게 각 아이이미지의 아이코드를 획득하기 위하여 별도의 아이이미지 샘플 분석이 필요한 경우로서 이 때 아이코드는
- PCA기법(Principal Component Analysis)을 사용하여 아이이미지를 표현하여 얻는 벡터;
- LDA기법(Linear Discriminant Analysis)을 사용하여 아이이미지를 표현하여 얻는 벡터;
- ICA기법(Independent Component Analysis)을 사용하여 아이이미지를 표현하여 얻는 벡터 등으로 이루어질 수 있다. 이때 상기의 각 분석 기법 적용 시에 앞서 설명한 세 종류의 벡터 중 어느 하나를 선택 사용해도 무방하다.
본 발명에서는 전이하고자 하는 관심영역정보나 인식적 정보에 따른 아이코드 생성 예 두 가지를 설명하기로 한다. 먼저 일반적인 아이이미지 표현을 위하여 픽셀의 명도(gray level)값으로 이루어진 공간 도메인(spatial domain)에서의 아이이미지를 주성분 분석(PCA)을 하여 아이코드를 구성하는 예를 들기로 한다. 주성분 분석을 통하여 아이이미지에 대한 주성분(principal component)을 얻기 위하여 샘플아이이미지집합과는 별도로 m개의 전처리 및 표준화된 아이이미지를 준비하며, 샘플아이이미지 집합에서 추출해서 사용해도 무방하다. 상기 준비된 아이이미지들을 각각 J_1, J_2, ..., J_m이라고 한다. 상기 각 아이이미지의 길이는 모두 k로 동일하다고 할 때 이들에 대한 공분산 행렬(M으로 표기)을 만들면 이 행렬은 k k 행렬이 된다.
상기 행렬 M에 대한 k개의 고유벡터(eigen-vector), 즉 다음 관계식
ME = aE (a는 실수)
을 만족하는 벡터 E를 구하여 각각 E_1, E_2, ..., E_k (고유값 a에 대한 내림차순이라고 가정한다)라고 하고, 이들 벡터를 '아이겐아이(eigen-eye)'라고 부르기로 한다.
주어진 아이이미지에 대한 아이코드는 상기와 같은 아이겐아이를 사용하여 만든다. k의 값이 매우 클 수 있으므로 고유 값 a에 대하여 상위에 포함되는 p개의 아이겐아이들을 선택하여 아이코드를 만드는데 사용한다. 주어진 아이이미지를 I라고 하고, 상기 선택된 p개의 아이겐아이들을 다시 이름을 붙여 각각 E_1, E_2, ..., E_p 라고 하면 상기 주어진 이미지 I에 대한 아이코드는 p 차원 벡터인
(<E_1, I>, <E_2, I>, ..., <E_p, I>)
가 된다. (여기서 < , >는 두 벡터의 내적을 의미한다.)
또 다른 종류의 방법으로는 아이이미지 각 부분이 국소적으로 가지는 통계적 성질을 이용하여 아이이미지를 아이코드로 표현할 수 있다. 예를 들어, LBP(Local Binary Pattern)을 이용하여 표현하는 기법이 있다. 본 발명에서는 관심영역 정보 중 경계정보 전이를 위하여 LBP와 유사한 방법을 사용하여 아이코드를 생성하는 또 다른 예를 들기로 한다.
우선 아이이미지에 경계를 찾는 구성은 일반적인 알고리즘을 적용시킨다. 아이이미지의 한 픽셀에 대하여 경계로 간주되면 1을 그렇지 않으면 0을 부여한다. 1로 부여된 픽셀을 경계점, 0으로 부여된 픽셀을 비경계점이라고 부르기로 한다. 상기 아이이미지의 각 픽셀을 중심으로 일정한 크기의 원판 형태의 영역을 설정한다. 상기 아이이미지의 크기가 M x N이라고 하고, 위치 (i, j) (i=1, ..., M, j=1, ..., N)에서의 픽셀을 p(i, j) 라고 하자. 그리고 p(i, j)를 중심으로 하는 원판을 D(i, j)라고 하고, 픽셀 p(i, j)를 지나고 수평에 대하여 x도를 이루는 직선을 L(i, j, x)라고 하자. 이 때 직선 L(i, j, x)과 원판 D(i, j)가 만나는 픽셀들 중에서 경계에 있는 픽셀들의 개수(h(i, j, x)를 카운트한다. x를 1도부터 360도까지 변화시킨다면 모두 360개의 h(i, j, x)값을 얻고 다음과 같은 벡터를 얻는다.
(h(i, j, 1), h(i, j, 2), ... , h(i, j, 360)).
이 벡터를 픽셀 (i, j)에 대한 경계 시그니쳐(signature)라고 부르고 S(i, j)라고 쓰기로 한다. 모든 픽셀 p(i, j)에서의 경계 시그니쳐를 구하면 크기가 M N인 행렬을 얻는다. 이 행렬을 주어진 아이이미지에 대한 아이코드로 정한다.
상술한 다양한 방법들로 샘플 아이이미지 데이터베이스에 속한 모든 각 샘플아이이미지에 대하여 아이코드를 만든다.
c. 관심영역정보와 인식적 정보
본 발명에서 아이이미지에 대한 관심영역정보는 아이이미지가 표현하고 있는 장면(scene)을 이루는 대상의 기하학적 영역(내부 영역과 경계)의 정보를 의미하며, 특정 대상에 대한 것이 아니더라도 사용자가 원하는 영역에 대한 것도 함께 포함한다.
즉, 상기 아이이미지에 대한 관심영역정보는 아이이미지를 구성하는 대상이 차지하는 영역과 그의 경계 및/또는 아이이미지에서 사용자가 원하는 영역과 그의 경계로 이루어질 수 있다.
본 발명에서 이미지에 대한 인식적 정보(cognitive information)는 이미지가 표현하고 있는 장면(scene)을 이루는 인간이 인식하는 각 대상(object)의 종류, 대상들간의 관계 등의 의미론적 정보, 그리고 장면이 이루어진 주변 환경 및 배경 등의 정황적 정보를 모두 포함하는 포괄적인 의미의 정보이다.
아이이미지에 대한 관심영역 정보는 홍채 영역 및 경계 정보, 눈 내부 영역 및 경계 정보, 그리고 눈꺼풀, 눈썹, 안경, 콘텍트 렌즈, 조명, 그림자 등에 의해 발생한 가림 영역이나 가림 경계 등이 있다. 홍채인식의 관점에서 아이이미지에 대한 인식적 정보는 얼굴 정면이 카메라 렌즈를 바라보는 각도, 눈이 카메라 렌즈를 바라보는 각도, 눈의 회전각도, 홍채 영역 중심이 아이이미지 중심과 동떨어진 정도, 홍채가 가려진 부분, 홍채의 가려진 정도, 안경, 눈꺼풀, 조명의 위치 및 밝기 등 홍채를 가린 물체의 종류, 안경 착용 유무, 콘텍트 렌즈 착용 유무 등을 포함한다.
아이이미지에 대한 관심영역 정보와 인식적 정보는 이미지 세그멘테이션(image segmentation), 컴퓨터 비젼(computer vision), 인공지능(artificial intelligence)에서의 다양한 기법을 사용하여 획득이 가능하지만, 일반적으로 이러한 정보들을 통상의 자동화 기법을 사용하여서는 고품질로 얻기 어렵기 때문에, 샘플아이이미지 데이터베이스에 속한 샘플아이이미지들에 대해서 전문가가 관심영역정보나 인식적 정보를 태깅(tagging) 및 마킹(marking) 등을 통해 직접 부여하거나 상기의 자동화 기법들을 사용하여 일차적으로 관심영역정보나 인식적 정보를 획득한 다음 전문가의 보완을 거쳐 최종적으로 샘플아이이미지들에 부여하여 메모리상의 데이터베이스에 기록 저장한다.
<도5>에서 붉은 색으로 된 곡선은 눈꺼풀, 눈썹을 제외한 눈 내부의 경계를 전문가가 미리 표시(marking)를 해 둔 것을 나타내고 있다. 각각 다른 아이이미지에 대하여 마킹을 하였다. 이 경우 관심영역은 밖으로 드러난 눈 부분이어서 전반적으로 속눈썹 등은 제외하기를 원하지만 그렇다고 해서 속눈썹을 완전히 제외한 부정형적인(톱니처럼 울퉁불퉁한) 형태의 경계를 얻기를 바라는 것은 아니다. <도5>에서 보면 눈을 가린 속눈썹을 완전히 제외하여 경계를 선택하지는 않고 밖으로 드러난 눈 부분을 넉넉히 잡으면서 동시에 경계가 매끄러운 곡선이 되도록 했다. 상기와 같이 전문가에 의해 표시된 경계 정보가 샘플아이이미지 또는 아이코드에 부여된다.
<도6>에서는 서로 다른 두 개의 아이이미지에 대하여 인식적 정보를 각각 부여한 예를 나타낸 것이다.
다음은 아이그룹과 각 아이그룹을 대표하는 대표아이코드를 생성하는 단계에 대하여 구체적으로 살펴본다.
a. 아이그룹
이 단계는 샘플아이이미지가 지나치게 많을 경우에 생기는 처리속도 저하 및 메모리 공간 부족을 개선하기 위하여 거치는 단계이다.
특성아이라이브러리에 속한 아이코드 또는 이 대응되는 아이이미지들에 대하여 패턴 인식에 사용되는 분류(classification) 기법 또는 클러스터링(clustering) 기법을 사용하여 다수의 아이그룹들을 만든다. 아이코드 하나에 하나의 아이그룹이 대응되므로 아이그룹은 대응되는 아이이미지들에 대한 그룹이라고 보기로 한다. 하나의 아이그룹은 하나의 아이코드만으로 이루어질 수도 있다. 그룹과 그룹을 구별하는 기준을 제공하는 것은 획득하고자하는 관심영역정보나 인식적 정보이다. 따라서 특성아이라이브러리는 획득하고자하는 관심영역정보나 인식적 정보의 개수에 따라 특성아이라이브러리는 동시에 두 개 이상을 그룹화하는 결과를 가질 수 있다. 또한 각 그룹화에 대하여 특성아이라이브러리는 계층적(hierarchical)일 수도 있고, 비계층적(flat)일 수도 있다. 따라서 특성아이라이브러리가 계층적일 경우에는 하나의 아이그룹이 여러 개의 아이그룹들을 포함하고 있을 수 있다.
각 그룹화에 대하여 그룹들끼리 서로 겹치는 경우가 존재할 수 있다. 즉, 특성아이라이브러리에 속한 어떤 아이코드가 복수 개의 그룹에 동시에 속할 수 있다. 이런 종류의 그룹화의 경우 본 발명에서는 '덮기(covering)'라고 부르고, 아이그룹들간의 교집합이 공집합일 경우, 즉 그룹들간 서로 겹치지 않을 경우 '분할(partitioning)'이라고 부르기로 한다. <도7>은 두 개의 그룹으로 나뉜 아이이미지 집합을 나타낸 것이다. 첫 번째는 분할을 나타낸 것이고, 두 번째는 덮기를 나타낸 것이다. 두 그룹 모두 비계층적(flat)이다.
b. 대표아이코드 생성
각 아이그룹은 각 아이그룹을 대표하는 대표아이코드(또는 '프로토타입(prototype)'이라고도 한다)를 부여한다. 아이그룹은 다수의 아이코드들을 포함되어 있으므로, 이들을 대표하는 아이코드를 상기 그룹 내의 아이코드들로부터 생성하여 아이그룹에 부여한다. 아이그룹이 하나의 아이코드로만 이루어져 있을 경우에는 상기 아이코드가 그대로 그룹의 대표아이코드가 된다.
각 그룹에 대한 대표아이코드의 한 예로 아이코드를 평균한 평균값을 선택하기로 한다. 한 그룹 내에 포함되어 있는 아이코드가 각각 C_1, ..., C_n이라고 하면 상기 그룹에 대한 대표아이코드 (MC로 표기)는
MC = (C_1 + ... + C_n)/n
이 된다.
이외에도 중간 값, 가중평균 값 및 기하평균값 등을 그룹에 대한 대표아이코드로 사용할 수 있다.
다음은 테스트아이이미지에 대한 전처리 및 표준화, 그리고 코드화 단계에 대하여 살펴본다.
특성아이라이브러리를 구성할 때 사용된 아이코드를 만드는 방법과 동일하게 테스트아이이미지를 전처리 및 표준화하고 코드화한다. 특성아이라이브러리와의 비교 성능을 높이기 위하여 테스트아이이미지에 다수의 아이코드를 부여할 수 있다. 예를 들면 테스트아이이미지를 일정 범위 내에서 1도씩 회전을 시켜 새로운 아이이미지를 얻고 이에 대한 아이코드를 생성한다. 만약 -30도에서 +30도 범위까지 회전을 시킨다면 총 61개의 아이코드를 생성할 수 있다.
다음은 아이코드 비교를 통한 매칭 단계에 대하여 살펴본다. 특성아이라이브러리에 아이코드가 그룹화되어 저장되어 있고 각 그룹에 대표아이코드가 부여되어 있는 경우에 테스트아이이미지를 특성아이라이브러리 내의 유사성이 높은 적절한 아이그룹에 대응시키는 단계와, 상기 테스트아이이미지와 대응된 아이그룹 내의 유사성이 높은 적절한 샘플아이이미지에 대응시키는 단계의 두 부분으로 이루어져 있다. 만약 상기 선택된 아이그룹이 하나의 아이이미지로만 이루어져있다면, 즉, 특성아이라이브러리가 별도의 그룹화가 되어있지 않다면 상기 두 단계는 하나의 단계로 이루어진다.
상기와 같이 테스트아이이미지를 아이그룹에 또는 아이이미지에 대응시키는 것은 특성아이라이브러리 내에 저장된 아이그룹(그룹화가 되어있지 않다면 아이코드)들을 클래스(class) 또는 라벨(label)로 하여 주어진 테스트아이이미지를 이에 따라 분류(classify)하는 것이다. 이를 위하여 다양한 분류기법이 이용될 수 있는데, 두 코드간의 유사도를 분류자(classifier)로 이용하는 기법, 베이즈(Bayes) 분류자를 이용한 기법, 신경망(neural networks) 기법, 서포트 벡터 머신(support vector machine) 기법, 의사 결정 트리(decision-making tree) 기법 등을 포함하는 머신 러닝 기법(machine learning) 등 다양한 기법 중 하나를 선택 사용하는 수단으로 이룰 수 있다.
본 발명에서는 두 코드간의 유사도 또는 상관도(correlation)를 분류자로 하여 분류하는 기법을 제시하기로 한다. 그러나 이 기술분야에 종사하는 통상의 기술을 가진 자라면 다양한 분류기법 중에서 하나를 선택하여 사용할 수 있으며, 사용하더라도 무방하다.
각 아이코드는 하나의 벡터이므로 두 아이코드간의 유사도 측정은 두 벡터간의 유사도 측정으로 다양하게 수행될 수 있다. 두 벡터 사이의 유사도 측정에는 코싸인(cosine) 유사도, 이를 확장한 타니모토(Tanimoto) 유사도와 같은 상관관계 기반의 유사도 측정 방법과, 맨하탄 거리, 유클리드 거리 등을 포함한 민코프스키 거리를 이용한 유사도 측정 방법, 각 콤포넌트에 가중치를 부여하는 유사도 측정 방법 등, 이외에도 매우 다양한 방법이 사용될 수 있는데 이들 중에서 하나를 선택 사용하더라도 무방하다.
두 코드 사이의 유사도의 한 예는 두 코드 간의 유클리드 거리에 반비례하는 값으로 결정하는 것이다. 즉, 유클리드 거리를 계산해서 값이 작으면 유사성이 높은 것으로 값이 크면 유사성이 낮은 것으로 판단한다.
이를 바탕으로 주어진 테스트아이이미지를 특성아이라이브러리에 있는 아이코드에 대응시키는 방법 또는 수단에 대하여 기술하기로 한다. 특성아이라이브러리가 n개의 아이그룹으로 이루어져 있다면 이들에 대한 대표아이코드를 각각 G_1, G_2, ..., G_n 이라고 하고, 상기 테스트아이이미지에 대한 테스트아이코드를 U라고 표기하기로 하자. 여기서 사용된 각 아이코드와 대표아이코드는 모두 앞서 기술한 주성분 분석을 통하여 얻은 아이코드이다. 물론 통상의 다른 기법을 통하여 얻은 아이코드를 사용해도 무방하다. 그러면 상기 테스트아이코드와 상기 대표아이코드와의 유클리드 거리를 계산하면 다음과 같이 된다.
|G_1 - U|, |G_2 - U|, ..., |G_n - U|.
위의 거리들 중에서 최소가 되는 거리를 찾고 그에 대응되는 아이그룹을 선택하고, 이 아이그룹 내에 포함된 샘플아이코드를 C_1, C_2, ..., C_m이라고 하자. 이제 다시 테스트아이코드와 상기 각 샘플아이코드간의 유클리드 거리를 다음과 같이 계산한다.
|C_1 - U|, |C_2 - U|, ..., |C_m - U|.
상기의 거리들 중에서 최소가 되는 거리를 찾고 그에 대응되는 샘플아이코드를 C라고 하면 상기 테스트아이이미지는 샘플아이코드 C에 최종적으로 대응이 된다. <도8>은 상술한 과정을 보여주는 다이야그램이다. 만약 특성아이라이브러리의 각 아이그룹이 하나의 아이이미지로만 이루어져있다면 위의 두 단계는 하나의 단계로 이루어진다.
만약 테스트아이이미지에 복수 개의 테스트아이코드가 부여되어 있다면, 모든 상기 테스트아이코드에 대하여 앞서 기술한 것과 같이 특성아이라이브러리에 매치시킨 다음 거리가 가장 작게 되는 샘플아이코드를 찾으면 된다. 예를 들면 테스트아이이미지를 -30도에서 +30도의 범위에서 1도씩 회전을 시켜 총 61개의 테스트아이코드를 생성한 후, 각 테스트아이코드를 앞서 기술한 동일한 방법으로 특성아이라이브러리에 있는 아이코드에 대응시키고 이들 61개의 테스트아이코드에 대응된 아이코드들 중에서 유사도가 가장 큰 아이코드를 선택한다.
다음은 관심영역정보와 인식적 정보의 전이 및 적용단계에 대하여 살펴본다. 상기 테스트아이이미지에 대응된 특성아이라이브러리내의 샘플아이코드 C에 미리 부여되어 있던 관심영역정보나 인식적 정보를 상기 테스트아이이미지에 전이 및 적용한다.
인식적 정보 중에서 어떤 것은 그대로 전이 가능하지만 많은 경우 그대로 전이하면 원하지 않는 결과가 나올 수 있다. 특히 관심영역정보의 경우 그대로 전이하지 않고 테스트아이이미지를 단계적으로 스케일링, 평행이동, 회전 등을 수행한 후에 관심영역 정보를 테스트아이이미지로 전이하는 것이 바람직하다. 관심영역 정보를 전이하는 예를 들면 다음과 같다. <도9>는 테스트아이이미지에 관심영역 정보를 전이하는 것을 나타낸 다이야그램이다. 테스트아이이미지를 I_test라고 하고 이와 가장 유사한 샘플아이이미지를 I_sample, 그리고 샘플아이이미지 I_sample에 부여되어 있는 관심영역 정보를 J라고 표기하자. 회전, 평행이동, 국소적 스케일링 등을 포함하는 표준화를 나타내는 작용을 N이라고 하면 N(I_test)은 테스트아이이미지 I_test에 대한 표준화된 이미지를 나타내게 된다. 한편 N(I_sample+J) = N(I_sample)+N(J)은 샘플아이이미지 I_sample에 관심영역 정보 J가 결합된 I_sample+J를 표준화하여 얻은 이미지를 나타낸다. 만약 관심영역 정보를 디지털 이미지화할 수 있고, 표준화 N이 이미지에 대한 국소적 및 광역적 기학학적 변환에 관한 것이라면 N(I_sample+J) = N(I_sample)+N(J)라고 볼 수 있다. 표준화 N에 대한 역표준화(표준화의 역 과정)를 M이라고 하면, M(N(I_test)+N(J))이 테스트아이미미지 I_test에 샘플아이이미지 I_sample의 관심영역 정보 J가 전이되어 결합된 최종이미지가 된다.
상기와 같이 테스트아이이미지로 전이된 관심영역 정보 또는 인식적 정보는 전이된 형태 그대로 상기 테스트아이이미지의 정보가 되는데 그치지 않으며 보다 정확한 정보획득을 위한 가이드라인으로 이용될 수도 있다.
<도10>은 전이한 테스트아이이미지에 대하여 아이코드 비교를 통해 가장 유사한 샘플아이이미지에 대응시킨 후, 상기 대응된 샘플아이이미지에 표시된 경계정보를 상기 테스트아이이미지에 전이한 것을 나타낸 것이다. <도10>에서의 테스트아이이미지와 대응된 샘플아이이미지는 서로 다른 사람으로부터 온 것이어서 눈 주변부와 홍채 영역의 텍스쳐가 서로 다르다. 그러나 두 아이이미지에서 밖으로 드러난 눈 영역의 기하학적 모양은 서로 유사하다. 따라서 <도10>에서 전이가 된 경계는 비록 상단에 오차가 조금 존재하지만, 테스트아이이미지에 비교적으로 잘 맞는 것을 알 수 있다. 또한 상기의 전이된 경계정보를 바탕으로, 즉 상기 전이된 경계정보를 가이드라인으로 하여 국소적 분석(local analysis)을 추가 수행함으로써 보다 정확한 경계 정보를 추출해낼 수 있다.
본 발명은 홍채인식 시에 인식률을 높이기 위하여 관심영역정보나 인식적 정보에 대한 아이이미지 집합을 전처리 및 표준화하고 코드화하여 아이이미지 코드를 생성하여 데이터베이스에 특성아이라이브러리를 구성하는 단계를 거치고, 상기 특성아이라이브러리에 저장된 아이이미지들에 대한 아이코드들을 그룹화하여 다수의 그룹으로 분할 또는 덮기를 수행하여 각 아이그룹마다 대표아이코드를 구하는 단계를 거치며, 관심영역정보나 인식적 정보를 부여되지 않은 새로운 아이이미지를 앞서 기술된 단계에서와 같은 방법으로 전처리 및 표준화하고 코드화하여 테스트아이코드를 생성하는 단계를 거치고, 상기 테스트아이이미지를 상기 특성아이라이브러리에서 가장 유사한 아이이미지에 대응시키는 단계를 거치며, 상기 대응된 아이이미지에 부여되어 있는 관심영역정보나 인식적 정보를 상기 테스트아이이미지로 전이하는 단계를 거쳐서 전이된 관심영역정보나 인식적 정보를 아이이미지의 전처리 과정에 활용하여 홍채의 인식률을 높일 수 있으므로 산업상 이용가능성이 매우 높다.

Claims (27)

  1. 눈과 눈 주변부로 구성된 아이이미지로부터 관심영역정보 및/또는 인식적 정보를 획득하는 방법에 있어서,
    아이이미지들로 구성된 샘플아이이미지의 데이터베이스를 구축하는 단계;
    상기 샘플아이이미지의 데이터베이스에 구축된 각 샘플아이이미지에 대하여 아이코드를 추출하는 단계;
    상기 각 샘플아이이미지에 대하여 추출한 아이코드와 각 샘플아이이미지에 부여된 관심영역정보 및/또는 인식적 정보로 이루어진 특성아이라이브러리를 구축하는 단계;
    관심영역정보 및/또는 인식적 정보를 추출하고자 하는 새로운 아이이미지에 대하여 아이코드를 추출하는 단계;
    상기 새로운 아이이미지에 대한 아이코드를 상기 특성아이라이브러리에 저장된 각 아이코드와 비교하여 가장 유사한 아이코드와 대응시키는 단계; 및
    상기 대응된 아이코드에 대한 관심영역정보 및/또는 인식적 정보를 상기 새로운 아이이미지로 전이하는 단계로 이루어진 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  2. 청구항1에 있어서,
    상기 샘플아이이미지 데이터베이스는 모델링을 통해 인공적인 아이이미지를 생성하여 구성하거나 실제 눈을 촬영하여 얻는 아이이미지들로 구성됨을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  3. 청구항2에 있어서,
    상기 아이이미지에 대한 관심영역정보는 아이이미지를 구성하는 대상이 차지하는 영역과 그의 경계 및/또는 아이이미지에서 사용자가 원하는 영역과 그의 경계로 이루어짐을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  4. 청구항3에 있어서,
    상기 아이이미지에 대한 인식적 정보는 아이이미지를 구성하는 대상의 종류 및 그 대상들 간에 이루어진 의미론적 정보 또는 그 대상들이 놓인 상황과 그 대상들의 주변 환경으로 이루어진 정황적 정보로 구성됨을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  5. 청구항4에 있어서,
    상기 아이이미지에 대한 인식적 정보는 얼굴 정면이 카메라 렌즈를 바라보는 각도, 눈이 카메라 렌즈를 바라보는 각도 및 눈의 회전각도 중에서 하나를 선택하거나 둘 이상의 정보를 포함시켜 구성함을 특징으로 하는 아이이미지로부터의 관심영역 정보 및/또는 인식적 정보획득방법.
  6. 청구항4에 있어서,
    상기 아이이미지에 대한 인식적 정보는 눈을 가린 대상의 종류, 가려진 위치 및 가려진 정도에 대한 정보 중에서 하나를 선택하거나 둘 이상의 정보를 포함시켜 구성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  7. 청구항4에 있어서,
    상기 아이이미지에 대한 인식적 정보는 촬영시의 조명의 위치 또는 조명의 밝기를 서로 달리하여 구성됨을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  8. 청구항3에 있어서,
    상기 아이이미지에 대한 관심영역정보는 동공 영역, 동공 경계, 홍채 영역, 홍채 경계, 가려진 영역, 가려진 영역의 경계, 밖으로 드러난 눈의 영역 및 밖으로 드러난 눈의 영역의 경계 중에서 하나를 선택하거나 둘 이상의 정보를 포함시켜 구성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  9. 청구항8에 있어서,
    상기 아이이미지에 대한 관심영역정보는 각 샘플아이이미지에 대하여 아이코드를 부여할 때, 아이이미지에서 크기 조절, 히스토그램 조절, 이미지 필터링, 평행이동, 회전, 국소적 스케일링 및 비(非)중요 부분 제거 중에서 하나를 선택하거나 둘 이상의 정보를 포함시켜 전처리 및 표준화하여 아이코드를 생성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  10. 청구항9에 있어서,
    상기 히스토그램 조절에 대한 표준화는 히스토그램 동일화 기법을 사용하여 이루어짐을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  11. 청구항9에 있어서,
    상기 이미지 필터링은 가우시안 필터링을 포함한 스무딩필터링 또는 도함수를 이용한 샤프닝 필터링으로 이루어짐을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  12. 청구항9에 있어서,
    상기 국소적 스케일링은 홍채의 안쪽 반경과 홍채의 바깥쪽 반경의 비를 모든 아이이미지에 대해 동일하게 스케일링하는 것을 특징으로 하는 아이이미지로부터의 관심영역 정보 및/또는 인식적 정보 획득 방법.
  13. 청구항1 내지 청구항12 중 어느 한 항에 있어서,
    상기 테스트아이코드와 특성아이라이브러리에 저장된 각 아이코드와 비교하여 인식률을 높일 수 있는 아이코드를 찾는 수단은 특성아이라이브러리 상에 저장된 각 아이코드를 레이블로 편집 저장하여, 테스트아이코드를 상기 레이블에 따라 분류하는 기법을 사용하되, 사용하는 분류 기법은 두 코드간의 유사도를 분류자로 이용하는 기법, 베이즈 분류자를 이용한 기법, 신경망 기법, 서포트 벡터 머신 기법 및 의사 결정 트리기법을 포함하는 머신 러닝 기법(machine learning) 중 어느 하나를 선택 사용하여 구성함을 특징으로 하는 아이이미지로부터의 관심영역 정보 및/또는 인식적 정보 획득 방법.
  14. 청구항13에 있어서,
    상기 아이이미지에 대한 아이코드는 아이코드를 공간 도메인에서의 아이이미지 표현, 푸리에 변환에 의한 아이이미지 표현, 웨이블릿 변환을 이용한 아이이미지 표현, 라돈 변환을 이용한 아이이미지 표현 및 아이이미지의 각 픽셀에서의 국소적 특징을 나타내는 수치에 대한 히스토그램에 의한 아이이미지 표현 중 어느 하나를 선택하여 추출하거나, 별도의 아이이미지 집합을 구성하고 이들에 대해 PCA, LDA 및 ICA 중 어느 하나의 기법을 선택 이용하여 아이이미지에 대한 아이코드를 추출하는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  15. 청구항13에 있어서,
    상기 테스트아이코드와 특성아이라이브러리에 저장된 각 아이코드와 비교하여 가장 유사한 아이코드를 찾을 때 사용되는 분류 기법으로 두 코드간의 유사도를 분류자로 이용할 때, 유사도의 측정은 코싸인 유사도 측정, 이를 확장한 타니모토 유사도와 같은 상관관계 기반의 유사도 측정, 맨하탄 거리와 유클리드 거리를 포함한 민코프스키 거리를 이용한 유사도 측정 및 각 콤포넌트에 가중치를 부여하는 유사도 측정 중에서 어느 하나를 선택 사용하는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  16. 청구항1 내지 청구항 12 중 어느 한 항에 있어서,
    상기 대응된 샘플아이이미지에 대한 관심영역정보를 테스트아이이미지로 전이는 관심영역정보 또는 테스트아이이미지에 대하여 국소적 변환을 단계적으로 적용한 후 전이하는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  17. 청구항16에 있어서,
    상기 대응된 샘플아이이미지에 대한 관심영역정보를 테스트아이이미지로 전이는 상기 샘플아이이미지에 관심영역정보가 부가되어 만들어지는 이미지를 표준화하고 테스트아이이미지를 샘플아이이미지와 동일한 방법으로 표준화하여, 표준화된 테스트아이이미지에 표준화된 상기 관심영역정보를 전이하여 결합하고 결합된 이미지를 역표준화함으로써 이루어지는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  18. 청구항16에 있어서,
    상기 대응된 샘플아이이미지에 대한 관심영역정보는 테스트아이이미지에 전이한 결과를 바탕으로 추가적으로 국소적 분석을 통하여 보다 정확한 관심영역 정보를 추출하는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  19. 청구항13에 있어서,
    상기 테스트아이이미지에 부여되는 아이코드는 두 개 이상의 아이코드를 부여하여 구성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  20. 청구항19에 있어서,
    상기 테스트아이이미지에 부여된 두 개 이상의 테스트아이코드는 상기 모든 테스트아이코드에 대하여 특성아이라이브러리에 저장된 아이코드 중에서 가장 유사한 샘플아이코드와 각각 대응시키고, 이들 대응된 샘플아이코드들 중에서 다시 가장 유사한 아이코드를 찾아서 상기 테스트아이이미지에 대응시키는 것을 특징으로 하는 아이이미지로부터의 관심영역 정보 및/또는 인식적 정보획득방법.
  21. 청구항20에 있어서,
    상기 테스트아이이미지에 부여되는 둘 이상의 테스트아이코드는 일정한 각도 범위 내에서 상기 테스트아이이미지에 각도 변화를 조금씩 주어 새로운 아이이미지들을 생성하고, 상기 생성된 각 아이이미지에 대하여 아이코드를 하나씩 부여하여 상기 테스트아이이미지에 대해 두 개 이상의 아이코드를 부여하여 구성함을 특징으로 하는 아이이미지로부터의 관심영역 정보 및/또는 인식적 정보획득방법.
  22. 청구항13에 있어서,
    상기 특성아이라이브러리는 관심영역정보나 인식적 정보에 따라 다수의 아이 그룹으로 분할되거나 덮여지게 되는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  23. 청구항22에 있어서,
    상기 각 아이그룹은 그룹을 대표하는 대표아이코드를 부여하여 구성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  24. 청구항23에 있어서,
    상기 테스트아이코드와 특성아이라이브러리에 저장된 각 아이코드와 비교하여 가장 유사한 아이코드를 찾는 수단은 테스트아이코드와 각 대표아이코드를 먼저 비교한 다음에 가장 유사한 아이그룹을 찾고 상기 아이그룹에 속한 각 샘플아이코드와 상기 테스트아이코드를 비교하여 이들 샘플아이코드들 중에서 상기 테스트아이코드와 가장 유사한 샘플아이코드를 선택하는 것으로 이루어지는 것을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  25. 청구항24에 있어서,
    상기 각 아이그룹에 대한 대표아이코드는 아이그룹에 속한 아이코드들을 평균한 값으로 구성함을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  26. 청구항24에 있어서,
    상기 특성아이라이브러리의 그룹화는 계층화된 그룹화 또는 비계층화된 그룹화로 이루어짐을 특징으로 하는 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
  27. 청구항24에 있어서,
    상기 특성아이라이브러리의 관심영역정보나 인식적 정보에 따른 그룹화는 유사한 아이코드들끼리 모아서 클러스터를 만드는 클러스터링 기법을 적용하는 것이 특징인 아이이미지로부터의 관심영역정보 및/또는 인식적 정보획득방법.
PCT/KR2009/005704 2008-10-08 2009-10-06 아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법 WO2010041861A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/123,230 US8433105B2 (en) 2008-10-08 2009-10-06 Method for acquiring region-of-interest and/or cognitive information from eye image
CN2009801449354A CN102209975A (zh) 2008-10-08 2009-10-06 从眼睛图像获取关注区域和/或认知信息的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080098518A KR101030613B1 (ko) 2008-10-08 2008-10-08 아이이미지에서 관심영역정보 및 인식적 정보획득방법
KR10-2008-0098518 2008-10-08

Publications (2)

Publication Number Publication Date
WO2010041861A2 true WO2010041861A2 (ko) 2010-04-15
WO2010041861A3 WO2010041861A3 (ko) 2010-07-22

Family

ID=42101077

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/005704 WO2010041861A2 (ko) 2008-10-08 2009-10-06 아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법

Country Status (4)

Country Link
US (1) US8433105B2 (ko)
KR (1) KR101030613B1 (ko)
CN (1) CN102209975A (ko)
WO (1) WO2010041861A2 (ko)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8364646B2 (en) 2006-03-03 2013-01-29 Eyelock, Inc. Scalable searching of biometric databases using dynamic selection of data subsets
US8604901B2 (en) 2006-06-27 2013-12-10 Eyelock, Inc. Ensuring the provenance of passengers at a transportation facility
US8965063B2 (en) 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
US8280120B2 (en) * 2006-10-02 2012-10-02 Eyelock Inc. Fraud resistant biometric financial transaction system and method
WO2008131201A1 (en) 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
US8553948B2 (en) * 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
WO2009158662A2 (en) 2008-06-26 2009-12-30 Global Rainmakers, Inc. Method of reducing visibility of illimination while acquiring high quality imagery
US8374389B2 (en) * 2009-02-06 2013-02-12 Robert Bosch Gmbh Iris deblurring method based on global and local iris image statistics
US8195044B2 (en) 2009-03-30 2012-06-05 Eyelock Inc. Biometric camera mount system
US10043229B2 (en) 2011-01-26 2018-08-07 Eyelock Llc Method for confirming the identity of an individual while shielding that individual's personal data
CN103477351B (zh) 2011-02-17 2019-06-28 眼锁有限责任公司 用于采用单个传感器采集场景图像和虹膜图像的高效方法和系统
US20120268241A1 (en) 2011-04-19 2012-10-25 Eyelock Inc. Biometric chain of provenance
EP2748768A4 (en) 2011-08-22 2016-05-11 Eyelock Llc SYSTEMS AND METHODS FOR IMAGE CAPTURE WITHOUT ARTIFACT
US8879801B2 (en) * 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
KR101182922B1 (ko) * 2011-11-08 2012-09-13 아이리텍 잉크 홍채이미지를 이용한 보안이 강화된 잠금장치
CN102833918B (zh) * 2012-08-30 2015-07-15 四川长虹电器股份有限公司 基于情绪识别的智能照明交互方法
US20140079319A1 (en) * 2012-09-20 2014-03-20 Htc Corporation Methods for enhancing images and apparatuses using the same
EP2725508A1 (en) * 2012-10-24 2014-04-30 Nidek Co., Ltd. Ophthalmic analysis apparatus
US9495526B2 (en) 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
TWI492193B (zh) * 2013-06-14 2015-07-11 Utechzone Co Ltd 觸發訊號的方法及車用電子裝置
CN105934764A (zh) 2013-12-23 2016-09-07 眼锁有限责任公司 用于功率高效的虹膜识别的方法和装置
EP3092601A4 (en) 2014-01-06 2017-11-29 Eyelock Llc Methods and apparatus for repetitive iris recognition
WO2016040836A1 (en) 2014-09-12 2016-03-17 Eyelock Llc Methods and apparatus for directing the gaze of a user in an iris recognition system
WO2016081609A1 (en) 2014-11-19 2016-05-26 Eyelock Llc Model-based prediction of an optimal convenience metric for authorizing transactions
US10074011B2 (en) 2015-01-20 2018-09-11 Eyelock Llc Lens system for high quality visible image acquisition and infra-red iris image acquisition
BR112017019362A2 (pt) 2015-03-12 2018-06-05 Eyelock Llc métodos e sistemas para gestão de atividade de rede usando biometria
RU2703343C2 (ru) * 2015-03-20 2019-10-16 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Назначение оценки релевантности для искусственных нейронных сетей
CN107533642B (zh) * 2015-05-11 2022-05-13 奇跃公司 用于使用神经网络的生物特征用户识别的设备、方法和系统
CN105069433A (zh) * 2015-08-12 2015-11-18 成都易思科科技有限公司 一种应用于智慧城市技术领域的生物特征识别方法
CN105138996A (zh) * 2015-09-01 2015-12-09 北京上古视觉科技有限公司 一种具有活体检测功能的虹膜识别系统
KR101688641B1 (ko) * 2015-09-22 2016-12-21 동서대학교산학협력단 머신 비전 기반 전자부품 검사 시스템
EP3394594A4 (en) 2015-12-21 2019-08-14 Eyelock Llc REFLECTED OPTICAL CAMERA MODULE FOR THE RECOGNITION OF IRIS IN A COMPUTER DEVICE
CN108780519B (zh) 2016-03-11 2022-09-02 奇跃公司 卷积神经网络的结构学习
EP3458997A2 (en) 2016-05-18 2019-03-27 Eyelock, LLC Iris recognition methods and systems based on an iris stochastic texture model
US10467114B2 (en) 2016-07-14 2019-11-05 International Business Machines Corporation Hierarchical data processor tester
US10607109B2 (en) 2016-11-16 2020-03-31 Samsung Electronics Co., Ltd. Method and apparatus to perform material recognition and training for material recognition
CN108229252B (zh) * 2016-12-15 2020-12-15 腾讯科技(深圳)有限公司 一种瞳孔定位方法及系统
TWI643155B (zh) * 2017-01-18 2018-12-01 陳兆煒 認知訓練系統
KR102369412B1 (ko) 2017-02-02 2022-03-03 삼성전자주식회사 홍채 인식 장치 및 방법
WO2018156726A1 (en) 2017-02-24 2018-08-30 Eyelock, Llc Systems and methods for providing illumination for iris biometric acquisition
KR101929182B1 (ko) * 2017-03-03 2018-12-14 주식회사 누베베 홍채 패턴을 분석하여 비만 치료의 예후를 예측하는 비만 관리 시스템 및 방법
US10698988B2 (en) * 2017-03-30 2020-06-30 Cisco Technology, Inc. Difference attack protection
US10386923B2 (en) 2017-05-08 2019-08-20 International Business Machines Corporation Authenticating users and improving virtual reality experiences via ocular scans and pupillometry
CN108958460A (zh) * 2017-05-19 2018-12-07 深圳市掌网科技股份有限公司 基于虚拟现实的楼盘沙盘展示方法及系统
EP3451042B1 (en) 2017-08-31 2022-08-10 Eyelock, LLC Systems and methods of biometric acquisition using positive optical distortion
RU2670798C9 (ru) 2017-11-24 2018-11-26 Самсунг Электроникс Ко., Лтд. Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство
US11430084B2 (en) 2018-09-05 2022-08-30 Toyota Research Institute, Inc. Systems and methods for saliency-based sampling layer for neural networks
CN109509179B (zh) * 2018-10-24 2023-03-28 深圳市旭东数字医学影像技术有限公司 基于医学图像的眼球和晶状体的自动分割方法及系统
WO2020236993A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Hand pose estimation
CN110473138B (zh) * 2019-07-11 2023-06-23 北京达佳互联信息技术有限公司 图形代码转换方法、装置、电子设备及存储介质
KR102154949B1 (ko) 2020-01-30 2020-09-10 이만숙 차온 제어 장치에 의한 태양열 과열 및 동파 방지 시스템
SE2251254A1 (en) * 2022-10-28 2024-04-29 Kontigo Care Ab Method for estimating pupil size

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003054777A1 (en) * 2001-12-20 2003-07-03 Qriteck Co. Ltd Iris registration and recognition system
KR20050044073A (ko) * 2003-11-07 2005-05-12 주식회사 세넥스테크놀로지 홍채의 병변 특성에 따른 식별 및 저장 방법
US20050152583A1 (en) * 2002-11-07 2005-07-14 Matsushita Electric Industrial Co., Ltd Method for cerficating individual iris registering device system for certificating iris and program for cerficating individual
WO2006054827A1 (en) * 2004-11-22 2006-05-26 Iritech Inc. Multiscale variable domain decomposition method and system for iris identification

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998032093A1 (en) * 1997-01-17 1998-07-23 British Telecommunications Public Limited Company Security apparatus and method
KR100373850B1 (ko) * 2000-10-07 2003-02-26 주식회사 큐리텍 홍채를 이용한 신원 확인 시스템 및 방법과 그 방법에대한 컴퓨터 프로그램 소스를 저장한 기록매체
KR100453943B1 (ko) * 2001-12-03 2004-10-20 주식회사 세넥스테크놀로지 개인 식별을 위한 홍채 영상의 처리 및 인식방법과 시스템
CN2513168Y (zh) * 2001-12-05 2002-09-25 南宫钟 一种具有虹膜识别功能的身份确认装置
JP2004362619A (ja) * 2002-11-07 2004-12-24 Matsushita Electric Ind Co Ltd 虹彩登録装置
CN1760887A (zh) * 2004-10-11 2006-04-19 中国科学院自动化研究所 虹膜图像的鲁棒特征抽取与识别方法
KR100826876B1 (ko) * 2006-09-18 2008-05-06 한국전자통신연구원 홍채 검출 방법 및 이를 위한 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003054777A1 (en) * 2001-12-20 2003-07-03 Qriteck Co. Ltd Iris registration and recognition system
US20050152583A1 (en) * 2002-11-07 2005-07-14 Matsushita Electric Industrial Co., Ltd Method for cerficating individual iris registering device system for certificating iris and program for cerficating individual
KR20050044073A (ko) * 2003-11-07 2005-05-12 주식회사 세넥스테크놀로지 홍채의 병변 특성에 따른 식별 및 저장 방법
WO2006054827A1 (en) * 2004-11-22 2006-05-26 Iritech Inc. Multiscale variable domain decomposition method and system for iris identification

Also Published As

Publication number Publication date
US8433105B2 (en) 2013-04-30
KR101030613B1 (ko) 2011-04-20
CN102209975A (zh) 2011-10-05
WO2010041861A3 (ko) 2010-07-22
KR20100039526A (ko) 2010-04-16
US20110194738A1 (en) 2011-08-11

Similar Documents

Publication Publication Date Title
WO2010041861A2 (ko) 아이이미지에서 관심영역정보 및/또는 인식적 정보획득방법
US5912980A (en) Target acquisition and tracking
CN110414368A (zh) 一种基于知识蒸馏的无监督行人重识别方法
KR101410489B1 (ko) 얼굴 식별 방법 및 그 장치
Kaur et al. Facial Emotion Recognition
CN109508700A (zh) 一种人脸识别方法、系统及存储介质
Chauhan et al. Study & analysis of different face detection techniques
Kumar et al. Learning-based approach to real time tracking and analysis of faces
CN108171223A (zh) 一种基于多模型多通道的人脸识别方法及系统
JP2023550296A (ja) 唇領域を検出してセグメント化する方法
Ali et al. A robust and efficient system to detect human faces based on facial features
Khan et al. Comparitive study of tree counting algorithms in dense and sparse vegetative regions
Anzid et al. Multimodal images classification using dense SURF, spectral information and support vector machine
Gupta et al. HaarCascade and LBPH Algorithms in Face Recognition Analysis
Gupta et al. Indoor versus outdoor scene classification using probabilistic neural network
Akhtar et al. Experiments with ocular biometric datasets: A practitioner’s guideline
Jindal et al. Sign Language Detection using Convolutional Neural Network (CNN)
Sarrafzadeh et al. Analyzing features by SWLDA for the classification of HEp-2 cell images using GMM
Premk et al. Automatic latent fingerprint segmentation using convolutional neural networks
Nguyen et al. A method for hand detection based on Internal Haar-like features and Cascaded AdaBoost Classifier
CN116189026A (zh) 行人重识别方法及装置、存储介质
Gilorkar et al. A review on feature extraction for Indian and American sign language
de Melo Langoni et al. Evaluating dynamic texture descriptors to recognize human iris in video image sequence
AU2021106149A4 (en) Gaze based interface to assist prospective programmers with the learning environment
JP2005004454A (ja) 顔画像分類登録方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980144935.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09819368

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 1399/KOLNP/2011

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 13123230

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 08.08.11)

122 Ep: pct application non-entry in european phase

Ref document number: 09819368

Country of ref document: EP

Kind code of ref document: A2