KR20200100165A - 개인인증 방법 및 개인인증 장치 - Google Patents

개인인증 방법 및 개인인증 장치 Download PDF

Info

Publication number
KR20200100165A
KR20200100165A KR1020207021480A KR20207021480A KR20200100165A KR 20200100165 A KR20200100165 A KR 20200100165A KR 1020207021480 A KR1020207021480 A KR 1020207021480A KR 20207021480 A KR20207021480 A KR 20207021480A KR 20200100165 A KR20200100165 A KR 20200100165A
Authority
KR
South Korea
Prior art keywords
data
identification
query
template
information
Prior art date
Application number
KR1020207021480A
Other languages
English (en)
Inventor
에이자부로 이와타
야스하루 이와키
Original Assignee
가부시키가이샤 노르미
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 노르미 filed Critical 가부시키가이샤 노르미
Publication of KR20200100165A publication Critical patent/KR20200100165A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 목적 중의 하나는 대규모 등록 데이터를 이용하면서 고속 또한 고정밀도로 개인을 특정하는 1:N식별을 실시하는 것이다. 식별부(4)는 식별용 쿼리 데이터를 이용하여 이미 등록되어 있는 복수의 식별용 등록 데이터를 식별함으로써, 대조에 이용해야 하는 1 또는 복수의 대조용 등록 데이터를 특정한다. 대조부(3)는 특정된 1 또는 복수의 대조용 등록 데이터에 대해 대조용 쿼리 데이터와의 사이의 유사도를 이용하여 1:1대조를 실시한다. 따라서 일의의 개인을 인증할 수 있다.

Description

개인인증 방법 및 개인인증 장치
본 발명은 개인을 인증하기 위한 기술에 관한 것이다. 보다 상세하게는, 본 발명은 대규모 등록 데이터를 이용하여 일의(一意)의 개인을 고속 또한 고정밀도로 인증할 수 있는 1:N인증을 실시하는 기술을 제공하는 것이다.
1:N식별에서는, 사용자는 자신의 생체정보만을 입력하면 되기 때문에, 편리성이 매우 높은 인증 시스템을 실현할 수 있다. 하지만 1:N식별은 등록 사용자수N의 증가에 따라 인증 정밀도가 나빠지는 문제가 있다. 이 문제를 해결하기 위해, 복수의 생체정보(지문, 얼굴, 목소리 등)를 융합하여 사용자를 판정함으로써 인증 정밀도를 높이는 멀티 모달 인증 기술이 제안되고 있다. 그러나 이 경우, 사용자는 복수의 생체정보를 입력해야 되고, 1:N식별의 본래의 장점인 편리성이 저하되어 버린다. 따라서, 필요한 생체정보의 입력 회수를 최소한으로 하면서, 인증 정밀도를 높이는 것이 중요한 과제로 된다. 또한, 지문, 얼굴, 목소리 등의 복수의 생체정보를 취득하기 위해서는, 각각 다른 센서가 필요하고, 생체인증 시스템 장치의 요건이 증가되어 버리는 문제도 있다.
예를 들면, 일본공개특허 2010-152706호 공보(하기 특허문헌1)에서는, 손바닥의 정맥 패턴과 손바닥의 윤곽상의 조합에 의한 2요소 인증이 제안되고 있고, 정맥 패턴에 의한 대조 결과가 2개 이상 존재했을 경우에, 손바닥의 윤곽상(輪郭像)의 차이 특징에 근거하여 범위 축소를 함으로써 오식별을 감소시키는 것이다.
또한, 국제공개WO2013/136553공보(하기 특허문헌2)에서는, 장문(掌紋) 형상에 대응하는 제1템플릿용 데이터와, 정맥 형상에 대응하는 제2템플릿용 데이터를 준비하고, 장문 형상에 대응하는 제1인증용 데이터와, 정맥 형상에 대응하는 제2인증용 데이터를 취득하고, 2단계로 인증을 실시하는 것이 제안되고 있다.
이러한 특허문헌1 및 2에 기재된 기술은 다중 생체 인식(multimodal biometrics)이라고 불리우는 두개 이상의 생체정보를 이용하고 있기 때문에, 인증 성능을 높일 수는 있다. 하지만, 이들은 1:1대조를 전제로 한 방법이기 때문에, 예를 들면 대규모의 등록 데이터가 있을 경우에는, 복수의 생체정보에 의한 대조 처리를 모든 등록 데이터에 대해 실시할 필요가 있다. 등록 데이터 전체에 대해 대조를 실시하는 기술로서는, 등록 데이터수가 방대할 경우에는 처리 속도도 현저하게 늦어지게 된다. 즉, 이들의 기술은 대규모 등록 데이터를 대상으로 한 현실적인 시스템에 있어서는 이용할 수 없는 것이다.
1:N식별의 N의 수를 늘리는 방법으로서, 일본공개특허 2010-191573호 공보(하기 특허문헌3)에서는, 손가락 정맥 데이터를 데이터베이스에 등록할 때에, 손가락의 주름 데이터에 의해 그룹화하고, 그룹마다 등록함으로써 대조의 회수를 절감하는 것이 제안되고 있다. 이것은, 손가락의 주름 데이터에 의해 n개의 그룹으로 나눔으로써 n개의 데이터베이스를 작성하는 것이다. 하지만, 손가락 정맥과 손가락의 주름 데이터를 취득하기 위해 2회의 촬영을 실시해야 하기 때문에 사용자의 편리성이 손상되어 버린다. 또한, 주름 데이터에 의한 그루핑(grouping)의 정밀도는 낮고, 기껏해서 2 ~ 수 그룹이며, 결제 시스템에 사용하는 방대한 등록 데이터수에는 대응할 수 없다.
또한 본 발명자는, 국제공개WO2012/014300호 공보(하기 특허문헌4)의 기술을 제안했다. 이 기술에서는, 두개의 가시광용의 카메라를 대향 배치하고, (1)제1카메라에 의해 취득된 제1화상의 장문의 형상으로부터, 제1인증용 데이터를 생성하고, (2)제2카메라에 의해 취득된 제2화상에 있어서의 정맥의 형상으로부터, 제2인증용 데이터를 생성하고, (3)제1인증용 데이터와 제1템플릿 데이터의 유사도 및 제2인증용 데이터와 제2템플릿 데이터의 유사도(화상간의 연관성)를 이용하여 개인의 인증을 실시할 수 있다. 이 문헌에서는, 라돈 변환을 이용하여 상기의 인증용 및 템플릿 데이터를 생성하는 예가 기재되어 있다. 라돈 변환에 의해 생성한 데이터를 이용한 대조는 회전, 확대 축소에 완건하며, 또한 평행 이동에 대해서도 뛰어난 내성을 가지는 이점이 있다. 다만, 이 기술은 1:1대조를 전제로 한 것이었다.
예를 들면 결제 시스템에 있어서는, 등록 사용자수가 방대할 뿐만 아니라 높은 시큐리티(Security)가 요구된다. 현재 이러한 시스템에 있어서 사용 가능할 만큼의 인증 정밀도 및 인증 속도를 제공 가능한 1:N인증 기술은 실용화되지 않은 상태이다.
(특허문헌1)일본 공개특허 2010-152706호 공보 (특허문헌2)국제공개WO2013/136553공보 (특허문헌3)일본 공개특허 2010-191573호 공보 (특허문헌4)국제공개WO2012/014300공보
본 발명은 사용자의 편리성과 시스템 요건을 손상하지 않고, 고속 또한 고정밀도의 1:N인증을 실현할 수 있는 기술을 제공하기 위한 것이다.
본 발명은 이하의 항목에 기재된 발명으로서 표현할 수 있다.
(항목1)
쿼리(query) 데이터 취득부를 구비한 개인인증 장치로서, 식별부와 대조부를 더 구비하고,
상기 쿼리 데이터 취득부는, 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러의 쿼리 화상으로부터, 인체 표면의 생체정보인 쿼리 표면정보와, 체내의 생체정보인 쿼리 체내정보를 추출하고, 그 중의 하나로부터 식별용 쿼리 데이터를 생성하고, 다른 하나로부터 대조용 쿼리 데이터를 생성하는 구성으로 되어 있으며,
상기 식별부는 상기 식별용 쿼리 데이터를 이용하여 이미 등록되고 있는 복수의 식별용 등록 데이터를 1:N식별함으로써, 상기 식별용 등록 데이터에 관련되고 또한 대조에 이용해야 하는 1 또는 복수의 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
상기 대조부는, 특정된 상기 1 또는 복수의 대조용 등록 데이터에 대해, 상기 대조용 쿼리 데이터와의 사이의 유사도를 이용하여 1:1대조함으로써, 일의의 개인을 인증하는 구성으로 되어 있으며,
상기 식별부는, 상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터가 속하는 거리 공간에 있어서의 위치 관계에 근거하여 상기 1:N식별을 함으로써, 상기 대조에 이용해야 하는 1 또는 복수의 상기 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
상기 식별용 등록 데이터는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 변환된 것으로 되어 있고,
상기 식별부는 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 상기 식별용 쿼리 데이터의 변환을 실시하고, 이 변환에 의해 생성된 상기 인덱스를 이용하여 상기 식별용 등록 데이터를 1:N 식별하는 구성으로 되어 있는 것을 특징으로 하는 개인인증 장치.
(항목2)
항목1에 있어서,
상기 식별용 쿼리 데이터와 상기 대조용 쿼리 데이터는, 모두 같은 정보구조를 갖고 있는 개인인증 장치.
(항목3)
항목1 또는 항목2에 있어서,
상기 1:1대조는 특정된 상기 1 또는 복수의 대조용 등록 데이터의 모두에 대해 실시되는 개인인증 장치.
(항목4)
항목1 내지 항목3 중 어느 한 항에 있어서,
상기 쿼리 표면정보와 상기 쿼리 체내정보는, 선 성분으로 나타내어지고,
상기 식별용 쿼리 데이터는, 상기 선 성분으로 나타내어진 상기 쿼리 표면정보 및 상기 쿼리 체내정보 중의 하나를 라돈 변환함으로써 생성되고,
또한, 상기 대조용 쿼리 데이터는, 상기 선 성분으로 나타내어진 상기 쿼리 표면정보 및 상기 쿼리 체내정보 중의 다른 하나를 라돈 변환함으로써 생성되는 개인인증 장치.
(항목5)
항목1 내지 항목4 중 어느 한 항에 있어서,
등록부를 더 구비하고,
상기 등록부는, 상기 식별용 등록 데이터를 상기 대조용 등록 데이터와 관련되도록 기록하는 구성으로 되어 있고,
또한, 상기 등록부는 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러 템플릿 화상으로부터, 인체표면의 생체정보인 템플릿 표면정보와, 체내의 생체정보인 템플릿 체내정보를 추출하고, 그 중의 하나로부터 해당 개인에 대응하는 상기 식별용 등록 데이터를 생성하고, 다른 하나로부터 상기 대조용 등록 데이터를 생성하는 구성으로 되어 있고,
상기 식별용 등록 데이터와 상기 대조용 등록 데이터는, 모두 같은 정보구조를 갖고 있는 개인인증 장치.
(항목6)
항목5에 있어서,
상기 템플릿 표면정보와 상기 템플릿 체내정보는, 선 성분으로 나타내어지고,
상기 식별용 등록 데이터는, 상기 선 성분으로 나타내어진 상기 템플릿 표면정보 및 상기 템플릿 체내정보 중의 하나를 라돈 변환함으로써 생성되고,
또한, 상기 대조용 등록 데이터는, 상기 선 성분으로 나타내어진 상기 템플릿 표면정보 및 상기 템플릿 체내정보 중의 다른 하나를 라돈 변환함으로써 생성되는 개인인증 장치.
(항목7)
항목1 내지 항목6 중 어느 한 항에 있어서,
상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터의 상기 위치 관계는, 이 데이터와 기준 데이터 사이의 위치 관계인 개인인증 장치.
(항목8)
항목7에 있어서,
상기 기준 데이터는 복수로 되어 있고,
상기 식별용 쿼리 데이터 및 상기 식별용 등록 데이터는, 각 기준 데이터와 상기 식별용 쿼리 데이터 및 상기 식별용 등록 데이터의 위치 관계에 근거하여 그루핑되어 있고, 같은 그룹의 데이터가 같은 인덱스로 되도록 변환되어 있는 개인인증 장치.
(항목9)
항목1 내지 항목8 중 어느 한 항에 있어서,
상기 쿼리 화상은 인증 대상자의 손바닥의 화상이며, 상기 쿼리 표면정보는, 상기 쿼리 화상으로부터 추출된 장문 패턴의 정보이며, 상기 쿼리 체내정보는, 상기 쿼리 화상으로부터 추출된 정맥 패턴의 정보인 개인인증 장치.
(항목10)
항목5 또는 항목6에 있어서,
상기 템플릿 화상은, 등록 대상자의 손바닥의 화상이며, 상기 템플릿 표면정보는, 상기 템플릿 화상으로부터 추출된 장문 패턴의 정보이며, 상기 템플릿 체내정보는, 상기 템플릿 화상으로부터 추출된 정맥 패턴의 정보인 개인인증 장치.
(항목11)
한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러의 쿼리 화상으로부터, 인체표면의 생체정보인 쿼리 표면정보와, 체내의 생체정보인 쿼리 체내정보를 추출하고, 그 중의 하나로부터 식별용 쿼리 데이터를 생성하고, 다른 하나로부터 대조용 쿼리 데이터를 생성하는 쿼리 데이터 취득 스텝과,
상기 식별용 쿼리 데이터를 이용하여 이미 등록되어 있는 복수의 식별용 등록 데이터를 1:N식별함으로써, 상기 식별용 등록 데이터에 관련되고 또한 대조에 이용해야 하는 1 또는 복수의 대조용 등록 데이터를 특정하는 식별 스텝과,
특정된 상기 1 또는 복수의 대조용 등록 데이터에 대해, 상기 대조용 쿼리 데이터와의 사이의 유사도를 이용하여 1:1대조함으로써, 일의의 개인을 인증하는 대조 스텝을 구비하고 있고,
상기 식별 스텝에서는, 상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터가 속하는 거리 공간에 있어서의 위치 관계에 근거하여 상기 1:N식별을 실시함으로써, 상기 대조에 이용해야 하는 1 또는 복수의 상기 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
상기 식별용 등록 데이터는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 변환된 것으로 되어 있고,
상기 식별 스텝에서는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 상기 식별용 쿼리 데이터의 변환을 실시하고, 이 변환에 의해 생성된 상기 인덱스를 이용하여 상기 식별용 등록 데이터를 1: N식별하는 구성으로 되어 있는 개인인증 방법.
(항목2)
항목11에 기재된 각 스텝을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램.
본 발명에서는, 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러의 쿼리 화상으로부터 인체표면의 생체정보인 쿼리 표면정보와, 체내의 생체정보인 쿼리 체내정보를 추출하고, 각각으로부터 같은 정보구조를 갖는 쿼리 데이터를 생성한다. 식별용 쿼리 데이터를 이용하여 등록되어 있는 식별용 등록 데이터를 식별하여 1 또는 복수의 대조에 사용되어야 하는 대조용 등록 데이터를 특정한다. 그 다음에, 대조용 쿼리 데이터와 대조용 등록 데이터의 유사도를 이용하여 1:1대조를 실시한다. 따라서, 대규모 등록 데이터로부터, 고속 또한 고정밀도로 개인을 특정하는 1:N인증이 가능한 기술을 제공할 수 있다.
보다 구체적으로는, 가시광용의 화상 취득부를 이용하여 촬영된 하나의 원화상 데이터로부터 피인증자의 손바닥의 장문 패턴과 정맥 패턴의 특징을 추출하고, 각각 라돈 변환함으로써, 식별용 및 대조용의 쿼리 데이터를 생성할 수 있다. 식별용 쿼리 데이터를 이용하여 등록되어 있는 식별용 등록 데이터와의 거리 공간에 있어서의 위치 관계에 근거하여 식별을 실시할 수 있다. 대조용 쿼리 데이터를 이용하여 등록되어 있는 대조용 등록 데이터 사이의 유사도에 근거하여 1:1대조할 수 있다. 따라서, 대규모 등록 데이터로부터 고속 또한 고정밀도로 개인을 특정하는 1:N인증을 제공할 수 있다.
도1은 본 발명의 일 실시 형태의 개인인증 장치의 개략구성을 나타내는 블록도이다.
도2는 인증 화상 취득 장치의 개략적 구성을 나타내는 블록도이다.
도3은 인증용 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도4는 인증용 및 템플릿용의 원화상을 취득하기 위한 장치의 사용예를 설명하기 위한 설명도이다.
도5는 식별용 쿼리 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도6은 대조용 쿼리 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도7은 템플릿 화상 취득 장치의 개략적 구성을 나타내는 블록도이다.
도8은 템플릿 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도9는 식별용 템플릿 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도10은 대조용 템플릿 화상 처리부의 개략적 구성을 나타내는 블록도이다.
도11은 식별부의 개략적 구성을 나타내는 블록도이다.
도12는 본 발명의 일 실시 형태의 개인인증 방법의 개략적인 흐름을 나타내는 플로 차트이다.
도13은 템플릿용의 화상의 처리 순서를 설명하기 위한 플로 차트이다.
도14는 템플릿용 및 인증용의 화상의 처리에 따라 얻어지는 화상의 예를 설명하기 위한 설명도이다.
도15는 템플릿용 및 인증용의 화상의 처리의 흐름을 나타내는 블록도이다.
도16은 식별용 테이블 생성의 처리 순서를 설명하기 위한 플로 차트이다.
도17은 인증용의 화상의 처리 순서를 설명하기 위한 플로 차트이다.
도18은 도1의 실시 형태의 변형예1을 설명하기 위한 개략적인 블록도이다.
이하, 본 발명의 일 실시 형태를 첨부 도면을 참조하면서 설명한다.
(본 실시 형태에 따른 개인인증 시스템의 구성)
먼저, 본 발명의 일 실시 형태에 따른 개인인증 시스템의 구성을 도1에 근거하여 설명한다.
이 개인인증 시스템은 쿼리 화상인 인증 화상을 취득하는 인증 화상 취득 장치(1)(쿼리 데이터 취득부의 구체예에 상당)와, 템플릿 화상 취득 장치(2)(등록부의 구체예에 상당)와, 식별부(4)와, 대조부(3)를 구비하고 있다(도1 참조). 식별부(4)의 기본적인 기능은 인증 화상 취득 장치(1)에 의해 취득한 인증 화상에 유사한 템플릿을 식별(즉 검색)하고, 템플릿에 대응하는 ID의 범위를 좁히는 것이다. 대조부(3)의 기본적인 기능은 인증 화상 취득 장치(1)에 의해 취득한 대조 화상과 식별에 의해 범위가 좁혀진 ID에 대응하는 템플릿을 대조함으로써, 일의의 개인을 인증하는 것이다. 본 실시 형태에서는, 적당한 네트워크 내지 통신로를 통해 상호의 기능 요소끼리 데이터의 송신 또는 수신이 가능하도록 되어 있다. 각 기능 블록 내의 기능 요소에 있어서도 동일하다.
(인증 화상 취득 장치)
인증 화상 취득 장치(1)는 인증용 광원(11)과, 인증용 화상 취득부(12)와, 인증용 화상 처리부(13)를 구비하고 있다(도2 참조).
인증용 광원(11)은 가시광 영역에서의 적색광을 적어도 포함하는 광을 인체의 손바닥을 향해 조사할 수 있는 구성으로 되어 있다. 인증용 광원(11)은 적색광을 포함하는 가시광 영역의 파장의 광을 방출할 수 있는 발광체(예를 들면 LED)로 구성할 수 있다. 한편, 광원을 태양광이나 환경광으로 하는 것도 기본적으로는 가능하다. 다만, 광원을 인공광으로 하고 조사되는 광의 파장 범위를 정확하게 파악함으로써, 인증의 정밀도를 향상시킬 수 있다. 여기에서, 적색광은, 이 명세서에서는, 대체로 580~750nm(나노 미터)의 파장의 광(소위 적색계의 광)을 말하지만, 어느 정도의 파장이 최선인지는 실험적으로 결정할 수 있다. 엄버계(대체로 590~630nm의 파장)의 광이 더 바람직하다고 생각된다. 또한, 광원으로서는, 이 파장대역의 광만을 발광하는 것이어도 되지만, 다른 파장의 광을 포함하는 것은 가능하다. 또한, 필터링에 의해 원하는 광을 발하는 광원도 사용 가능하다. 다만, 적색광 이외의 가시광은 정맥 형상의 추출에 있어서는 노이즈로서 작용할 가능성이 있기 때문에, 노이즈를 줄이기 위해서는 적색광만을 발광하는 광원인 것이 바람직하다.
인증용 화상 취득부(12)는 인증용 광원(11)으로부터 조사되어 인체의 손바닥에서 반사한 광으로 구성되는 적어도 1장의 반사 화상(즉 화상 데이터)을 취득하는 구성으로 되어 있다. 이러한 인증용 화상 취득부(12)는, 디지털카메라나 이미지 스캐너(image scanner) 등의 적당한 장치에 의해 구성할 수 있다. 혹은, 화상 취득부(12)는 휴대단말에 장착된 카메라에 의해 구성할 수 있다.
인증용 화상 처리부(13)는 식별용 쿼리 화상 처리부(131)와 대조용 쿼리 화상 처리부(132)로 구성된다(도3 참조). 식별용 쿼리 화상 처리부(131)는 반사 화상을 화상 처리함으로써, 1장의 반사 화상으로부터, 손바닥에 있어서의 식별용의 장문 형상을 추출하는 처리를 실시한다. 식별용 쿼리 화상 처리부(131)는 손바닥의 반사 화상에 대응하는 데이터를 RGB색공간의 R신호, G신호, B신호에 기초하는 그레이 스케일의 값으로 변환함으로써, 상기 장문의 형상을 추출하는 처리를 실시하는 구성으로 되어 있다.
식별용 쿼리 화상 처리부(131)는 장문특징 추출부(1311)와, 특징 데이터 변환부(1312)로 구성된다(도5 참조). 장문특징 추출부(1311)는 식별용 쿼리 화상 처리부(131)의 동작으로서 상술한 그레이 스케일 값으로의 변환을 실시하고, 장문의 형상을 2치화 화상으로서 추출한다. 특징 데이터 변환부(1312)는 상기 2치화 화상을 라돈 변환하고, 반경 방향의 주파수 스펙트럼을 추출한 후, 대수 극좌표계 변환한 위상 한정 화상으로 변환함으로써 식별용 특징 데이터(식별용 쿼리 데이터에 상당)를 생성한다.
대조용 쿼리 화상 처리부(132)는 손바닥의 반사 화상에 대응하는 데이터를 HSV색공간으로 변환하고, 이 HSV색공간상에서 H신호의 위상과 S신호의 강도를 변경하고, 그 후 HSV색공간을 RGB색공간 및 CMYK색공간으로 변환함으로써 얻어진 색신호로서 정맥 형상을 추출한다. 이 화상 처리의 상세에 대해서는 후술한다.
대조용 쿼리 화상 처리부(132)는 정맥특징 추출부(1321)와, 특징 데이터 변환부(1322)로 구성된다(도6 참조). 정맥특징 추출부(1321)는 대조용 쿼리 화상 처리부(132)의 동작으로서 상술한 색신호의 추출을 실시하고, 또한 추출한 정맥 형상을 2치화 화상으로서 추출한다. 특징 데이터 변환부(1322)는 상기 2치화 화상을 라돈 변환하고, 반경 방향의 주파수 스펙트럼을 추출한 후, 대수 극좌표계 변환한 위상 한정 화상으로 변환함으로써 대조용 특징 데이터(대조용 쿼리 데이터에 상당)를 생성한다. 특징 데이터 변환부(1322)는 식별용 쿼리 화상 처리부(131)의 특징 데이터 변환부(1312)와 동일한 처리를 실시하기 때문에, 양자를 동일한 컴퓨터에 실장하거나 혹은 양자를 동일한 컴퓨터 프로그램으로서 실장할 수 있다.
여기에서, 본 실시 형태에 있어서의 식별용 쿼리 데이터와 대조용 쿼리 데이터는 같은 처리에 의해 생성되어 있기 때문에, 같은 정보구조를 갖고 있다. 여기에서, 같은 정보구조는, 같은 의미 척도를 갖는 정보계열로 이루어지는 데이터 구조라는 의미이다. 예를 들면, 상기의 식별용 및 대조용의 임의의 2치 화상에 있어서도, 장문과 정맥 각각의 선분의 위치 정보를 갖고 있고, 이들은 같은 정보구조이다. 또한, 상기 처리 이외에도, 장문 및 정맥을 강조한 화상으로부터, 국소 특징량이나 대역(大域) 특징량을 추출하여 생성한 정보계열끼리나, 위상 성분만을 추출한 화상끼리도, 같은 정보구조를 갖고 있다고 할 수 있다. 같은 정보구조를 갖고 있다는 것은 같은 정보량을 갖고 있는 것을 의미하기 때문에, 같은 역치를 설정하면, 같은 식별 정밀도를 갖고 있는 것을 의미한다. 여기에서, 같은 정보량은 같은 의미 척도를 가지고, 같은 데이터 차원, 즉 데이터 길이를 가지는 것을 의미하고 있다. 또한 여기에서 의미 척도는, 정보가 나타내는 의미와 그 수치의 기준이다. 상술한 선분의 위치 정보, 국소 특징량, 대역 특징량, 위상 성분 등은 각각 특징적인 정보를 가지고, 기준화된 수치를 가지는 의미 척도라 할 수 있다.
인증용 광원(11)과 화상 취득부(12)를 모두 하나의 휴대단말에 실장할 수 있다. 그러한 실장예를 도4에 나타낸다. 여기에서는, 휴대단말(6)로서, 소위 스마트 폰이 이용되어 있다. 도면 중 부호8은 사람의 손을 나타내고 있다.
휴대단말(6)은 적색광을 포함하는 광을 외부를 향해 방출할 수 있는 표시 화면(61)과, 부속의 카메라(62)를 구비하고 있다. 그리고, 도4의 구체예에서는, 인증용 광원이 표시 화면(61)에 의해 구성되어 있고, 인증용 화상 취득부가 카메라(62)에 의해 구성되어 있다. 또한, 도4의 휴대단말(6)은 표시 화면(61)을 빛나게 하기 위한 백라이트(도시하지 않음)를 구비하고 있고, 백라이트로부터의 광이 표시 화면을 투과함으로써, 표시 화면(61)을 빛나게 할 수 있도록 되어 있다. 일반적으로, 스마트 폰의 표시 화면은 액정 디스플레이로 구성되어 있는 경우가 많다. 액정 파넬은 백라이트로부터의 광의 투과색이나 투과량을 컬러 필터나 편광 필터의 제어에 의해 조정할 수 있다. 따라서, 액정 파넬을 제어하여 본 실시 형태에 적합한 파장 영역의 광을 만들어냄으로써, 본 실시 형태의 광원으로서의 동작이 가능하도록 된다. 한편, 표시 화면으로서는, 액정 디스플레이에 대신하여, 예를 들면 유기EL 디스플레이나 LED디스플레이 등 필요한 파장의 발광을 얻을 수 있는 적당한 디스플레이를 사용할 수 있다.
(템플릿 화상 취득 장치)
템플릿 화상 취득 장치(등록부에 해당)(2)는 템플릿용 광원(21)과, 템플릿용 화상 취득부(22)와, 템플릿 화상 처리부(23)와, 대조용 템플릿 데이터 기억부(24)를 구비하고 있다(도7 참조). 한편, 템플릿 데이터는 등록 데이터를 의미한다.
템플릿용 광원(21)은 가시광 영역에서의 적색광을 적어도 포함하는 광을 인체의 손바닥을 향해 조사할 수 있는 구성으로 되어 있다. 템플릿용 광원(21)은 상기의 인증용 광원(11)과 동일하게 구성할 수 있다. 또한, 하나의 광원을 두가지 용도로 사용하는 것도 가능하다.
템플릿용 화상 취득부(22)는 템플릿용 광원(21)으로부터, 인체의 손바닥에서 반사한 광으로 구성되는 적어도 1장의 반사 화상을 취득하는 구성으로 되어 있다. 템플릿용 화상 취득부(22)는 상기의 인증용 화상 취득부(12)와 동일하게 구성할 수 있고, 또한 하나의 화상 취득부(예를 들면 카메라)를 두가지 용도로 사용하는 것도 가능하다.
템플릿 화상 처리부(23)는 식별용 템플릿 화상 처리부(231)와, 대조용 템플릿 화상 처리부(232)로 구성되고, 반사 화상을 화상 처리함으로써, 1장의 반사 화상으로부터, 식별용 템플릿과 대조용 템플릿을 생성한다(도8 참조). 식별용 템플릿 화상 처리부(231)는 상술한 식별용 쿼리 화상 처리부(131)의 처리와 동일한 그레이 스케일 값으로의 변환을 실시하고, 손바닥의 템플릿용의 장문 형상을 추출함으로써 템플릿 데이터를 생성하는 처리를 실시한다.
식별용 템플릿 화상 처리부(231)는 장문특징 추출부(2311)와, 특징 데이터 변환부(2312)로 구성된다(도9 참조). 장문특징 추출부(2311)는 식별용 템플릿 화상 처리부(231)의 기능으로서 상술한 그레이 스케일 값으로의 변환을 실시하고 장문의 형상을 2치화 화상으로서 추출한다. 특징 데이터 변환부(2312)는 상기 2치화 화상을 라돈 변환하고, 반경 방향의 주파수 스펙트럼을 추출한 후, 대수 극좌표계 변환한 위상 한정 화상으로 변환함으로써 식별용 특징 데이터(식별용 템플릿 데이터)를 생성한다. 식별용 템플릿 화상 처리부(231)는 식별용 쿼리 화상 처리부(132)와 동일한 처리를 실시하기 때문에, 양자를 동일한 컴퓨터에 실장하거나 혹은 양자를 동일한 컴퓨터 프로그램으로서 실장할 수 있다.
대조용 템플릿 화상 처리부(232)는 상기의 대조용 쿼리 화상 처리부(132)의 처리와 동일한 색신호로의 변환을 실시하고, 손바닥에 있어서의 템플릿용의 정맥 형상을 추출함으로써 대조용 템플릿 데이터를 생성하는 처리를 실시한다.
대조용 템플릿 화상 처리부(232)는 정맥특징 추출부(2321)와, 특징 데이터 변환부(2322)로 구성된다(도10 참조). 정맥특징 추출부(2321)는 상기 색신호로의 변환을 실시하고, 정맥의 형상을 2치화 화상으로서 추출한다. 특징 데이터 변환부(2322)는 상기 2치화 화상을 라돈 변환하고, 반경 방향의 주파수 스펙트럼을 추출한 후, 대수 극좌표계 변환한 위상 한정 화상으로 변환함으로써 대조용 특징 데이터(대조용 템플릿 데이터)를 생성한다. 대조용 템플릿 화상 처리부(232)의 처리의 내용은 상기 대조용 쿼리 화상 처리부(132)와 동일하게 할 수 있기 때문에, 양자를 동일한 컴퓨터에 실장하거나 혹은 양자를 동일한 컴퓨터 프로그램으로서 실장할 수 있다.
여기에서, 본 실시 형태에 있어서의 식별용 등록 데이터와 대조용 등록 데이터는, 같은 처리에 의해 생성되어 있기 때문에 같은 정보구조를 갖고 있다. 여기에서, 같은 정보구조는, 같은 의미 척도를 가지는 정보계열로 이루어지는 데이터 구조라는 의미이다. 구체적으로는, 상기 식별용 및 대조용의 위상 한정 화상은, 모두 2치 화상을 라돈 변환하여 반경 방향의 주파수 스펙트럼을 대수 극좌표계로 표현한 위상 화상이며, 같은 의미 척도를 가진 정보계열이다. 라돈 변환 이외의 처리도 가능하다. 예를 들면, 상기 2치화에 의해 생성된 화상은 모두 장문과 정맥 각각의 선분의 위치 정보를 갖고 있어 동일한 정보구조라고 할 수 있다. 또한, 이러한 처리 이외의 처리도 가능하며, 장문 및 정맥을 강조한 화상으로부터, 국소 특징량이나 대역 특징량을 추출하여 생성한 정보계열끼리나, 위상 성분만을 추출한 화상끼리도 같은 정보구조를 갖고 있다고 할 수 있다. 같은 정보구조를 갖고 있다는 것은 같은 정보량을 갖고 있는 것을 의미하고, 따라서 같은 식별 정밀도를 갖고 있는 것을 의미한다. 여기에서, 같은 정보량은, 같은 의미 척도를 가지고, 같은 데이터 차원, 즉 데이터 길이를 가지는 것을 의미하고 있다.
대조용 템플릿 데이터 기억부(24)는 대조용 템플릿 화상 처리부(232)로 생성된 대조용 템플릿 데이터를 기억하는 구성으로 되어 있다. 대조용 템플릿 데이터 기억부(24)는 예를 들면 컴퓨터용의 메모리에 의해 구성할 수 있다. 또한, 템플릿 데이터 기억부(24)는 하드 디스크, 광 디스크, 광 자기 디스크, 반도체 메모리 등의 디지털 데이터를 기록 가능한 적당한 장치에 의해 구성 가능하다.
(식별부)
식별부(4)는 식별용 테이블 생성부(41), 식별용 테이블 참조부(42), 식별용 테이블 기억부(43)로 구성된다(도11 참조).
식별용 테이블 생성부(41)는 식별용 템플릿 데이터에 근거하여 유사한 데이터가 같은 테이블 인덱스를 가지도록 하는 인덱스 값으로 변환한다. 인덱스 값으로의 변환은 식별용 특징 데이터를 나타내는 화상끼리의 유클리드 거리(Euclidean distance) 공간에서의 위치가 가까울 수록 같은 인덱스 값으로 되는 변환을 이용한다. 인덱스 값으로의 변환의 구체적 처리 내용에 대해서는 후술한다.
식별용 테이블 기억부(43)는 상기 식별용 템플릿 데이터에 근거하여 변환된 인덱스 값에 연관시켜 개인에 대응한 ID를 테이블(구체적으로는 인덱스)에 기억한다.
식별 테이블 참조부(42)는 인증 화상 취득 장치(1)로 취득된 식별용 특징 데이터(식별용 쿼리 데이터)를 상기의 식별용 특징 데이터를 나타내는 화상끼리의 유클리드 거리 공간에서의 위치가 가까울수록, 같은 인덱스 값으로 되도록 하는 변환을 이용하여 인덱스 값으로 변환하고, 식별용 테이블 기억부(43)를 참조하여 해당 인덱스 값으로 기억되어 있는 ID를 취득한다. 식별 처리의 구체적 처리 내용에 대해서는 후술한다.
상기 취득된 ID는 식별용 데이터에 유사한 식별용 템플릿 데이터의 ID에 상당하다. 취득되는 ID가 복수인 경우도 있다.
대조부(3)는 인증 화상 취득 장치(1)로 취득된 대조용 데이터(대조용 쿼리 데이터)와, 상기 식별부(4)로 취득한 ID에 대응하는 대조용 템플릿 데이터 기억부(24)에 기억된 템플릿 데이터(대조용 등록 데이터)를 대조함으로써, 개인의 인증을 실시하는 구성으로 되어 있다. 대조 처리의 구체적 처리 내용에 대해서는 후술한다.
(개인인증의 순서)
이어서, 상기 개인인증 시스템을 이용한 개인인증 방법을 도12~도17을 참조하면서 설명한다.
(전체적인 순서)
본 실시 형태의 개인인증의 전체적인 흐름을 도12에 나타낸다.
(도12의 SA-1)
먼저, 사용자의 손바닥을 촬영함으로써 얻은 1장의 반사 화상으로부터, 식별용 템플릿 데이터와 대조용 템플릿 데이터를 템플릿 화상 처리부(23)가 생성한다.
(도12의 SA-2)
이어서, 생성한 식별용 템플릿 데이터에 근거하여 테이블 인덱스 값으로의 변환을 실시하고, 식별용 테이블의 해당 인덱스에 사용자의 ID를 기억한다. 여기에서, 테이블 인덱스 값은, 등록되는 식별용 템플릿 데이터의 그루핑의 번호에 상당하고, 테이블 인덱스 값으로의 변환은, 그루핑했을 때의 그룹 번호를 얻는 것을 가리키고, 같은 테이블 인덱스 값을 가지는 템플릿 데이터는 같은 그룹에 속해 있는 것을 의미한다. 이 처리는 식별용 테이블 생성부(41)에 의해 실시된다.
ID의 기억에는, 통상의 직접 어드레스표에 의한 테이블에 기억하는 이외에도, 체인법에 의한 테이블에 기억하는 방법, 나무구조의 테이블에 기억하는 방법도 가능하다. 체인법이나 나무구조는 널리 알려진 것이기 때문에 여기에서 상세한 설명은 생략한다.
(도12의 SA-3)
이어서, 생성한 대조용 템플릿 데이터를 ID와 대응시켜 대조용 템플릿 데이터 기억부(24)에 격납한다.
(도12의 SA-4)
이어서, 인증 시에 있어서, 사용자의 손바닥을 촬영함으로써 인증용 화상(1장의 컬러의 반사 화상)을 취득한다. 그리고, 이 인증용 화상을 이용하여 식별용 데이터(식별용 쿼리 데이터)와 대조용 데이터(대조용 쿼리 데이터)를 생성한다.
(도12의 SA-5)
이어서, 식별용 데이터에 근거하여 식별 테이블 참조부(42)가 테이블 인덱스 값으로의 변환을 실시하고, 식별용 테이블을 참조하여 해당 인덱스에 격납되어 있는 ID를 취득한다.
(도12의 SA-6)
이어서, 대조부(3)는 취득된 ID에 대응하는 대조용 템플릿 데이터를 대조용 템플릿 데이터 기억부로부터 취득한다.
(도12의 SA-7)
이어서, 대조부(3)는 취득한 대조용 템플릿 데이터와, 대조용 데이터를 1:1대조함으로써, 그 유사도를 이용하여 개인인증을 실시한다.
상기 각 처리를 이하에 자세하게 설명한다.
(템플릿 화상의 처리)
(도13의 스텝SB-1)
인증 처리 전에, 이하의 순서에 의해, 템플릿용 화상의 처리가 실시된다. 먼저, 템플릿용 광원(21)으로부터, 가시광 영역에서의 적색광을 적어도 포함하는 광을 인체의 손바닥에 조사한다. 그리고, 인체의 손바닥에서 반사한 광으로 구성되는 적어도 1장의 반사 화상을 템플릿용 화상 취득부(22)에 의해 취득한다. 여기에서, 템플릿용 화상 취득부(22)에 의해 하드웨어적으로 취득되는 화상의 색공간에서, RGB는 일반적으로 256계조의 트루 컬러를 사용하지만, 다른 형식으로도 가능하다. 오히려 일반적인 장치(예를 들면 카메라)의 대부분은 YUV색공간에서의 데이터를 하드웨어적으로 취득한다. 이 경우, 예를 들면 YUV색공간에서의 데이터를 소프트웨어적으로 변환하여 RGB색공간의 데이터를 생성하고, 이것을 그 후의 계산에 이용할 수 있다. 물론, 템플릿용 화상 취득부(22)가 하드웨어적으로 RGB색공간의 데이터를 취득하는 구성이어도 된다. 한편, RGB색공간과 YUV색공간은, 상호로 변환 가능한 보색 관계에 있다.
(도13의 스텝SB-2)
이어서, 식별용 템플릿 화상 처리부(231)의 장문특징 추출부(2311)는 반사 화상을 화상 처리함으로써, 1장의 상기 반사 화상으로부터, 상기 손바닥의 템플릿용의 장문 형상을 식별용 등록 데이터 생성용의 식별용 템플릿 데이터(템플릿 표면정보)로서 추출한다 (도14(a) 참조). 식별용 템플릿 데이터로서는, 도14 (a)의 형상을 추상화하고, 도14(b)에 나타내는 바와 같은 장문부분만의 형상 데이터로 할 수 있다.
식별용 템플릿 화상 처리부(231)의 장문특징 추출부(2311)는 템플릿용 화상 취득부(22)에 의해 취득된 RGB색공간의 데이터를 변환하여 예를 들면 비트맵 화상을 생성하고, 장문 형상의 특징을 추출하기 위한 그레이 스케일 화상으로의 변환을 실시한다. 장문은, 손바닥의 미세한 요철(凹凸)에 의해 나타내어지는 무늬이며, 개인에 의해 다른 특징적인 형상으로 되어 있다.
장문 형상추출의 방법으로서는, 기존의 기술을 이용할 수 있다. 예를 들면, 원화상에 대해 그레이 스케일화 및 라플라시안 필터를 적용함으로써, 원화상으로부터 장문을 나타내는 에지(Edge) 화상을 생성할 수 있다.
본 실시 형태에서는, 장문의 형상 특징, 특히 손금선을 강조하여 취득하기 위해, 원화상에 저역 필터(low-pass filter) 처리를 실시하고, 처리 후의 화상에 gabor필터로 에지 강조를 실시한 다음 그레이 스케일 화상을 생성하고, 생성된 그레이 스케일 화상에 대해 침식(Erosion) 처리를 실시하여 장문 형상, 특히 손금선이 강조된 식별용 템플릿 데이터를 생성하는 것이 바람직하다. 한편, 저역 필터, gabor필터 및 침식 수법은 널리 알려진 것이기 때문에 여기에서 상세한 설명은 생략한다.
(도13의 스텝SB-3)
이것과 병행하거나 혹은 전후하여 대조용 템플릿 화상 처리부(232)의 정맥특징 추출부(2321)는 반사 화상을 화상 처리함으로써, 1장의 상기 반사 화상으로부터, 상기 손바닥의 템플릿용의 정맥 형상을 대조용 템플릿 데이터(템플릿 체내정보에 대응)로서 추출한다(도14(c) 참조). 대조용 템플릿 데이터로서는, 도14(c)의 형상을 추상화하여 도14(d)에 나타내는 바와 같은 정맥부분만의 형상 데이터로 할 수 있다. 정맥 형상의 추출 처리에 대해 이하에 자세하게 설명한다.
템플릿용 화상 취득부(22)에 의해 취득된 원화상으로부터, 정맥 형상이 현저하게 나타나는 정보를 발견하고 그 특징을 추출하는 것이 필요하게 된다. 여기에서, 본 발명자의 지견에 의하면, 적색광을 손바닥에 조사하여 얻어진 화상에 있어서는, 가장 현저하게 정맥 패턴이 나타나는 것이 CMYK색공간 상의 M(마젠타)신호이며, 또한 정맥 패턴이 나타나지 않고, 장문 형상이 표출되는 것이 RGB색공간의 G신호이다.
또한, 이 두개의 색신호 이외에, 정맥과 장문의 어느 형상에도 나타나기 쉬운 RGB색공간의 R신호를 가하고, 다음에 설명하는 처리를 실시함으로써, 대조용 템플릿 데이터를 생성한다.
먼저, 원화상 상의 각 화소의 RGB값을 HSV변환하고 색상환 상에 매핑한다. 이어서 색상환 상에 매핑된 R신호값, G신호값, B신호값(즉 HSV공간의 색상H의 위상)을 적당하게 설정된 값으로 이동시킨다. 또한, HSV공간의 채도(S의 값)의 강도(크기)를 적당하게 설정된 값으로 변경한다. 여기에서의 변경량은 실험적으로 결정할 수 있는 것이다.
상기RGB색공간에의 화상 데이터를 HSV공간으로 변환하기 위해서는, 일반적으로 아래와 같은 식을 이용할 수 있다.
H=60*(G-B)/(MAX[R, G, B]-MIN[R, G, B]) if R=MAX[R, G, B]
H=60*(B-R)/(MAX[R, G, B]-MIN[R, G, B])+120 if G=MAX[R, G, B]
H=60*(R-G)/(MAX[R, G, B]-MIN[R, G, B])+240 if B=MAX[R, G, B]
S=MAX[R, G, B]-MIN[R, G, B]
V=MAX[R, G, B]
본 실시 형태에서는, RGB색공간의 R신호와 G신호는 HSV공간 상에서 채도(S의 값)를 마이너스 방향으로 30% 감쇠시켜 생성된 R'신호, G'신호로 변경한다. 또한 CMYK색공간 상의 M(마젠타)신호는 HSV공간 상에서 H의 위상을 +15° 이동하고, 또한 S의 값을 마이너스 방향으로 30% 감쇠시켜 생성된 M'신호로 변경된다. 이 색상의 이동의 폭(즉 변경의 폭)과 채도의 변경의 값은 실험에 의해 결정된다.
상기의 처리에 의해, 당초의 RGB공간 및 CMYK공간의 데이터와 다른, R'신호, G'신호, M'신호 공간에서의 데이터를 취득할 수 있다. 본 실시 형태에서는, 이렇게 하여 얻은 R', G', M'공간의 데이터는 각각 8bit(256계조)의 그레이 스케일 화상으로서 표현할 수 있다.
GPvein=(α1*R'+α2*M'-α3*G')
여기에서,
GPvein: R'신호, G'신호, M'신호의 값으로부터 얻어진 그레이 스케일 데이터
R': 상기 RGB색공간의 R신호의 값을 HSV표색계로 변환하고, 채도를 (-30%) 변경하고, RGB표색계로 되돌린 값)
G': 상기RGB색공간의 G신호의 값을 HSV표색계로 변환하고, 채도를 (-30%) 변경하고, RGB표색계로 되돌린 값
M': 상기CMYK색공간에 있어서의 마젠타 신호를 HSV표색계로 변환하고, 색상을 (+15°), 채도를 (-30%) 변경하고, CMYK표색계로 되돌린 값
α: 계수(실험적으로 결정된다)
이다.
예를 들면, 실험값으로서 최적인 계수값은
GPvein=(0.6*R'+0.6*M'-0.2*G')
이다.
여기에서, 상기의 GPvein의 산출은 각 화소에 있어서 실시되지만, 만일 각 화소에서의 산출 결과가 0 이하로 된 경우에는, GPvein의 값을 0으로 하고 각 화소에서의 산출 결과가 255 이상으로 된 경우에는, GPvein의 값을 255로 한다. 이렇게 하여, 정맥 패턴이 강조된 그레이 스케일 화상으로, 대조용 템플릿 데이터를 생성할 수 있다. 다만, 상기의 GPvein을 구하는 식은 단순한 일례이며, 구체적인 식은 제한되지 않는다. 구체적인 산출식은 상기의 지견에 근거하여 당업자가 실시 가능한 실험에 의해 적당하게 설정할 수 있다. 선형결합으로 나타내어질 필요도 없다.
한편, 상기에 있어서는, RGB색공간의 R신호 및 G신호와, CMYK색공간의 마젠타 신호를 이용하는 예를 설명했지만, RGB색공간의 B신호나 CMYK색공간의 사이언(Cyan) 신호, 옐로우 신호를 추가적으로 이용할 수 있다.
또한, 상기에서는, RGB색공간과 CMYK색공간을 직접적으로 이용하고 있지만, RGB색공간으로 변환 가능한 색공간(예를 들면 YCbCr, YIQ, Luv, Lab, XYZ)을 RGB색공간 대신 이용하여 템플릿 화상 혹은 쿼리 화상의 데이터의 특징을 추출할 수 있다. 즉, RGB공간의 데이터와, 그것과 변환 가능한 색공간의 데이터는, 소정의 수학식에 의해 변환할 수 있다. 따라서, 상기의 설명은 소정의 데이터 변환을 개재시킴으로써 RGB색공간 이외의 데이터를 이용할 경우에도 동일하게 적합하다. 따라서, 본 발명에 있어서의 RGB공간의 특징을 나타내는 데이터를 대신하여, 이 데이터를 다른 색공간에 매핑하여 얻어지는 데이터를 이용하여 화상의 특징을 나타내는 것, 혹은 이렇게 나타내어진 특징량을 이용하여 식별을 하는 것은 본 발명의 범위에 포함된다.
상기 설명에 있어서의 각 계수에 대해서는, 실험적으로 최적치를 정할 수 있다. 계수가 부수인 경우도 있다. 또한, 상기 계수α는 외부의 광원환경(예를 들면 밝기)에 의해, 일반적으로는 실험적으로 결정된다.
(도13의 스텝SB-4, SB-5)
이어서 식별용 템플릿 화상 처리부(231)의 장문특징 추출부(2311) 및 대조용 템플릿 화상 처리부(232)의 정맥특징 추출부(2321)는 그레이 스케일의 템플릿 데이터(식별용 및 대조용)를 각각 2치화한다.
템플릿 데이터(TD)의 2치화는 각 픽셀이나 각 블록에 있어서 이동 평균을 취하는 등 일반적인 수법에 의해 실시할 수 있기 때문에, 여기에서 자세한 설명은 생략한다. 2치화는 식별용 템플릿 데이터 및 대조용 템플릿 데이터를 모두 실시하지만, 반드시 같은 2치화의 수법일 필요는 없다.
2치화는 장문 및 정맥의 선분 패턴 정보를 추출하는 것이며, 추출후의 데이터는 장문과 정맥 각각의 선분의 위치 정보를 갖고 있다. 따라서, 이 데이터에 관한 2치화의 수법이 달라도, 이들은 같은 정보구조라고 할 수 있다.
(도13의 스텝SB-6, SB-7)
이어서, 식별용 템플릿 화상 처리부(231)의 특징 데이터 변환부(2312) 및 대조용 템플릿 화상 처리부(232)의 특징 데이터 변환부(2322)는 템플릿 데이터(식별용 및 대조용)의 특징 추출을 실시한다. 특징을 추출하는 방법으로서, 라돈 변환을 이용한다. 이 방법은 2차원 화상인 템플릿 화상에 대해, θ방향(θ=0~180°)의 축 상에 투영하고, 투영축 상의 위치ρ와, 각도θ에 의해 표현하는 처리를 실시하는 것이다.
(도13의 스텝SB-8, SB-9)
이어서, 식별용 템플릿 화상 처리부(231)의 특징 데이터 변환부(2312) 및 대조용 템플릿 화상 처리부(232)의 특징 데이터 변환부(2322)는 라돈 변환된 특징 데이터에 대해, ρ방향의 Fourier변환을 실시하고 그 진폭 성분만을 추출한다. 구체적으로는 Fourier변환 후의 실부(實部)와 허부(虛部)의 제곱합의 제곱근을 취함으로써 진폭 성분을 얻는다. 진폭 성분만을 추출함으로써 ρ방향으로 선형 시프트 불변(shift-invariant)으로 된다.
이어서, 식별용 템플릿 화상 처리부(231)의 특징 데이터 변환부(2312) 및 대조용 템플릿 화상 처리부(232)의 특징 데이터 변환부(2322)는 ρ방향에 대해 대수 좌표 변환을 실시한다. 구체적으로는 ρ→log(ρ)로 하고, 특징 데이터는 대수 극좌표계로 된다.
(도13의 스텝SB-10, SB-11)
이어서, 식별용 템플릿 화상 처리부(231)의 특징 데이터 변환부(2312) 및 대조용 템플릿 화상 처리부(232)의 특징 데이터 변환부(2322)는 후에 처리의 계산을 하기 쉽게 하기 위해, 대수 극좌표계의 특징 데이터에 대해, 위상만을 추출한 위상 한정 화상으로 변환하는 처리를 실시한다. 구체적으로는, 대수 극좌표계로 된 2차원의 특징 데이터에 대해, 2차원Fourier변환을 실시하고, 진폭 성분을 1로 한 후, 2차원 역Fourier변환을 실시한다.
위상 한정 화상 변환도 많이 알려져 있기 때문에, 자세한 설명은 생략한다. 이 실시 형태에서는, 위상 한정 화상 변환 데이터가 식별용 및 대조용의 쌍방에 있어서, 템플릿 화상의 특징을 나타내는 데이터(즉 식별용 및 대조용의 등록 데이터)로 되어 있다.
도15에, 2치화상으로부터 위상 한정 화상 변환 데이터로의, 상세한 처리의 흐름을 나타낸다. 각 처리의 내용은 상술한 대로이다.
(도13의 스텝SB-12)
이어서, 템플릿 화상 처리부(23)는 상기 처리가 실시된 식별용 템플릿 데이터(식별용 등록 데이터)와 개인에 대응한 ID번호를 식별부(4)의 식별용 테이블 생성부(41)에 넘겨준다. 또한, 대조용 템플릿 데이터(대조용 등록 데이터)을 개인에 대응한 ID번호에 연관시켜 대조용 템플릿 데이터 기억부(24)에 보존한다. 상기 처리를 통상은 식별 전에 실시해 놓는다. 식별 처리에 대해서는 후술한다.
(식별용 테이블 생성 처리)
이하, 식별용 테이블의 생성 처리의 구체예에 대해 설명한다.
(도16의 스텝SC-1)
식별용 테이블 생성부(41)는 대상 개인의 ID와 식별용 템플릿 데이터(식별용 등록 데이터)를 취득한다.
(도16의 스텝SC-2)
이어서, 식별 테이블 생성부(41)는 식별용 템플릿 데이터(식별용 등록 데이터)에 근거하여 유사한 데이터가 같은 인덱스 값으로 되도록 하는 변환을 실시한다. 구체적으로는, 식별용 템플릿 데이터를 해당 데이터 길이의 차원을 갖는 템플릿 벡터로 했을 경우에, 유클리드 거리 공간에 있어서의 위치가 가까운 벡터끼리가 같은 테이블 인덱스를 갖도록 하는 인덱스 값으로 변환한다.
유클리드 거리 공간에 있어서의 위치가 가까운 벡터끼리가 같은 테이블 인덱스를 갖도록 하는 방법의 하나로서, Locality-sensitive Hashing(LSH)이 있고, 템플릿 벡터에 랜덤 해시 함수(hash function)를 적용함으로써, 유클리드 거리가 가까운, 즉 유사한 것이 같은 해시 값으로 되도록 할 수 있다.
또한, 유클리드 거리에 근거하여 클러스터링을 실시하여 같은 클래스의 데이터가 같은 인덱스로 되도록 할 수도 있다.
또한, 상기 거리는, 두개의 데이터 사이의 직접적인 거리에 제한되지 않고, 어느 하나의 기준 데이터에 대한 각각의 거리이어도 된다.
또한, 복수의 기준 벡터를 설정하고, 각 기준 벡터와 템플릿 벡터의 위치 관계, 예를 들면 최근방 기준 벡터나, 각 기준 벡터와의 거리의 대소관계나 거리의 순서 등에 근거하여 템플릿 벡터(즉 데이터)를 그루핑하고, 같은 그룹의 데이터가 같은 인덱스로 되도록 할 수도 있다. 이 방법을 이용하면, "템플릿 벡터와 기준 벡터와의 거리가 어떤 범위 내인가"에 관한 해당됨/해당되지 않음의 패턴(해당 여부 패턴)에 근거하여 인덱스를 생성하는 것도 용이하다. 또한, 이 거리 계산이나 해당 여부 패턴에 관한 기계 학습이나 심층 학습 등을 이용하여 그들의 출력으로서 인덱스를 얻을 수도 있다. 기계 학습이나 심층 학습으로서는, 일반적으로 잘 알려진 다양한 방법이 있기 때문에 여기에서는 그 설명을 생략한다.
여기에서, 거리는 유클리드 거리 이외에도, 맨해튼 거리, 체비쇼프 거리 등 임의의 거리함수가 적용 가능하다.
이 거리 산출은 일반적인 수법에 의해 실행할 수 있기 때문에 이것에 관한 상세한 설명은 생략한다.
(도16의 스텝SC-3)
이어서, 식별용 테이블 생성부(41)는 식별용 테이블 기억부(43)에 기억되어 있는 식별용 테이블을 참조하여 변환된 인덱스 값에 해당하는 테이블 인덱스에 대상 개인의 ID를 추가 기억한다. 해당 인덱스가 테이블에 존재하지 않을 경우에는, 테이블에 인덱스를 추가한 뒤에 ID를 추가 기억한다.
(인증 화상의 처리)
이하, 인증 화상의 처리에 대해 설명한다. 인증 화상의 처리는 기본적으로는 템플릿 화상의 처리와 동일하게 실행할 수 있다.
(도17의 스텝SD-1)
먼저, 인증용 광원(11)으로부터, 가시광 영역에서의 적색광을 적어도 포함하는 광을 인체의 손바닥에 조사한다. 그리고, 인체의 손바닥에서 반사한 광으로 구성되는 적어도 1장의 반사 화상을 인증용 화상 취득부(12)에 의해 취득한다.
(도17의 스텝SD-2)
이어서, 인증 화상 처리부(13)의 식별용 쿼리 화상 처리부(131)는 반사 화상을 화상 처리함으로써, 1장의 상기 반사 화상으로부터, 상기 손바닥의 장문 형상을 식별용 데이터(쿼리 표면정보)로서 추출한다(도14(a) 참조). 한편, 도14는 템플릿 데이터의 설명도이지만, 쿼리 데이터에 대해서도 동일한 처리이기 때문에, 여기에서 참조한다. 식별용 데이터로서는, 도14(a)의 형상을 추상화하여 도14(b)에 나타내는 바와 같은 장문 부분만의 형상 데이터로 할 수 있다. 한편, 추상화를 실시의 여부는 템플릿 데이터 생성 시의 처리에 대응하여 결정된다.
(도17의 스텝SD-3)
이것과 병행하거나 혹은 전후하여 인증 화상 처리부(13)의 대조용 쿼리 화상 처리부(132)는 반사 화상을 화상 처리함으로써, 1장의 상기 반사 화상으로부터, 상기 손바닥의 정맥 형상을 대조용 데이터(쿼리 체내정보)로서 추출한다(도14(c) 참조). 대조용 데이터로서는, 도14(c)의 형상을 추상화하여 도14(d)에 나타내는 바와 같은 정맥 부분만의 형상 데이터로 할 수 있다.
(도17의 스텝SD-4, SD-5)
이어서, 식별용 쿼리 화상 처리부(131)의 장문특징 추출부(1311) 및 대조용 쿼리 화상 처리부(132)의 정맥특징 추출부(1321)는 그레이 스케일의 식별용 데이터 및 대조용 데이터를 2치화한다.
(도17의 스텝SD-6, SD-7)
이어서, 식별용 쿼리 화상 처리부(131)의 특징 데이터 변환부(1312) 및 대조용 쿼리 화상 처리부(132)의 특징 데이터 변환(1322)은 식별용 데이터 및 대조용 데이터의 특징 추출을 실시한다. 특징 추출은 상기의 템플릿 화상 처리와 동일하며, 요컨대 라돈 변환을 설비한 후에 Fourier변환의 진폭 성분을 추출하는 것이다.
(도17의 스텝SD-8, SD-9)
이어서, 식별용 쿼리 화상 처리부(131)의 특징 데이터 변환부(1312) 및 대조용 쿼리 화상 처리부(132)의 특징 데이터 변환(1322)은 특징 추출된 데이터의 좌표변환을 실시한다. 좌표 변환은 상기의 템플릿 화상 처리와 동일하며 대수 극좌표계로의 변환이다.
(도17의 스텝SD-10, SD-11)
이어서, 상기 처리가 실시된 식별용 데이터 및 대조용 데이터를 후에 처리하는 계산을 용이하게 하기 위해, 상기의 템플릿 화상 처리와 마찬가지로 위상 한정 화상으로 변환하고, 식별용 쿼리 데이터 및 대조용 쿼리 데이터로 한다.
(도17의 스텝SD-12)
이어서, 식별부(4)의 식별 테이블 참조부(42)는 식별용 쿼리 데이터에 근거하여 유사한 데이터가 같은 인덱스 값으로 되도록 하는 식별용 테이블 생성 처리(SB-12)와 동일한 변환을 실시하여 인덱스 값을 생성한다. 이어서, 식별 테이블 참조부(42)는 식별 테이블 기억부(43)에 기억되어 있는 식별 테이블을 참조하여 변환에 의해 얻어진 인덱스 값에 상당하는 테이블 인덱스에 기억되어 있는 ID를 취득한다. 이 경우, 인덱스 값에 대응하여 기억되어 있는 ID는 복수의 경우도 있다. 여기에서, 식별 테이블 참조부(42)는 변환에 의해 얻어진 인덱스 값과 동일한 인덱스 값뿐만 아니라, 그 근방의 인덱스 값을 참조할 수 있다. 이러한 수법은 예를 들면 Multi-probe LSH로서 알려져 있다. 다른 수법에 의해 근방의 인덱스 값을 참조하는 것도 가능하다. 근방의 인덱스 값을 참조하는 수법으로서는, 종래로부터 알려져 있는 각종의 수법을 이용 가능하기 때문에, 이것에 관한 자세한 설명은 생략한다.
(도17의 스텝SD-13)
이어서, 취득된 ID에 대응하는 대조용 템플릿 데이터를 대조용 템플릿 데이터 기억부(24)로부터 취득한다. 식별된 ID가 복수인 경우에는, 각 ID에 대응하는 대조용 템플릿 데이터를 모두 취득한다.
(도17의 스텝SD-14)
이어서, 대조부(3)는 ID에 대응하는 취득한 대조용 템플릿 데이터(대조용 등록 데이터)와, SD-11의 처리에 의해 생성한 대조용 쿼리 데이터와의 1:1대조를 실시한다. 대조 시의 유사도는 대조용 템플릿 데이터와 대조용 쿼리 데이터의 상호 상관을 구했을 때의 최대치나 그 주변으로부터 얻어진 값을 척도로서 판정할 수 있다. 그리고, 미리 정한 한계값에 의해 개인의 동일성의 판정을 실시할 수 있다. 또한, 상관 최대치가 생긴 화상 상의 위치에 의해 회전 각(θ) 및 배율(ρ)을 산출할 수도 있다.
복수의 ID가 식별되었을 경우에는, 그 중에서 가장 상관이 높은 ID를 선택함으로써, 정밀도가 좋은 개인 인증이 가능하다.
본 실시 형태에 의하면, 가시광용의 화상 취득부(예를 들면 가시광용 카메라)를 이용하여 촬영된 하나의 원화상 데이터로부터 피식별자의 손바닥의 정맥 패턴의 특징과 장문 형상의 특징을 추출하고, 높은 정밀도로의 개인 인증을 간편하게 실시하는 것이 가능해진다. 그 때문에, 장치의 간이화, 경량화, 저코스트화를 도모할 수 있다.
게다가, 본 실시 형태에서는, 하나의 광원(적색광을 발하는 것)을 이용하여 장문 추출과 정맥 추출을 할 수 있기 때문에, 그 점에서도 장치의 간이화, 경량화, 저코스트화를 도모할 수 있다. 다만, 복수의 광원을 이용하는 것은 본 발명에 있어서 가능하다.
(변형예1)
상기 실시 형태에서는 인증 시스템을 인증 화상 취득 장치와 템플릿 화상 취득 장치와 식별부와 대조부를 구비한 구성으로 했다. 이것에 비하여, 변형예1의 시스템에서는, 암호화 특징 데이터 송신 장치(51)와 암호화 특징 데이터 수신 장치(52)를 구비한 구성으로 하고 있다(도18 참조). 이하의 예에서는, 인증 화상 취득 장치(1)와, 대조용 템플릿 데이터 기억부(24)를 포함하지 않는 템플릿 화상 취득 장치(2)와, 암호화 특징 데이터 송신 장치(51)가 스마트 폰 등의 휴대단말에 실장되어 있고, 식별부(4)와, 대조부(3)와, 대조용 템플릿 데이터 기억부(24)와, 암호화 특징 데이터 수신 장치(52)가 서버 상에 실장되어 있으며, 이들이 네트워크를 통해 통신하는 구성이라고 가정한다. 물론, 이러한 시스템 구성은 일례에 지나치지 않으며 다른 구성도 가능하다.
이 변형예1의 시스템에서는, 구체적으로는 스마트 폰을 사용하여 서버 상에서 개인식별을 함으로써 신용카드 결제를 가능하게 하는 시스템을 만들 수 있다. 예를 들면 인터넷 쇼핑이나, 점포에서의 카드리스(cardless) 결제에 응용 가능하다.
템플릿 화상 취득 장치(2) 및 인증 화상 취득 장치(1)로 취득한 템플릿 데이터 및 쿼리 데이터는 암호화 특징 데이터 송신 장치(51)에 의해 특징 데이터 암호화를 실시한 후에 서버에 송신된다. 이들의 특징 데이터는 도난, 해독됨으로써, 입금(송금) 사기 등의 악용 가능성이 있기 때문에, 공공의 네트워크를 통해 송신할 때에는 암호화하여 송신을 한다.
암호화 특징 데이터 수신 장치(52)는 암호화된 템플릿 데이터 및 쿼리 데이터를 취득하여 복호화한다. 식별용 템플릿 데이터를 수신했을 경우에는, 식별부(4)의 식별용 테이블 생성부(41)에 의해 식별 테이블을 생성하고 식별용 테이블 기억부(43)에 기억한다. 대조용 템플릿 데이터를 수신했을 경우에는, 대조용 템플릿 데이터 기억부(24)에 대조용 템플릿 데이터를 기억한다.
암호화 특징 데이터 수신 장치(52)는 인증용 및 대조용의 쿼리 데이터를 수신했을 경우에는, 식별부(4)의 식별용 테이블 참조부(42)에 의해 식별 테이블을 참조하고, 식별용 쿼리 데이터의 인덱스 값과 같은 인덱스 값에 대응하는 ID를 취득하고, 대조부(3)에 의해, 대상ID의 대조용 템플릿 데이터와 수신한 대조용 쿼리 데이터의 대조를 실시한다. 대조가 성공하면, 개인 인증이 성공으로 된다.
본 실시 형태의 방법은 컴퓨터로 실행 가능한 컴퓨터 프로그램에 의해 실시 가능하다. 또한, 이 프로그램은 컴퓨터로 판독 가능한 각종의 매체에 기록 가능하다.
한편, 본 발명의 범위는 상기 실시 형태에 한정되는 것이 아니고, 본 발명의 요지를 이탈하지 않는 범위 내에서 여러가지 변경을 할 수 있는 것은 물론이다.
예를 들면, 상기의 각 구성 요소는, 기능 블록으로서 존재하고 있으면 되고, 독립적인 하드웨어로서 존재하지 않아도 된다. 또한, 실장 방법으로서는, 하드웨어를 이용해도 되고 컴퓨터 소프트웨어를 이용해도 된다. 또한, 본 발명의 하나의 기능 요소가 복수의 기능 요소의 집합에 의해 실현되어도 된다. 본 발명의 복수의 기능 요소가 하나의 기능 요소에 의해 실현되어도 된다.
또한, 상기 쿼리 표면정보와 쿼리 체내정보는 장문과 손바닥 정맥만에 제한되지 않고, 얼굴과 홍채 패턴, 얼굴과 얼굴정맥, 눈의 형상과 안구의 혈관 패턴, 지문과 손가락 정맥 등 1장의 컬러의 쿼리 화상으로부터 추출된 것이면 된다.
또한, 식별용 쿼리 데이터에 쿼리 체내정보, 대조용 쿼리 데이터에 쿼리 표면정보를 이용해도 되고, 예를 들면 식별에 손바닥 정맥정보를, 대조에 장문정보를 이용해도 된다.
이상 설명한 실시 형태의 생체인증 시스템에 의하면, 1:1대조에 대해 1:N인증의 정밀도가 나빠지거나 속도가 늦어지는, 생체인증 관련의 업계의 일반적인 생각과 반대로, 1:N인증의 정밀도 및 속도를 현저하게 향상시킬 수 있다. 이하에, 본 실시 형태의 생체인증 시스템에 의한 효과 및 특징을 기술한다.
(1)1:1인증에 응용될 정도로 높은 인증 성능을 가지고, 또한 독립적인 복수의 생체정보를 검색(식별)과 대조 각각에 이용하기 때문에, 인증 성능은 거의 각각의 적(積)으로 되고, 매우 높은 인증 성능을 실현할 수 있다.
(2)1장의 화상으로부터 검색(식별)용과 대조용의 생체정보를 취득하기 때문에, 사용자의 편리성이 손상되지 않는다. 또한, 복수의 화상을 취득하지 않아도 되기 때문에, 시스템 요건의 경감을 도모할 수도 있다.
(3)손바닥 정맥정보와 장문정보는 각각 동등하게 높은 대조 성능을 갖기 때문에, 식별용의 정보와 대조용의 정보를 반대로 사용해도 동일하게 높은 인증 성능을 실현할 수 있다.
(4)식별용 생체정보를 바탕으로, 대조를 실시하는 대상인 대조용 템플릿 데이터의 범위를 좁힐 수 있기 때문에 인증의 속도가 향상한다.
(5)현행의 손바닥 정맥에 의한 대조 성능은 오수락률(誤受入率)이 0.0003%이며, 장문에 의한 대조 성능도 오수락률이 0.0003%이기 때문에, 이들을 조합시킨 식별 성능은 오수락률 1000억분의 1이 된다. 그 결과, 1:N인증을 이용한 생체인증에 의한 결제 시스템이라는 아직 실용화되지 않은 중요한 용도로의 응용이 가능하게 되는 성능을 달성할 수 있다.
1 인증 화상 취득 장치
11 인증용 광원
12 인증용 화상 취득부
13 인증 화상 처리부
131 식별용 쿼리 화상 처리부
1311 장문특징 추출부
1312 특징 데이터 변환부
132 대조용 쿼리 화상 처리부
1321 정맥특징 추출부
1322 특징 데이터 변환부
2 템플릿 화상 취득 장치
21 템플릿용 광원
22 템플릿용 화상 취득부
23 템플릿 화상 처리부
231 식별용 템플릿 화상 처리부
2311 장문특징 추출부
2312 특징 데이터 변환부
232 대조용 템플릿 화상 처리부
2321 정맥특징 추출부
2322 특징 데이터 변환부
24 대조용 템플릿 데이터 기억부
3 대조부
4 식별부
41 식별용 테이블 생성부
42 식별용 테이블 참조부
43 식별용 테이블 기억부
6 휴대단말
61 표시 화면
62 카메라
8 사용자의 손

Claims (12)

  1. 쿼리 데이터 취득부를 구비한 개인인증 장치로서, 식별부와 대조부를 더 구비하고,
    상기 쿼리 데이터 취득부는, 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러의 쿼리 화상으로부터, 인체 표면의 생체정보인 쿼리 표면정보와, 체내의 생체정보인 쿼리 체내정보를 추출하고, 그 중의 하나로부터 식별용 쿼리 데이터를 생성하고, 다른 하나로부터 대조용 쿼리 데이터를 생성하는 구성으로 되어 있으며,
    상기 식별부는 상기 식별용 쿼리 데이터를 이용하여 이미 등록되어 있는 복수의 식별용 등록 데이터를 1:N식별함으로써, 상기 식별용 등록 데이터에 관련되고 또한 대조에 이용해야 하는 1 또는 복수의 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
    상기 대조부는, 특정된 상기 1 또는 복수의 대조용 등록 데이터에 대해, 상기 대조용 쿼리 데이터와의 사이의 유사도를 이용하여 1:1대조함으로써, 일의의 개인을 인증하는 구성으로 되어 있으며,
    상기 식별부는, 상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터가 속하는 거리 공간에 있어서의 위치 관계에 근거하여 상기 1:N식별을 함으로써, 상기 대조에 이용해야 하는 1 또는 복수의 상기 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
    상기 식별용 등록 데이터는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 변환된 것으로 되어 있고,
    상기 식별부는 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 상기 식별용 쿼리 데이터의 변환을 실시하고, 이 변환에 의해 생성된 상기 인덱스를 이용하여 상기 식별용 등록 데이터를 1:N 식별하는 구성으로 되어 있는 것을 특징으로 하는 개인인증 장치.
  2. 제1항에 있어서,
    상기 식별용 쿼리 데이터와 상기 대조용 쿼리 데이터는, 모두 같은 정보구조를 갖고 있는 개인인증 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 1:1대조는 특정된 상기 1 또는 복수의 대조용 등록 데이터의 모두에 대해 실시되는 개인인증 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 쿼리 표면정보와 상기 쿼리 체내정보는, 선 성분으로 나타내어지고,
    상기 식별용 쿼리 데이터는, 상기 선 성분으로 나타내어진 상기 쿼리 표면정보 및 상기 쿼리 체내정보 중의 하나를 라돈 변환함으로써 생성되고,
    또한, 상기 대조용 쿼리 데이터는, 상기 선 성분으로 나타내어진 상기 쿼리 표면정보 및 상기 쿼리 체내정보 중의 다른 하나를 라돈 변환함으로써 생성되는 개인인증 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    등록부를 더 구비하고,
    상기 등록부는, 상기 식별용 등록 데이터를 상기 대조용 등록 데이터와 관련되도록 기록하는 구성으로 되어 있고,
    또한, 상기 등록부는 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러 템플릿 화상으로부터, 인체표면의 생체정보인 템플릿 표면정보와, 체내의 생체정보인 템플릿 체내정보를 추출하고, 그 중의 하나로부터 해당 개인에 대응하는 상기 식별용 등록 데이터를 생성하고, 다른 하나로부터 상기 대조용 등록 데이터를 생성하는 구성으로 되어 있고,
    상기 식별용 등록 데이터와 상기 대조용 등록 데이터는, 모두 같은 정보구조를 갖고 있는 개인인증 장치.
  6. 제5항에 있어서,
    상기 템플릿 표면정보와 상기 템플릿 체내정보는, 선 성분으로 나타내어지고,
    상기 식별용 등록 데이터는, 상기 선 성분으로 나타내어진 상기 템플릿 표면정보 및 상기 템플릿 체내정보 중의 하나를 라돈 변환함으로써 생성되고,
    또한, 상기 대조용 등록 데이터는, 상기 선 성분으로 나타내어진 상기 템플릿 표면정보 및 상기 템플릿 체내정보 중의 다른 하나를 라돈 변환함으로써 생성되는 개인인증 장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터의 상기 위치 관계는, 이 데이터와 기준 데이터 사이의 위치 관계인 개인인증 장치.
  8. 제7항에 있어서,
    상기 기준 데이터는 복수로 되어 있고,
    상기 식별용 쿼리 데이터 및 상기 식별용 등록 데이터는, 각 기준 데이터와 상기 식별용 쿼리 데이터 및 상기 식별용 등록 데이터의 위치 관계에 근거하여 그루핑되어 있고, 같은 그룹의 데이터가 같은 인덱스로 되도록 변환되어 있는 개인인증 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 쿼리 화상은 인증 대상의 손바닥의 화상이며, 상기 쿼리 표면정보는, 상기 쿼리 화상으로부터 추출된 장문 패턴의 정보이며, 상기 쿼리 체내정보는, 상기 쿼리 화상으로부터 추출된 정맥 패턴의 정보인 개인인증 장치.
  10. 제5항 또는 제6항에 있어서,
    상기 템플릿 화상은, 등록 대상자의 손바닥의 화상이며, 상기 템플릿 표면정보는, 상기 템플릿 화상으로부터 추출된 장문 패턴의 정보이며, 상기 템플릿 체내정보는, 상기 템플릿 화상으로부터 추출된 정맥 패턴의 정보인 개인인증 장치.
  11. 한사람의 개인의 생체를 촬영하여 얻어진 1장의 컬러의 쿼리 화상으로부터, 인체표면의 생체정보인 쿼리 표면정보와, 체내의 생체정보인 쿼리 체내정보를 추출하고, 그 중의 하나로부터 식별용 쿼리 데이터를 생성하고, 다른 하나로부터 대조용 쿼리 데이터를 생성하는 쿼리 데이터 취득 스텝과,
    상기 식별용 쿼리 데이터를 이용하여 이미 등록되어 있는 복수의 식별용 등록 데이터를 1:N식별함으로써, 상기 식별용 등록 데이터에 관련되고 또한 대조에 이용해야 하는 1 또는 복수의 대조용 등록 데이터를 특정하는 식별 스텝과,
    특정된 상기 1 또는 복수의 대조용 등록 데이터에 대해, 상기 대조용 쿼리 데이터와의 사이의 유사도를 이용하여 1:1대조함으로써, 일의의 개인을 인증하는 대조 스텝을 구비하고 있고,
    상기 식별 스텝에서는, 상기 식별용 쿼리 데이터와 상기 식별용 등록 데이터가 속하는 거리 공간에 있어서의 위치 관계에 근거하여 상기 1:N식별을 실시함으로써, 상기 대조에 이용해야 하는 1 또는 복수의 상기 대조용 등록 데이터를 특정하는 구성으로 되어 있고,
    상기 식별용 등록 데이터는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 변환된 것으로 되어 있고,
    상기 식별 스텝에서는, 상기 거리 공간에 있어서의 유사한 데이터가 같은 인덱스로 되도록 상기 식별용 쿼리 데이터의 변환을 실시하고, 이 변환에 의해 생성된 상기 인덱스를 이용하여 상기 식별용 등록 데이터를 1:N식별하는 구성으로 되어 있는 개인인증 방법.
  12. 제11항에 기재된 각 스텝을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램.
KR1020207021480A 2017-12-28 2018-12-27 개인인증 방법 및 개인인증 장치 KR20200100165A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2017-254506 2017-12-28
JP2017254506 2017-12-28
JP2018153066A JP6493941B1 (ja) 2017-12-28 2018-08-16 個人認証方法及び個人認証装置
JPJP-P-2018-153066 2018-08-16
PCT/JP2018/048095 WO2019131858A1 (ja) 2017-12-28 2018-12-27 個人認証方法及び個人認証装置

Publications (1)

Publication Number Publication Date
KR20200100165A true KR20200100165A (ko) 2020-08-25

Family

ID=65999148

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207021480A KR20200100165A (ko) 2017-12-28 2018-12-27 개인인증 방법 및 개인인증 장치

Country Status (10)

Country Link
US (1) US20200342220A1 (ko)
EP (1) EP3734548A4 (ko)
JP (1) JP6493941B1 (ko)
KR (1) KR20200100165A (ko)
CN (1) CN111542821A (ko)
AU (2) AU2018394177A1 (ko)
CA (1) CA3087161A1 (ko)
PH (1) PH12020550989A1 (ko)
SG (1) SG11202006098YA (ko)
WO (1) WO2019131858A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035075A1 (ko) 2020-08-10 2022-02-17 주식회사 큐티스의 생명연구센터 마이크로니들 패치를 포함하는 최소 침습적 피부 상태 진단 키트

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7524205B2 (ja) 2019-10-11 2024-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 秘匿認証方法および秘匿認証システム
CN116612501B (zh) * 2023-07-18 2024-06-21 腾讯科技(深圳)有限公司 对象识别方法、装置、电子设备和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152706A (ja) 2008-12-25 2010-07-08 Fujitsu Ltd 生体認証装置
JP2010191573A (ja) 2009-02-17 2010-09-02 Hitachi Software Eng Co Ltd 指静脈認証システム
WO2012014300A1 (ja) 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 個人認証装置及び個人認証方法
WO2013136553A1 (ja) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 個人認証方法及び個人認証装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050094228A (ko) * 2004-03-22 2005-09-27 엘지전자 주식회사 지문 인식 방법
WO2008120317A1 (ja) * 2007-03-28 2008-10-09 Fujitsu Limited 照合装置、認証装置、照合方法、認証方法、照合プログラム及び認証プログラム
JP2008250610A (ja) * 2007-03-30 2008-10-16 Universal Robot Kk パターンマッチング方法及びパターンマッチング装置
WO2010044250A1 (ja) * 2008-10-15 2010-04-22 日本電気株式会社 パターン照合装置及びパターン照合方法
JP4849181B2 (ja) * 2010-04-12 2012-01-11 日本電気株式会社 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム
US8872909B2 (en) * 2010-06-10 2014-10-28 The Hong Kong Polytechnic University Method and apparatus for personal identification using finger imaging
US9593017B2 (en) 2012-03-14 2017-03-14 Stella Chemifa Corporation Method for producing difluorophosphate
JP6320277B2 (ja) * 2014-11-20 2018-05-09 株式会社日立製作所 生体認証装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152706A (ja) 2008-12-25 2010-07-08 Fujitsu Ltd 生体認証装置
JP2010191573A (ja) 2009-02-17 2010-09-02 Hitachi Software Eng Co Ltd 指静脈認証システム
WO2012014300A1 (ja) 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 個人認証装置及び個人認証方法
WO2013136553A1 (ja) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 個人認証方法及び個人認証装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035075A1 (ko) 2020-08-10 2022-02-17 주식회사 큐티스의 생명연구센터 마이크로니들 패치를 포함하는 최소 침습적 피부 상태 진단 키트

Also Published As

Publication number Publication date
EP3734548A1 (en) 2020-11-04
AU2018394177A1 (en) 2020-08-06
CA3087161A1 (en) 2019-07-04
PH12020550989A1 (en) 2021-03-22
AU2021286405A1 (en) 2022-01-20
CN111542821A (zh) 2020-08-14
WO2019131858A1 (ja) 2019-07-04
JP6493941B1 (ja) 2019-04-03
EP3734548A4 (en) 2021-02-24
SG11202006098YA (en) 2020-07-29
JP2019121344A (ja) 2019-07-22
US20200342220A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
Priesnitz et al. An overview of touchless 2D fingerprint recognition
JP5509459B2 (ja) 個人認証方法及び個人認証装置
Soliman et al. Double random phase encoding for cancelable face and iris recognition
CN104823203B (zh) 生物特征模板安全性及密钥产生
US8705873B2 (en) Secure item identification and authentication system and method based on unclonable features
AU2021286405A1 (en) Personal authentication method and personal authentication device
JP4678883B2 (ja) バイオメトリクスを表現するための装置、方法、プログラム記憶装置、およびコンピュータ・プログラム(指紋バイオメトリック・マシン)
US11138409B1 (en) Biometric recognition and security system
EP3206192A1 (fr) Procédé de sécurisation et de verification d'un document
Abd El-Samie et al. Efficient implementation of optical scanning holography in cancelable biometrics
Salama et al. Cancelable biometric system for IoT applications based on optical double random phase encoding
Baek The fake fingerprint detection system using a novel color distribution
Abdulla et al. Exploring Human Biometrics: A Focus on Security Concerns and Deep Neural Networks
Rathgeb et al. Cancelable iris biometrics
Joshi et al. Mitigating MasterPrint vulnerability by employing minutiae geometry
Rathgeb et al. State-of-the-Art in Iris Biometrics
Ganjewar et al. Privacy threat reduction using modified multi-line code generation algorithm (MMLCGA) for cancelable biometric technique (CBT)
Bala et al. An Effective Multimodal Biometrics Recognition System using Hybrid Fusion Technique for Efficient Authentication
Shahriar et al. Presentation attack detection framework
Spagnolo et al. Painting authentication by means of a biometric-like approach
Zhang et al. Multifeature palmprint authentication
Kumaran Fingerprint template security using angle-based transformation functions
Han et al. An Improved Biometric Template Protection Method based on Non-Uniform Quantization.
Rathgeb et al. Iris Biometric Processing
Etienne A Framework to Detect Presentation Attacks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application