KR101021838B1 - Imaging apparatus and method for authentication of user - Google Patents

Imaging apparatus and method for authentication of user Download PDF

Info

Publication number
KR101021838B1
KR101021838B1 KR1020090029763A KR20090029763A KR101021838B1 KR 101021838 B1 KR101021838 B1 KR 101021838B1 KR 1020090029763 A KR1020090029763 A KR 1020090029763A KR 20090029763 A KR20090029763 A KR 20090029763A KR 101021838 B1 KR101021838 B1 KR 101021838B1
Authority
KR
South Korea
Prior art keywords
image
palm
finger
matching
unit
Prior art date
Application number
KR1020090029763A
Other languages
Korean (ko)
Other versions
KR20090107422A (en
Inventor
데루유키 히구치
Original Assignee
닛본 덴끼 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 닛본 덴끼 가부시끼가이샤 filed Critical 닛본 덴끼 가부시끼가이샤
Priority to KR1020090029763A priority Critical patent/KR101021838B1/en
Publication of KR20090107422A publication Critical patent/KR20090107422A/en
Application granted granted Critical
Publication of KR101021838B1 publication Critical patent/KR101021838B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Abstract

사용자 인증 촬상 장치는 입력된 생체 데이터의 매칭 단계를 신속하게 수행할 수 있다. 이 사용자 인증 촬상 장치는 안내된 손가락 및 안내된 손바닥을 촬상하는 촬상 유닛, 정해진 손가락 이미지 및 정해진 손바닥 이미지를 저장하는 매칭 데이터 저장 유닛, 및 촬상된 손가락 이미지 및 촬상된 손바닥 이미지를 저장된 손가락 이미지 및 저장된 손바닥 이미지와 매칭시키는 매칭 유닛을 포함한다. 매칭 유닛은 촬상된 손가락 이미지에 기초하여 유사한 특징량을 가지는 손가락 이미지를 선택하고 이 선택된 손가락 이미지에 해당하는 손바닥 이미지를 촬상된 손바닥 이미지와 매칭한 결과에 기초하여 사용자를 인증한다.The user authentication imaging apparatus can quickly perform the matching step of the input biometric data. The user authentication imaging device includes an imaging unit for imaging the guided finger and the guided palm, a matching data storage unit for storing the predetermined finger image and the predetermined palm image, and a finger image and a stored finger image and a stored palm image And a matching unit to match the palm image. The matching unit selects a finger image having a similar feature amount based on the picked up finger image and authenticates the user based on a result of matching the palm image corresponding to the selected finger image with the picked up palm image.

사용자 인증 촬상 장치, 생체 데이터, 매칭 유닛 User authentication imaging device, biometric data, matching unit

Description

사용자 인증 촬상 장치 및 방법{IMAGING APPARATUS AND METHOD FOR AUTHENTICATION OF USER}Imaging Apparatus and Method for User Authentication {IMAGING APPARATUS AND METHOD FOR AUTHENTICATION OF USER}

본 발명은 촬상에 의해 얻어진 생체 데이터에 기초하여 사용자를 인증하는 촬상 장치에 관한 것이다.The present invention relates to an imaging device that authenticates a user based on biometric data obtained by imaging.

손가락의 촬상 데이터를 이용하여 개인을 인증하는 생체 데이터 인증 기술에서, 예를 들면 지문 등의 피부 패턴 또는 혈관 패턴을 미리 저장된 데이터와 매칭시키는 시스템은 이미 제안되어 있다. 또한, 손바닥을 이용하여 사용자를 인증하는 생체 데이터 인증 기술에서도, 손바닥 패턴 등의 피부 패턴 또는 손바닥의 혈관 패턴을 미리 저장된 데이터와 매칭시키는 시스템 역시 공지되어 있다. 예를 들면, 은행에 설치된 현금 자동 입출금기(ATM)에 대해, 사용자는 상술한 바와 같은 손가락 또는 손바닥의 생체 데이터를 이용함으로써 인증된다.Background Art [0002] In the biometric data authentication technique for authenticating an individual using image data of a finger, a system for matching a skin pattern or a blood vessel pattern such as a fingerprint with previously stored data has already been proposed. In addition, in the biometric data authentication technology for authenticating a user using a palm, a system for matching a skin pattern such as a palm pattern or a blood vessel pattern of a palm with previously stored data is also known. For example, for ATMs installed in banks, a user is authenticated by using biometric data of a finger or palm as described above.

한편, 오늘날 현금 자동 입출금기(ATM)의 시장에서, 각각의 은행은 손가락과 손바닥 생체 데이터 인증 기술 중 어느 하나의 기술만을 또는 양쪽 기술을 모두 로드한 사용자 인증 촬상 장치를 설치하고 있다. ATM은 많은 은행에서 사용되도록 준비될 필요가 있고 지문 및 손바닥 패턴 모두에 대해 생체 데이터 촬상(입력) 디 바이스를 제공해야 한다. 결과적으로, 이는 ATM을 더 고가로 만들고 ATM의 폭넓은 이용을 저해한다.On the other hand, in today's market of ATMs, each bank installs a user authentication imaging device which loads only one or both of finger and palm biometric data authentication technologies. ATMs need to be prepared for use in many banks and must provide biometric data imaging (input) devices for both fingerprint and palm patterns. As a result, this makes ATM more expensive and hinders its widespread use.

상술한 바와 같은 배경으로, 본 발명의 종래 기술로서 이미 출원된 일본 특허 공개 제2003-85538호 공보에는 비접촉형 생체 데이터 촬상 장치의 종래 기술로서, 생체 데이터로서 지문을 이용하는 방법이 개시되어 있다.In the background as described above, Japanese Patent Laid-Open No. 2003-85538, which is already filed as a prior art of the present invention, discloses a method of using a fingerprint as biometric data as a prior art of a contactless biometric data imaging device.

또한, 일본 특허 공개 평7(1995)-21373호 공보에는 생체 데이터로서 손가락의 혈관을 이용하는 방법이 개시되어 있다.In addition, Japanese Patent Laid-Open No. 7 (1995) -21373 discloses a method of using blood vessels of a finger as biometric data.

또한, 일본 특허 공개 제2006-107401호 공보에는 생체 데이터로서 손바닥의 혈관을 이용하는 방법이 개시되어 있다.In addition, Japanese Patent Laid-Open No. 2006-107401 discloses a method of using a blood vessel of a palm as biometric data.

그러나, 상기 특허 문헌에 개시된 사용자 인증 촬상 장치는 상이한 광학 시스템 및 촬상 유닛을 각각 이용한다. 따라서, 사용자 인증 촬상 장치는, 예를 들면 지문 및 손바닥 패턴에 대한 복수의 생체 데이터 인증 기술을 구현하는 복수의 입력 유닛 및 촬상 유닛을 이용해야 한다. 따라서, 사용자 인증 촬상 장치는 소형화 및 비용 절감을 이루는데 곤란한 문제가 있다.However, the user authentication imaging device disclosed in the patent document uses different optical systems and imaging units, respectively. Therefore, the user authentication imaging device must use a plurality of input units and imaging units for implementing a plurality of biometric data authentication techniques for fingerprint and palm pattern, for example. Therefore, the user authentication imaging device has a problem that it is difficult to achieve miniaturization and cost reduction.

또한, 사용자 인증 장치가 단일 생체 데이터를 이용하는 경우, 인증 결과는 촬상 시의 사용자의 몸 상태, 피부 상태, 및 혈압에 의존하므로, 사용자 인증 장치가 안정한 인증 정확도를 얻을 수 없다는 문제를 야기한다.In addition, when the user authentication device uses single biometric data, the authentication result depends on the user's body state, skin condition, and blood pressure at the time of imaging, thereby causing a problem that the user authentication device cannot obtain stable authentication accuracy.

또한, 촬상 데이터와 매칭되는 적어도 하나의 이미지 데이터를 대량의 데이터로부터 선택하는 것은 미리 저장된 이미지 데이터의 각각의 이미지에 대한 매칭 단계를 필요로 한다. 따라서, 이 경우에, 매칭 단계에 장시간이 또한 필요하다는 문제가 여전히 미해결로 남는다.In addition, selecting at least one image data matched with the imaging data from a large amount of data requires a matching step for each image of the pre-stored image data. Thus, in this case, the problem that a long time is also required for the matching step remains unsolved.

본 발명의 목적은 생체 데이터의 매칭 단계를 신속하게 수행할 수 있는 사용자 인증 촬상 장치를 제공하는 것이다.It is an object of the present invention to provide a user authentication imaging device capable of quickly performing a matching step of biometric data.

본 발명의 일 양태에 따르면, 손가락의 촬상 영역을 안내하는 손가락 안내 유닛, 손바닥의 촬상 영역을 안내하는 손바닥 안내 유닛, 상기 안내된 손가락 및 손바닥의 촬상 영역의 생체 데이터를 촬상하는 촬상 유닛, 적어도 하나의 손가락 이미지 및 적어도 하나의 손바닥 이미지를 저장하는 이미지 저장 유닛, 및 상기 촬상된 손가락 데이터 및 상기 촬상된 손바닥 데이터를 상기 저장된 손가락 이미지 및 상기 저장된 손바닥 이미지와 매칭시키는 매칭 유닛을 포함하는 사용자 인증 촬상 장치가 제공되며, 상기 매칭 유닛은, 상기 촬상된 손가락 데이터에 기초하여 유사한 특징량(수치)을 가지는 저장된 손가락 이미지를 선택하는 선택 유닛 및 상기 선택된 손가락 이미지에 해당하는 상기 저장된 손바닥 이미지를 상기 촬상된 손바닥 데이터와 매칭시킨 매칭 결과에 기초하여 사용자를 인증하는 인증 유닛을 더 포함한다.According to an aspect of the present invention, a finger guide unit for guiding an imaging area of a finger, a palm guide unit for guiding an imaging area of a palm, an imaging unit for imaging biometric data of the guided finger and an imaging area of a palm, at least one And an image storage unit for storing the finger image and the at least one palm image, and a matching unit for matching the captured finger data and the captured palm data with the stored finger image and the stored palm image. And the matching unit comprises: a selection unit for selecting a stored finger image having a similar feature amount (value) based on the captured finger data and the stored palm image corresponding to the selected finger image; Matched to the data Based on the referred result further includes an authentication unit to authenticate a user.

본 발명의 일 양태에 따르면, 손가락 안내 유닛으로 안내된 손가락의 촬상 영역을 촬상하는 손가락 촬상 단계, 상기 촬상 단계에 의해 얻어진 손가락의 촬상 데이터를 저장된 손가락 이미지 데이터와 매칭시키는 손가락 이미지 매칭 단계, 손바닥 안내 유닛에 의해 안내된 손바닥의 촬상 영역을 촬상하는 손바닥 촬상 단계, 상기 촬상 단계에 의해 얻어진 손바닥의 촬상 데이터를 상기 저장된 손바닥 이미지 데이터와 매칭시키는 손바닥 이미지 매칭 단계, 및 상기 손가락 이미지 데이터 및 상기 손바닥 이미지 데이터의 매칭 결과에 기초하여 사용자를 매칭시키는 매칭 단계를 포함하는 사용자 인증 촬상 방법이 제공된다.According to one aspect of the present invention, a finger imaging step of imaging an imaging area of a finger guided by a finger guide unit, a finger image matching step of matching the imaging data of a finger obtained by the imaging step with stored finger image data, and palm guidance A palm imaging step of imaging the imaging area of the palm guided by the unit, a palm image matching step of matching the imaging data of the palm obtained by the imaging step with the stored palm image data, and the finger image data and the palm image data A user authentication imaging method is provided which includes a matching step of matching a user based on a matching result of.

본 발명의 일 양태에 따르면, 손가락 안내 유닛에 의해 안내된 손가락의 찰상 영역을 찰상하는 손가락 촬상 기능, 상기 촬상 기능에 의해 얻어진 상기 촬상된 손가락 데이터를 저장된 손가락 데이터와 매칭시키는 손가락 이미지 매칭 기능, 손바닥 안내 유닛에 의해 안내된 손바닥의 촬상 영역을 촬상하는 손바닥 촬상 기능, 상기 촬상 기능에 의해 얻어진 상기 촬상된 손바닥 데이터를 상기 저장된 손바닥 이미지 데이터와 매칭시키는 손바닥 이미지 매칭 기능, 및 상기 손가락 이미지 데이터 및 상기 손바닥 이미지 데이터를 매칭한 매칭 결과에 기초하여 사용자를 인증하는 인증 기능을 컴퓨터에 실행시킬 수 있는 프로그램을 기록한 컴퓨터 판독 가능한 매체가 제공된다.According to one aspect of the present invention, a finger imaging function for scratching a scratch area of a finger guided by a finger guide unit, a finger image matching function for matching the captured finger data obtained by the imaging function with stored finger data, a palm Palm imaging function for imaging the imaging area of the palm guided by the guide unit, palm image matching function for matching the captured palm data obtained by the imaging function with the stored palm image data, and the finger image data and the palm A computer readable medium is provided which records a program capable of causing a computer to execute an authentication function for authenticating a user based on a matching result of matching image data.

본 발명의 일 양태에 따르면, 사용자의 손바닥 및 손가락의 촬상 영역의 생체 데이터를 촬상하는 촬상 유닛, 동일한 사용자로부터 적어도 하나의 손가락 이미지 및 적어도 하나의 손바닥 이미지를 저장하는 이미지 저장 유닛, 및 상기 촬상된 손가락 데이터 및 상기 촬상된 손바닥 데이터를 상기 저장된 손가락 이미지 데이터 및 상기 저장된 손바닥 이미지 데이터와 매칭시키는 매칭 유닛을 포함하는 사용자 인증 촬상 장치가 제공되고, 상기 매칭 유닛은, 상기 촬상된 손가락 데이터와 관련된 수치와 상기 저장된 손가락 이미지와 관련된 수치의 비교에 기초하여 상기 저장 유닛으로부터 손가락 이미지를 선택하는 선택 유닛, 및 상기 촬상된 손바닥 데이터를 상기 선택된 손가락 이미지에 해당하는 상기 저장된 손바닥 이미지 데이터와 매칭시킨 결과에 기초하여 사용자를 인증하는 인증 유닛을 포함한다.According to one aspect of the invention, an imaging unit for imaging the biometric data of the imaging area of the user's palm and finger, an image storage unit for storing at least one finger image and at least one palm image from the same user, and the captured image A user authentication imaging device is provided that includes a matching unit for matching finger data and the imaged palm data with the stored finger image data and the stored palm image data, wherein the matching unit includes a numerical value associated with the imaged finger data. A selection unit for selecting a finger image from the storage unit based on a comparison of numerical values associated with the stored finger image, and a result of matching the captured palm data with the stored palm image data corresponding to the selected finger image And an authentication unit that authenticates the user based on that.

본 발명에 따르면, 사용자의 매칭 및 인증을 위한 총 프로세스가 신속하게 실행될 수 있고, 인증 프로세스에 대해 높은 보안성을 보장할 수 있으며, 단일 생체 데이터를 이용하는 종래 기술에서의 인증 시스템보다 높은 인증 정확도를 얻을 수 있는 저렴하고 소형인 촬상 장치를 제공할 수 있다.According to the present invention, the total process for matching and authenticating a user can be executed quickly, ensuring high security for the authentication process, and achieving higher authentication accuracy than the authentication system in the prior art using a single biometric data. It is possible to provide an inexpensive and compact imaging device that can be obtained.

본 발명의 다른 특징 및 이점은 다음의 상세한 설명 및 첨부된 도면에 의해 더욱 분명해질 것이다.Other features and advantages of the present invention will become more apparent from the following detailed description and the accompanying drawings.

도면에서, 동일한 참조 부호는 동일한 구조 요소를 나타낸다.In the drawings, like reference numerals refer to like structural elements.

이하에서는, 본 발명의 제 1 실시예를 상세하게 설명한다.Hereinafter, the first embodiment of the present invention will be described in detail.

우선, 본 발명의 제 1 실시예의 기본 구조 요소를 설명한다. 도 1에 나타낸 바와 같이, 예시적인 실시예의 생체 데이터를 촬상하는 촬상 장치(이하에서는 "촬상 장치"라 함)(100)에는, 예를 들면 촬상 장치(100)의 내측에 설치되는 카메라 등의 촬상 유닛(104)이 설치된다. 또한, 촬상 장치(100)는 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103)을 포함한다. 이들 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103)은 촬상 유닛(104)에 대해, 촬상 단계에 적합한 위치로 손가락의 지문 및 손가락 혈관 패턴의 촬상 영역을 안내한다. 또한, 촬상 장치(100)는 손바닥 안내 유닛(101)도 포함한다. 이 손바닥 안내 유닛(101)은 손바닥의 손바닥 패턴 및 혈관 패턴을 촬상 단계에 적합한 위치로 안내한다. 손가락 끝 안내 유닛(102), 손가락 뿌리 안내 유닛(103), 및 손바닥 안내 유닛(101)은 촬상 장치(100)의 상부에 설치된다.First, the basic structural elements of the first embodiment of the present invention will be described. As shown in FIG. 1, an imaging device (hereinafter referred to as an "imaging device") 100 for imaging the biometric data of an exemplary embodiment, for example, an imaging such as a camera provided inside the imaging device 100. Unit 104 is installed. In addition, the imaging device 100 includes a fingertip guide unit 102 and a finger root guide unit 103. These fingertip guide units 102 and finger root guide units 103 guide the imaging unit 104 to the imaging region of the fingerprint and finger blood vessel pattern of the finger to a position suitable for the imaging step. The imaging device 100 also includes a palm guidance unit 101. The palm guide unit 101 guides the palm pattern and the blood vessel pattern of the palm to a position suitable for the imaging step. The fingertip guide unit 102, the finger root guide unit 103, and the palm guide unit 101 are installed on the upper portion of the imaging device 100.

촬상 장치(100)로 손가락을 촬상하는 경우, 사용자의 손가락의 끝은 손가락 끝 안내 유닛(102) 상에 위치되고, 동시에 관련 손가락의 뿌리(손가락 뿌리)는 손가락 뿌리 안내 유닛(103) 상에 위치된다. 따라서, 사용자의 손가락은 촬상 유닛(104)에 의한 촬상 단계에 적합한 위치로 안내된다. When imaging a finger with the imaging device 100, the tip of the user's finger is located on the fingertip guide unit 102, and at the same time the root of the associated finger (finger root) is located on the finger root guide unit 103. do. Thus, the user's finger is guided to a position suitable for the imaging step by the imaging unit 104.

또한, 사용자 손의 손가락 뿌리는 손바닥 안내 유닛(101) 상에 위치된다. 이로써, 사용자의 손바닥은 촬상 유닛(104)에 의한 촬상 단계에 적합한 위치로 안내된다.In addition, the finger roots of the user's hands are located on the palm guidance unit 101. As a result, the palm of the user is guided to a position suitable for the imaging step by the imaging unit 104.

여기에서, 손바닥 안내 유닛(101)에 의해 안내된 손바닥의 촬상 영역의 위치는 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103)에 의해 안내된 손가락의 촬상 영역의 위치보다 촬상 유닛(104)으로부터 더 먼 측에 설정된다. 예를 들면, 손바닥 안내 유닛(101)은 촬상 유닛(104)의 촬상 방향으로 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103)의 위치보다 더 먼 위치에 위치된다. 결과적으로, 안내된 손가락은 안내된 손바닥의 위치와 촬상 유닛(104) 사이에 위치된다.Here, the position of the imaging area of the palm guided by the palm guide unit 101 is smaller than the position of the imaging area of the finger guided by the fingertip guide unit 102 and the finger root guide unit 103. Is set on the side farther from). For example, the palm guide unit 101 is located at a position farther than the positions of the fingertip guide unit 102 and the finger root guide unit 103 in the imaging direction of the imaging unit 104. As a result, the guided finger is positioned between the position of the guided palm and the imaging unit 104.

따라서, 안내된 손바닥의 촬상 영역의 촬상 유닛(104)까지의 거리는 안내된 손가락의 촬상 영역에서보다 더 길어지므로, 손바닥은 손가락의 촬상 영역보다 더 넓은 영역으로 촬상될 수 있다. 따라서, 손바닥 이미지 데이터에 기초한 생체 인증의 정확도는 향상될 수 있다.Thus, since the distance to the imaging unit 104 of the imaging area of the guided palm becomes longer than in the imaging area of the guided finger, the palm can be imaged to a wider area than the imaging area of the finger. Thus, the accuracy of biometric authentication based on palm image data can be improved.

또한, 손가락 끝 안내 유닛(102), 손가락 뿌리 안내 유닛(103), 및 손바닥 안내 유닛(101)은 안내된 손가락 및 손바닥의 촬상 영역의 위치가 수직 방향으로 중첩되도록 설정 배치된다. 따라서, 촬상 장치(100)의 점유 면적이 작게 설정될 수 있다. 결과적으로, 촬상 장치의 설치에 필요한 비용 및 공간을 줄일 수 있다.In addition, the fingertip guide unit 102, the finger root guide unit 103, and the palm guide unit 101 are set and arranged so that the positions of the image capturing regions of the guided finger and palm overlap in the vertical direction. Therefore, the occupation area of the imaging device 100 can be set small. As a result, the cost and space required for installation of the imaging device can be reduced.

손바닥 안내 유닛(101)은 오목 영역(201, 202, 203)을 포함한다. 촬상 유닛(104)이 손바닥의 손바닥 패턴 및 혈관을 촬상하는 경우, 사용자 손바닥의 세 개 의 중앙 손가락(집게손가락, 가운뎃손가락, 및 약손가락)의 뿌리부는, 도 4에 나타낸 바와 같이 이들 오목 영역 상에 각각 위치된다. 결과적으로, 손바닥의 촬상 영역이 안내됨으로써, 촬상 유닛(104)은 손바닥의 촬상 영역을 촬상할 수 있다.Palm guide unit 101 includes recessed areas 201, 202, 203. When the imaging unit 104 picks up the palm pattern and blood vessel of the palm, the root portions of the three center fingers (forefinger, middle finger, and weak finger) of the user's palm are on these concave regions as shown in FIG. 4. Each is located. As a result, the imaging area of the palm is guided, whereby the imaging unit 104 can image the imaging area of the palm.

손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103)은 손가락을 안내한다. 촬상 유닛(104)이 사용자의 손가락의 지문 및 혈관 패턴을 촬상하는 경우, 도 5에 나타낸 바와 같이 손가락 끝은 손가락 끝 안내 유닛(102) 상에 위치되고 손가락의 뿌리는 손가락 뿌리 안내 유닛(103) 상에 위치된다. 결과적으로, 손가락의 촬상 영역이 안내되고 촬상 유닛(104)은 손가락의 촬상 영역의 데이터를 얻을 수 있다.The fingertip guide unit 102 and the finger root guide unit 103 guide a finger. When the imaging unit 104 picks up the fingerprint and blood vessel pattern of the user's finger, the fingertip is positioned on the fingertip guide unit 102 and the root of the finger is the finger root guide unit 103 as shown in FIG. 5. Is located on. As a result, the imaging area of the finger is guided and the imaging unit 104 can obtain data of the imaging area of the finger.

여기에서, 촬상 장치(100)의 촬상 유닛(104)을 포함하는 수직 단면도를 도 2의 (a)에 나타내며, 도 2의 (a)의 선 A-A에 따른 단면도를 도 2의 (b)에 나타낸다.Here, the vertical cross section which includes the imaging unit 104 of the imaging device 100 is shown to FIG. 2 (a), and sectional drawing along the line AA of FIG. 2 (a) is shown to FIG. 2 (b). .

여기에서, 지문 및 손바닥 패턴용 광원(208)은 평면 형태로 형성되고, 도 2의 (a) 및 도 2의 (b)에 나타낸 바와 같이 장치의 손가락 끝의 측(정면 측)의 단일 표면에 배치된다. 지문 및 손바닥 패턴용 광원(208)은 손가락의 지문 부분 또는 손바닥의 손바닥 패턴에 방사함으로써, 지문 또는 손바닥 패턴을 촬상하기 위해 발광한다. 피부의 표면 상의 오목 및 볼록 영역을 통해 형성되는 지문 및 손바닥 패턴을 촬상하는 것을 감안하여, 피부의 표면 상에 오목 및 볼록 영역에 의해 음영이 가능한 형성되는 것이 바람직하므로, 지문 및 손바닥 패턴용 광원(208)은 한 방향에서만 광을 방사하는 것이 바람직하다.Here, the light source 208 for the fingerprint and palm pattern is formed in a planar shape, and as shown in (a) and (b) of FIG. 2, on a single surface of the side (front side) of the fingertip of the device. Is placed. The light source 208 for the fingerprint and palm pattern emits light to image the fingerprint or palm pattern by radiating onto the fingerprint portion of the finger or the palm pattern of the palm. In view of imaging the fingerprint and palm pattern formed through the concave and convex areas on the surface of the skin, it is preferable that the shadow and the convex area are formed to be shaded on the surface of the skin. 208 preferably emits light in only one direction.

지문 및 손바닥 패턴용 광원(208)은 혈관의 촬상에 곤란한 단파장의 광원으 로서 형성되는 것이 바람직하다. 또한, 광을 방해하는 영향의 제거를 고려하는 경우, 지문 및 손바닥 패턴용 광원(208)은 혈관용 광원(209)에 의해 제공될 수도 있는 근적외선의 장파장을 제공할 수 있다. 지문 및 손바닥 패턴용 광원(208) 및 혈관용 광원(209) 모두가 유사한 장파장의 광을 제공하는 경우에, 지문 및 손바닥 패턴용 단일 광원이 한 방향으로만 광을 방사하는 배치를 통해 충분한 콘트라스트(contrast)를 얻을 수 있다. 또한, 지문 및 손바닥 패턴의 식별을 방해하는 외광(external light)의 영향을 촬상 데이터를 처리하여 충분히 억제할 수 있다.The fingerprint and palm pattern light source 208 is preferably formed as a short wavelength light source that is difficult for imaging of blood vessels. In addition, when considering the elimination of the effect of disturbing the light, the light source 208 for the fingerprint and palm pattern may provide a long wavelength of near infrared rays that may be provided by the light source 209 for blood vessels. If both the light source 208 for the fingerprint and palm pattern and the light source for the blood vessel 209 provide similar long wavelength light, a sufficient contrast can be achieved through the arrangement in which a single light source for the fingerprint and palm pattern emits light in only one direction ( contrast can be obtained. In addition, the influence of external light that interferes with the identification of the fingerprint and palm pattern can be sufficiently suppressed by processing the imaging data.

혈관용 광원(209)은 선형 광원으로서 형성되고 촬상 장치의 좌우 양측의 내측면에 각각 배치된다. 혈관용 광원(209)은 안내된 손가락 및 손바닥에 근적외선을 방사하여, 손가락 및 손바닥의 혈관을 촬상한다. The vessel light source 209 is formed as a linear light source and is disposed on the inner side surfaces of the left and right sides of the imaging device, respectively. The light source 209 for blood vessels radiates near-infrared rays to the guided finger and palm, thereby imaging blood vessels of the finger and palm.

또한, 손가락 및 손바닥의 혈관 패턴의 촬상을 위해, 혈관용 광원(209)은 촬상 객체로서의 손가락과 손바닥 양측에 두 방향으로부터 광을 방사하여, 촬상 단계에 의해 얻어진 데이터에 대한 피부의 표면 상의 오목 및 볼록 영역에 의해 형성된 지문 및 손바닥 패턴의 음영의 출현을 가능한 방지한다. Further, for imaging the blood vessel pattern of the finger and the palm, the blood vessel light source 209 emits light from both directions to both the finger and the palm as the image pickup object, so that the concave on the surface of the skin for the data obtained by the imaging step and Possible prevention of the appearance of shadows of the fingerprint and palm pattern formed by the convex areas.

촬상 유닛(104)은 손가락의 지문 및 혈관 패턴 또는 손바닥의 손바닥 패턴 및 혈관 패턴을 촬상함으로써, 각각의 이미지 데이터를 생성하는 기능을 가진다.The imaging unit 104 has a function of generating respective image data by imaging a fingerprint and a blood vessel pattern of a finger or a palm pattern and a blood vessel pattern of a palm.

여기에서, 촬상 유닛(104)은, 예를 들면 CCD 및 CMOS 등의 이미지 센서, 제어 시스템, 및 이미지 센서에 손가락 및 손바닥의 이미지를 초점 맞추는 렌즈 광학 시스템으로 구성된다. 또한, 촬상 유닛(104)은 촬상 단계에 의해 이미지 센서에 초점 맞춰진 이미지를 이미지 데이터로 변환하는 AD 변환기 등도 포함한다.Here, the imaging unit 104 is composed of an image sensor such as a CCD and a CMOS, a control system, and a lens optical system that focuses an image of a finger and a palm on the image sensor. The imaging unit 104 also includes an AD converter or the like for converting an image focused on the image sensor by the imaging step into image data.

또한, 촬상 유닛(104)에는 복수의 촬상 모드가 제공된다. 예를 들면, 촬상 유닛(104)은 손가락을 촬상하기 위한 적절한 초점 거리 및 셔터 스피드 등이 미리 설정되는 손가락 촬상 모드 및 손바닥을 촬상하기 위한 적절한 초점 거리 및 셔터 스피드 등이 미리 설정되는 손바닥 촬상 모드를 가진다.In addition, the imaging unit 104 is provided with a plurality of imaging modes. For example, the imaging unit 104 has a finger imaging mode in which an appropriate focal length and shutter speed for imaging a finger are preset, and a palm imaging mode in which an appropriate focal length and shutter speed, etc. for imaging a palm are preset. Have

또한, 촬상 장치(100)는, 도 3에 나타낸 바와 같이 촬상 유닛(104)에 접속된다. 촬상 장치(100)는 관련 촬상 유닛(104)에 의해 생성된 이미지 데이터를 선택하는 이미지 처리 유닛(204), 혈관 패턴 등의 이미지 특징량(데이터)을 저장하는 매칭 유닛(205), 및 촬상 유닛(104)에 접속되어 관련 촬상 유닛(104)의 촬상 모드를 제어하는 제어 유닛(210) 등을 포함한다.In addition, the imaging device 100 is connected to the imaging unit 104 as shown in FIG. 3. The imaging device 100 includes an image processing unit 204 for selecting image data generated by the associated imaging unit 104, a matching unit 205 for storing image feature quantities (data) such as blood vessel patterns, and an imaging unit. A control unit 210 or the like connected to 104 to control the imaging mode of the associated imaging unit 104.

이미지 처리 유닛(204)은 촬상 유닛(104)에 의해 얻어진 이미지 데이터로부터 지문, 손바닥 패턴, 및 손가락 및 손바닥의 이미지 특징량을 선택한다. 이미지 처리 유닛(204)은 선택된 특징량 데이터를 매칭 유닛(205)에 송신하는 이미지 특징량 선택 기능을 가진다.The image processing unit 204 selects a fingerprint, a palm pattern, and image feature amounts of fingers and palms from the image data obtained by the imaging unit 104. The image processing unit 204 has an image feature variable selection function for transmitting the selected feature variable data to the matching unit 205.

여기에서, 이미지 처리 유닛(204)은 마이크로컴퓨터 등으로 구성된다. 이미지 처리 유닛(204)은 손가락의 지문 및 손바닥의 손바닥 패턴 및 혈관 이미지의 이미지 데이터를 처리한다.Here, the image processing unit 204 is configured of a microcomputer or the like. The image processing unit 204 processes image data of a fingerprint of a finger and a palm pattern of a palm and a blood vessel image.

매칭 유닛(205)은 미리 저장된 이미지 특징량 데이터에 기초하여 이미지 처리 유닛(204)으로부터 송신된 이미지 특징량 데이터를 매칭시키는 이미지 데이터 매칭 기능을 가진다.The matching unit 205 has an image data matching function that matches the image feature variable data transmitted from the image processing unit 204 based on the prestored image feature variable data.

제어 유닛(210)은, 도 3에 나타낸 바와 같이 촬상 유닛(104)에 접속되어 촬 상 유닛(104)의 촬상 모드를 제어하는 촬상 모드 제어 기능을 제공한다.The control unit 210 is connected to the imaging unit 104 as shown in FIG. 3 and provides an imaging mode control function for controlling the imaging mode of the imaging unit 104.

여기에서, 제어 유닛(210)에는 이미지 처리 유닛(204)으로부터 전송된 이미지 데이터에 기초하여 촬상 유닛(104)의 촬상 모드를 설정하는 그라데이션 모드 설정 기능이 제공될 수도 있다. 이 경우에, 제어 유닛(210)은 촬상 단계에 의해 얻어진 이미지 데이터를 얻고 이 이미지 데이터 내의 미리 설정된 하나 또는 복수의 상이한 픽셀의 그라데이션을 검사한다. 따라서, 초점 맞춰진 이미지는 손가락 이미지 또는 손바닥 이미지로서 결정될 수 있다.Here, the control unit 210 may be provided with a gradation mode setting function for setting the imaging mode of the imaging unit 104 based on the image data transmitted from the image processing unit 204. In this case, the control unit 210 obtains the image data obtained by the imaging step and checks the gradation of one or a plurality of different pixels preset in this image data. Thus, the focused image can be determined as a finger image or a palm image.

예를 들면, 제어 유닛(210)은 촬상 데이터에 기초하여 촬상 데이터의 우측 또는 좌측의 어느 쪽으로 취우친 부분에서 복수의 픽셀의 그라데이션을 얻는다. 제어 유닛(210)은 그라데이션이 완전히 "블랙(black)"을 나타내는 경우, 획득한 이미지가 이미지 중앙에만 초점이 맞춰진 손가락의 이미지를 나타내는 것을 결정할 수 있다. For example, the control unit 210 obtains the gradation of the plurality of pixels in the portion picked up to either the right side or the left side of the imaging data based on the imaging data. The control unit 210 may determine that the acquired image represents an image of a finger focused only at the center of the image when the gradation is completely “black”.

또한, 제어 유닛(210)은 미리 설정된 픽셀이 완전히 "화이트(white)" 그라데이션을 나타내는 경우, 이미지 데이터의 스크린의 전체 부분이 초점 맞춰진 이미지를 나타내는 것을 결정할 수 있다. 따라서, 이 이미지는 보다 넓게 초점 맞춘 이미지를 가지는 손바닥의 이미지로써 결정될 수 있다.In addition, the control unit 210 may determine that when the preset pixel exhibits a completely "white" gradation, the entire portion of the screen of image data represents the focused image. Thus, this image can be determined as an image of a palm with a broadly focused image.

촬상 객체는, 상술한 바와 같이 손가락 또는 손바닥의 이미지로서 결정될 수 있고, 또한 촬상 유닛(104)의 촬상 모드는 촬상 객체에 적합한 촬상 모드로 설정될 수 있다.The imaging object may be determined as an image of a finger or a palm as described above, and the imaging mode of the imaging unit 104 may be set to an imaging mode suitable for the imaging object.

또한, 제어 유닛(210)은 손바닥 안내 유닛(101) 및 손가락 끝 안내 유 닛(102)에 접속되어, 손가락 뿌리가, 예를 들면 손바닥 안내 유닛(101) 상에 위치되는 경우, 즉 손바닥 안내 유닛(101)이 손바닥을 안내하는 경우, 예를 들면 센서를 통해 손바닥 안내 유닛(101) 상의 손바닥을 탐지하는 안내 탐지 기능을 제공한다. 따라서, 손바닥 안내 유닛 상에 손이 위치된 것을 탐지한 경우, 촬상 객체를 손바닥으로서 결정하고 촬상 유닛(104)의 촬상 모드를 촬상 객체(손바닥)에 적합한 촬상 모드로 설정할 수 있다.Further, the control unit 210 is connected to the palm guidance unit 101 and the fingertip guidance unit 102 so that when the finger roots are located, for example, on the palm guidance unit 101, that is, the palm guidance unit When 101 guides the palm, it provides a guide detection function that detects the palm on the palm guidance unit 101 via, for example, a sensor. Therefore, when detecting that the hand is located on the palm guidance unit, the imaging object can be determined as the palm and the imaging mode of the imaging unit 104 can be set to an imaging mode suitable for the imaging object (palm).

예를 들면, 손가락 끝이 손가락 안내 유닛(102) 상에 위치되는 경우, 즉 손가락 안내 유닛(102)이 손가락을 안내하는 경우, 제어 유닛(210)은 안내 탐지 기능으로 손가락 안내 유닛 상에 위치된 손가락을 탐지하고 촬상 객체가 손가락인 것을 결정한다. 여기에서, 촬상 유닛(104)의 촬상 모드는 촬상 객체(손바닥)에 적합한 촬상 모드로 설정(변경)될 수 있다.For example, when the fingertip is positioned on the finger guide unit 102, that is, when the finger guide unit 102 guides the finger, the control unit 210 is positioned on the finger guide unit with the guide detection function. Detect the finger and determine that the imaging object is a finger. Here, the imaging mode of the imaging unit 104 can be set (changed) to an imaging mode suitable for an imaging object (palm).

따라서, 촬상 장치(100)가 지문, 손바닥 패턴, 손가락 혈관 패턴, 및 손바닥 혈관 패턴을 촬상함으로써, 개인 인증의 보안성을 효과적으로 보장할 수 있다.Therefore, the imaging apparatus 100 can effectively secure the security of personal authentication by imaging the fingerprint, palm pattern, finger blood vessel pattern, and palm blood vessel pattern.

또한, 단지 하나의 촬상 유닛으로 손가락의 지문과 혈관 및 손바닥의 손바닥 패턴 및 혈관을 촬상 및 인증함으로써, 소형 및 저렴한 생체 데이터 촬상 장치를 제공할 수 있다. Further, by imaging and authenticating a fingerprint of a finger, a blood vessel, and a palm pattern and a blood vessel of a palm with only one imaging unit, it is possible to provide a compact and inexpensive biometric data imaging apparatus.

한편, 촬상 단계에 이용된 모든 촬상 유닛 내에서의 상이한 이미지 데이터의 특정 특성 또는 특징의 출현에 의해 발생되는 인증에 대한 영향을 동일한 촬상 유닛(104)으로 복수의 상이한 생체 데이터를 촬상함으로써 제어할 수 있다.On the other hand, the influence on the authentication caused by the appearance of specific characteristics or features of different image data in all the imaging units used in the imaging step can be controlled by imaging a plurality of different biometric data with the same imaging unit 104. have.

또한, 제어 유닛(210)은 촬상 유닛(104)을 제어함으로써, 촬상된 손가락 혈 관 패턴 이미지의 상대적인 위치로서의 지문의 위치를 탐지(예상)하는 지문 위치 예상 및 탐지 기능도 가진다. 따라서, 촬상된 손가락 혈관 패턴 이미지 및 손바닥 혈관 패턴 이미지에 기초하여, 지문 및 손바닥 패턴의 촬상 영역을 상대적인 위치로서 예상 및 식별할 수 있다.The control unit 210 also has a fingerprint position estimation and detection function that detects (expects) the position of the fingerprint as a relative position of the image of the finger blood vessel pattern image picked up by controlling the imaging unit 104. Therefore, based on the image of the finger blood vessel pattern image and the palm vein pattern image, the imaging region of the fingerprint and the palm pattern can be predicted and identified as a relative position.

매칭 유닛(205)은 저장된 지문, 손바닥 패턴, 및 혈관 패턴 등의 저장된 이미지를 촬상 데이터와 매칭시키는 이미지 매칭 기능을 가진다.The matching unit 205 has an image matching function for matching stored images such as stored fingerprints, palm patterns, and blood vessel patterns with the captured data.

매칭 유닛(205)은 매칭 데이터 저장 유닛(211) 내의 저장된 손가락 혈관 이미지를 전송된 손가락 혈관 특징 이미지와 매칭함으로써, 저장된 특징량과 매칭되는 저장된 손가락 혈관 이미지(손가락의 인증 후보의 혈관 이미지)를 선택(선정)하는 기능도 가진다.The matching unit 205 selects the stored finger blood vessel image (vascular image of the authentication candidate of the finger) that matches the stored feature amount by matching the stored finger blood vessel image in the matching data storage unit 211 with the transmitted finger blood vessel feature image. It also has a function to select.

매칭 유닛(205)은 전송된 특징 이미지 데이터 내의 특징량을 선택한다. 또한, 매칭 유닛(205)은 이 특징량에 기초하여, 저장된 이미지들(N)과 1:N 매칭을 수행하는 기능을 추가적으로 가진다. 또한, 매칭 유닛(205)은 복수의 특징량에서 매칭된 저장된 이미지를 선택함으로써, 특징량과 유사한 후보 이미지를 특징량으로서 선택한다. 즉, 매칭 유닛(205)은 미리 설정된 매칭 레벨에 따라 개략의 특징량 매칭을 수행하는 후보 이미지 선택 기능을 가진다. 따라서, 매칭 유닛(205)은 많은 저장된 이미지로부터 인증 후보 이미지를 신속하게 선택할 수 있다.The matching unit 205 selects a feature amount in the transmitted feature image data. In addition, the matching unit 205 further has a function of performing 1: N matching with the stored images N based on this feature amount. Also, the matching unit 205 selects a candidate image similar to the feature amount as the feature amount by selecting the stored image matched from the plurality of feature quantities. In other words, the matching unit 205 has a candidate image selection function for performing coarse feature quantity matching according to a preset matching level. Thus, matching unit 205 can quickly select an authentication candidate image from many stored images.

매칭 유닛(205)에 송신된 이미지가 패턴을 촬상함으로써 얻어진 손바닥 이미지(손바닥 혈관 패턴, 손바닥 패턴 이미지)인 경우, 손바닥의 이미지 데이터는 손가락의 이미지 데이터보다 이미지 크기가 더 크므로, 손바닥의 이미지 데이터는 더 장시간 동안 매칭 단계에 있게 된다. 따라서, 매칭 유닛(205)은 손가락의 지문 또는 혈관 또는 손가락의 지문과 혈관 양쪽을 저장된 데이터와 매칭함으로써, 매칭 단계의 객체로서 저장된 손바닥 이미지를 구체적으로 결정할 수 있다. 따라서, 손바닥 매칭 단계에 필요한 시간을 줄일 수 있다.When the image sent to the matching unit 205 is a palm image (palm vein pattern, palm pattern image) obtained by imaging a pattern, the image data of the palm is larger in image size than the image data of the finger, so that the image data of the palm Is in the matching phase for a longer time. Accordingly, the matching unit 205 may specifically determine the palm image stored as the object of the matching step by matching the fingerprint of the finger or the blood vessel or both the fingerprint and the blood vessel of the finger with the stored data. Therefore, the time required for the palm matching step can be reduced.

또한, 여기에서는 매칭 유닛(205)의 매칭의 레벨을 가변적으로 설정할 수 있다. 예를 들면, 미세 설정 포인트(많은 설정 포인트)를 이용하여 특징량을 설정한다. 따라서, 매칭 단계에 의해 특정된(선택된) 저장된 이미지의 수는 제한될 수 있다.In addition, here, the level of matching of the matching unit 205 can be variably set. For example, the feature amount is set using fine set points (many set points). Thus, the number of stored images specified (selected) by the matching step can be limited.

다음으로, 사용자 인증 생체 데이터 촬상 장치(100)의 동작을 후술한다.Next, the operation of the user authentication biometric data imaging apparatus 100 will be described later.

우선, 촬상 유닛(104)은 안내된 손가락 및 손바닥을 촬상한다. 매칭 유닛(205)은 촬상된 손가락 이미지 데이터를 저장된 손가락 이미지 데이터와 매칭시켜 유사한 특징량을 가지는 저장된 손가락 이미지를 선택한다(손가락 이미지 매칭 및 선택 단계). 이어서, 매칭 유닛(205)은 선택된 저장된 손가락 이미지에 해당하는 저장된 손바닥 이미지를 촬상된 손바닥 데이터와 매칭시킨다(손바닥 매칭 단계).First, the imaging unit 104 picks up the guided finger and the palm. The matching unit 205 matches the captured finger image data with the stored finger image data to select a stored finger image having a similar feature amount (finger image matching and selection step). The matching unit 205 then matches the stored palm image corresponding to the selected stored finger image with the captured palm data (palm matching step).

한편, 처리 단계는 후술하는 바와 같이 수행될 수 있다. 즉, 촬상 유닛(104)은 안내된 손가락의 촬상 영역을 촬상하고(촬상 단계) 이 촬상 단계에서 얻어진 손가락의 촬상 데이터를 저장된 손가락 이미지 데이터와 개략 매칭시킨다(손가락 이미지의 광역 매칭(coarse matching) 단계). 여기에서, 촬상 유닛(104)에 의해 설정된 촬상 모드는 손바닥을 촬상하는 손바닥 촬상 모드로 변경된다(촬상 모 드 변경 단계). 이어서, 촬상 유닛(104)은 손바닥 안내 유닛(101)에 의해 안내된 손바닥의 촬상 영역을 촬상한다(손바닥 촬상 단계). 그 후, 매칭 유닛(205)은 각각의 선택 및 저장된 손가락 이미지에 해당하는 저장된 손바닥 이미지를 촬상된 손바닥 데이터와 매칭시킴(손바닥 이미지 매칭 단계)으로써 사용자를 인증한다(손바닥 인증 단계).In the meantime, the processing step may be performed as described below. That is, the imaging unit 104 picks up the imaging area of the guided finger (imaging step) and roughly matches the imaging data of the finger obtained in this imaging step with the stored finger image data (coarse matching step of the finger image). ). Here, the imaging mode set by the imaging unit 104 is changed to the palm imaging mode for imaging the palm (imaging mode changing step). Next, the imaging unit 104 picks up the imaging area of the palm guided by the palm guide unit 101 (palm imaging step). Thereafter, the matching unit 205 authenticates the user by matching the stored palm image corresponding to each selected and stored finger image with the imaged palm data (palm image matching step) (palm authentication step).

손가락 이미지 매칭 및 선택 단계, 손바닥 매칭 단계, 손가락 촬상 단계, 광역 손가락 이미지 매칭 단계, 촬상 모드 변경 단계, 손바닥 촬상 단계, 및 손바닥 인증 단계 각각은 이러한 실행 내용의 프로그램의 도입을 통해 컴퓨터에 의한 실행에 적합하게 구성될 수 있다. 이 예시적인 실시예에서, 이 순서로, 사용자를 인증하기 위해 촬상된 손가락 혈관 패턴 이미지, 지문 이미지, 손바닥 혈관 패턴 이미지, 및 손바닥 패턴 이미지가 매칭 및 결정된다. 그러나, 손가락 혈관 패턴 이미지와 손바닥 혈관 패턴 이미지와 손바닥 패턴 이미지의 결합 및 지문 이미지와 손바닥 혈관 패턴 이미지와 손바닥 패턴 이미지의 결합을 통해 매칭 및 사용자의 인증이 허용될 수도 있다. 한편, 매칭 및 인증 단계는 또한 손가락 혈관 패턴 이미지와 손바닥 혈관 패턴 이미지와 손바닥 패턴 이미지의 결합 및 지문 이미지와 손바닥 혈관 패턴 이미지와 손바닥 패턴 이미지의 결합을 이용함으로써 수행될 수 있다. 또한, 매칭 및 인증 단계는 손가락 혈관 패턴 이미지와 지문 이미지와 손바닥 혈관 패턴 이미지의 결합 및 손가락 혈관 패턴 이미지와 지문 이미지와 손바닥 패턴 이미지의 결합을 이용함으로써 수행될 수도 있다.The finger image matching and selection step, palm matching step, finger imaging step, wide-area finger image matching step, imaging mode changing step, palm imaging step, and palm authentication step, respectively, are carried out by the computer through the introduction of the program of such execution contents. It may be suitably configured. In this exemplary embodiment, in this order, the finger vein pattern image, the fingerprint image, the palm vein pattern image, and the palm pattern image photographed to authenticate the user are matched and determined. However, matching and authentication of the user may be allowed through the combination of the finger vein pattern image, the palm vein pattern image and the palm pattern image, and the combination of the fingerprint image, the palm vein pattern image and the palm pattern image. Meanwhile, the matching and authentication step may also be performed by using a combination of the finger vein pattern image, the palm vein pattern image and the palm pattern image, and the combination of the fingerprint image, the palm vein pattern image and the palm pattern image. In addition, the matching and authentication step may be performed by using a combination of the finger vein pattern image, the fingerprint image and the palm vein pattern image, and a combination of the finger vein pattern image, the fingerprint image and the palm pattern image.

따라서, 저장된 이미지와의 광역 매칭이 작은 촬상 영역의 손가락 이미지(손 가락 혈관 패턴 이미지, 지문 이미지)에 기초하여 신속하게 수행될 수 있다. 또한, 매칭 단계는 손바닥 이미지(손바닥 혈관, 손바닥 패턴 이미지)에 기초하여 수행될 수도 있다. 결과적으로, 사용자를 인증하는데 필요한 총 시간의 저감이 실현될 수 있다.Therefore, wide-area matching with the stored image can be performed quickly based on the finger image (fingerprint blood vessel pattern image, fingerprint image) of the small imaging area. In addition, the matching step may be performed based on the palm image (palm veins, palm pattern image). As a result, a reduction in the total time required to authenticate the user can be realized.

상술한 예시적인 실시예로서 촬상 장치(100)의 동작을 도 6의 흐름도에 기초하여 상세하게 설명한다. 우선, 촬상 유닛(104)은 안내된 손가락의 손가락 혈관 패턴을 촬상한다(단계 S101: 손가락 혈관 촬상 단계). 이 경우에, 사용자의 손가락은, 도 5에 나타낸 바와 같이 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103) 상에 위치된다. 이로써, 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103) 상에 위치된 손가락은 촬상 단계에 꼭 적합한 위치로 안내된다.As an exemplary embodiment described above, the operation of the imaging device 100 will be described in detail based on the flowchart of FIG. 6. First, the imaging unit 104 picks up the finger blood vessel pattern of the guided finger (step S101: finger blood vessel imaging step). In this case, the user's finger is located on the fingertip guide unit 102 and the finger root guide unit 103 as shown in FIG. 5. In this way, the fingers located on the fingertip guide unit 102 and the finger root guide unit 103 are guided to a position suitable for the imaging step.

또한, 제어 유닛(210)이 손가락 끝 안내 유닛(102) 및 손가락 뿌리 안내 유닛(103) 상에 손가락이 위치되는 것을 탐지하는 것도 가능하다. 제어 유닛(210)이 양쪽 안내 유닛 상에 위치된 손가락을 탐지하는 경우, 촬상 유닛(104)의 촬상 모드는 손가락 촬상 모드로 설정되고 촬상 유닛(104)은 안내된 손가락의 손가락 혈관 패턴을 촬상할 수 있다. 또한, 여기에서 제어 유닛(210)은 촬상 유닛(104)의 촬상 단계에 의해 얻어진 이미지 내의 특정 픽셀의 그라데이션에 기초하여, 촬상 유닛(104)의 촬상 모드를 손가락 촬상 모드 또는 손바닥 촬상 모드로 제어할 수 있다.It is also possible for the control unit 210 to detect the finger being placed on the fingertip guide unit 102 and the finger root guide unit 103. When the control unit 210 detects a finger located on both guide units, the imaging mode of the imaging unit 104 is set to the finger imaging mode and the imaging unit 104 can image the finger blood vessel pattern of the guided finger. Can be. In addition, the control unit 210 can control the imaging mode of the imaging unit 104 to the finger imaging mode or the palm imaging mode based on the gradation of a specific pixel in the image obtained by the imaging step of the imaging unit 104 here. Can be.

이 경우에, 제어 유닛(210)은 촬상된 데이터 내의 특정 픽셀의 그라데이션에 기초하여, 촬상 단계를 위해 손가락 또는 손바닥이 안내 유닛 상에 올바르게 위치 되는지의 여부를 결정한다. 예를 들면, 촬상된 데이터의 우측과 좌측의 양단부에 가까운 영역에 설정된 픽셀이 미리 설정된 그라데이션보다 높은 그라데이션을 가지는 경우, 즉 이러한 픽셀이 다른 픽셀보다 더 블랙(짙은 블랙)으로 채색되는 경우, 손가락은 안내 유닛 상에 올바르게 위치된 것으로 결정된다. 한편, 이러한 픽셀이 미리 설정된 그라데이션보다 낮은 그라데이션을 가지는 경우, 즉 이러한 픽셀이 덜 블랙(옅은 블랙)으로 채색되는 경우, 손바닥이 위치된 것으로 결정된다.In this case, the control unit 210 determines whether the finger or the palm is correctly positioned on the guide unit for the imaging step, based on the gradation of the specific pixel in the imaged data. For example, if a pixel set in areas close to both ends of the right and left sides of the captured data has a higher gradation than the preset gradation, i.e. when such pixels are colored black (darker black) than other pixels, the finger is It is determined that it is correctly positioned on the guide unit. On the other hand, when such a pixel has a gradation lower than the preset gradation, that is, when such a pixel is colored less black (light black), it is determined that the palm is located.

이어서, 촬상 유닛(104)은 안내된 손가락의 지문을 촬상한다(단계 S102: 지문 촬상 단계). 여기에서, 제어 유닛(210)이 지문 촬상 단계 전에 촬상 유닛(104)을 제어함으로써, 촬상된 손가락 혈관 패턴 데이터의 상대적인 위치로서 지문의 위치를 탐지(예상)하는 것이 허용 가능하다. 촬상 객체로서의 지문의 검색의 범위는 상술한 단계에 의해 한정되므로, 지문 위치의 검색 시간 및 지문의 촬상에 필요한 시간은 효과적으로 줄어들 수 있다. 또한, 지문의 중앙 영역은 촬상된 손가락 혈관 패턴 데이터의 상대적인 위치에 기초하여 효과적으로 검색 및 설정될 수 있다. 결과적으로, 촬상된 지문 데이터의 품질은 보다 개선될 수 있다.Next, the imaging unit 104 picks up the fingerprint of the guided finger (step S102: fingerprint imaging step). Here, by the control unit 210 controlling the imaging unit 104 before the fingerprint imaging step, it is permissible to detect (expect) the position of the fingerprint as a relative position of the imaged finger blood vessel pattern data. Since the range of retrieval of the fingerprint as the image pickup object is limited by the above-described steps, the retrieval time of the fingerprint position and the time required for image pickup of the fingerprint can be effectively reduced. Further, the central area of the fingerprint can be effectively retrieved and set based on the relative position of the image of the finger blood vessel pattern data captured. As a result, the quality of the captured fingerprint data can be further improved.

이어서, 촬상 유닛(104)은 촬상된 손가락 혈관 패턴 데이터를 이미지 처리 유닛(204)에 송신한다(단계 S103). 그 후, 이미지 처리 유닛(204)은 이 손가락 혈관 패턴 이미지에 기초하여 이미지의 특징량을 선택하여 손가락 혈관 특징량 데이터를 생성한다. 또한, 이미지 처리 유닛(204)은 이 손가락 혈관 특징량 이미지 데이터를 매칭 유닛(205)에 송신한다(단계 S104: 손가락 혈관 특징량 이미지 생성 단계).Next, the imaging unit 104 transmits the imaged finger blood vessel pattern data to the image processing unit 204 (step S103). Thereafter, the image processing unit 204 selects the feature amount of the image based on this finger blood vessel pattern image to generate finger blood vessel feature variable data. The image processing unit 204 also transmits this finger blood vessel feature variable image data to the matching unit 205 (step S104: finger blood vessel feature variable image generation step).

이어서, 매칭 유닛(205)은 매칭 데이터 저장 유닛(211) 내의 저장된 손가락 혈관 저장 이미지를 전송된 손가락 혈관 특징량 이미지와 매칭한다. 또한, 매칭 유닛(205)은 저장된 특징량과 매칭되는 저장된 손가락 혈관 이미지(인증 후보 손가락 혈관 이미지)를 선택한다(선정한다)(단계 S105: 인증 후보 손가락 혈관 이미지 선택 단계). 여기에서, 매칭 유닛(205)은 또한 전송된 손가락 혈관 특징량 이미지(1)의 특징량을 선택하고 선택된 특징량에 기초하여, 저장된 손가락 혈관 이미지(N)와 1:N 매칭을 수행한다. 예를 들면, 매칭 유닛(205)은 미세 특징량으로 매칭된 손가락 혈관 저장 이미지를 특징량으로서 선택한다. 상술한 바와 같이, 매칭 유닛(205)은 저장된 이미지 데이터로부터의 특징량이 유사한 후보 이미지를 선택한다. 즉, 매칭 유닛(205)은 광역 특징량 매칭 단계를 실행한다. 따라서, 매칭 유닛(205)은 많은 저장된 이미지로부터 인증 후보 이미지를 신속하게 선택할 수 있다.The matching unit 205 then matches the stored finger blood vessel storage image in the matching data storage unit 211 with the transmitted finger blood vessel feature quantity image. The matching unit 205 also selects (selects) a stored finger blood vessel image (authentication candidate finger blood vessel image) matching the stored feature amount (step S105: authentication candidate finger blood vessel image selection step). Here, the matching unit 205 also selects the feature amount of the transmitted finger vein feature amount image 1 and performs 1: N matching with the stored finger vein image N based on the selected feature amount. For example, the matching unit 205 selects the finger blood vessel storage image matched with the fine feature amount as the feature amount. As described above, the matching unit 205 selects candidate images having similar feature amounts from the stored image data. In other words, the matching unit 205 executes the wide area feature variable matching step. Thus, matching unit 205 can quickly select an authentication candidate image from many stored images.

여기에서 또한, 매칭 유닛(205)의 매칭 레벨이 가변적으로 설정될 수 있는 것이 허용될 수 있다. 예를 들면, 매칭 단계에 의해 식별될 저장(선택)된 이미지의 수는 (많은) 특징량의 미세 설정을 통해 한정될 수 있다.Here, it may also be allowed that the matching level of the matching unit 205 can be set variably. For example, the number of stored (selected) images to be identified by the matching step may be limited through the fine setting of the (many) feature quantities.

이어서, 촬상 유닛(104)은 촬상된 지문 데이터를 이미지 처리 유닛(204)에 전달한다(단계 S106). 이미지 처리 유닛(204)은 이 지문 이미지에 기초하여 특징량을 선택하고, 지문 특징량 이미지를 생성하고, 이 지문 특징량 이미지를 매칭 유닛(205)에 전달한다(단계 S107: 지문 특징량 이미지 생성 단계). 상술한 처리 단계(106 내지 107)는 단계(S103) 이후에 실행되도록 설정될 수 있다. 따라서, 이미 지 처리 유닛(204)은 단계(S105)의 손가락 혈관 후보 이미지 선택 단계 동안, 촬상된 지문의 특징량을 매칭 유닛(205)에 전달할 수 있다. 결과적으로, 총 매칭 시간이 단축될 수 있다.The imaging unit 104 then transfers the captured fingerprint data to the image processing unit 204 (step S106). The image processing unit 204 selects a feature amount based on this fingerprint image, generates a fingerprint feature variable image, and transfers this fingerprint feature variable image to the matching unit 205 (step S107: fingerprint feature variable image generation) step). The above-described processing steps 106 to 107 can be set to be executed after step S103. Thus, the image processing unit 204 may transfer the feature amount of the captured fingerprint to the matching unit 205 during the finger vessel candidate image selection step of step S105. As a result, the total matching time can be shortened.

이어서, 매칭 유닛(205)은 전송된 지문 특징량 이미지를 선택된 손가락 혈관 저장 이미지에 해당하는 각각의 저장된 지문 이미지와 매칭시킨다(단계 S108: 인증 후보 지문 이미지 선택 단계).The matching unit 205 then matches the transmitted fingerprint feature variable image with each stored fingerprint image corresponding to the selected finger blood vessel storage image (step S108: authentication candidate fingerprint image selection step).

자신의 생체 데이터를 사전에 저장한 사용자가 단계 S105의 인증 후보 손가락 혈관 이미지 선택 단계의 결과로서 식별되는 경우에, 매칭 유닛(205)은 식별된 저장된 지문 이미지를 지문 특징량 데이터와 상호 매칭시킨다. 이러한 1:1 매칭(1:1 혈관 매칭)으로 인해, 사용자의 인증이 수행될 수 있다.When the user who previously stored his biometric data is identified as a result of the authentication candidate finger blood vessel image selection step of step S105, the matching unit 205 mutually matches the identified stored fingerprint image with the fingerprint feature variable data. Due to such 1: 1 matching (1: 1 blood vessel matching), user authentication can be performed.

여기에서, 매칭 유닛(205)은 촬상된 지문 이미지에 포함된 특징량 포인트(예를 들면, 5개의 포인트)에 기초하여 각각의 선택된 저장된 손가락 혈관 이미지에 해당하는 각각의 지문 이미지를 지문 데이터와 매칭시킨다(지문 매칭 단계). 또한, 매칭 유닛(205)은 상술한 특징량 포인트 데이터와 매칭되는 또는 그에 가까운 특징량 포인트 데이터를 가지는 인증 후보 지문 이미지를 선택한다. 따라서, 매칭 유닛(205)은 특징량 포인트 데이터의 위치에 기초하여, 선택된 인증 후보 지문 이미지로부터 인증 후보 이미지의 한정된 영역을 더 선택한다.Here, the matching unit 205 matches each fingerprint image corresponding to each selected stored finger blood vessel image with fingerprint data based on the feature amount points (eg, five points) included in the captured fingerprint image. (Fingerprint matching step). In addition, the matching unit 205 selects an authentication candidate fingerprint image having the feature amount point data that matches or is close to the aforementioned feature amount point data. Accordingly, the matching unit 205 further selects a limited area of the authentication candidate image from the selected authentication candidate fingerprint image based on the position of the feature amount point data.

여기에서, 매칭 유닛(205)에 의해 수행된 매칭 단계의 매칭 레벨은 가변적으로 설정될 수 있다. 예를 들면, 지문 데이터의 다수의 특징량 포인트 데이터가 설정된다. 이로써, 이어서 관련 매칭 단계에 의해 좁혀 선택된 인증 후보 이미지의 수는 적은 수로 한정된다.Here, the matching level of the matching step performed by the matching unit 205 may be set variably. For example, a plurality of feature variable point data of fingerprint data is set. As a result, the number of authentication candidate images selected by the relevant matching step is then limited to a small number.

계속해서, 촬상 유닛(104)은 손바닥 혈관 패턴을 촬상한다(단계 S109: 손바닥 혈관 촬상 단계). 예로서, 사용자의 손바닥은, 도 6에 나타낸 바와 같이 손바닥 안내 유닛 상에 위치된다.Subsequently, the imaging unit 104 picks up the palm vein pattern (step S109: palm vein imaging step). By way of example, the palm of the user is located on the palm guidance unit as shown in FIG. 6.

여기에서, 제어 유닛(210)은 손가락 뿌리부가 손바닥 안내 유닛(101) 상에 위치되는 것을 탐지한다. 제어 유닛(210)은 촬상 유닛(104)의 촬상 모드를 손가락 촬상 모드로 설정할 수 있다. 촬상 유닛(104)은 안내된 손바닥의 혈관 패턴을 촬상할 수 있다.Here, the control unit 210 detects that the finger roots are located on the palm guidance unit 101. The control unit 210 can set the imaging mode of the imaging unit 104 to the finger imaging mode. The imaging unit 104 may image the blood vessel pattern of the guided palm.

한편, 제어 유닛(210)은 촬상 유닛(104)에 의해 얻어진 이미지 데이터 내의 특정 픽셀의 그라데이션에 기초하여, 촬상 유닛(104)의 촬상 모드를 손바닥 촬상 모드로 설정할 수 있다.On the other hand, the control unit 210 can set the imaging mode of the imaging unit 104 to the palm imaging mode based on the gradation of specific pixels in the image data obtained by the imaging unit 104.

이 경우에, 제어 유닛(210)은 촬상 데이터 내의 특정 픽셀의 그라데이션에 기초하여, 안내 유닛 상에 손가락이 위치되는지 또는 손바닥이 위치되는지의 여부를 결정한다. 예를 들면, 촬상 단계에 의해 얻어진 이미지의 중앙에서 좌우측의 양단부 가까운 영역에서 설정된 픽셀이 현재의 동일 픽셀의 그라데이션보다 높은 그라데이션을 가지는 경우, 즉 픽셀이 더 블랙(짙은 블랙)으로 채색되는 경우, 손가락이 안내 유닉 상에 위치된 것으로 결정된다. 또한, 관련 픽셀이 현재의 동일한 픽셀의 그라데이션보다 낮은 그라데이션을 가지는 경우, 즉 픽셀이 덜 블랙(옅은 블랙)으로 채색되는 경우, 손바닥이 안내 유닛 상에 위치되는 것으로 결정된다. 그 후, 촬상 유닛(104)은 안내된 손의 손바닥 패턴을 촬상한다(단계 S110: 지문 촬 상 단계).In this case, the control unit 210 determines whether the finger or the palm is positioned on the guide unit, based on the gradation of the specific pixel in the image data. For example, if the pixel set in the area near the left and right ends at the center of the image obtained by the imaging step has a gradation higher than that of the current same pixel, that is, the pixel is colored more black (dark black), the finger It is determined that it is located on this guide unit. It is also determined that the palm is positioned on the guide unit when the relevant pixel has a lower gradation than the gradation of the current same pixel, ie when the pixel is colored less black (light black). Thereafter, the imaging unit 104 picks up the palm pattern of the guided hand (step S110: fingerprint imaging step).

이어서, 촬상 유닛(104)은 촬상된 손바닥 혈관 패턴 이미지를 이미지 처리 유닛(24)에 전달한다(단계 S111).The imaging unit 104 then transfers the captured palm vein pattern image to the image processing unit 24 (step S111).

여기에서, 이미지 처리 유닛(204)은 이 손바닥 혈관 패턴 이미지에 기초하여 이미지의 특징량을 선택하고 손바닥 혈관 특징량 이미지를 생성한다. 또한, 이미지 처리 유닛(204)은 이 손바닥 혈관 특징량 이미지를 매칭 유닛(205)에 전달한다(단계 S111: 손바닥 혈관 특징량 이미지 생성 단계). 이어서, 매칭 유닛(205)은 매칭 데이터 저장 유닛(211)에 저장된 손바닥 혈관 이미지로부터 선택된 인증 후보 지문 이미지에 각각 해당하는 저장된 손바닥 혈관 이미지를 전송된 지문 특징량 이미지와 매칭한다(단계 S112: 손바닥 혈관 매칭 단계).Here, the image processing unit 204 selects a feature amount of the image based on this palm vein pattern image and generates a palm vein feature amount image. In addition, the image processing unit 204 transfers this palm vein feature amount image to the matching unit 205 (step S111: Palm vein feature amount image generation step). Subsequently, the matching unit 205 matches the stored palm vein image corresponding to the authentication candidate fingerprint image selected from the palm vein image stored in the matching data storage unit 211 with the transmitted fingerprint feature variable image (step S112: Palm vein). Matching step).

여기에서, 매칭 유닛(205)은 특징량에서 매칭된 인증 후보 손바닥 혈관 이미지를 선택하는 관점에서, 선택된 인증 후보 지문 이미지에 해당하는 손바닥 혈관 이미지 중의 촬상된 손바닥 혈관 패턴 이미지에 포함된 특징량에 기초하여 손바닥 혈관 패턴의 매칭을 수행한다. 따라서, 매칭 유닛(205)은 선택된 인증 후보 이미지로부터의 손바닥 혈관 패턴의 특징량에 기초하여 인증 후보 이미지의 한정 선택을 추가적으로 실행할 수 있다.Here, the matching unit 205 is based on the feature amount included in the imaged palm vein pattern image in the palm vein image corresponding to the selected authentication candidate fingerprint image, in view of selecting an authentication candidate palm vein image matched in the feature amount. By performing matching of the palm vein pattern. Accordingly, the matching unit 205 may additionally perform the limited selection of the authentication candidate image based on the feature amount of the palm vein pattern from the selected authentication candidate image.

여기에서, 매칭 유닛(205)은 그것의 매칭 레벨을 가변적으로 설정할 수 있다. 예를 들면, 손바닥 혈관 패턴 데이터의 많은 특징량이 설정될 수 있다(매칭 레벨이 올라감). 이로써, 관련 매칭에 의해 좁혀 선택된 인증 후보 이미지의 수는 적은 수로 한정될 수 있다.Here, the matching unit 205 can variably set its matching level. For example, many feature quantities of palm vein pattern data may be set (matching level is raised). As a result, the number of authentication candidate images selected by narrow matching may be limited to a small number.

단계 S105의 인증 후보 손가락 혈관 이미지 선택 단계 또는 단계 S108의 인증 후보 지문 이미지 선택 단계의 결과로서 생체 데이터가 저장된 사용자가 식별되는 경우, 매칭 유닛(205)은 식별된 저장된 지문 이미지를 지문 특징량 이미지와 상호 매칭시킨다. 또한, 매칭 유닛(205)은 1:1 매칭(1:1 손바닥 혈관 매칭)을 통해 사용자를 인증 및 결정할 수 있다.When the user who stored the biometric data is identified as a result of the authentication candidate finger blood vessel image selection step of step S105 or the authentication candidate fingerprint image selection step of step S108, the matching unit 205 associates the identified stored fingerprint image with a fingerprint feature variable image. Match each other. In addition, the matching unit 205 may authenticate and determine the user through 1: 1 matching (1: 1 palm vascular matching).

이어서, 촬상 유닛(104)은 촬상된 손바닥 패턴 이미지를 이미지 처리 유닛(204)에 전달한다(단계 S113).The imaging unit 104 then transfers the captured palm pattern image to the image processing unit 204 (step S113).

여기에서, 이미지 처리 유닛(204)은 이 손바닥 패턴 이미지에 기초하여 이미지의 특징량을 선택함으로써 손바닥 패턴 특징량 이미지를 생성한다. 또한, 이미지 처리 유닛(204)은 이 손바닥 패턴 특징량 이미지를 매칭 유닛(205)에 송신한다(단계 S114: 손바닥 패턴 특징량 이미지 생성 단계).Here, the image processing unit 204 generates a palm pattern feature amount image by selecting the feature amount of the image based on this palm pattern image. The image processing unit 204 also transmits this palm pattern feature variable image to the matching unit 205 (step S114: palm pattern feature variable image generation step).

이어서, 매칭 유닛(205)은 입력된 손바닥 패턴 특징량 이미지와 상술한 선택된 인증 후보 손바닥 혈관 이미지에 해당하는 각각의 저장된 손바닥 패턴 이미지 사이의 매칭을 실행한다(단계 S115: 손바닥 패턴 매칭 단계).Then, the matching unit 205 executes matching between the input palm pattern feature variable image and each stored palm pattern image corresponding to the selected authentication candidate palm vein image (step S115: palm pattern matching step).

여기에서, 매칭 유닛(205)은 상술한 선택된 인증 후보 혈관 패턴 이미지에 해당하는 저장된 손바닥 패턴 이미지 중의 손바닥 패턴 특징량 이미지에 포함된 특징량 데이터에 기초하여 매칭을 더 실행한다. 또한, 매칭 유닛(205)은 그것의 특징량 데이터에서 매칭된 단 하나의 저장된 손바닥 패턴 이미지를 식별한다.Here, the matching unit 205 further performs matching based on the feature amount data included in the palm pattern feature variable image in the stored palm pattern image corresponding to the selected authentication candidate blood vessel pattern image described above. The matching unit 205 also identifies only one stored palm pattern image that is matched in its feature data.

여기에서, 매칭 유닛(205)이 단 하나의 손바닥 패턴 데이터를 식별한 경우에, 사용자의 인증이 성공적으로 완료될 수 있다. 또한, 단 하나의 사용자의 생체 데이터 이미지가 단계 S112의 손바닥 혈관 매칭 단계의 결과로서 식별된 경우, 매칭 유닛(205)은 단 하나의 사용자로 좁혀 선택된 인증 후보의 혈관 이미지에 해당하는 저장된 손바닥 패턴 이미지를 손바닥 패턴 특징량 이미지와 양쪽 이미지에 포함된 특징량 포인트 데이터에 기초하여 1:1 매칭 단계로 매칭시킬 수 있다(손바닥 패턴 매칭 단계).Here, in the case where the matching unit 205 has identified only one palm pattern data, authentication of the user can be completed successfully. Further, when the biometric data image of only one user is identified as a result of the palm vein matching step of step S112, the matching unit 205 narrows down to only one user and stores the stored palm pattern image corresponding to the vein image of the selected authentication candidate. May be matched in a 1: 1 matching step based on the palm pattern feature amount image and the feature value point data included in both images (palm pattern matching step).

여기에서, 손바닥 패턴 데이터는 1:1 매칭 단계의 결과로서 매칭되고, 사용자의 인증은 성공적으로 완료된다. 한편, 손바닥 패턴 데이터가 매칭되지 않으면, 그것은 인증의 실패를 의미한다.Here, the palm pattern data is matched as a result of the 1: 1 matching step, and the authentication of the user is completed successfully. On the other hand, if the palm pattern data does not match, it means failure of authentication.

상술한 바와 같이, 본 발명의 예시적인 실시예에서, 생체 데이터 촬상 장치는 손가락 및 손바닥의 생체 데이터를 촬상하고 촬상된 손가락 이미지에 기초하여 저장된 손가락 이미지와 광역 매칭을 실행함으로써, 손바닥 이미지의 매칭을 통해 사용자를 인증한다. 결과적으로, 사용자의 매칭 및 인증을 위한 총 프로세스가 신속하게 실행될 수 있다. 또한, 사용자에 의한 ID의 입력 없이 촬상된 손가락 및 손바닥의 이미지의 데이터만을 이용하여, 사용자를 인증할 수 있다. 결과적으로, 인증 프로세스에 높은 보안성이 보장될 수 있다.As described above, in the exemplary embodiment of the present invention, the biometric data imaging device captures biometric data of the finger and the palm and performs wide-area matching with the stored finger image based on the captured finger image, thereby matching the palm image. Authenticate the user via As a result, the total process for matching and authenticating the user can be executed quickly. In addition, the user can be authenticated using only data of an image of a finger and a palm image photographed without input of an ID by the user. As a result, high security can be ensured in the authentication process.

또한, 본 발명의 예시적인 실시예에서, 생체 데이터 촬상 장치는 손가락 및 손바닥의 생체 데이터를 결합함으로써 사용자의 인증을 수행한다. 따라서, 단일 생체 데이터를 이용하는 종래 기술에서의 인증 시스템보다 높은 인증 정확도를 얻을 수 있다.Further, in an exemplary embodiment of the present invention, the biometric data imaging device performs authentication of a user by combining biometric data of fingers and palms. Therefore, higher authentication accuracy can be obtained than in the prior art authentication system using single biometric data.

상술한 예시적인 실시예에서, 촬상된 손가락 혈관 패턴 이미지, 지문 이미 지, 손바닥 혈관 패턴 이미지, 및 손바닥 패턴 이미지는 이 순서로 사용자의 인증을 위해 매칭 단계에 이용되도록 설정된다. 그러나, 손가락 혈관 패턴 이미지 또는 지문 이미지와 손바닥 혈관 패턴 이미지 또는 손바닥 패턴 이미지를 각각 결합함으로써 사용자의 인증을 위한 설정을 이루는 것도 가능하다.In the exemplary embodiment described above, the photographed finger blood vessel pattern image, fingerprint image, palm vein pattern image, and palm pattern image are set in this order to be used in the matching step for authentication of the user. However, it is also possible to make a setting for authentication of a user by combining a finger vein pattern image or fingerprint image with a palm vein pattern image or palm pattern image, respectively.

상술한 바와 같이, 사용자는 사용자에 의한 ID의 입력 없이 손가락 및 손바닥의 촬상 데이터를 이용하여 인증될 수 있다. 결과적으로, 인증에 대해 보다 높은 보안성이 확보된다. 또한, 단일 생체 데이터를 이용하는 종래 기술의 인증 시스템보다 높은 인증 정확도를 가지는 사용자 인증 프로세스를 실현할 수 있다.As described above, the user can be authenticated using the imaging data of the finger and the palm without inputting the ID by the user. As a result, higher security is ensured for authentication. In addition, it is possible to realize a user authentication process with higher authentication accuracy than prior art authentication systems using single biometric data.

또한, 본 발명의 예시적인 실시예에서는, 단일 촬상 유닛(104)이 손가락 및 손바닥의 생체 데이터를 촬상할 수 있다. 따라서, 본 발명은 복수의 촬상 유닛을 결합한 장치보다 저렴하고 소형인 촬상 장치를 제공할 수 있다.In addition, in an exemplary embodiment of the present invention, a single imaging unit 104 may image biometric data of fingers and palms. Therefore, the present invention can provide an image capturing apparatus that is cheaper and smaller than an apparatus combining a plurality of image capturing units.

공통 및 단일 촬상 유닛(104)이 손가락의 지문과 혈관 패턴 및 손바닥의 손바닥 패턴 및 혈관 패턴을 촬상한다. 따라서, 공통의 광학 조건 하의 이미지 품질에 기초하여 이미지를 얻을 수 있다.The common and single imaging unit 104 picks up the fingerprint and blood vessel pattern of the finger and the palm pattern and blood vessel pattern of the palm. Thus, an image can be obtained based on image quality under common optical conditions.

본 발명은 ATM 및 개인용 컴퓨터 등의 이용에 앞서 손가락 및 손바닥의 생체 데이터에 기초하여 사용자를 인증하는 인증 장치 및 개인이 방 또는 빌딩에 출입할 때에 이용되는 개인 인증 시스템에 적용될 수 있다.The present invention can be applied to an authentication device for authenticating a user based on biometric data of a finger and a palm prior to use of an ATM and a personal computer, and a personal authentication system used when an individual enters or exits a room or a building.

본 발명을 상술한 바람직한 실시예와 결합하여 설명하였지만, 이제는 당업자가 다양한 다른 방법으로 본 발명을 실시 가능할 것이다.While the invention has been described in conjunction with the preferred embodiments described above, those skilled in the art will now be able to practice the invention in a variety of other ways.

도 1은 본 발명의 예시적인 실시예로서 사용자 인증 촬상 장치를 나타내는 개략적 구조의 사시도.1 is a perspective view of a schematic structure showing a user authentication imaging device as an exemplary embodiment of the present invention.

도 2의 (a) 및 도 2의 (b)는 도 1의 내부 구조의 도면으로, 도 2의 (a)는 촬상 수단을 포함하는 수직 단면도이고 도 2의 (b)는 도 2의 (a)의 선 A-A에 따른 단면도.2 (a) and 2 (b) are views of the internal structure of FIG. 1, FIG. 2 (a) is a vertical sectional view including an imaging means, and FIG. 2 (b) is a Section according to line AA.

도 3은 본 발명의 예시적인 실시예로서 사용자 인증 촬상 장치의 내부 구조를 나타내는 개략적인 블록도.Fig. 3 is a schematic block diagram showing the internal structure of a user authentication imaging device as an exemplary embodiment of the present invention.

도 4는 본 발명의 실시예로서 사용자 인증 촬상 장치에서의 손가락 촬상 단계의 측면도.4 is a side view of a finger imaging step in the user authentication imaging device as an embodiment of the present invention.

도 5는 본 발명의 예시적인 실시예로서 사용자 인증 촬상 장치에서의 손바닥 촬상 단계의 측면도.Fig. 5 is a side view of the palm image pickup step in the user authentication image pickup device as an exemplary embodiment of the present invention.

도 6은 본 발명의 예시적인 실시예로서 사용자 인증 촬상 장치에서의 전체 동작 처리 단계를 나타내는 흐름도.Fig. 6 is a flowchart showing overall operation processing steps in a user authentication imaging device as an exemplary embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

101 : 손바닥 안내 유닛 102 : 손가락 끝 안내 유닛101: palm guide unit 102: fingertip guide unit

103 : 손가락 뿌리 안내 유닛 104 : 촬상 유닛103: finger root guide unit 104: imaging unit

201, 202, 203 : 오목 영역 208 : 지문 및 손바닥 패턴용 광원201, 202, 203: recessed area 208: light source for fingerprint and palm pattern

209 : 혈관용 광원 209: light source for blood vessel

Claims (16)

손바닥의 촬상 영역을 안내하는 손바닥 안내 유닛;A palm guide unit for guiding the imaging area of the palm; 손가락의 촬상 영역을 안내하는 손가락 안내 유닛;A finger guide unit for guiding an imaging area of a finger; 사용자의 상기 손바닥 및 손가락의 촬상 영역의 생체 데이터를 촬상하는 촬상 유닛;An imaging unit which picks up biometric data of the imaging area of the user's palm and finger; 적어도 하나의 손가락 이미지 및 적어도 하나의 손바닥 이미지를 저장하는 이미지 저장 유닛; 및An image storage unit for storing at least one finger image and at least one palm image; And 상기 촬상된 손가락 및 상기 촬상된 손바닥 데이터를 상기 저장된 손가락 이미지 및 상기 저장된 손바닥 이미지와 매칭시키는 매칭 유닛을 포함하고,A matching unit for matching the photographed finger and the photographed palm data with the stored finger image and the stored palm image, 상기 매칭 유닛은,The matching unit, 상기 촬상된 손가락 데이터의 특징량 및 상기 저장된 손가락 이미지의 특징량에 기초하여, 상기 저장 유닛으로부터 손가락 이미지를 선택하는 선택 유닛; 및A selection unit that selects a finger image from the storage unit based on the feature amount of the captured finger data and the feature amount of the stored finger image; And 상기 선택된 손가락 이미지에 해당하는 상기 저장된 손바닥 이미지를 상기 촬상된 손바닥 데이터와 매칭시킨 결과에 기초하여, 사용자를 인증하는 인증 유닛을 포함하는 것을 특징으로 하는 사용자 인증 촬상 장치. And an authentication unit for authenticating a user based on a result of matching the stored palm image corresponding to the selected finger image with the photographed palm data. 제 1 항에 있어서,The method of claim 1, 상기 촬상 유닛은,The imaging unit, 지문 및 손가락 혈관 패턴을 촬상하는 손가락 촬상 기능; 및A finger imaging function for imaging a fingerprint and finger blood vessel pattern; And 손바닥 패턴 및 손바닥 혈관 패턴을 촬상하는 손바닥 촬상 기능을 더 가지고,Has more palm imaging function to image palm pattern and palm vessel pattern, 상기 인증 유닛은 촬상 모드를 손가락 촬상 모드와 손바닥 촬상 모드 사이에서 전후 전환시키는 전환 유닛을 더 포함하는 것을 특징으로 하는 사용자 인증 촬상 장치. The authentication unit further comprises a switching unit for switching the imaging mode back and forth between the finger imaging mode and the palm imaging mode. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크(link)되어 있는 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage unit for storing at least one finger blood vessel pattern image and at least one palm blood vessel pattern image linked to each other; 상기 촬상된 손가락 혈관 패턴을 상기 저장된 혈관 패턴 이미지와 매칭시키는 매칭부; 및A matching unit matching the captured finger blood vessel pattern with the stored blood vessel pattern image; And 상기 생체 데이터 저장부로부터 손가락 혈관 패턴을 선택하는 - 상기 선택된 손가락 혈관 패턴의 특징량은 상기 촬상된 손가락 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a finger blood vessel pattern from the biometric data storage unit, wherein the feature amount of the selected finger blood vessel pattern corresponds to the feature amount of the photographed finger blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 손가락 혈관 패턴 이미지에 해당하는 손바닥 혈관 패턴을 상기 촬상된 손바닥 혈관 패턴과 매칭시키고,The matching unit matches the palm vein pattern corresponding to each of the selected finger vein pattern image with the photographed palm vein pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치. The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one finger blood vessel pattern image and at least one palm pattern image linked to each other; 상기 촬상된 손가락 혈관 패턴을 상기 저장된 혈관 패턴의 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured finger blood vessel pattern with an image of the stored blood vessel pattern; And 상기 생체 데이터 저장부로부터 손가락 혈관 패턴을 선택하는 - 상기 선택된 손가락 혈관 패턴의 특징량은 상기 촬상된 손가락 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a finger blood vessel pattern from the biometric data storage unit, wherein the feature amount of the selected finger blood vessel pattern corresponds to the feature amount of the photographed finger blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 손가락 혈관 패턴 이미지에 해당하는 손바닥 패턴을 상기 촬상된 손바닥 패턴과 매칭시키고,The matching unit matches the palm pattern corresponding to each of the selected finger blood vessel pattern images with the photographed palm pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치. The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one fingerprint image and at least one palm vein pattern image linked to each other; 상기 촬상된 지문을 상기 저장된 지문 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured fingerprint with the stored fingerprint image; And 상기 생체 데이터 저장부로부터 지문 이미지를 선택하는 - 상기 선택된 이미 지의 특징량은 상기 촬상된 지문의 특징량에 해당함 - 선택부를 더 포함하고,And selecting a fingerprint image from the biometric data storage, wherein the feature amount of the selected image corresponds to the feature amount of the imaged fingerprint. 상기 매칭부는 상기 선택된 각각의 지문 이미지에 해당하는 손바닥 혈관 패턴을 상기 촬상된 손바닥 혈관 패턴과 매칭시키고,The matching unit matches the palm vein pattern corresponding to each of the selected fingerprint images with the photographed palm vein pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage unit for storing at least one fingerprint image and at least one palm pattern image linked to each other; 상기 촬상된 지문을 상기 저장된 지문 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured fingerprint with the stored fingerprint image; And 상기 생체 데이터 저장부로부터 지문 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 지문의 특징량에 해당함 - 선택부를 더 포함하고,And selecting a fingerprint image from the biometric data storage, wherein the feature amount of the selected image corresponds to the feature amount of the photographed fingerprint. 상기 매칭부는 상기 선택된 각각의 지문 이미지에 해당하는 손바닥 혈관 패턴을 상기 촬상된 손바닥 혈관 패턴과 매칭시키고,The matching unit matches the palm vein pattern corresponding to each of the selected fingerprint images with the photographed palm vein pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one fingerprint image, at least one finger blood vessel pattern image, and at least one palm blood vessel pattern image linked to each other; 상기 손가락 혈관 패턴 이미지 및 상기 지문 이미지에 기초하여, 상기 촬상된 지문을 상기 저장된 지문 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured fingerprint with the stored fingerprint image based on the finger blood vessel pattern image and the fingerprint image; And 상기 생체 데이터 저장부로부터 지문 이미지 및 손가락 혈관 패턴 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 지문 및 상기 촬상된 손가락 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a fingerprint image and a finger blood vessel pattern image from the biometric data storage unit, wherein the feature amount of the selected image corresponds to a feature amount of the captured fingerprint and the image of the finger blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 지문 이미지 및 손가락 혈관 패턴 이미지에 해당하는 손바닥 혈관 패턴을 상기 촬상된 손바닥 혈관 패턴과 매칭시키고,The matching unit matches the palm vein pattern corresponding to each of the selected fingerprint image and the finger vein pattern image with the photographed palm vein pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one fingerprint image, at least one finger blood vessel pattern image, and at least one palm pattern image linked to each other; 상기 손가락 혈관 패턴 이미지 및 상기 지문 이미지에 기초하여, 상기 촬상된 지문을 상기 저장된 지문 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured fingerprint with the stored fingerprint image based on the finger blood vessel pattern image and the fingerprint image; And 상기 생체 데이터 저장부로부터 지문 이미지 및 손가락 혈관 패턴 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 지문 및 상기 촬상된 손가락 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a fingerprint image and a finger blood vessel pattern image from the biometric data storage unit, wherein the feature amount of the selected image corresponds to a feature amount of the captured fingerprint and the image of the finger blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 지문 이미지 및 손가락 혈관 패턴 이미지에 해당하는 손바닥 패턴을 상기 촬상된 손바닥 패턴과 매칭시키고,The matching unit matches the palm pattern corresponding to each of the selected fingerprint images and finger blood vessel pattern images with the photographed palm pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one finger blood vessel pattern image, at least one palm blood vessel pattern image, and at least one palm pattern image linked to each other; 상기 촬상된 손가락 혈관 패턴을 상기 저장된 손가락 혈관 패턴 이미지와 매칭시키는 매칭부; 및 A matching unit to match the captured finger blood vessel pattern with the stored finger blood vessel pattern image; And 상기 생체 데이터 저장부로부터 손가락 혈관 패턴 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a finger blood vessel pattern image from the biometric data storage unit, wherein the feature amount of the selected image corresponds to the feature amount of the photographed blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 손가락 혈관 패턴 이미지에 해당하는 손바닥 혈관 패턴 및 손바닥 패턴을 상기 촬상된 손바닥 혈관 패턴 및 상기 촬상된 손바닥 패턴과 매칭시키고,The matching unit matches the palm vein pattern and the palm pattern corresponding to each of the selected finger vein pattern images with the photographed palm vein pattern and the photographed palm pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one fingerprint image, at least one palm vein pattern image, and at least one palm pattern image linked to each other; 상기 촬상된 지문을 상기 저장된 지문 이미지와 매칭시키는 매칭부; 및 A matching unit matching the captured fingerprint with the stored fingerprint image; And 상기 생체 데이터 저장부로부터 지문 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 지문의 특징량에 해당함 - 선택부를 더 포함하고,And selecting a fingerprint image from the biometric data storage, wherein the feature amount of the selected image corresponds to the feature amount of the photographed fingerprint. 상기 매칭부는 상기 선택된 각각의 지문 이미지에 해당하는 손바닥 혈관 패턴 및 손바닥 패턴을 상기 촬상된 손바닥 혈관 패턴 및 상기 촬상된 손바닥 패턴과 매칭시키고,The matching unit matches the palm vein pattern and the palm pattern corresponding to each of the selected fingerprint images with the photographed palm vein pattern and the photographed palm pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 2 항에 있어서,The method of claim 2, 상기 매칭 유닛은,The matching unit, 서로 링크되어 있는 적어도 하나의 지문 이미지와 적어도 하나의 손가락 혈관 패턴 이미지와 적어도 하나의 손바닥 혈관 패턴 이미지와 적어도 하나의 손바닥 패턴 이미지를 저장하는 생체 데이터 저장부;A biometric data storage configured to store at least one fingerprint image, at least one finger blood vessel pattern image, at least one palm blood vessel pattern image, and at least one palm pattern image linked to each other; 상기 촬상된 지문 및 상기 촬상된 손가락 혈관 패턴을 상기 저장된 지문 이미지 및 저장된 손가락 혈관 패턴 이미지와 매칭시키는 매칭부; 및 A matching unit for matching the photographed fingerprint and the photographed finger blood vessel pattern with the stored fingerprint image and the stored finger blood vessel pattern image; And 상기 생체 데이터 저장부로부터 지문 이미지와 손가락 혈관 패턴 이미지를 선택하는 - 상기 선택된 이미지의 특징량은 상기 촬상된 지문 및 상기 촬상된 손가락 혈관 패턴의 특징량에 해당함 - 선택부를 더 포함하고,Selecting a fingerprint image and a finger blood vessel pattern image from the biometric data storage unit, wherein the feature amount of the selected image corresponds to the feature amount of the captured fingerprint and the image of the finger blood vessel pattern; 상기 매칭부는 상기 선택된 각각의 지문 이미지 및 손가락 혈관 패턴 이미지에 해당하는 손바닥 혈관 패턴 및 손바닥 패턴을 상기 촬상된 손바닥 혈관 패턴 및 상기 촬상된 손바닥 패턴과 매칭시키고,The matching unit matches a palm vein pattern and a palm pattern corresponding to each of the selected fingerprint image and the finger vein pattern image with the photographed palm vein pattern and the photographed palm pattern, 상기 매칭부는 상기 매칭 결과에 기초하여 사용자를 인증하는 손바닥 인증 기능을 더 가지는 것을 특징으로 하는 사용자 인증 촬상 장치.The matching unit further comprises a palm authentication function for authenticating a user based on the matching result. 제 7 항에 있어서,The method of claim 7, wherein 상기 손가락 혈관 패턴 이미지에 기초하여, 상기 지문에 대한 촬상 영역의 위치를 설정하는 설정 유닛을 더 포함하는 것을 특징으로 하는 사용자 인증 촬상 장치. And a setting unit for setting the position of the imaging area with respect to the fingerprint based on the finger blood vessel pattern image. 제 9 항에 있어서,The method of claim 9, 상기 손바닥 혈관 패턴 이미지에 기초하여, 상기 손바닥 패턴에 대한 촬상 영역의 위치를 설정하는 설정 유닛을 더 포함하는 것을 특징으로 하는 사용자 인증 촬상 장치.And a setting unit for setting a position of an imaging area with respect to the palm pattern based on the palm vein pattern image. (a) 손바닥 안내 유닛 및 손가락 안내 유닛에 의해 안내된 사용자의 손가락 및 손바닥의 생체 데이터를 촬상하는 단계;(a) imaging the biometric data of the user's finger and the palm guided by the palm guide unit and the finger guide unit; (b) 상기 촬상된 손가락 데이터를 저장 유닛에 저장되어 있는 저장된 손가락 데이터와 매칭시키는 단계;(b) matching the captured finger data with stored finger data stored in a storage unit; (c) 상기 촬상된 손가락 데이터의 특징량 및 상기 저장된 손가락 데이터의 특징량에 기초하여 상기 저장 유닛으로부터 손가락 이미지를 선택하는 단계;(c) selecting a finger image from the storage unit based on the feature amount of the captured finger data and the feature amount of the stored finger data; (d) 상기 저장 유닛으로부터의 상기 선택된 손가락 이미지에 해당하는 손바닥 이미지를 상기 촬상된 손바닥 데이터와 매칭시키는 단계; 및(d) matching a palm image corresponding to the selected finger image from the storage unit with the captured palm data; And (e) 상기 매칭 결과에 기초하여 사용자를 인증하는 단계를 포함하는 것을 특징으로 하는 사용자 인증 방법.(e) authenticating a user based on the matching result. 사용자 인증 방법을 장치에 실행시키기 위한 프로그램을 구현한 컴퓨터 판독 가능한 매체로서,A computer readable medium embodying a program for executing a user authentication method on a device, 상기 사용자 인증 방법은,The user authentication method, (a) 손바닥 안내 유닛 및 손가락 안내 유닛에 의해 안내된 사용자의 손가락 및 손바닥의 생체 데이터를 촬상하는 단계;(a) imaging the biometric data of the user's finger and the palm guided by the palm guide unit and the finger guide unit; (b) 상기 촬상된 손가락 데이터를 저장 유닛에 저장되어 있는 저장된 손가락 데이터와 매칭시키는 단계;(b) matching the captured finger data with stored finger data stored in a storage unit; (c) 상기 촬상된 손가락 데이터의 특징량 및 상기 저장된 손가락 데이터의 특징량에 기초하여 상기 저장 유닛으로부터 손가락 이미지를 선택하는 단계;(c) selecting a finger image from the storage unit based on the feature amount of the captured finger data and the feature amount of the stored finger data; (d) 상기 저장 유닛으로부터의 상기 선택된 손가락 이미지에 해당하는 손바닥 이미지를 상기 촬상된 손바닥 데이터와 매칭시키는 단계; 및(d) matching a palm image corresponding to the selected finger image from the storage unit with the captured palm data; And (e) 상기 매칭 결과에 기초하여 사용자를 인증하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 판독 가능한 매체.(e) authenticating a user based on the matching result. 사용자의 손바닥 및 손가락의 촬상 영역의 생체 데이터를 촬상하는 촬상 유닛;An imaging unit which picks up biometric data of an imaging area of a user's palm and finger; 동일한 사용자로부터 적어도 하나의 손가락 이미지 및 적어도 하나의 손바닥 이미지를 저장하는 이미지 저장 유닛; 및An image storage unit for storing at least one finger image and at least one palm image from the same user; And 상기 촬상된 손가락 데이터 및 상기 촬상된 손바닥 데이터를 상기 저장된 손가락 이미지 데이터 및 상기 저장된 손바닥 이미지 데이터와 매칭시키는 매칭 유닛을 포함하고,A matching unit for matching the photographed finger data and the photographed palm data with the stored finger image data and the stored palm image data; 상기 매칭 유닛은,The matching unit, 상기 촬상된 손가락 데이터와 관련된 수치와 상기 저장된 손가락 이미지와 관련된 수치의 비교에 기초하여 상기 저장 유닛으로부터 손가락 이미지를 선택하는 선택 유닛; 및A selection unit for selecting a finger image from the storage unit based on a comparison of the numerical value associated with the captured finger data with the numerical value associated with the stored finger image; And 상기 촬상된 손바닥 데이터를 상기 선택된 손가락 이미지에 해당하는 상기 저장된 손바닥 이미지 데이터와 매칭시킨 결과에 기초하여 사용자를 인증하는 인증 유닛을 포함하는 것을 특징으로 하는 사용자 인증 촬상 장치.And an authentication unit for authenticating a user based on a result of matching the photographed palm data with the stored palm image data corresponding to the selected finger image.
KR1020090029763A 2008-04-08 2009-04-07 Imaging apparatus and method for authentication of user KR101021838B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090029763A KR101021838B1 (en) 2008-04-08 2009-04-07 Imaging apparatus and method for authentication of user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2008-100872 2008-04-08
KR1020090029763A KR101021838B1 (en) 2008-04-08 2009-04-07 Imaging apparatus and method for authentication of user

Publications (2)

Publication Number Publication Date
KR20090107422A KR20090107422A (en) 2009-10-13
KR101021838B1 true KR101021838B1 (en) 2011-03-17

Family

ID=41537232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090029763A KR101021838B1 (en) 2008-04-08 2009-04-07 Imaging apparatus and method for authentication of user

Country Status (1)

Country Link
KR (1) KR101021838B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107401A (en) 2004-10-08 2006-04-20 Fujitsu Ltd Registration method for biometric authentication system, biometric authentication system, and program for it
JP2006331441A (en) 2006-07-19 2006-12-07 Hitachi Omron Terminal Solutions Corp Image capturing device or personal authentication device
JP2007200051A (en) 2006-01-27 2007-08-09 Hitachi Eng Co Ltd Personal identification device
JP2008073377A (en) 2006-09-25 2008-04-03 Hitachi Ltd Finger vein authentication input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107401A (en) 2004-10-08 2006-04-20 Fujitsu Ltd Registration method for biometric authentication system, biometric authentication system, and program for it
JP2007200051A (en) 2006-01-27 2007-08-09 Hitachi Eng Co Ltd Personal identification device
JP2006331441A (en) 2006-07-19 2006-12-07 Hitachi Omron Terminal Solutions Corp Image capturing device or personal authentication device
JP2008073377A (en) 2006-09-25 2008-04-03 Hitachi Ltd Finger vein authentication input device

Also Published As

Publication number Publication date
KR20090107422A (en) 2009-10-13

Similar Documents

Publication Publication Date Title
TWI393066B (en) Imaging apparatus and method for authentication of user
JP5186929B2 (en) Authentication imaging device
US10659456B2 (en) Method, device and computer program for authenticating a user
JP5034359B2 (en) Image authentication apparatus, image authentication method, image authentication program, recording medium, and electronic device
EP2009578B1 (en) Finger vein authentication unit and information processing unit
KR101050301B1 (en) Finger vein authentication device
KR100867491B1 (en) Personal authentication device
EP3055693B1 (en) Miniaturized optical biometric sensing
TWI407377B (en) Biometric information processing device
JP5521304B2 (en) Imaging apparatus, imaging program, imaging method, authentication apparatus, authentication program, and authentication method
JP5609970B2 (en) Control access to wireless terminal functions
US7813532B2 (en) Apparatus and method for recognizing fingerprint dually
KR101701559B1 (en) Image correction apparatus, image correction method, and biometric authentication apparatus
CN100585616C (en) Authentication apparatus and authentication method
WO2019151368A1 (en) Biometric authentication device, system, method and recording medium
CN101482922A (en) Authentication apparatus, authentication method, registration apparatus and registration method
JP4849181B2 (en) Authentication imaging apparatus, authentication imaging method, and authentication imaging program
JP2008005854A (en) Vein authentication device
KR101021838B1 (en) Imaging apparatus and method for authentication of user
WO2007029592A1 (en) Image processing device, image judgment method, and program
JP5182341B2 (en) Personal authentication apparatus and method
JP5791119B2 (en) Authentication imaging apparatus and authentication imaging method
KR20200053792A (en) Payment method and system using bio credit card

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140220

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160219

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170221

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee