WO2022096934A2 - 홍채 인식 방법 및 장치 - Google Patents

홍채 인식 방법 및 장치 Download PDF

Info

Publication number
WO2022096934A2
WO2022096934A2 PCT/IB2021/000947 IB2021000947W WO2022096934A2 WO 2022096934 A2 WO2022096934 A2 WO 2022096934A2 IB 2021000947 W IB2021000947 W IB 2021000947W WO 2022096934 A2 WO2022096934 A2 WO 2022096934A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
pupil
light
reflection
authentication
Prior art date
Application number
PCT/IB2021/000947
Other languages
English (en)
French (fr)
Other versions
WO2022096934A3 (ko
Inventor
김대훈
백승민
전병진
윤용철
조준영
통 응우옌쫑
Original Assignee
아이리텍 잉크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이리텍 잉크 filed Critical 아이리텍 잉크
Publication of WO2022096934A2 publication Critical patent/WO2022096934A2/ko
Publication of WO2022096934A3 publication Critical patent/WO2022096934A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Definitions

  • the present disclosure relates to a method and apparatus for recognizing an iris, and relates to a method and apparatus for recognizing an iris using retinal reflection seen from a pupil to determine whether it is a live human eye when an image of an eye of a recognition target is captured with the iris recognition apparatus. .
  • Iris recognition technology is being used for privacy and security. Identify real and fake iris because fake users attempt to impersonate real users by using fake iris, such as printed iris images, photos of iris images, eye models, and contact lenses with printed iris patterns. technology is becoming more and more important.
  • Korean Patent Registration No. 10-1417415 discloses a technical matter for a method of determining whether an iris is an actual iris or a fake iris by using an optical image reflected in the eye according to the ON/OFF of the IR LED. For example, the 10-1417415 determines whether the iris is an actual iris by using a number or sequence where multiple IR light sources are reflected like dots on the pupil.
  • Korean Patent Registration No. 10-1417415 has a disadvantage in that a large number of iris images must be used and it is difficult to determine whether the iris is an actual iris or a fake iris image using one or two iris images.
  • Patent Document 1 Korean Patent Registration No. 10-1417415
  • an iris when an iris is recognized for user authentication, it is possible to protect personal information and improve security by authenticating the user by determining whether the iris is an actual iris.
  • the iris recognition method includes the steps of driving a first light source configured to cause pupil reflection in the pupil of the authentication target to irradiate a first light to the authentication target, and a first image of the authentication target to which the first light is irradiated obtaining, detecting whether there is the pupil reflection on the first image, driving a second light source different from the first light source and configured not to cause the pupil reflection in the pupil of the authentication target irradiating a second light to the authentication target, acquiring a second image of the authentication target irradiated with the second light, detecting whether there is the pupil reflection on the second image, and the second image and determining the authentication target as a living user based on a detection result of whether the pupil reflection is present on the first image and the second image, respectively.
  • the authentication target in response to detecting the presence of the pupil reflection on the first image and the absence of the pupil reflection on the second image, the authentication target as a living user determining; and performing iris recognition using the second image in response to determining that the authentication target is a living user.
  • the iris recognition method includes: in response to detecting that there is no pupil reflection on the first image, determining the authentication target as a non-living object; acquiring a second image of the authentication target irradiated with the second light in response to detecting that there is the pupil reflection on the first image; detecting whether there is the pupil reflection on the second image; and in response to detecting the absence of the pupil reflection on the second image, determining the object to be authenticated as a living object.
  • the method in response to determining the authentication target as a living object, the method further includes performing iris recognition using the second image.
  • the iris recognition method comprises: irradiating a first light to the authentication target by driving a first light source configured to cause pupil reflection in the pupil of the authentication target; acquiring an image of the authentication target; detecting whether the pupil reflection is present on the image of the object to be authenticated; in response to detecting that the pupil reflection is on the image of the authentication object, determining the authentication object to be a living object; and performing iris recognition using the image of the authentication subject having the pupil reflection in response to determining the authentication subject as a living user.
  • the step of performing iris recognition using the image of the authentication target having the pupil reflection includes inverting a gradation value of a pixel value in the region where the pupil reflection occurs and detecting the region where the pupil reflection occurs.
  • the iris recognition method in response to detecting that the pupil reflection is absent on the image of the authentication object, sets the authentication object to a non-living object It further comprises the step of determining.
  • the iris recognition method includes: obtaining an area of the pupil based on the image of the authentication target; detecting the reflected light of the first light existing on the pupil based on the image of the object to be authenticated; and determining that there is the pupil reflection in response to detecting the reflected light in 50% or more of the area of the pupil.
  • the detecting of whether there is pupil reflection includes: detecting reflected light of the first light existing on the pupil based on the image of the authentication target; comparing an area of the reflected light of the first light existing on the pupil with a preset value; and determining that there is the pupil reflection in response to determining that the area of the reflected light is equal to or greater than the preset value.
  • the iris recognition apparatus includes: a first light source configured to cause a pupil reflection in a pupil of an authentication target; a second light source different from the first light source and configured not to cause the pupil reflection in the pupil of the authentication target; a camera including an image sensor for acquiring an image of an iris and a pupil of an authentication target; and a controller for controlling the first light source, the second light source, and the camera.
  • the controller drives the first light source to irradiate the first light to the authentication target; driving the camera to obtain a first image of the authentication target irradiated with the first light; detect whether there is a pupil reflection on the first image; driving the second light source to irradiate a second light to the authentication target; driving the camera to obtain a second image of the authentication target irradiated with the second light; detecting whether there is a pupil reflection on the second image; and determine the authentication target as a living user based on a detection result of whether there is the pupil reflection on the first image and the second image.
  • a distance between the first light source and the camera is shorter than a distance between the second light source and the camera.
  • the controller determines, in response to detecting the presence of the pupil reflection on the first image and the absence of the pupil reflection on the second image, as a living object; and perform iris recognition using the second image in response to determining the authentication object as a living object.
  • the controller determines, in response to detecting the absence of the pupil reflection on the first image, as a non-living object; in response to detecting that there is the pupil reflection on the first image, acquiring a second image of the authentication target irradiated with the second light; detecting whether there is a pupil reflection on the second image; and in response to detecting the absence of the pupil reflection on the second image, determine the object of authentication as a living object.
  • the controller is configured to perform iris recognition using the second image in response to determining the authentication object as a living object.
  • iris recognition technology In iris recognition technology, when light incident through the pupil is reflected from the retina, passes through the pupil again and is reflected by the image sensor, almost the entire pupil part is colored other than black, for example, red or white, which is the original color of the pupil.
  • 'pupil reflection' a visible phenomenon
  • the present disclosure can perform iris recognition by discriminating a fake iris image or a fake iris image even with one or two iris images by intentionally using the pupil reflection.
  • the real iris and the imitation iris can be quickly and easily obtained using the iris image with pupil reflection and the iris image without pupil reflection by arranging the light source in two places, a position where pupil reflection necessarily occurs and a position where pupil reflection does not occur. can be distinguished
  • FIG. 1 is a block diagram of an iris recognition apparatus according to an embodiment of the present disclosure.
  • FIG. 2 is an image of an authentication target obtained by driving only a light generating pupil reflection of the iris recognition apparatus according to an embodiment of the present disclosure.
  • FIG 3 is an image of an authentication target obtained by driving only illumination that does not generate a pupil reflection of the iris recognition apparatus according to an embodiment of the present disclosure.
  • FIG. 4 is an image obtained by cutting the image of FIG. 2 to fit the ISO regulation format (VGA) required for iris recognition.
  • VGA ISO regulation format
  • FIG. 5 is an image obtained by cutting the image of FIG. 3 to fit the ISO regulation format (VGA) required for iris recognition.
  • VGA ISO regulation format
  • FIG. 7 is a diagram illustrating a relationship between light irradiated from an iris recognition apparatus and pupil reflection of an eyeball according to an exemplary embodiment of the present disclosure.
  • FIG. 8 is a flowchart of a method for recognizing an iris according to an embodiment of the present disclosure.
  • FIG. 1 is a block diagram of an iris recognition apparatus according to an embodiment of the present disclosure.
  • the iris recognition apparatus 100 includes a lens 102 , an image sensor 104 , a controller 105 , first light sources 106 and 106 ′, and second light sources 108 and 108 ′. do.
  • the iris recognition apparatus 100 may recognize an iris from the user's eye 110 and authenticate the user using the iris recognition apparatus 100 .
  • the iris recognition apparatus 100 irradiates light from at least one of the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ to the eye 110 , and the reflected light is imaged through the lens 102 .
  • the lens 102 may include a lens having a fixed focal length, but is not limited thereto, and may have an auto-focusing function.
  • the image sensor 104 may convert an image obtained through the lens 102 into an electrical signal and transmit it to the controller 105 .
  • the image sensor 104 may be a charge-coupled device (CCD) sensor or a complementary metal-oxide semiconductor (CMOS) sensor.
  • CCD charge-coupled device
  • CMOS complementary metal-oxide semiconductor
  • the controller 105 analyzes which part of the image sensor 104 forms an image such as the eye 1 1 0 , the iris, and the pupil, and the first light source 106 , 106 ′ and the second light source 108 , 108 . ') can be controlled.
  • the controller 105 may control the on/off operation of at least one of the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′, the irradiation angle of the light source, the intensity of irradiated light, and the like.
  • the controller 105 may obtain the iris code from the electrical signal obtained from the image sensor 104 and perform authentication using the obtained code.
  • the iris image is subjected to polar coordinate transformation and then subdivided into appropriate regions, and the subdivided regions have respective feature points included in the iris images of users.
  • Feature points of users may be converted by a frequency conversion method (eg, Gabor transform, Haar transform, etc.) for each subdivided area using an appropriate method (algorithm) to generate an iris code.
  • a frequency conversion method eg, Gabor transform, Haar transform, etc.
  • an iris code obtained by frequency-converting feature points of the iris is stored in a database interworking with the iris recognition device.
  • the iris code is configured to be used as an iris comparison target during user authentication.
  • the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ may irradiate light to the eye 110 .
  • the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ may radiate infrared rays to the eye 110 .
  • the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ may be formed on the body of the iris recognition apparatus 100 or may be physically separated from the iris recognition apparatus 100 .
  • the first light source 106, 106' and the second light source 108, 108' may be an LED light source.
  • the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ may be light sources by placing LEDs on a substrate of the main body of the iris recognition apparatus 100 or using a separate LED board.
  • the first light source 106, 106' and the second light source 108, 108' may be different light sources.
  • the first light sources 106 and 106 ′ and the second light sources 108 and 108 ′ may be disposed one at each side of the iris recognition apparatus 100 .
  • the first light sources 106 and 106' or the second light sources 108 and 108' disposed on both sides may be alternately driven. That is, an image can be created per iris image frame by alternating two light sources one by one. This is to prevent an illumination image from being generated in the iris image due to the reflection of the glasses, thereby interfering with the iris authentication.
  • FIG. 2 is an image of an authentication target obtained by driving only the first light sources 106 and 106', which are illuminations that generate pupil reflection of the iris recognition apparatus according to an embodiment of the present disclosure.
  • the image of the object reflected by the light enters through the pupil and is focused on the retina, and this image is transmitted to the optic nerve so that the person can see the object.
  • the pupil is the part where the image of the object reflected by the light enters. Since the retina reflects direct light (illumination), the light reflected from the retina (reflected light) may go out again through the pupil and be incident on the image sensor. In this case, the pupil may appear bright or red as a whole as shown in FIG. 2 . This phenomenon is called pupil reflex.
  • the present disclosure is not limited thereto, and when the reflected light is detected in 50% or more of the pupil area or the area of the reflected light seen on the pupil image is larger than a preset value, the controller 105 may determine that the pupil reflection has occurred. .
  • FIG. 4 is an image obtained by cutting the image of FIG. 2 to fit the ISO regulation format (VGA) required for iris recognition. Referring to FIG. 4 , it can be clearly seen that the pupil reflection occurs in the pupil.
  • VGA ISO regulation format
  • FIG. 3 is an image of an authentication target obtained by driving only the second light sources 108 and 108', which are lights that do not generate pupil reflection of the iris recognition apparatus according to an embodiment of the present disclosure.
  • the reflection point is different from the pupil reflection that occurs when the light that passes through the pupil is reflected on the retina and returns to the camera or image sensor through the pupil. Therefore, a method of determining whether pupil reflection occurs using an algorithm for discriminating between the reflection point and the pupil reflection may be used.
  • a value corresponding to the size of the reflection point is stored in advance in the iris recognition device or a remote server using data about the size of the reflection point, and the controller determines the size of the reflection point by using the value corresponding to the size of the bright area in the pupil. If it is larger than the value corresponding to , it can be determined that there is a pupil reflex. In an embodiment, when the number of pixels corresponding to the size of the bright area generated in the pupil is greater than the number of pixels corresponding to the size of the reflection point, it may be determined that there is pupil reflection.
  • FIG. 5 is an image obtained by cutting the image of FIG. 3 to fit the ISO regulation format (VGA) required for iris recognition.
  • VGA ISO regulation format
  • FIG. 5 it can be seen that the reflection point exists in the pupil without pupil reflection. Since the ISO format for iris recognition is based on VGA (640x480 pixels), only the iris portion is cropped from the original image size and used.
  • the present disclosure is not limited to the ISO format and may extract the iris/pupil portion from the original image using various methods and standards.
  • FIG. 7 is a diagram illustrating a relationship between light irradiated from an iris recognition apparatus and pupil reflection of an eyeball according to an exemplary embodiment of the present disclosure.
  • the iris recognition apparatus includes a controller (not shown), a camera 103 , a first light source 106 , and a second light source 108 .
  • the camera 103 may include a lens 10,2 and an image sensor 104 shown in FIG.
  • the first light source 106 is disposed at a position where the light irradiated to the eye from the first light source 106 passes through the pupil and is reflected on the retina to enter the camera 103 . Accordingly, as shown in FIGS. 2 and 4 , the light from the first light source 106 may cause pupil reflection. In one embodiment, the first light source 106 is constructed and arranged to necessarily produce a pupil reflection.
  • the configuration and arrangement of the first light source 106 may be changed according to the iris photographing distance, the angle between the light irradiated from the first light source 106 and the iris, etc., but it must be configured to cause pupil reflection are placed In one embodiment, when the iris photographing distance is about 40 cm to 50 cm, the first light source 106 from the center of the camera 103
  • the distance to the center may be about 4 mm to 5 mm.
  • the angle between the central axis of the camera 103 and the irradiated light of the first light source 106 may be about 0 to 1 degree or 0 to 3 degrees.
  • the angle between the irradiated light of the first light source 106 and the central axis of the camera 103 is not limited to the above range.
  • the second light source 108 is disposed at a position where the light irradiated to the eye from the second light source 108 passes through the pupil and is reflected on the retina to not enter the camera 103 . Accordingly, as shown in FIGS. 3 and 5 , the light from the second light source 108 cannot cause pupil reflection.
  • the second light source 108 is constructed and arranged such that it does not necessarily cause pupil reflection.
  • the configuration and arrangement of the second light source 108 may be changed according to the iris photographing distance, the angle between the light irradiated from the second light source 108 and the iris, etc., but is configured not to necessarily cause pupil reflection are placed
  • the distance from the center of the camera 103 to the center of the second light source 108 may be about 4 cm to 5 cm, about 5 cm to 6 cm, or about 6 cm to 7 cm.
  • the angle between the central axis of the camera 103 and the irradiated light of the second light source 108 may be about 14 to 15 degrees, about 13 to 14 degrees, or about 10 to 12 degrees.
  • FIG. 8 is a flowchart of a method 800 for recognizing an iris according to an exemplary embodiment.
  • the iris recognition method 800 may be performed using the iris recognition apparatus 100 illustrated in FIG. 1 .
  • the controller 105 of FIG. 1 may be configured to perform the method shown in FIG. 8 .
  • the order of the steps S802 to S818 for performing the iris recognition method shown in FIG. 8 is exemplary, and the order of the steps may be changed.
  • the first light sources 106 and 106' are driven to irradiate the first light to the authentication target (S802).
  • the first light sources 106 and 106' may be configured to cause a pupil reflection in the pupil of the authentication target.
  • the first light sources 106 and 106' may include an infrared light source.
  • the image of the object reflected by the light enters through the pupil and is focused on the retina, and this image is transmitted to the optic nerve so that the person can see the object.
  • the pupil is the part where the image of the object reflected by the light enters. Since the retina reflects direct light (illumination), the light reflected from the retina (reflected light) may go out again through the pupil and be incident on the image sensor. In this case, the pupil may appear bright or red as a whole as shown in FIG. 2 . This phenomenon is called pupil reflex.
  • a first image of the authentication target irradiated with the first light is acquired (S804).
  • the acquisition of the first image may be performed using a charge-coupled device (CCD) sensor or a complementary metal-oxide semiconductor (CMOS) sensor.
  • the first image may be an image including an iris and a pupil.
  • the iris recognition apparatus may calculate center positions of the pupil and the iris, boundary lines, radii, and curve information of the eyelids from the first image. For example, pixels belonging to the iris and the pupil in the first image may be identified.
  • the second light source (108, 108') is driven to irradiate the second light (turn off the first light) to the authentication target (S810).
  • the second light sources 108 and 108' may be configured and arranged so as not to cause a pupil reflection in the pupil of the authentication target.
  • the second light source 108 , 108 ′ may include an infrared light source.
  • a second image of the authentication target irradiated with the second light is acquired (S812).
  • the acquisition of the second image may be performed using a charge-coupled device (CCD) sensor or a complementary metal-oxide semiconductor (CMOS) sensor.
  • the second image may be an image including an iris and a pupil.
  • the iris recognition apparatus may calculate center positions of the pupil and the iris, boundary lines, radii, and curve information of the eyelids from the second image. For example, in the second image, pixels belonging to the iris and the pupil may be identified.
  • iris recognition is performed using the first image and/or the second image (S818).
  • the authentication target is determined as a living user based on a detection result of whether there is a pupil reflection on the first image and the second image, and in response to determining the living user, the first image and/or Alternatively, iris recognition may be performed using the second image.
  • the iris recognition apparatus of the present disclosure may determine the fake iris and the real iris by checking the pupil reflection in the middle of acquiring an image, or by checking the pupil reflection while processing after all future images are acquired. Also, depending on the algorithm, not only the iris part is extracted from the image without the pupil reflection, but only the iris region may be extracted from the image with the pupil reflection.
  • the following method can be used.
  • 1 byte is 8 bits. That is, black and white are expressed by configuring the image depth with a value of 0 to 255. In this case, 0 corresponds to black, 255 corresponds to white, the closer to 0, the darker, and the closer to 255, the brighter the color.
  • the corresponding value of the pupil portion may be about 0 to 20 in border detection that separates the pupil and the iris portion.
  • the value corresponding to the pupil portion may be in the range of about 120 to 255. Accordingly, by changing or inverting (eg, grayscale inversion) the existing algorithm for detecting pixels corresponding to 0 to 20 as pupils, pixels corresponding to 120 to 255 may be detected as pupils. For example, you can invert 255 to 0 and 254 to 1.
  • inverting eg, grayscale inversion
  • the imitation iris of FIG. 6 is a fake iris printed with an image including the user's iris.
  • the imitation iris of FIG. 6 has no pupil reflexes and only the reflection points are printed.
  • the imitation iris of FIG. 6 since pupil reflection does not occur, using the iris recognition method of the present disclosure, it is possible to determine whether the iris is a fake iris or an actual user. If the image including the iris is a fake iris printed with an image including pupil reflection, even if the fake iris is irradiated with light using only a light source that does not cause pupil reflection, the presence of pupil reflection in the fake iris is detected to determine whether the fake iris is a fake iris. It is possible to determine whether it is a real user.
  • the apparatus and method described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component.
  • the devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), a PLU. It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit, microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • OS operating system
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.
  • Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device.
  • the software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave.
  • the software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks.
  • - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • iris recognition device 102 lens
  • controller 106, 106' first light source
  • one or more light sources are installed in front of the iris camera so that the pupil reflection necessarily occurs, or one or more light sources are installed in a position where the pupil reflection does not necessarily occur, so that the pupil reflection is By judging the image recognition that takes place. It may be determined whether the authentication target is a live iris image. Accordingly, it is possible to determine a fake iris only with one or two iris images without continuously judging many iris images, so that it has a very high possibility of commercial use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

홍채 인식 방법은 인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하는 단계, 상기 제1 광이 조사된 상기 인증 대상의 제1 이미지를 획득하는 단계, 상기 제1 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계, 상기 제1 광원과 상이하고 상기 인증 대상의 동공에 상기 동공 반사를 일으키지 않도록 구성된 제2 광원을 구동하여 상기 인증 대상에 제2 광을 조사하는 단계, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하는 단계, 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계 및 상기 제1 이미지 및 상기 제2 이미지 상에 각각 상기 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 상기 인증 대상을 살아있는 사용자로 판정하는 단계를 포함한다.

Description

홍채 인식 방법 및 장치
본 출원은 2020년 9월 29일자로 출원된 한국 특허출원 번호 제10-2020-0127545호에 대한 우선권주장출원으로서, 해당 출원의 명세서 및 도면에 개시된 모든 내용은 인용에 의해 본 출원에 원용된다.
본 개시는 홍채 인식 방법 및 장치에 관한 것으로, 홍채 인식 장치로 인식대상의 눈 이미지를 촬영할 때 살아있는 사람의 눈인지 여부를 판단하기 위하여 동공부분에서 보이는 망막 반사를 이용하는 홍채 인식 방법 및 장치에 관한 것이다.
홍채 인식 기술이 개인정보보호 및 보안을 위해 사용되고 있다. 가짜 사용자가 프린트된 홍채 이미지, 홍채 이미지 사진, 눈 모형, 홍채 패턴이 프린트된 콘텍트 렌즈(contact lens) 등의 모조 홍채를 사용하여 실제 사용자를 사칭하려는 시도가 있기 때문에, 실제 홍채와 모조 홍채를 식별하는 기술의 중요성이 더욱 커지고 있다.
한국 등록특허 제10-1417415호는 IR LED ON/OFF에 따라 눈에 비치는 광 이미지를 사용하여 실제 홍채인지 모조 홍채인지 판단하는 방법에 대한 기술적 사항이 개시되어 있다. 예를 들어, 10-1417415는 동공에 여러 개의 IR 광원이 점과 같이 반사되는 수나 시퀀스를 이용하여 실제 홍채인지를 판단한다. 그러나, 한국 등록특허 제10-1417415호는 많은 수의 홍채 이미지를 사용해야만하고 하나 또는 두 장의 홍채 이미지로 실제 홍채인지 모조 홍채인지 판단하기 힘든 단점이 있다.
(특허문헌 1) 한국 등록특허 제10-1417415호
본 개시의 일 실시예에 의하면, 사용자 인증을 위해 홍채를 인식할 때 실제 홍채인지 여부를 판단하여 사용자를 인증함으로써 개인정보를 보호하고 보안성을 향상시킬 수 있다.
본 개시에서 홍채 인식 방법은 인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하는 단계, 상기 제1 광이 조사된 상기 인증 대상의 제1 이미지를 획득하는 단계, 상기 제1 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계, 상기 제1 광원과 상이하고 상기 인증 대상의 동공에 상기 동공 반사를 일으키지 않도록 구성된 제2 광원을 구동하여 상기 인증 대상에 제2 광을 조사하는 단계, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하는 단계, 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계 및 상기 제1 이미지 및 상기 제2 이미지 상에 각각 상기 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 상기 인증 대상을 살아있는 사용자로 판정하는 단계를 포함한다.
일 실시예에 있어서, 홍채 인식 방법은 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하고 또한 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 사용자로 판정하는 단계; 및 상기 인증 대상을 살아있는 사용자로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하는 단계를 더 포함한다.
일 실시예에 있어서, 홍채 인식 방법은 상기 제1 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하는 단계; 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하는 것에 대응하여, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하는 단계; 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계; 및 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하는 단계를 더 포함한다.
일 실시예에 있어서, 상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하는 단계를 더 포함한다.
일 실시예에 있어서, 홍채 인식 방법은 인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하는 단계; 상기 인증 대상의 이미지를 획득하는 단계; 상기 인증 대상의 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계; 상기 동공 반사가 상기 인증 대상의 이미지 상에 있음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하는 단계; 및 상기 인증 대상을 살아있는 사용자로 판정하는 것에 대응하여, 상기 동공 반사가 있는 상기 인증 대상의 이미지를 사용하여 홍채 인식을 수행하는 단계를 포함한다. 상기 동공 반사가 있는 상기 인증 대상의 이미지를 사용하여 홍채 인식을 수행하는 단계는 상기 동공 반사가 발생한 영역의 화소값의 계조값을 반전시키고 동공 반사가 발생한 영역을 검출하는 단계를 포함한다.
일 실시예에 있어서, 홍채 인식 방법은 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계 후에, 상기 동공 반사가 상기 인증 대상의 이미지 상에 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하는 단계를 더 포함한다.
일 실시예에 있어서, 홍채 인식 방법은 상기 인증 대상의 이미지에 기초하여 상기 동공의 면적을 구하는 단계; 상기 인증 대상의 이미지에 기초하여 상기 동공상에 존재하는 상기 제1 광의 반사광을 검출하는 단계; 및 상기 동공의 면적의 50% 이상에서 상기 반사광이 검출되는 것에 대응하여, 상기 동공 반사가 있는 것으로 판정하는 단계를 더 포함한다.
일 실시예에 있어서 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계는, 상기 인증 대상의 이미지에 기초하여 상기 동공상에 존재하는 상기 제1 광의 반사광을 검출하는 단계; 상기 동공상에 존재하는 상기 제1 광의 반사광의 면적과 미리 설정된 값을 비교하는 단계; 및 상기 반사광의 면적이 상기 미리 설정된 값 이상으로 판정되는 것에 대응하여, 상기 동공 반사가 있는 것으로 판정하는 단계를 포함한다.
일 실시예에 있어서, 홍채 인식 장치는 인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원; 상기 제1 광원과 상이하고 상기 인증 대상의 동공에 상기 동공 반사를 일으키지 않도록 구성된 제2 광원; 인증 대상의 홍채 및 동공의 이미지를 획득하는 이미지 센서를 포함하는 카메라; 및 상기 제1 광원, 상기 제2광원 및 상기 카메라를 제어하는 컨트롤러를 포함한다. 상기 컨트롤러는 상기 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하고; 상기 카메라를 구동하여 상기 제1 광이 조사된 상기 인증 대상의 제1 이미지를 획득하고; 상기 제1 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고; 상기 제2 광원을 구동하여 상기 인증 대상에 제2 광을 조사하고; 상기 카메라를 구동하여 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하고; 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고; 상기 제1 이미지 및 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 상기 인증 대상을 살아있는 사용자로 판정하도록 구성된다.
일 실시예에 있어서, 홍채 인식 장치는 상기 제1 광원과 상기 카메라와의 거리는 상기 제2 광원과 상기 카메라와의 거리보다 짧다. 상기 컨트롤러는 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하고 또한 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하고; 상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하도록 구성된다. 상기 컨트롤러는 상기 제1 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하고; 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하는 것에 대응하여, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하고; 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고; 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하도록 구성된다. 상기 컨트롤러는 상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하도록 구성된다.
홍채 인식 기술에서 동공을 통해 입사한 광이 망막에서 반사되어 동공을 다시 통과해 이미지 센서에 반영되는 경우 동공부분 거의 전체가 동공의 원래 색인 검은색이 아닌 다른 색, 예를 들어 적색 혹은 흰색, 으로 보이는 현상(이하 '동공 반사'라 한다)이 발생하면 홍채 인식에 어려움이 있다. 정확한 홍채 인식을 위해서는 동공과 홍채의 경계를 정확하게 구분하여 홍채 부분만을 데이터로 사용하는 것이 필요하기 때문이다. 이에 따라, 일반적인 홍채 인식 기술은 동공 반사를 회피하도록 홍채 인식 카메라를 설계한다. 동공 반사없이 동공 부분이 명확하게 얻어지는 경우 홍채와 동공을 쉽게 구분할 수 있어 홍채 인식에서 홍채와 동공을 구분(boarder detection)하는 기술의 구현에 유리하기 때문이다. 특히 홍채의 색이 파란색인 경우 동공 반사가 좀 더 쉽게 발생하기 때문에 동공 반사를 회피하도록 홍채 인식 카메라를 설계하는 것이 일반적으로 중요하게 여겨져 왔다.
이와 다르게, 본 개시는 동공 반사를 의도적으로 이용하여 한두 장의 홍채 이미지로도 가짜 홍채 이미지나 모조 홍채를 구별해내고 홍채 인식을 수행할 수 있다. 또한, 본 개시는 광원을 동공 반사가 반드시 일어나는 위치와 동공 반사가 일어나지 않는 위치에 두 군데 배치하여 동공 반사가 일어난 홍채 이미지와 동공 반사가 일어나지 않은 홍채 이미지를 이용하여 실제 홍채와 모조 홍채를 빠르고 쉽게 구별할 수 있다.
도 1은 본 개시의 일 실시예에 따른 홍채 인식 장치의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 홍채 인식 장치의 동공 반사를 만드는 조명만을 구동하고 획득한 인증 대상의 이미지이다.
도 3은 본 개시의 일 실시예에 따른 홍채 인식 장치의 동공 반사를 만들지 않는 조명만을 구동하고 획득한 인증 대상의 이미지이다.
도 4는 도 2의 이미지를 홍채 인식에 필요한 ISO 규정 포맷(VGA)에 맞게 잘라낸 이미지이다.
도 5는 도 3의 이미지를 홍채 인식에 필요한 ISO 규정 포맷(VGA)에 맞게 잘라낸 이미지이다.
도 6은 사용자의 홍채를 포함한 이미지를 프린트한 모조 홍채이다.
도 7은 본 개시의 일 실시예에 따른 홍채 인식 장치로부터 조사되는 광과 안구의 동공 반사와의 관계를 도시한 도면이다.
도8은 본 개시의 일 실시예에 따른 홍채 인식 방법의 순서도이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 개시의 실시예를 첨부한 도면을 참조하여 설명한다. 이하에서 이용되는 "제1" 및 "제2," "상부", "하부", “좌측” 및 “우측” 등과 같은 관계적 용어들은, 그런 실체 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 반드시 요구하거나 내포하지는 않으면서, 어느 한 실체 또는 요소를 다른 실체 또는 요소와 구별하기 위해서만 이용될 수도 있다. 도면에서 각 구성요소의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장되거나 생략되거나 또는 개략적으로 도시되었다. 또한 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것은 아니다.
도 1은 본 개시의 일 실시예에 따른 홍채 인식 장치의 블록도이다.
도 1을 참조하면, 홍채 인식 장치(100)는 렌즈(102), 이미지 센서(104), 컨트롤러(105), 제1 광원(106, 106') 및 제2 광원(108, 108')을 포함한다. 홍채 인식 장치(100)는 사용자의 눈(110)으로부터 홍채를 인식하고 이를 이용하여 사용자를 인증할 수 있다. 홍채 인식 장치(100)는 눈(110)에 적어도 하나의 제1 광원(106, 106') 및 제2 광원(108, 108')로부터 광을 조사하여 반사되는 광을 렌즈(102)를 통해 이미지 센서(104)에 전달함으로써 눈(110)의 이미지 또는 홍채 및 동공의 이미지를 획득할 수 있다. 렌즈(102)는 고정 초점 거리를 갖는 렌즈를 포함할 수 있으나 이에 제한되지 않으며, 자동 초점 조절(Auto Focusing) 기능을 가질 수 있다.
이미지 센서(104)는 렌즈(102)를 통해 수득한 이미지를 전기적 신호로 변환하여 컨트롤러(105)에 전달할 수 있다. 일실시예에서, 이미지 센서(104)는 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서일 수 있다.
컨트롤러(105)는 눈(110), 홍채, 동공 등의 이미지가 이미지 센서(104)의 어떤 부분에서 형성되는지 분석하고, 제1 광원(106, 106') 및 제2 광원(108, 108')의 동작을 제어할 수 있다. 예를 들어, 컨트롤러(105)는 적어도 하나의 제1 광원(106, 106') 및 제2 광원(108, 108')의 온/오프 동작, 광원의 조사각, 조사하는 광의 세기 등을 제어할 수 있다.
컨트롤러(105)는 이미지 센서(104)로부터 수득한 전기신호로부터 홍채의 코드를 획득하고, 이를 이용하여 인증을 수행할 수 있다. 예를 들어, 홍채 이미지를 극좌표 변환을 한 다음 적절한 영역으로 세분화하며, 상기 세분화된 영역들에는 사용자들의 홍채 이미지에 포함된 각각의 특징점들을 가진다. 사용자들의 특징점들은 적절한 방법(알고리즘)을 사용하여 상기 세분화된 영역별로 주파수 변환방법(예들 들면, 가보(Gabor)변환, 하르(Haar)변환 등)으로 변환되어 홍채 코드가 생성될 수 있다. 일 실시예에서, 홍채 인식 장치와 연동하는 데이터베이스에는 홍채의 특징점을 주파수 변환한 홍채 코드가 저장되어 있다. 홍채 코드는 사용자 인증시의 홍채 비교 대상으로 사용되도록 구성되어 있다. 즉, 사용자 홍채 이미지가 주파수 변환에 의하여 하나의 새로운 정보로 가공된 홍채 코드로 데이터베이스에 등록 저장됨으로 사용자들의 홍채 이미지가 저장되어 있는 데이터베이스가 유출되더라도 개인의 정보를 보호할 수 있으며, 저장되는 파일의 크기도 작아져 데이터베이스에 저장되는 메모리 용량도 작아지게 된다. 본 출원인의 특허인 한국 등록특허 제10-0629550호 및 제10-1608316호에 개시되어 있는 방법 및 장치가 눈 이미지로부터 홍채 인증을 수행하는 방법 및 장치로서 본 출원에 참조로 결합된다.
제1 광원(106, 106') 및 제2 광원(108, 108')은 눈(110)에 광을 조사할 수 있다. 예를 들어, 제1 광원(106, 106') 및 제2 광원(108, 108')은 적외선을 눈(110)에 조사할 수 있다. 제1 광원(106, 106') 및 제2 광원(108, 108')은 홍채 인식 장치(100)의 몸체에 형성되거나 홍채 인식 장치(100)와 물리적으로 분리되어 배치될 수 있다. 일 실시예에서, 제1 광원(106, 106') 및 제2 광원(108, 108')은 LED 광원일 수 있다. 예를 들어, 제1 광원(106, 106') 및 제2 광원(108, 108')은 홍채 인식 장치(100)의 본체의 기판에 LED를 배치하거나, 별도의 LED 보드를 사용한 광원일 수 있다. 제1 광원(106, 106')과 제2 광원(108, 108')은 상이한 광원일 수 있다.
일 실시예에서, 도 1에 도시된 것과 같이, 제1 광원(106, 106') 및 제2 광원(108, 108')은 홍채 인식 장치(100)의 양측에 하나씩 배치될 수 있다. 양측에 배치된 제1 광원(106, 106') 또는 제2 광원(108, 108')은 번갈아 가면서 구동될 수 있다. 즉, 2개의 광원을 1개씩 번갈아 가면서 홍채 이미지 프레임당 이미지를 만들 수 있다. 이는 안경 반사에 의해 홍채 이미지에 조명 이미지가 생겨 홍채 인증을 방해하는 것을 방지하기 위함이다.
도 2는 본 개시의 일 실시예에 따른 홍채 인식 장치의 동공 반사를 만드는 조명인 제1 광원(106, 106')만을 구동하고 획득한 인증 대상의 이미지이다. 실제 사람의 안구는 물체를 식별하기 위해서 빛에 의해서 반사된 사물의 영상이 동공을 통해서 들어와 망막에 맺히고 이 영상이 시신경으로 전달되어 사람은 사물을 볼 수 있게 된다. 여기서 동공은 빛에 의해서 반사된 사물의 영상이 들어오는 부분이다. 망막은 직접적인 빛(조명)을 반사하기 때문에 망막에서 반사된 빛(반사광)이 다시 동공을 통해 나가서 이미지 센서에 입사될 수 있다. 이 경우, 도 2와 같이 동공이 전체적으로 밝게 보이거나 붉게 보일 수 있다. 이러한 현상을 동공 반사라 한다. 그러나 이에 한정되지 않고, 본 개시에서 컨트롤러(105)는 동공면적의 50% 이상에서 반사광이 검출되거나, 동공 이미지상에서 보이는 반사광의 면적이 기 설정된 값보다 큰 경우, 동공 반사가 일어난 것으로 판단할 수 있다.
도 4는 도 2의 이미지를 홍채 인식에 필요한 ISO 규정 포맷(VGA)에 맞게 잘라낸 이미지이다. 도 4를 참조하면, 동공에 동공 반사가 일어남을 명확하게 알 수 있다.
도 3은 본 개시의 일 실시예에 따른 홍채 인식 장치의 동공 반사를 만들지 않는 조명인 제2 광원(108, 108')만을 구동하고 획득한 인증 대상의 이미지이다. 도 3을 참조하면, 동공 반사없이 동공에 광원의 반사점이 있음을 알 수 있다. 반사점은 광원이 눈에 비치는 것으로 동공을 통과한 광이 망막에 반사되어 다시 동공을 통해 카메라나 이미지 센서로 돌아와 발생하는 동공 반사와 상이하다. 따라서, 반사점과 동공 반사를 구분하는 알고리즘을 이용하여 동공 반사가 일어나는지 여부를 판정하는 방법을 사용할 수 있다. 예를 들어, 반사점의 크기에 관한 데이터를 이용하여 반사점의 크기에 해당하는 값을 홍채 인식 장치 혹은 원거리 서버에 미리 저장시키고, 컨트롤러는 동공에 생기는 밝은 영역의 크기에 대응되는 값이 상기 반사점의 크기에 해당하는 값 보다 큰 경우 동공 반사가 있는 것으로 판정할 수 있다. 일 실시예에서 반사점의 크기에 해당하는 픽셀의 수보다 동공에 생기는 밝은 영역의 크기에 대응되는 픽셀의 수가 많은 경우 동공 반사가 있는 것으로 판정할 수 있다.
도 5는 도 3의 이미지를 홍채 인식에 필요한 ISO 규정 포맷(VGA)에 맞게 잘라낸 이미지이다. 도 5를 참조하면, 동공 반사없이 반사점이 동공에 존재함을 알 수 있다. 홍채 인식의 ISO 포맷은 VGA(640x480 pixels)를 기준으로 하기 때문에 원본의 이미지 크기에서 홍채 부분만을 크로핑(cropping)하여 사용하게 된다. 본 개시는 ISO 포맷에 한정되지 않고 다양한 방식 및 기준으로 원본 이미지에서 홍채/동공 부분을 추출할 수 있다.
도 7은 본 개시의 일 실시예에 따른 홍채 인식 장치로부터 조사되는 광과 안구의 동공 반사와의 관계를 도시한 도면이다.
도 7을 참조하면, 홍채 인식 장치는 컨트롤러(도시되지 않음), 카메라(103), 제1 광원(106) 및 제2 광원(108)을 포함한다. 카메라(103)는 도1에 도시된 렌즈(10,2) 및 이미지 센서(104)를 포함할 수 있다.
도 7을 참조하면 일 실시예에서, 제1 광원(106)은, 제1 광원(106)로부터 안구에 조사된 광이 동공을 통과하여 망막에 반사되어 카메라(103)에 들어오는 위치에 배치된다. 이에 따라, 도 2 및 도 4에 도시된 것과 같이 제1 광원(106)의 광은 동공 반사를 일으킬 수 있다. 일 실시예에서, 제1 광원(106)은 반드시 동공 반사를 일으키도록 구성되고 배치된다. 일실시예에서, 제1 광원(106)의 구성 및 배치는 홍채 촬영 거리, 제1 광원(106)으로부터 조사된 광과 홍채와의 각도 등에 따라 변경될 수 있으나, 반드시 동공 반사를 일으키도록 구성되고 배치된다. 일 실시예에서, 홍채 촬영 거리가 약 40cm ~ 50cm일때, 카메라(103)중심에서 제1 광원(106)의
중심까지의 거리는 약 4mm~5mm 일 수 있다. 일실시예에서, 카메라(103)의 중심축과 제1 광원(106)의 조사광이 이루는 각도는 약 0~1도, 0~3도 일 수 있다. 그러나, 동공 반사를 일으키는 한 제1 광원(106)의 조사광과 카메라(103)의 중심축이 이루는 각도는 상기 범위로 한정되지 않는다.
도 7을 참조하면, 제2 광원(108)은 제2 광원(108)로부터 안구에 조사된 광이 동공을 통과하여 망막에 반사되어 카메라(103)에 들어오지 않는 위치에 배치된다. 이에 따라, 도 3 및 도 5에 도시된 것과 같이 제2 광원(108)의 광은 동공 반사를 일으킬 수 없다. 일 실시예에서, 제2 광원(108)은 반드시 동공 반사를 일으키지 않도록 구성되고 배치된다. 일실시예에서, 제2 광원(108)의 구성 및 배치는 홍채 촬영 거리, 제2 광원(108)으로부터 조사된 광과 홍채와의 각도 등에 따라 변경될 수 있으나, 반드시 동공 반사를 일으키지 않도록 구성되고 배치된다. 일 실시예에서, 홍채 촬영 거리가 약 40cm ~ 50cm일때, 카메라(103)중심에서 제2 광원(108)의 중심까지의 거리는 약 4cm ~ 5cm, 약 5cm ~ 6cm, 약 6cm ~ 7cm일 수 있다. 일실시예에서, 카메라(103)의 중심축과 제2 광원(108)의 조사광이 이루는 각도는 약 14 ~ 15도, 약 13 ~ 14 도, 약 10 ~ 12도 일 수 있다.
도8은 일 실시예에 따른 홍채 인식 방법(800)의 순서도이다. 홍채 인식 방법(800)은 도 1에 도시된 홍채 인식 장치(100)을 이용하여 수행될 수 있다. 도 1의 컨트롤러(105)는 도 8에 도시된 방법을 수행하도록 구성될 수 있다. 도 8에 도시된 홍채 인식 방법을 수행하기 위한 단계(S802~S818)의 순서는 예시적인 것으로, 단계들의 순서는 변경될 수 있다.
제1 광원(106, 106')을 구동하여 인증 대상에 제1 광을 조사한다(S802). 제1 광원(106, 106')은 인증 대상의 동공에 동공 반사를 일으키도록 구성될 수 있다. 제1 광원(106, 106')은 적외선 광원을 포함할 수 있다. 실제 사람의 안구는 물체를 식별하기 위해서 빛에 의해서 반사된 사물의 영상이 동공을 통해서 들어와 망막에 맺히고 이 영상이 시신경으로 전달되어 사람은 사물을 볼 수 있게 된다. 여기서 동공은 빛에 의해서 반사된 사물의 영상이 들어오는 부분이다. 망막은 직접적인 빛(조명)을 반사하기 때문에 망막에서 반사된 빛(반사광)이 다시 동공을 통해 나가서 이미지 센서에 입사될 수 있다. 이 경우, 도 2와 같이 동공이 전체적으로 밝게 보이거나 붉게 보일 수 있다. 이러한 현상을 동공 반사라 한다.
제1 광이 조사된 인증 대상의 제1 이미지를 획득한다(S804). 일 실시예에서, 제1 이미지의 획득은 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서를 이용하여 수행될 수 있다. 제1 이미지는 홍채 및 동공을 포함하는 이미지일 수 있다. 일실시예에서, 홍채 인식 장치는 제1 이미지로부터 동공 및 홍채의 중심위치, 경계선, 반지름 및 눈꺼풀의 곡선정보 등을 계산할 수 있다. 예를 들어, 제1 이미지 내에서 홍채, 동공에 속하는 픽셀들을 식별할 수 있다.
제1 이미지 상에 동공 반사가 존재하는지 검출한다(S806). 제1 이미지 상에 동공 반사가 존재하지 않는 경우 인증 대상을 모조 홍채로 판정한다(S808). 본 개시에서 컨트롤러는 동공면적이 전체적으로 밝게 혹은 붉은색으로 판정되거나, 동공면적의 50% 이상에서 반사광이 검출되거나, 동공 이미지 상에서 보이는 반사광의 면적이 기 설정된 값보다 큰 경우, 반사광 검출 영역의 픽셀수가 일반적인 반사점의 픽셀수보다 큰 경우(예를 들어 도 3, 도 5 참조) 동공 반사가 일어난 것으로 판단할 수 있다.
제2 광원(108, 108')을 구동하여 인증 대상에 (제1 광을 끄고) 제2 광을 조사한다(S810). 제2 광원(108, 108')은 인증 대상의 동공에 동공 반사를 일으키지 않도록 구성되고 배치될 수 있다. 제2 광원(108, 108')은 적외선 광원을 포함할 수 있다.
제2 광이 조사된 인증 대상의 제2 이미지를 획득한다(S812). 일 실시예에서, 제2 이미지의 획득은 CCD(Charge-Coupled Device) 센서 또는 CMOS(Complementary Metal-Oxide Semiconductor) 센서를 이용하여 수행될 수 있다. 제2 이미지는 홍채 및 동공을 포함하는 이미지일 수 있다. 일실시예에서, 홍채 인식 장치는 제2 이미지로부터 동공 및 홍채의 중심위치, 경계선, 반지름 및 눈꺼풀의 곡선정보 등을 계산할 수 있다. 예를 들어, 제2 이미지 내에서 홍채, 동공에 속하는 픽셀들을 식별할 수 있다.
제2 이미지 상에 동공 반사가 존재하지 않는지 여부를 검출한다(S814). 제2 이미지 상에 동공 반사가 존재하는 경우 인증 대상을 모조 홍채로 판정한다(S816).
제2 이미지 상에 동공 반사가 존재하지 않는 것에 대응하여 제1 이미지 및/또는 제2 이미지를 이용하여 홍채 인식을 수행한다(S818). 일 실시예에 있어서, 제1 이미지 및 제2 이미지 상에 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 인증 대상을 살아있는 사용자로 판정하고, 살아있는 사용자로 판정하는 것에 대응하여, 제1 이미지 및/또는 제2 이미지를 이용하여 홍채 인식을 수행할 수 있다. 본 개시의 홍채 인식 장치는 이미지를 얻는 중간에 동공 반사를 확인하거나 향후 이미지를 모두 얻은 후 처리하면서 동공 반사를 확인하여 모조 홍채와 실제 홍채의 판정을 수행할 수 있다. 또한 알고리즘에 따라서는 동공 반사가 없는 이미지에서 홍채 부분만을 추출하는 것이 아니고 동공 반사가 있는 이미지에서 홍채 영역만을 추출할 수도 있다. 예를 들어, 동공 반사가 있는 이미지에서 홍채 영역을 추출하기 위해 다음과 같은 방법을 사용할 수 있다. 하나의 픽셀을 1바이트로 표현하는 경우, 1바이트는 8비트이다. 즉 0 ~ 255의 값으로 이미지의 심도(depth)를 구성하여 흑백을 표현한다. 이때 0은 검은색, 255는 백색에 해당하고, 0에 가까울수록 어둡고 255에 가까울 수록 밝은색에 해당한다. 동공 반사가 없어 동공이 검은색(혹은 어두운색)으로 표현되는 경우에 동공과 홍채부분을 구분하는 경계 검출(border detection)에서는 동공 부분의 해당하는 값은 약 0 ~ 20 정도일 수 있다. 이와 다르게, 동공 반사로 인해 동공이 백색(혹은 백색에 가까운 밝은 색)으로 검출되는 경우, 동공 부분에 해당하는 값은 약 120 ~ 255 까지로 구성될 수 있다. 따라서, 기존에 0 ~ 20에 해당하는 픽셀을 동공으로 검출하는 알고리즘을 변경 또는 반전(예를 들어, 계조 반전(grayscale inversion))시켜 120 ~ 255에 해당하는 픽셀을 동공으로 검출하도록 할 수 있다. 예를 들어, 255를 0으로, 254를 1로 반전시킬 수 있다.
도 6은 사용자의 홍채를 포함한 이미지를 프린트한 모조 홍채이다. 도 6의 모조 홍채는 동공 반사가 없고, 반사점만이 프린트되어 있다. 도 6의 모조 홍채의 경우 동공 반사가 일어나지 않기 때문에 본 개시의 홍채 인식 방법을 사용하면 모조 홍채인지 실제 사용자인지 판별이 가능하다. 홍채를 포함한 이미지가 동공 반사를 포함하는 이미지를 프린트한 모조 홍채인 경우, 동공 반사가 일어나지 않는 광원만을 사용하여 모조 홍채에 광을 조사하더라도, 상기 모조 홍채에 동공 반사가 있음이 검출되어 모조 홍채인지 실제 사용자인지 판별이 가능하다.
이상에서 설명된 장치 및 방법은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령 (instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
[부호의 설명]
100: 홍채 인식 장치 102: 렌즈
103: 카메라 104: 이미지 센서
105: 컨트롤러 106, 106': 제1 광원
108, 108': 제2 광원 110: 눈
본 개시는 홍채 인식을 할 때 살아있는 홍채인지 여부를 판단하기 위하여 홍채 카메라 전면에 동공 반사가 반드시 일어나도록 하나 이상의 광원을 설치하고 또는 동공 반사가 반드시 일어나지 않는 위치에 하나 이상의 광원을 설치하여 동공 반사가 일어나는 이미지 인지를 판단함으로써. 인증 대상이 살아있는 홍채 이미지인지 판단할 수 있다. 이에 따라, 많은 홍채 이미지를 계속 판단하지 않고 한두장의 홍채 이미지만으로 가짜 홍채를 판단할 수 있어 상업적으로 이용 가능성이 매우 높다.

Claims (13)

  1. 홍채 인식 방법에 있어서,
    인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하는 단계;
    상기 제1 광이 조사된 상기 인증 대상의 제1 이미지를 획득하는 단계;
    상기 제1 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계;
    상기 제1 광원과 상이하고 상기 인증 대상의 동공에 상기 동공 반사를 일으키지 않도록 구성된 제2 광원을 구동하여 상기 인증 대상에 제2 광을 조사하는 단계;
    상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하는 단계;
    상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계; 및
    상기 제1 이미지 및 상기 제2 이미지 상에 각각 상기 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 상기 인증 대상을 살아있는 사용자로 판정하는 단계를 포함하는, 홍채 인식 방법.
  2. 제1항에 있어서,
    상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하고 또한 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 사용자로 판정하는 단계; 및
    상기 인증 대상을 살아있는 사용자로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하는 단계를 더 포함하는, 홍채 인식 방법.
  3. 제1항에 있어서,
    상기 제1 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하는 단계;
    상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하는 것에 대응하여, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하는 단계;
    상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계; 및
    상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하는 단계를 더 포함하는, 홍채 인식 방법.
  4. 제3항에 있어서,
    상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하는 단계를 더 포함하는, 홍채 인식 방법.
  5. 홍채 인식 방법에 있어서,
    인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하는 단계;
    상기 인증 대상의 이미지를 획득하는 단계;
    상기 인증 대상의 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하는 단계;
    상기 동공 반사가 상기 인증 대상의 이미지 상에 있음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하는 단계; 및
    상기 인증 대상을 살아있는 사용자로 판정하는 것에 대응하여, 상기 동공 반사가 있는 상기 인증 대상의 이미지를 사용하여 홍채 인식을 수행하는 단계를 포함하는 홍채 인식 방법으로서,
    상기 동공 반사가 있는 상기 인증 대상의 이미지를 사용하여 홍채 인식을 수행하는 단계는 상기 동공 반사가 발생한 영역의 화소값의 계조값을 반전시키고 동공 반사가 발생한 영역을 검출하는 단계를 포함하는, 홍채 인식 방법.
  6. 제5항에 있어서,
    상기 동공 반사가 있는지 여부에 대하여 검출하는 단계 후에,
    상기 동공 반사가 상기 인증 대상의 이미지 상에 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하는 단계를 더 포함하는, 홍채 인식 방법.
  7. 제5항에 있어서,
    상기 인증 대상의 이미지에 기초하여 상기 동공의 면적을 구하는 단계;
    상기 인증 대상의 이미지에 기초하여 상기 동공상에 존재하는 상기 제1 광의 반사광을 검출하는 단계; 및
    상기 동공의 면적의 50% 이상에서 상기 반사광이 검출되는 것에 대응하여, 상기 동공 반사가 있는 것으로 판정하는 단계를 더 포함하는, 홍채 인식 방법.
  8. 제5항에 있어서,
    상기 동공 반사가 있는지 여부에 대하여 검출하는 단계는,
    상기 인증 대상의 이미지에 기초하여 상기 동공상에 존재하는 상기 제1 광의 반사광을 검출하는 단계;
    상기 동공상에 존재하는 상기 제1 광의 반사광의 면적과 미리 설정된 값을 비교하는 단계; 및
    상기 반사광의 면적이 상기 미리 설정된 값 이상으로 판정되는 것에 대응하여, 상기 동공 반사가 있는 것으로 판정하는 단계를 포함하는, 홍채 인식 방법.
  9. 홍채 인식 장치로,
    인증 대상의 동공에 동공 반사를 일으키도록 구성된 제1 광원;
    상기 제1 광원과 상이하고 상기 인증 대상의 동공에 상기 동공 반사를 일으키지 않도록 구성된 제2 광원;
    인증 대상의 홍채 및 동공의 이미지를 획득하는 이미지 센서를 포함하는 카메라; 및
    상기 제1 광원, 상기 제2광원 및 상기 카메라를 제어하는 컨트롤러를 포함하되,
    상기 컨트롤러는
    상기 제1 광원을 구동하여 상기 인증 대상에 제1 광을 조사하고;
    상기 카메라를 구동하여 상기 제1 광이 조사된 상기 인증 대상의 제1 이미지를 획득하고;
    상기 제1 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고;
    상기 제2 광원을 구동하여 상기 인증 대상에 제2 광을 조사하고;
    상기 카메라를 구동하여 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하고;
    상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고;
    상기 제1 이미지 및 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대한 검출 결과에 기초하여 상기 인증 대상을 살아있는 사용자로 판정하도록 구성된, 홍채 인식 장치.
  10. 제9항에 있어서,
    상기 제1 광원과 상기 카메라와의 거리는 상기 제2 광원과 상기 카메라와의 거리보다 짧은, 홍채 인식 장치.
  11. 제9항에 있어서,
    상기 컨트롤러는 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하고 또한 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하고; 상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하도록 구성된, 홍채 인식 장치.
  12. 제9항에 있어서,
    상기 컨트롤러는 상기 제1 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있지 않은 대상으로 판정하고; 상기 제1 이미지 상에 상기 동공 반사가 있음을 검출하는 것에 대응하여, 상기 제2 광이 조사된 상기 인증 대상의 제2 이미지를 획득하고; 상기 제2 이미지 상에 상기 동공 반사가 있는지 여부에 대하여 검출하고; 상기 제2 이미지 상에 상기 동공 반사가 없음을 검출하는 것에 대응하여, 상기 인증 대상을 살아있는 대상으로 판정하도록 구성된, 홍채 인식 장치.
  13. 제12항에 있어서,
    상기 컨트롤러는 상기 인증 대상을 살아있는 대상으로 판정하는 것에 대응하여, 상기 제2 이미지를 이용하여 홍채 인식을 수행하도록 구성된, 홍채 인식 장치.
PCT/IB2021/000947 2020-09-29 2021-09-29 홍채 인식 방법 및 장치 WO2022096934A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0127545 2020-09-29
KR1020200127545A KR102473523B1 (ko) 2020-09-29 2020-09-29 홍채 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
WO2022096934A2 true WO2022096934A2 (ko) 2022-05-12
WO2022096934A3 WO2022096934A3 (ko) 2022-07-21

Family

ID=81211760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2021/000947 WO2022096934A2 (ko) 2020-09-29 2021-09-29 홍채 인식 방법 및 장치

Country Status (2)

Country Link
KR (1) KR102473523B1 (ko)
WO (1) WO2022096934A2 (ko)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010006976A (ko) * 1999-04-09 2001-01-26 김대훈 홍채인식시스템
KR20030070183A (ko) * 2002-02-21 2003-08-29 엘지전자 주식회사 홍채 인식 시스템의 위조 판별을 위한 등록 및 인식방법
JP2005018405A (ja) * 2003-06-26 2005-01-20 Matsushita Electric Ind Co Ltd 目画像撮像装置
KR101417415B1 (ko) 2012-11-19 2014-07-08 아이리텍 잉크 살아있는 눈 식별 방법 및 장치
KR101548625B1 (ko) * 2014-03-26 2015-09-02 주식회사 이리언스 글린트 제거방법과 이를 이용한 홍채 인식 제어장치
KR102156244B1 (ko) * 2019-02-01 2020-09-15 정진성 동물 홍채 이미지 획득 장치, 그 방법 및 이를 포함하는 동물 홍채인식 시스템

Also Published As

Publication number Publication date
WO2022096934A3 (ko) 2022-07-21
KR102473523B1 (ko) 2022-12-06
KR20220044063A (ko) 2022-04-06

Similar Documents

Publication Publication Date Title
US10943138B2 (en) Systems and methods of biometric analysis to determine lack of three-dimensionality
CN103294993B (zh) 用于识别假脸的装置和方法
US20170091550A1 (en) Multispectral eye analysis for identity authentication
US20160019421A1 (en) Multispectral eye analysis for identity authentication
WO2016010720A1 (en) Multispectral eye analysis for identity authentication
BR112013021160A2 (pt) método e sistema eficientes para a aquisição de imagens de cena e imagens de íris usando um único sensor
WO2019118716A1 (en) Systems and methods of multi-modal biometric analisis
KR20180134280A (ko) 3차원 깊이정보 및 적외선정보에 기반하여 생체여부의 확인을 행하는 얼굴인식 장치 및 방법
KR20090086891A (ko) 적외선을 이용한 얼굴인식 시스템 및 방법
BR122012016165A2 (pt) Acesso controlado a uma funcionalidade de um dispositivo sem fio
JP2000083930A (ja) アイリスを用いた個人識別装置
WO2019163066A1 (ja) なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体
KR101919090B1 (ko) 3차원 깊이정보 및 적외선정보에 기반하여 생체여부의 확인을 행하는 얼굴인식 장치 및 방법
JP2004171350A (ja) 目画像撮影装置およびそれを用いた情報装置
US11182631B2 (en) Information processing method and electronic device
US9946929B2 (en) Method of detecting boundaries of the human eye
JP2004046451A (ja) 目画像撮像装置および個体認証装置
WO2022096934A2 (ko) 홍채 인식 방법 및 장치
CN107491741A (zh) 虹膜识别方法和移动终端
KR20060059566A (ko) 빛 반사를 고려한 영상 처리 장치와 방법 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록매체
KR101410892B1 (ko) 홍채 이미지 추출 방법과 조도 및 홍채 컬러에 따른 홍채 오인식률 개선 방법
Agarwal et al. A comparative study of facial, retinal, iris and sclera recognition techniques
WO2023054757A1 (ko) 홍채 식별 이미지를 생성하는 방법과 이를 위한 서버 및 홍채 인증 방법
WO2023229498A1 (en) Biometric identification system and method for biometric identification
CN108898071A (zh) 一种虹膜-人脸识别设备

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21888745

Country of ref document: EP

Kind code of ref document: A2