WO2023218551A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2023218551A1
WO2023218551A1 PCT/JP2022/019920 JP2022019920W WO2023218551A1 WO 2023218551 A1 WO2023218551 A1 WO 2023218551A1 JP 2022019920 W JP2022019920 W JP 2022019920W WO 2023218551 A1 WO2023218551 A1 WO 2023218551A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
wavelength range
infrared
wavelength
image processing
Prior art date
Application number
PCT/JP2022/019920
Other languages
English (en)
French (fr)
Inventor
壮一 ▲浜▼
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2022/019920 priority Critical patent/WO2023218551A1/ja
Publication of WO2023218551A1 publication Critical patent/WO2023218551A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to an image processing device, an image processing method, and an image processing program.
  • Biometric authentication is a technology that uses biometric features such as fingerprints, faces, and veins to verify a person's identity.
  • vein authentication is a technology that acquires biometric characteristics by photographing subcutaneous vein patterns, and because it uses information inside the body, it has the characteristic of being highly secure compared to fingerprint authentication, facial authentication, etc.
  • Patent Documents 1 to 3 Technologies related to vein authentication are known (for example, Patent Documents 1 to 3).
  • JP2007-86868A Japanese Patent Application Publication No. 2008-257553 International Publication No. 2013/136553
  • the present invention aims to reduce differences between images of a living body taken with different systems.
  • An image processing device includes a first image of a living body photographed in a first wavelength range, and a second image of a living body photographed in a second wavelength range on the longer wavelength side than the first wavelength range.
  • a second image is obtained, and an infrared wavelength image in which a living body is photographed in a wavelength range in the infrared wavelength range on the longer wavelength side than the second wavelength range
  • the degree of matching with the infrared wavelength image is and a control unit that generates an image by subtracting the first image from the second image at a ratio determined based on the first image.
  • FIG. 3 is a diagram illustrating images of a palm taken using various systems.
  • FIG. 3 is a diagram illustrating generation of a vein image from an image obtained with a visible light camera.
  • FIG. 1 is a diagram illustrating a block configuration of a verification system according to an embodiment.
  • FIG. 6 is a diagram illustrating adjustment of k' according to the embodiment.
  • FIG. 3 is a diagram illustrating an operational flow of k' determination processing according to the embodiment.
  • FIG. 2 is a diagram illustrating a hardware configuration of a computer for realizing a control unit of an infrared sensor, a control unit of a visible light sensor, and a control unit of an image processing device according to an embodiment.
  • vein authentication a living body's vein pattern is photographed.
  • a wavelength range called the biological window which easily passes through the living body, is used.
  • infrared light that reaches the inside of the living body is often used as the irradiating light.
  • a living body has a multilayered structure made up of skin and internal structures, its appearance can be expressed using a dichroic reflection model. That is, when an object is irradiated with light, the returned light is a mixture of light that is reflected on the surface and light that is diffused inside and then returns. Therefore, when a living body is irradiated with light and observed, both surface-reflected light that reflects on the surface of the living body and internally scattered light that is scattered inside and then returns are observed.
  • vein patterns can be obtained by observing the light that is scattered and returned inside.
  • the light reflected from the surface does not contain information about the vein pattern. Therefore, for the purpose of obtaining a vein pattern, if a surface reflection component is included in an image obtained by photographing an internal scattering (internal diffusion) component, it is preferable to remove the surface reflection component as much as possible.
  • the amount of surface reflection components included in the photographed image may vary depending on the system configuration, such as the observation wavelength range of the sensor used for photographing and the method of illumination.
  • FIG. 1 is a diagram illustrating palm images taken using various systems.
  • FIG. 1A shows an example of an image of a palm photographed using diffused illumination.
  • specular reflection is less likely to occur, so it is possible to photograph with a relatively small amount of surface reflection component relative to internal scattering component. Therefore, in FIG. 1(a), the vein pattern is clearly visible, and surface information such as palm wrinkles is faintly visible.
  • FIG. 1(b) illustrates an image of a palm photographed using spot illumination.
  • condensed illumination such as spot illumination
  • specular reflection tends to be visible and the amount of surface reflection components included in the image tends to increase. Therefore, in FIG. 1(b), the vein pattern is faintly visible, and surface information such as palm wrinkles is clearly visible.
  • FIG. 1(c) exemplifies an image of a palm photographed using polarized light.
  • surface reflection and internal scattering can be separated using polarization characteristics.
  • a technique disclosed in document: Japanese Patent Laid-Open No. 2016-177686 can be used.
  • the biological characteristics that can be obtained from images may vary depending on the imaging system.
  • veins are photographed using multiple wavelengths in the visible light range instead of infrared light.
  • JP 2017-174342 a vein image that is internal information is obtained by removing surface information from an image in which surface reflection and internal scattering are mixed, obtained with a visible light camera.
  • a process for removing surface information from an image obtained by a visible light camera in which surface reflection and internal scattering are mixed will be illustrated.
  • the red (R) image contains a mixture of surface information and internal information (vein information).
  • the blue (B) image contains almost only surface information. Therefore, by subtracting the brightness of the blue image at an appropriate rate from the brightness of the red image, it is possible to obtain a vein image with reduced surface reflection components.
  • FIG. 2 is a diagram illustrating the generation of a vein image from an image obtained with a visible light camera.
  • FIG. 2 illustrates a red image containing both surface information and internal information, a blue image containing surface information, and a vein image generated using them.
  • the red image shows surface information such as wrinkles on the surface of the palm and internal information such as veins inside the hand.
  • the blue image includes surface information such as wrinkles included on the surface of the palm.
  • a vein image can be obtained by removing surface information from the red image.
  • the coefficient k can be set, for example, by adjusting the surface reflection component of the red image to be as small as possible.
  • vein authentication it may be difficult to use a vein pattern photographed using a method different from the method in which the vein pattern was registered for verification.
  • the embodiments described below provide a technique for accurately matching vein patterns obtained using different wavelength ranges. For example, it is possible to match a vein pattern obtained using an infrared sensor with a vein pattern obtained using visible light with high precision. Therefore, images acquired by different systems can be used for comparison, making it possible to improve work efficiency and reduce costs.
  • the embodiments will be described in further detail below.
  • FIG. 3 is a diagram illustrating a block configuration of the verification system 300 according to the embodiment.
  • FIG. 3 illustrates a case where an image obtained by infrared illumination and an infrared camera is compared with an image obtained by a visible light camera.
  • Verification system 300 includes, for example, an infrared sensor 301, a visible light sensor 302, and an image processing device 303.
  • the infrared sensor 301 is, for example, a sensor that takes an infrared wavelength image, and includes a control unit 311, an infrared illumination 312, and an infrared camera 313.
  • the control unit 311 controls each part of the infrared sensor 301, such as an infrared illumination 312 and an infrared camera 313, for example.
  • the control unit 311 emits infrared light from an infrared illumination 312 and photographs the returned light with an infrared camera 313.
  • the visible light sensor 302 is, for example, a sensor that captures visible light images, and includes a visible light camera 322 that captures three RGB (red, green, and blue) images, and a visible light camera 322 that captures three images of RGB (red, green, and blue).
  • the sensor 302 includes a control section 321 that controls each section of the sensor 302.
  • the control unit 321 photographs the returned ambient light using the visible light camera 322.
  • the visible light sensor 302 may include visible light illumination.
  • the image processing device 303 includes, for example, a control unit 331, and the control unit 331 acquires images obtained by the infrared sensor 301 and the visible light sensor 302, and collates the biological characteristics of the images.
  • the infrared wavelength image obtained by the infrared sensor 301 and the visible light image obtained by the visible light sensor 302 are obtained using different methods, so the biological features included in the images may differ slightly.
  • the inventor believes that one of the causes of decreasing the accuracy of matching between different systems is the surface reflection observed due to differences in the system configuration, such as the observation wavelength range of the sensor used for imaging and the method of illumination. We believe that this is due to the difference in the ratio between the amount of light and the amount of internal scattering.
  • the amount of surface information left in the vein image is determined based on the amount of surface information of the other party's image to be compared. Adjust according to the amount of surface information.
  • the coefficient k is set so that the surface information of the red image becomes approximately 0 in the vein image.
  • the coefficient k is decreased, the amount of surface information to be subtracted will be reduced, and the surface information will remain in the obtained vein image.
  • the size of k is adjusted to k' in accordance with the amount of surface information in the image of the matching partner, such as an image taken with the infrared camera 313.
  • k' is, for example, a coefficient indicating the ratio of the blue image to be subtracted from the red image.
  • FIG. 4 is a diagram illustrating the adjustment of k' according to the embodiment.
  • Figure 4(a) illustrates an image taken using polarized light (left), an image taken using diffused illumination (middle), and an image taken using spot illumination (right). .
  • FIG. 4(b) shows an example of an image generated by adjusting the value of k' in accordance with the image of FIG. 4(a).
  • the image (left) taken using polarized light in FIG. 4(a) contains almost no surface information. Therefore, in FIG. 4(b), the image is generated by adjusting k ⁇ 1.0 so that surface information is removed as much as possible.
  • the image (middle) taken using diffused illumination in FIG. 4(a) shows some surface information. Therefore, in FIG. 4(b), the image is generated by adjusting the value of k' to k ⁇ 0.5 so that the same amount of surface information is included.
  • the image (right) taken using spot illumination in FIG. 4(a) shows a lot of surface information. Therefore, in FIG. 4B, the image is generated by adjusting the value of k' to k ⁇ 0.0 so that the same amount of surface information is included.
  • the amount of surface information included in the two images to be matched can be made equal. . Therefore, matching accuracy can be improved.
  • the embodiment is not limited to this.
  • the value of k' may be determined directly without using the value of k so that the degree of match with the image taken with infrared light is high.
  • k' can be determined in advance.
  • the infrared sensor 301 is often equipped with infrared illumination, and in this case, the characteristics of the illumination are unique to the device. Therefore, if the vein patterns obtained by photographing the same palm are compared using the infrared sensor 301 and the visible light sensor 302 and k' is determined to have the highest degree of matching, the value of k' will remain the same from then on. can be used. Therefore, in one example, the value of k' may be obtained in advance, and the obtained value may be stored in advance in a storage device or the like included in the image processing device 303 that performs matching of two images.
  • the configuration of the device that acquires images used for verification may not be known in advance.
  • the value of k' may be determined each time the verification is performed. For example, by providing the red image and blue image acquired by the visible light camera 322 to the image processing device 303 for matching instead of the value of k', the red image and blue image and the image of the matching partner can be used. The value of k' can be determined so as to increase the degree of matching and used for matching.
  • the value of k' may be determined between two systems in which the two images to be compared are taken, or the value of k' may be determined from a plurality of values of k' obtained by a plurality of systems having similar configurations. A representative value (for example, an average value) may be obtained and used as the value of k' for the entire plurality of systems.
  • the value of k' may be determined using machine learning, or may be determined by a method such as majority voting using the matching score as a reliability factor for weighting.
  • FIG. 5 is a diagram illustrating an operational flow of k' determination processing according to the embodiment.
  • the control unit 331 of the image processing device 303 may start the operation flow shown in FIG. 5 when an instruction to execute the k' determination process is input.
  • step 501 (hereinafter, step will be abbreviated as "S", for example, S501), the control unit 331 of the image processing device 303 acquires an infrared wavelength image.
  • the control unit 331 may acquire an image photographed by the infrared sensor 301.
  • control unit 331 acquires a visible light image.
  • control unit 331 may acquire an image captured by the visible light sensor 302.
  • control unit 331 sets an initial value to ⁇ .
  • control unit 331 compares the obtained image with the infrared wavelength image and records the score obtained as a result of the comparison.
  • the verification and calculation of the verification score can be performed using an existing vein authentication algorithm.
  • the match score may be calculated to be a higher value as the degree of match between the biometric features of the two images is higher.
  • control unit 331 can scan the value of the coefficient k' by changing the value of ⁇ multiplied by k in the range of 0.0 to 1.0. can.
  • control unit 331 selects ⁇ that is the maximum score among the scores recorded in S505.
  • control unit 331 compares the image generated at k' determined using the selected value of ⁇ with the infrared wavelength image, and outputs the comparison result. For example, the control unit 331 may output matching success when the score indicating the degree of matching is equal to or higher than a predetermined threshold as a result of matching, and may output matching failure when the score is less than the threshold. When the matching result is output, this operation flow ends.
  • the control unit 331 may select ⁇ that gives the minimum score in S508, and determines that the matching is successful in S509 if the score is less than or equal to the threshold. It's fine.
  • control unit 331 can determine the value of k' and execute the comparison so that the degree of matching between the two images used for the comparison is high. Therefore, it is possible to prevent verification from failing or from decreasing verification accuracy due to differences in the amount of surface information due to differences in system configurations.
  • the embodiment it is possible to authenticate images obtained by different systems. For example, it becomes possible to accurately match vein patterns of images acquired using different wavelength ranges. Therefore, according to the embodiment, it is possible to operate different sensors in a mixed manner, and it is possible to reduce costs by using various systems.
  • the embodiments are not limited thereto.
  • the above-described operational flow is an example, and the embodiments are not limited thereto.
  • the operational flow may be executed by changing the order of processing, may include additional processing, or may omit some processing.
  • k' is calculated by k ⁇ , but in another embodiment, the value of k' can be directly increased, such as by gradually increasing the value of k' from 0.0. It may be replaced with scanning processing.
  • the infrared region used for biometric authentication may be, for example, the near-infrared region. That is, for example, the term infrared may be replaced by near-infrared.
  • an example is described in which an image is generated from a red image and a blue image acquired by the visible light camera 322 and used for comparison with an infrared wavelength image, but the embodiment is limited to this. It's not a thing.
  • the image that can be used as an image containing hand surface information is not only a blue image, but also light in other wavelength ranges (for example, the first wavelength range) if it does not contain much internal scattering component.
  • An image (eg, sometimes referred to as a first image) can be used. That is, for example, the first wavelength range may be a green region instead of a blue region, and processing may be performed using an RGB green (G) image.
  • images that can be used as images that include hand surface information and internal information are not limited to only red images.
  • an image obtained by photographing light in another wavelength range e.g., a second wavelength range
  • a second wavelength range e.g., called a second image
  • the second wavelength range may be a wavelength range on the longer wavelength side than the first wavelength range.
  • the image used as a comparison target for the image generated from the first image and the second image is not limited to an infrared wavelength image.
  • an image captured with light in a wavelength range for example, an infrared wavelength range
  • it may be an image captured in another wavelength range.
  • the image processing in the embodiments described above may be performed on a luminance image, for example.
  • the brightness of a blue image captured in the blue wavelength range of visible light is multiplied by a coefficient k' and then subtracted from the luminance of the red image captured in the red wavelength range of visible light. It may be a process.
  • FIG. 6 is a diagram illustrating the hardware configuration of a computer 600 for realizing the control unit 311 of the infrared sensor 301, the control unit 321 of the visible light sensor 302, and the control unit 331 of the image processing device 303 according to the embodiment. It is.
  • the hardware configuration in FIG. 6 includes, for example, a processor 601, a memory 602, a storage device 603, a reading device 604, a communication interface 606, and an input/output interface 607. Note that the processor 601, memory 602, storage device 603, reading device 604, communication interface 606, and input/output interface 607 are connected to each other via a bus 608, for example.
  • the processor 601 may be, for example, a single processor, a multiprocessor, or a multicore. Further, the processor 601 uses the memory 602, for example, to execute a program that describes the procedure of the above-described operational flow. Thereby, the processor 601 provides some or all of the functions of the control unit 311 of the infrared sensor 301, the control unit 321 of the visible light sensor 302, or the control unit 331 of the image processing device 303 described above. For example, the processor 601 of the image processing device 303 operates as the control unit 331 by reading and executing a program stored in the storage device 603.
  • the memory 602 is, for example, a semiconductor memory, and may include a RAM area and a ROM area.
  • the storage device 603 is, for example, a hard disk, a semiconductor memory such as a flash memory, or an external storage device. Note that RAM is an abbreviation for Random Access Memory. Further, ROM is an abbreviation for Read Only Memory.
  • the reading device 604 accesses the removable storage medium 605 according to instructions from the processor 601.
  • the removable storage medium 605 is realized by, for example, a semiconductor device, a medium through which information is input/output by magnetic action, a medium through which information is input/output by optical action, or the like.
  • the semiconductor device is, for example, a USB (Universal Serial Bus) memory.
  • a medium in which information is input/output by magnetic action is, for example, a magnetic disk.
  • Examples of media on which information is input and output through optical action include CD-ROMs, DVDs, and Blu-ray Discs (Blu-ray is a registered trademark).
  • CD is an abbreviation for Compact Disc.
  • DVD is an abbreviation for Digital Versatile Disk.
  • the memory 602, the storage device 603, and the removable storage medium 605 may operate as a storage unit of the image processing device 303.
  • the storage device 603 of the image processing device 303 stores a red image and a blue image or the value of the coefficient k'.
  • the storage device 603 of the image processing device 303 stores infrared wavelength images.
  • the communication interface 606 communicates with other devices according to instructions from the processor 601.
  • the communication interface 606 of the image processing device 303 may send and receive data to and from other devices such as the infrared sensor 301 and the visible light sensor 302 through wired communication, wireless communication, communication via a network, and the like.
  • the input/output interface 607 is, for example, an interface between an input device and an output device.
  • the input device is, for example, a device such as a keyboard, mouse, or touch panel that receives instructions from a user.
  • the output device is, for example, a display device such as a display, and an audio device such as a speaker.
  • Each program according to the embodiment is provided to the control unit 311 of the infrared sensor 301, the control unit 321 of the visible light sensor 302, and the control unit 331 of the image processing device 303, for example, in the following format.
  • the hardware configuration of the computer 600 for realizing the control unit 311 of the infrared sensor 301, the control unit 321 of the visible light sensor 302, and the control unit 331 of the image processing device 303 described with reference to FIG. This is an example, and the embodiments are not limited thereto. For example, some of the configurations described above may be deleted, or new configurations may be added. Further, for example, some or all of the functions of the control unit 311 of the infrared sensor 301, the control unit 321 of the visible light sensor 302, and the control unit 331 of the image processing device 303 described above may be implemented using FPGA, SoC, ASIC, PLD, etc. It may also be implemented as hardware.
  • FPGA Field Programmable Gate Array
  • SoC is an abbreviation for System-on-a-chip.
  • ASIC is an abbreviation for Application Specific Integrated Circuit.
  • PLD is an abbreviation for Programmable Logic Device.
  • Verification system 301 Infrared sensor 302: Visible light sensor 303: Image processing device 311: Control unit 312: Infrared illumination 313: Infrared camera 321: Control unit 322: Visible light camera 331: Control unit 600: Computer 601 : Processor 602 : Memory 603 : Storage device 604 : Reading device 605 : Removable storage medium 606 : Communication interface 607 : Input/output interface 608 : Bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一実施形態に係る画像処理装置は、第1の波長域で生体が撮影された第1画像と、第1の波長域よりも長波長側にある第2の波長域で生体が撮影された第2画像と、第2の波長域よりも長波長側の赤外波長域にある波長域で生体が撮影された赤外波長画像とを取得した場合、赤外波長画像との一致度に基づき決定される割合で第1画像を、第2画像から減じて画像を生成する、制御部を含む。

Description

画像処理装置、画像処理方法および画像処理プログラム
 本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。
 生体認証は、指紋、顔、静脈などの生体特徴を用いて本人確認をおこなう技術である。この中で、静脈認証は皮下の静脈パターンを撮影して生体特徴を取得する技術で、体内の情報を用いるため、指紋認証および顔認証などと比較して安全性が高いという特徴がある。
 そして、静脈認証に関連する技術が知られている(例えば、特許文献1から特許文献3)。
特開2007-86868号公報 特開2008-257553号公報 国際公開第2013/136553号
 ところで、静脈を撮影するためのさまざまなシステムが提案されている。例えば、可視光を撮影する可視光カメラを用いるシステム、および赤外光を撮影する赤外カメラを用いるシステムなどがある。そして、例えば、撮影に用いるセンサの観測波長域および照明の当て方といったシステムの構成が異なる場合、同じ手のひらを撮影しても、得られる生体特徴に差異がでてしまうことがある。そのため、異なるシステムで取得された生体特徴を、照合に用いることが難しいことがある。
 1つの側面では、本発明は、異なるシステムで生体が撮影された画像の差異を低減することを目的とする。
 本発明の一つの態様の画像処理装置は、第1の波長域で生体が撮影された第1画像と、第1の波長域よりも長波長側にある第2の波長域で生体が撮影された第2画像と、第2の波長域よりも長波長側の赤外波長域にある波長域で生体が撮影された赤外波長画像とを取得した場合、赤外波長画像との一致度に基づき決定される割合で第1画像を、第2画像から減じて画像を生成する、制御部を含む。
 異なるシステムで生体が撮影された画像の差異を低減することができる。
様々なシステムを用いて撮影された手のひらの画像を例示する図である。 可視光カメラで得られた画像からの静脈画像の生成を例示する図である。 実施形態に係る照合システムのブロック構成を例示する図である。 実施形態に係るk’の調整を例示する図である。 実施形態に係るk’の決定処理の動作フローを例示する図である。 実施形態に係る赤外センサの制御部、可視光センサの制御部、および画像処理装置の制御部を実現するためのコンピュータのハードウェア構成を例示する図である。
 以下、図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、複数の図面において対応する要素には同一の符号を付す。
 静脈認証では、生体の静脈パターンが撮影される。撮影に用いる光の波長域には、例えば、生体を透過しやすい生体の窓と呼ばれる波長域が利用されている。
 例えば、生体に光を照射して撮影を行う場合、照射する光には、生体内部まで到達する赤外光がしばしば用いられる。生体は皮膚と内部構造とから形成される多層構造を有するため、その見え方は二色性反射モデルで表現することができる。すなわち、物体に光を照射した場合の戻り光は、表面で反射する光と内部で拡散してから戻る光とが混ざり合った光となる。そのため、生体に光を照射して観測すると、生体の表面で反射する表面反射の光と内部で散乱してから戻る内部散乱の光との両方が観測される。
 静脈は皮下にあるため、内部で散乱して戻る光を観測することで静脈パターンを得ることができる。表面で反射する光には静脈パターンの情報は含まれていない。そのため、静脈パターンを取得するという目的においては、内部散乱(内部拡散)の成分を撮影した画像に表面反射の成分が含まれている場合には、表面反射の成分はできるだけ取り除くことが好ましい。
 なお、例えば、撮影に用いるセンサの観測波長域および照明の当て方といったシステムの構成の違いによって、同じ手のひらを撮影しても撮影画像に含まれる表面反射の成分の量は、異なり得る。
 図1は、様々なシステムを用いて撮影された手のひらの画像を例示する図である。図1(a)には、拡散照明を用いて撮影された手のひらの画像が例示されている。例えば、拡散照明を照射して撮影する場合は、鏡面反射が起きにくいため、内部散乱の成分に対する表面反射の成分の量を比較的少なくして撮影することができる。そのため、図1(a)では、静脈パターンがはっきりと写っており、また、手のひらのシワなどの表面情報が薄く写っている。
 また、図1(b)には、スポット照明を用いて撮影された手のひらの画像が例示されている。例えば、スポット照明などの集光した照明を用いて撮影する場合、鏡面反射が見えやすく、画像に含まれる表面反射の成分の量は多くなる傾向がある。そのため、図1(b)では、静脈パターンが薄く写っており、また、手のひらのシワなどの表面情報がはっきりと写っている。
 図1(c)には、偏光を利用して撮影された手のひらの画像が例示されている。例えば、表面反射と内部散乱とは偏光の特性を利用して分離することが可能である。一例として、文献:特開2016-177686に開示される技術を用いることができる。
 例えば、表面で反射する光は偏光状態を保ったまま反射する。一方、内部で拡散する光は偏光状態が不規則に変化した光を合成した光となる。このため、検出器の前に偏光フィルタを置いて、観測するときに照明側と検出側の偏光方向が平行になるように配置すると、表面反射光と内部散乱光のうち照明と平行な成分、すなわち表面反射成分を観測することができる。これに対し、照明側と検出側の偏光方向が直交するように偏光フィルタを配置すると、表面反射の成分はカットされ、内部散乱光の直交成分だけを観測することができる。このように、偏光を用いて撮影を行うことで、光学的に表面反射の光を除去することができ、内部散乱の光だけを観測することができる。そのため、図1(c)では、静脈パターンがはっきりと写っており、また、手のひらのシワなどの表面情報は写っていない。
 このように、撮影のシステムに応じて画像から取得可能な生体特徴は異なり得る。
 また更に、赤外光ではなく、可視光域の複数の波長を用いて静脈を撮影する技術も提案されている。例えば、文献:特開2017-174342に示される技術のように、可視光カメラで得られた表面反射と内部散乱とが混在する画像から表面情報を取り除くことにより、内部情報である静脈画像を得る技術がある。以下、可視光カメラで得られた表面反射と内部散乱とが混在する画像から表面情報を取り除く処理について例示する。
 例えば、文献:「皮膚組織多層構造モデリングと光伝搬シミュレーション」(相津、日本機械学会誌、2011.7、Vol.114 No.1112)などに記載されるように、波長に応じた皮膚内への光侵達の傾向が調べられている。そして、青色光は皮膚にほとんど侵達せず、一方、赤色光は皮膚内に侵達する傾向があることが知られている。
 そのため、例えば、可視光画像を撮影する可視光カメラで撮影したRGB(赤、緑、青)の3枚の画像のうち、赤(R)画像は表面情報と内部情報(静脈情報)とを混在して含んでおり、青(B)画像はほとんど表面情報だけを含んでいる。そのため、赤画像の輝度から、青画像の輝度を適切な割合で減ずることにより、表面反射の成分を低下させた静脈画像を得ることが可能である。
 図2は、可視光カメラで得られた画像からの静脈画像の生成を例示する図である。図2には、表面情報と内部情報とが混在する赤画像と、表面情報を含む青画像と、それらを用いて生成された静脈画像とが例示されている。
 赤画像では、例えば、手のひらの表面に含まれるシワなどの表面情報と、手の内部の静脈などの内部情報とが写っている。また、青画像には、例えば、手のひらの表面に含まれるシワなどの表面情報が写っている。
 そのため、図2および以下の式1に示すように、青画像に適切な係数kを掛けて赤画像から減じることで、赤画像から表面情報を除いて静脈画像を得ることができる。なお、係数kは、例えば、赤画像の表面反射の成分ができるだけ小さくなるように調整することで設定することができる。一例では係数kは、文献:特開2017-174342に例示される技術を用いて決定されてよい。このように可視光を用いて静脈情報を得ることができる。
   [赤画像]-k×[青画像]=[静脈画像]    …式1
 以上で述べたように、静脈の情報を取得するための様々なシステムを利用することができる。一方で、撮影に用いるセンサの観測波長域および照明の当て方といったシステムの構成の違いによって同じ手のひらを撮影しても、撮影画像に含まれる表面反射の量が異なり得る。そのため、静脈認証では、静脈パターンを登録した方式と異なる方式で撮影した静脈パターンを照合に用いることが難しいことがある。
 以下で述べる実施形態では、異なる波長域を用いて取得した静脈パターンを精度よく照合する技術を提供する。例えば、赤外センサを用いて取得した静脈パターンと、可視光を用いて取得した静脈パターンとを高精度に照合することを可能とする。そのため、異なるシステムで取得された画像を照合に利用することができ、業務の効率化およびコストの軽減などを図ることができる。以下、実施形態を更に詳細に述べる。
 図3は、実施形態に係る照合システム300のブロック構成を例示する図である。図3では、赤外照明および赤外カメラで得られた画像と、可視光カメラで得られた画像とを照合する場合を例示している。照合システム300は、例えば、赤外センサ301、可視光センサ302、および画像処理装置303を含む。
 赤外センサ301は、例えば、赤外波長画像を撮影するセンサであり、制御部311、赤外照明312、および赤外カメラ313を含む。制御部311は、例えば、赤外照明312、および赤外カメラ313などの赤外センサ301の各部を制御する。例えば、制御部311は、赤外照明312から赤外域の光を照射し、戻り光を赤外カメラ313で撮影する。
 また、可視光センサ302は、例えば、可視光画像を撮影するセンサであり、RGB(赤・緑・青)の3枚の画像を取得する可視光カメラ322と、可視光カメラ322などの可視光センサ302の各部を制御する制御部321とを備える。例えば、制御部321は、環境光の戻り光を可視光カメラ322で撮影する。なお、図3の例では、環境光の戻り光の可視光域を撮影する場合を例示しているが、別の実施形態では可視光センサ302は、可視光照明を備えてもよい。
 そして、画像処理装置303は、例えば、制御部331を含み、制御部331は、赤外センサ301および可視光センサ302で得られた画像を取得し、画像の生体特徴を照合する。
 なお、上述のように、赤外センサ301で得られた赤外波長画像と、可視光センサ302で得られた可視光画像とは、異なる方式で取得されているため、画像に含まれる生体特徴が微妙に異なってしまうことがある。
 ここで、本発明者は、異なるシステム間での照合の精度を低下させる原因の一つは、撮影に用いるセンサの観測波長域および照明の当て方といったシステムの構成の違いによって観測される表面反射と内部散乱との割合が異なることにあると考えた。
 そこで、以下で述べる実施形態では、例えば、可視光カメラ322で得られた赤画像および青画像から静脈画像を生成する際に、静脈画像に残す表面情報の量を、照合を行う相手方の画像の表面情報の量に合わせて調節する。
 例えば、上述の式1において、係数kは赤画像の表面情報を静脈画像においてほぼ0にするように設定されている。ここで、係数kを小さくすると差し引かれる表面情報の量が減り、得られる静脈画像に表面情報が残ることになる。
 そこで、例えば、赤外カメラ313で撮影された画像などの照合相手の画像における表面情報の量に合わせて、kの大きさをk’に調整する。なお、k’は、例えば、赤画像から差し引く青画像の割合を示す係数である。それにより、例えば、赤外カメラ313で得られた静脈画像に、可視光カメラ322で撮影した画像から得られた静脈画像を近づけることができ、照合精度の向上を図ることができる。
 図4は、実施形態に係るk’の調整を例示する図である。図4(a)には、偏光を用いて撮影された画像(左)、拡散照明を用いて撮影された画像(中)、スポット照明を用いて撮影された画像(右)が例示されている。
 また、図4(b)には、図4(a)の画像に合わせてk’の値を調整して生成された画像が例示されている。例えば、図4(a)の偏光を用いて撮影された画像(左)は、表面情報をほぼ含んでいない。そのため、図4(b)では表面情報ができるだけ取り除かれるようにk×1.0で調整されて画像が生成されている。
 また、図4(a)の拡散照明を用いて撮影された画像(中)は、表面情報が少し写っている。そのため、図4(b)では表面情報が同じ程度含まれるようにk’の値がk×0.5に調整されて画像が生成されている。
 図4(a)のスポット照明を用いて撮影された画像(右)は、表面情報が多く写っている。そのため、図4(b)では表面情報が同じ程度含まれるようにk’の値がk×0.0に調整されて画像が生成されている。
 例えば、以上で述べたように、照合対象の撮影画像における表面情報の量に合わせて、k’の値を調節することで、照合する2つの画像に含まれる表面情報の量を揃えることができる。そのため、照合精度を向上させることができる。
 続いて、k’の決定について説明する。例えば、以下の図5のフローチャートで例示するように、k’の値をk=1.0から0.0の範囲で徐々に変更して走査しながら、照合計算を繰り返し実行し、照合における比較対象の画像との一致度の高いk’を特定することで、k’を決定することができる。
 なお、赤外光と、赤色光とでは、赤外光の方が生体の内部に深く入りやすい傾向があり、赤色光で撮影された画像の方が表面反射の量が多くなる傾向がある。そのため、赤色光で撮影した画像(即ち、k’=k×0.0)と、赤色光で撮影した画像から表面情報をできるだけ取り除いた画像(即ち、k’=k×1.0)との間の範囲に、赤外光で撮影した画像の表面情報の量が存在することが推定できる。それゆえ、kに掛ける係数を0.0~1.0の範囲で走査することでk’の決定を行うこと可能である。
 しかしながら、実施形態はこれに限定されるものではない。例えば、別の実施形態では、kの値を介さずに、赤外光で撮影された画像との一致度が高くなるようにk’の値が直接求められてもよい。
 なお、k’は、一例ではあらかじめ決定しておくことができる。例えば、赤外センサ301は、赤外照明を備えている場合が多く、この場合、照明の特性は装置固有の特性となる。そのため、赤外センサ301と可視光センサ302とで同一の手のひらを撮影して取得した静脈パターンを照合し、最も一致度が高くなるようにk’を決定すれば、以降は同じk’の値を利用することができる。従って、一例では、k’の値は、事前に取得されてよく、得られた値が、2つの画像の照合を実行する画像処理装置303が備える記憶装置などに予め記憶されていてよい。
 一方で、照合に用いる画像を取得する装置の構成が、事前に分からないこともある。この場合、照合を行う際にk’の値がその都度、決定されてもよい。例えば、k’の値ではなく、可視光カメラ322で取得された赤画像および青画像を照合する画像処理装置303に提供することで、赤画像および青画像と、照合相手の画像とを用いて一致度が高くなるようにk’の値を決定して照合に用いることができる。
 また、k’の値は、照合を行う2つの画像が撮影された2つのシステム間で決定されてもよいし、類似する構成を有する複数のシステムで得られた複数のk’の値から、代表値(例えば、平均値)を求めて複数のシステム全体でのk’の値として利用してもよい。或いは、k’の値は、機械学習を用いて決定されてもよいし、照合のスコアを信頼度として重みづけに用いた多数決などの方法で決定されてもよい。
 以下、実施形態に係るk’の決定処理についての例を説明する。図5は、実施形態に係るk’の決定処理の動作フローを例示する図である。例えば、画像処理装置303の制御部331は、k’の決定処理の実行指示が入力されると、図5の動作フローを開始してよい。
 ステップ501(以降、ステップを“S”と記載し、例えば、S501と表記する)において画像処理装置303の制御部331は、赤外波長画像を取得する。例えば、制御部331は、赤外センサ301で撮影された画像を取得してよい。
 S502において制御部331は、可視光画像を取得する。例えば、制御部331は、可視光センサ302で撮影された画像を取得してよい。
 S503において制御部331は、αに初期値を設定する。例えば、制御部331は、初期値としてα=0.0を設定してよい。
 S504において制御部331は、k’=k×αに設定し、得られたk’を式1のkとして用いて可視光画像の赤画像と青画像とから画像を生成する。
 S505において制御部331は、得られた画像と赤外波長画像とを照合し、照合の結果得られるスコアを記録する。なお、照合および照合のスコアの計算は、既存の静脈認証のアルゴリズムを用いて実行することができる。一例では、照合のスコアは、2つの画像の生体特徴の一致度が高いほど高い値に計算されてよい。
 S506において制御部331は、αを所定値だけ変更する(例えば、α=α+0.1)。そして、S507において制御部331は、αが1.0よりも大きくなったか否かを判定する。S507においてαが1.0よりも大きくなっていない場合(S507がNO)、フローはS504に戻る。一方、S507においてαが1.0よりも大きくなっている場合(S507がYES)、フローはS508に進む。
 なお、以上のS504からS507の処理を繰り返すことで、制御部331は、kに掛けるαの値を0.0から1.0の範囲で変更して、係数k’の値を走査することができる。
 S508において制御部331は、S505で記録したスコアのうちで最大のスコアとなるαを選択する。
 S509において制御部331は、選択したαの値を用いて決定したk’で生成された画像を、赤外波長画像と照合して、照合結果を出力する。例えば、制御部331は、照合の結果、一致度を示すスコアが所定の閾値以上である場合に、照合成功を出力してよく、閾値未満の場合に照合失敗を出力してよい。照合結果を出力すると本動作フローは終了する。
 なお、本実施形態では、一致度が高いほど照合のスコアが高くなるように計算される場合を例に説明を行っているが、実施形態はこれに限定されるものではない。例えば、一致度が高いほど低いスコアとなる場合には、制御部331は、S508において最小のスコアとなるαを選択してよく、また、S509ではスコアが閾値以下の場合に照合成功と判定してよい。
 以上で述べたように、制御部331は、照合に用いる2つの画像の一致度が高くなるようにk’の値を決定して照合を実行することができる。そのため、システム構成の違いによる表面情報の量の差異により、照合に失敗したり、照合精度が低下したりしてしまうことを抑制することができる。
 従って、実施形態によれば、異なるシステムで取得された画像間での認証が可能になる。例えば、異なる波長域を用いて取得した画像の静脈パターンを精度よく照合することが可能となる。従って、実施形態によれば、異なるセンサの混在運用が可能となり、様々なシステムを利用することでコストダウンを図ることが可能になる。
 また、実施形態によれば、異なる波長を用いて撮影された生体画像の照合における一致度を向上させることができる。
 以上において、実施形態を例示したが、実施形態はこれに限定されるものではない。例えば、上述の動作フローは例示であり、実施形態はこれに限定されるものではない。可能な場合には、動作フローは、処理の順番を変更して実行されてもよく、別に更なる処理を含んでもよく、または、一部の処理が省略されてもよい。例えば、S503からS504の処理で、k×αによりk’を求めているが、別の実施形態では、k’の値を0.0から徐々に増加させるというように、k’の値を直接走査する処理に置き換えてもよい。
 また、上述の実施形態において、生体認証で利用される赤外域は、例えば、近赤外域であってよい。即ち、例えば、赤外という用語は、近赤外に置き換えられてもよい。
 また、上述の実施形態では、可視光カメラ322で取得した赤画像と青画像とから画像を生成し、赤外波長画像との照合に用いる例を述べているが実施形態はこれに限定されるものではない。例えば、手の表面情報を含む画像として利用可能な画像は青画像だけではなく、内部散乱の成分をあまり含んでいなければその他の波長域(例えば、第1の波長域)の光を撮影する画像(例えば、第1画像と呼ぶことがある)を用いることができる。即ち、例えば、第1の波長域は、青色領域ではなく、緑色領域であってもよく、RGBの緑(G)画像を用いて処理が実行されてもよい。また、例えば、手の表面情報と内部情報とを含む画像として利用可能な画像は赤画像だけに限定されるものではない。例えば、実施形態は、表面反射の成分と内部情報の成分とを両方含んでいれば、その他の波長域(例えば、第2の波長域)の光を撮影した画像(例えば、第2画像と呼ぶことがある)を用いることができる。なお、第2の波長域は、第1の波長域よりも長波長側にある波長域であってよい。
 また、第1の画像と第2の画像とから生成される画像との照合相手として用いる画像も、赤外波長画像に限定されるものではない。例えば、第2の波長域よりも長波長側にある波長域(例えば、赤外波長域)の光を撮影した画像であれば、その他の波長域で撮影した画像であってもよい。
 また、上述の実施形態における画像処理は、例えば、輝度画像に対して実行されてよい。例えば、赤画像から青画像を減算する処理は、可視光の赤色波長域を撮影した赤画像の輝度から、可視光の青色波長域を撮影した青画像の輝度に係数k’を乗じて減算する処理であってよい。
 図6は、実施形態に係る赤外センサ301の制御部311、可視光センサ302の制御部321、および画像処理装置303の制御部331を実現するためのコンピュータ600のハードウェア構成を例示する図である。図6のハードウェア構成は、例えば、プロセッサ601、メモリ602、記憶装置603、読取装置604、通信インタフェース606、および入出力インタフェース607を備える。なお、プロセッサ601、メモリ602、記憶装置603、読取装置604、通信インタフェース606、入出力インタフェース607は、例えば、バス608を介して互いに接続されている。
 プロセッサ601は、例えば、シングルプロセッサであっても、マルチプロセッサやマルチコアであってもよい。また、プロセッサ601は、例えば、メモリ602を利用して上述の動作フローの手順を記述したプログラムを実行する。それにより、プロセッサ601は、上述した赤外センサ301の制御部311、可視光センサ302の制御部321、または画像処理装置303の制御部331の一部または全部の機能を提供する。例えば、画像処理装置303のプロセッサ601は、記憶装置603に格納されているプログラムを読み出して実行することで、制御部331として動作する。
 メモリ602は、例えば半導体メモリであり、RAM領域およびROM領域を含んでいてよい。記憶装置603は、例えばハードディスク、フラッシュメモリ等の半導体メモリ、または外部記憶装置である。なお、RAMは、Random Access Memoryの略称である。また、ROMは、Read Only Memoryの略称である。
 読取装置604は、プロセッサ601の指示に従って着脱可能記憶媒体605にアクセスする。着脱可能記憶媒体605は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体などにより実現される。なお、半導体デバイスは、例えば、USB(Universal Serial Bus)メモリである。また、磁気的作用により情報が入出力される媒体は、例えば、磁気ディスクである。光学的作用により情報が入出力される媒体は、例えば、CD-ROM、DVD、Blu-ray Disc等(Blu-rayは登録商標)である。CDは、Compact Discの略称である。DVDは、Digital Versatile Diskの略称である。
 また、例えば、メモリ602、記憶装置603、および着脱可能記憶媒体605は、画像処理装置303の記憶部として動作してよい。例えば、画像処理装置303の記憶装置603には、赤画像および青画像あるいは係数k’の値が格納されている。また、例えば、画像処理装置303の記憶装置603には、赤外波長画像が格納されている。
 通信インタフェース606は、プロセッサ601の指示に従って、他の装置と通信する。例えば、画像処理装置303の通信インタフェース606は、有線通信、無線通信、およびネットワークを介した通信などにより、赤外センサ301、可視光センサ302などの他の装置とデータを送受信してよい。
 入出力インタフェース607は、例えば、入力装置および出力装置との間のインタフェースである。入力装置は、例えばユーザからの指示を受け付けるキーボード、マウス、タッチパネルなどのデバイスである。出力装置は、例えばディスプレーなどの表示装置、およびスピーカなどの音声装置である。
 実施形態に係る各プログラムは、例えば、下記の形態で赤外センサ301の制御部311、可視光センサ302の制御部321、および画像処理装置303の制御部331に提供される。
(1)記憶装置603に予めインストールされている。
(2)着脱可能記憶媒体605により提供される。
(3)プログラムサーバなどのサーバから提供される。
 なお、図6を参照して述べた赤外センサ301の制御部311、可視光センサ302の制御部321、および画像処理装置303の制御部331を実現するためのコンピュータ600のハードウェア構成は、例示であり、実施形態はこれに限定されるものではない。例えば、上述の構成の一部が、削除されてもよく、また、新たな構成が追加されてもよい。また、例えば、上述の赤外センサ301の制御部311、可視光センサ302の制御部321、および画像処理装置303の制御部331の一部または全部の機能がFPGA、SoC、ASIC、およびPLDなどによるハードウェアとして実装されてもよい。なお、FPGAは、Field Programmable Gate Arrayの略称である。SoCは、System-on-a-chipの略称である。ASICは、Application Specific Integrated Circuitの略称である。PLDは、Programmable Logic Deviceの略称である。
 以上において、いくつかの実施形態が説明される。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態および代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨および範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態が実施され得ることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して、または実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
300 :照合システム
301 :赤外センサ
302 :可視光センサ
303 :画像処理装置
311 :制御部
312 :赤外照明
313 :赤外カメラ
321 :制御部
322 :可視光カメラ
331 :制御部
600 :コンピュータ
601 :プロセッサ
602 :メモリ
603 :記憶装置
604 :読取装置
605 :着脱可能記憶媒体
606 :通信インタフェース
607 :入出力インタフェース
608 :バス
 

 

Claims (5)

  1.  第1の波長域で生体が撮影された第1画像と、前記第1の波長域よりも長波長側にある第2の波長域で前記生体が撮影された第2画像と、前記第2の波長域よりも長波長側の赤外波長域にある波長域で前記生体が撮影された赤外波長画像とを取得した場合、前記赤外波長画像との一致度に基づき決定される割合で前記第1画像を、前記第2画像から減じて画像を生成する、
    制御部を含む、画像処理装置。
  2.  前記画像から得られた静脈パターンと、前記赤外波長画像から得られた静脈パターンとを照合に用いることを特徴とする、請求項1に記載の画像処理装置。
  3.  前記第1の波長域は青色を示す波長域であり、前記第2の波長域は赤色を示す波長域であることを特徴とする、請求項1に記載の画像処理装置。
  4.  コンピュータが実行する画像処理方法であって
      第1の波長域で生体が撮影された第1画像と、前記第1の波長域よりも長波長側にある第2の波長域で前記生体が撮影された第2画像と、前記第2の波長域よりも長波長側の赤外波長域にある波長域で前記生体が撮影された赤外波長画像とを取得した場合、前記赤外波長画像との一致度に基づき決定される割合で前記第1画像を、前記第2画像から減じて画像を生成する、
    ことを特徴とする画像処理方法。
  5.  第1の波長域で生体が撮影された第1画像と、前記第1の波長域よりも長波長側にある第2の波長域で前記生体が撮影された第2画像と、前記第2の波長域よりも長波長側の赤外波長域にある波長域で前記生体が撮影された赤外波長画像とを取得した場合、前記赤外波長画像との一致度に基づき決定される割合で前記第1画像を、前記第2画像から減じて画像を生成する、
    処理をコンピュータに実行させる画像処理プログラム。
     

     
PCT/JP2022/019920 2022-05-11 2022-05-11 画像処理装置、画像処理方法および画像処理プログラム WO2023218551A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/019920 WO2023218551A1 (ja) 2022-05-11 2022-05-11 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/019920 WO2023218551A1 (ja) 2022-05-11 2022-05-11 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2023218551A1 true WO2023218551A1 (ja) 2023-11-16

Family

ID=88729946

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/019920 WO2023218551A1 (ja) 2022-05-11 2022-05-11 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
WO (1) WO2023218551A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174342A (ja) * 2016-03-25 2017-09-28 富士通株式会社 生体画像処理装置及び生体画像処理方法
JP2019128630A (ja) * 2018-01-22 2019-08-01 株式会社 日立産業制御ソリューションズ 生体認証装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174342A (ja) * 2016-03-25 2017-09-28 富士通株式会社 生体画像処理装置及び生体画像処理方法
JP2019128630A (ja) * 2018-01-22 2019-08-01 株式会社 日立産業制御ソリューションズ 生体認証装置

Similar Documents

Publication Publication Date Title
JP6607755B2 (ja) 生体撮影装置および生体撮影方法
Kose et al. Reflectance analysis based countermeasure technique to detect face mask attacks
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
JP5292821B2 (ja) 静脈画像取得装置および静脈画像取得方法
JP2023138534A (ja) 画像処理装置、画像処理方法、顔認証システム及びプログラム
TWI390451B (zh) Registration device, registration method, authentication device and authentication method
JP2009187520A (ja) 認証装置、認証方法、登録装置及び登録方法
US9858490B2 (en) Vein authentication method, image processing method, and vein authentication device
US20150254443A1 (en) Method and system for enforced biometric authentication
JP5780053B2 (ja) 生体認証装置、生体認証方法、及びプログラム
KR20090058460A (ko) 인증 장치 및 인증 방법
KR101622065B1 (ko) 생체 인증 장치, 생체 인증 방법 및 기억 매체
US11704937B2 (en) Iris authentication device, iris authentication method and recording medium
JPWO2012020718A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Drahanský Liveness detection in biometrics
JPWO2017038191A1 (ja) 生体判別装置、生体判別方法及び生体判別プログラム
Crisan et al. Low cost, high quality vein pattern recognition device with liveness Detection. Workflow and implementations
WO2008143271A1 (ja) 登録装置、照合装置、プログラム及びデ-タ構造
WO2023218551A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6904635B2 (ja) 複屈折ベースの生体認証のための方法及び装置
Yambay et al. Livdet 2017-fingerprint systems liveness detection competition
Darlow et al. Performance analysis of a hybrid fingerprint extracted from optical coherence tomography fingertip scans
Shahriar et al. An iris-based authentication framework to prevent presentation attacks
FR3078793A1 (fr) Procede d'authentification d'un visage base sur la reflectance
JP6878826B2 (ja) 撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22941632

Country of ref document: EP

Kind code of ref document: A1