WO2009107470A1 - 黒子識別装置、個人認証装置、方法、及び、プログラム - Google Patents

黒子識別装置、個人認証装置、方法、及び、プログラム Download PDF

Info

Publication number
WO2009107470A1
WO2009107470A1 PCT/JP2009/052023 JP2009052023W WO2009107470A1 WO 2009107470 A1 WO2009107470 A1 WO 2009107470A1 JP 2009052023 W JP2009052023 W JP 2009052023W WO 2009107470 A1 WO2009107470 A1 WO 2009107470A1
Authority
WO
WIPO (PCT)
Prior art keywords
mole
image
moles
true
absorption spectrum
Prior art date
Application number
PCT/JP2009/052023
Other languages
English (en)
French (fr)
Inventor
仁 今岡
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2010500632A priority Critical patent/JP5278424B2/ja
Priority to US12/919,061 priority patent/US20110002511A1/en
Publication of WO2009107470A1 publication Critical patent/WO2009107470A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces

Definitions

  • the present invention relates to a mole identification device, method, and program, and more particularly, to a mole identification device, method, and program for extracting mole from a human face image.
  • the present invention also relates to a personal authentication apparatus, method, and program for performing personal authentication using moles extracted from face images.
  • Non-Patent Document 1 Face authentication technology that uses human face images and uses feature points of face images is known. Face authentication that uses nevi appearing on the face and skin of a child such as Kuroko is considered to be an excellent technique because there is little secular change due to nevus.
  • face authentication using a mole there is a technique described in Non-Patent Document 1.
  • Non-Patent Document 1 the degree of separation of the luminance between the central part and the peripheral part of the circular region is obtained, and the degree of separation is assumed to be a mole.
  • Ten moles are extracted from the face image in descending order of the likelihood of moles, and personal authentication is performed based on the similarity of mole positions.
  • a region where the brightness of the central portion is lower than that of the peripheral portion and the area of the dark portion is small is defined as a mole.
  • Patent Document 1 There is a technique described in Patent Document 1 as another technique related to face authentication.
  • Patent Document 1 describes that a facial feature to be searched is designated as a search condition, and a facial image having the designated feature is searched from a facial image database.
  • mole, eyelid, beard, glasses, sex, estimated age, and skin color are listed as search conditions when searching for a face image.
  • a technique for extracting moles there is a technique in which a mole is a region where a predetermined number or more of pixels whose luminance values with a peripheral region are equal to or less than a threshold are gathered.
  • JP 2006-318375 A Kawahara Tomokazu, Yamaguchi Osamu, and Fukui Kazuhiro, “Personal Authentication Using Global Structures of Micro-features on the Face” 5th System Integration Division Scientific Lecture (SI2004), December 17-19, 200419pp. 619-620
  • Patent Document 1 and Non-Patent Document 1 a low brightness area in the face image is used as a mole, and a problem is that the mole and other low brightness areas appearing on the face are not distinguished. For example, when a black dot is written on the face by using pseudo ink or the like, the brightness of the region is low in the grayscale image, and therefore, it is recognized as a mole. Therefore, there is a problem in that when a malicious impersonator adds a mole to the same position as a registered person, it cannot be detected and spoofing can be prevented.
  • An object of the present invention is to provide a mole identification device, a personal authentication device, a method, and a program that can resolve the above problems and can discriminate between true moles and pseudo moles.
  • the present invention includes a step of inputting a multispectral image composed of a plurality of spectra, which is taken using an imaging device, a step of detecting mole candidates from the multispectral image, and the detected mole candidates And a step of identifying whether the mole candidate is a true mole or a pseudo mole based on the absorption spectrum of the mole.
  • the present invention includes a step of inputting a multispectral image composed of a plurality of spectra, which is taken using an imaging device, a step of detecting mole candidates from the multispectral image, and the detected mole candidates Identifying whether a candidate for a mole is a true mole or a pseudo mole, and detecting a position of the mole identified as the true mole; and
  • a personal authentication method including a step of collating face images based on a positional relationship between a position of an identified mole and a mole position detected from a registered image for collation.
  • the present invention relates to an image input means for inputting a multispectral image composed of a plurality of spectra, which is taken using an imaging device, and detects a mole candidate from the multispectral image, and absorbs the detected mole candidate.
  • a mole identification device comprising mole position estimation means for identifying whether a mole candidate is a true mole or a pseudo mole based on a spectrum.
  • the present invention relates to an image input means for inputting a multispectral image composed of a plurality of spectra, which is taken using an imaging device, and detects a mole candidate from the multispectral image, and absorbs the detected mole candidate. Based on a spectrum, a mole position estimation means for identifying whether the mole candidate is a true mole or a pseudo mole, and detecting the position of the mole identified as a true mole; and the true mole
  • a personal authentication device comprising image collation means for collating face images based on the positional relationship between the positions of identified moles and mole positions detected from registered images.
  • the present invention is a program for causing a computer to execute a process of identifying moles included in a face image, and inputs a multispectral image composed of a plurality of spectra, which is captured using an imaging device, to the computer. Processing, detecting a mole candidate from the multispectral image, and determining whether the mole candidate is a true mole or a pseudo mole based on an absorption spectrum of the detected mole candidate.
  • a program for executing identification processing is provided.
  • the present invention is a program for causing a computer to execute a personal authentication process using moles included in a face image, wherein a multi-spectral image composed of a plurality of spectra is captured on the computer using an imaging device.
  • a process for detecting a mole candidate from the multispectral image, and an absorption spectrum of the detected mole candidate the mole candidate is a true mole or a pseudo mole.
  • the position of the mole identified as a true mole, and the positional relationship between the mole position identified as the true mole and the mole position detected from the registered image Provided is a program that executes a process of collating face images.
  • the mole identification device, personal authentication apparatus, method, and program of the present invention can discriminate true moles and pseudo moles from areas that appear to be moles included in a face image.
  • FIG. 1 shows a personal authentication device (system) according to a first embodiment of the present invention.
  • the personal authentication system includes a multispectral image input unit 10, a skin region extraction unit 11, a mole position estimation unit 12, an image collation unit 13, and an identity determination unit 14.
  • the image input means 10 inputs an image used for collation at the time of personal authentication.
  • the image input by the image input means 10 is two or more spectral images (multispectral images) composed of a plurality of spectra.
  • the skin region extraction unit 11 extracts a skin region of the face that does not include the eye, mouth, and hair regions from the multispectral image input by the image input unit 10.
  • the means of the personal authentication system is constituted by one or a plurality of programs stored in a computer-readable recording medium.
  • the mole position estimation means 12 extracts moles from the extracted skin region and estimates mole positions. At this time, a true mole and a pseudo mole are identified based on an average absorption spectrum of each mole.
  • the image collating unit 13 uses a geometric constraint on the positional deviation of moles between images used for collation from the mole positions of the moles detected as true moles by the mole position estimating unit 12. Are compared, and the similarity between the images is calculated.
  • the person determination unit 14 performs threshold processing on the obtained similarity and determines whether or not the target person is the person.
  • FIG. 2 shows the overall operation procedure.
  • the image input means (unit) 10 captures a face image using a multispectral camera that can simultaneously acquire a plurality of spectrum images, and inputs the multispectral image (step A1).
  • the luminance value of the input multispectral image is represented by I (x, ⁇ ) where x is the pixel position in the face image and ⁇ is the wavelength.
  • Nsp face images are obtained.
  • Skin area extracting means 11 extracts a skin area in the face image for each spectrum image (step A2).
  • a face image is blurred to some extent using a Gaussian filter, etc., and a median luminance value in each spectrum is obtained. Extract as skin area.
  • blurring with a Gaussian filter etc. is first performed, so that moles contained in the skin are extracted as skin areas, while areas with different luminance distributions such as eyes, lips, etc. Can be excluded from the skin area.
  • the mole position estimation means 12 detects the mole position from the skin area extracted in step A2 for each spectrum image (step A3). At this time, the mole position estimation means 12 identifies a true mole and a pseudo mole. Compared with a normal skin region, moles including pseudo moles tend to absorb light more strongly in the entire spectrum, and the average luminance is lower. Therefore, first, one gray image is generated from a plurality of spectral images, and a mole-like region is extracted from the gray image. Next, an average absorption spectrum in each spectrum image is obtained for the extracted mole-like region. Then, true moles and pseudo moles are identified by comparing the average absorption spectrum of each mole.
  • FIG. 3 shows the detailed procedure of mole position detection in step A3.
  • the mole position estimation means 12 calculates the average of the luminance values for each pixel over the entire spectrum, and generates a grayscale image (step B1).
  • the luminance value I (x) at the pixel position x of the grayscale image is obtained by the following equation, where I (x, ⁇ ) is the luminance value at the pixel position x of the spectral image of wavelength ⁇ , and Nsp is the number of spectra. .
  • the mole position estimation means 12 obtains the moleiness of each pixel of the light and shade image in order to obtain a mole-like area from the light and shade image generated in Step B1 (Step B2).
  • a value obtained by dividing the luminance of the central pixel by the minimum luminance value of the peripheral pixels included within the radius of 3 pixels is defined as the moleiness. That is, the luminance ratio r between the central pixel and the peripheral pixels defined by the following formula is defined as the moleiness.
  • the center pixel is not included when obtaining the minimum value of the luminance of the peripheral pixels of the denominator in the above formula 1.
  • the mole position estimation means 12 estimates the mole position using the moleiness of each pixel obtained in step B2 (step B3).
  • the moleiness r defined by the above equation 1 takes a large value when the luminance of the central pixel is higher than that of the peripheral pixels, and takes a small value when the luminance of the central pixel is low as compared to the peripheral pixels. Since moles tend to have lower luminance at the center pixel than surrounding pixels, in Step B3, an area having a small moleiness r value is estimated as a mole area. For example, the top N pixels having a small moleiness r value are selected and set as the center position of moles.
  • the mole position estimation means 12 calculates the average absorption spectrum of each mole for each wavelength from each spectrum image for the mole-like area (step B4).
  • step B4 the luminance value of the central pixel x i in the i-th mole among the N moles obtained is set as I (x i , ⁇ ) and included in the radius c from the pixel x i according to the following equation.
  • An average of pixels is obtained, and an average absorption spectrum of moles is calculated for each wavelength.
  • N i is the number of pixels included within a radius c
  • Omega i denotes the set of pixels included within a radius c around the x i.
  • c is a variable indicating the size of moles, and is adjusted to an appropriate value depending on the resolution of the image.
  • the mole whose position is estimated in step B3 includes a pseudo mole in addition to a true mole.
  • the mole position estimation means 12 identifies a pseudo mole by using the fact that there are a plurality of image spectra and comparing the average absorption spectrum of each wavelength (step B5).
  • the pseudo mole is identified as follows. Kuroko is a region having a high melanin concentration in the skin, and thus basically has characteristics similar to the absorption spectrum of the skin.
  • Equation 3 the absorption spectrum of the skin is expressed by the following equation 3.
  • ⁇ s is a set of pixels determined to be a skin region
  • N s is the number of pixels.
  • the absorption spectrum of the mole is approximated by the following formula 4 using the formula 3 and an appropriate coefficient a.
  • I m ( ⁇ ) in Equation 5 includes an unknown coefficient a. Substituting Equation 4 into Equation 5, the coefficient a is canceled by the numerator and denominator, so Equation 5 can be expressed by Equation 6 below.
  • extracted mole determines whether a false moles. That is, a t i calculated by Equation 6, and compared with a predetermined threshold value T, and determines that when t i is equal to or larger than the threshold i th moles are true lentigines, than the threshold When it is small, it is determined to be a pseudo mole.
  • the mole position estimating means 12 detects the moles of the N moles extracted in step B3, excluding moles determined to be pseudo moles, as true moles (step B6). In step B6, if the number of moles determined to be pseudo moles is Nf, the position of (N ⁇ Nf) moles is detected.
  • the image matching means 13 performs a matching process with an image registered in advance in a database (not shown) using the true mole position detected at step A3 (step A4).
  • the registered image registered in the database is the same spectral image as the multispectral image input in step A1. For example, if the wavelength of the input multispectral image is ⁇ 1 and ⁇ 2, two spectral images of wavelengths ⁇ 1 and ⁇ 2 are prepared for the registered image.
  • the identity determination means 14 determines whether or not the subject is the identity based on the collation result in step A4 (step A5).
  • FIG. 4 shows the detailed procedure of the collation process in step A4.
  • the face images used for collation are called registered images and collation images.
  • the registered image is a face image registered in the database in association with user identification information or the like, and the collation image is the face image input in step A1 in FIG. It is assumed that N1 mole positions are obtained from the registered image. Further, it is assumed that N2 mole positions are obtained from the collation image.
  • the mole position of the registered image can be obtained by the same procedure as shown in FIG. 3 when estimating the mole position from the collation image.
  • the mole position of the registered image may be estimated from the registered image each time collation is performed, or may be registered in advance in the database as mole position data.
  • the image collating means 13 searches for corresponding points of moles in the registered image and the collated image (step C1).
  • the face positions and sizes in the registered image and the collation image are normalized in advance using the eye positions and the like.
  • the positions of N1 moles obtained from the registered image are x1 (1), x1 (2),..., X1 (N1).
  • the positions of N2 moles obtained from the collation image are x2 (1), x2 (2),..., X2 (N2).
  • the position coordinates of the mole are represented by a two-dimensional vector.
  • the image matching unit 13 After searching for the corresponding points, the image matching unit 13 obtains a difference vector of the corresponding mole positions (step C2).
  • a difference z1 between the mole position of the corresponding point in the collated image viewed from the registered image and a difference z2 between the mole position of the corresponding point in the registered image viewed from the collated image are obtained.
  • the difference vectors z1 and z2 are expressed by calculation formulas, they can be expressed by the following 7.
  • z1 (i) x1 (i) -x2 (i *)
  • z2 (i) x2 (i) -x1 (i *) (7)
  • the image matching means 13 calculates a weighting coefficient using the distance between moles (step C3).
  • the weight coefficient is a value corresponding to the distance between moles. Desirably, the smaller the distance between moles, the smaller the value.
  • the distance between the i-th mole and the j-th mole in the registered image is expressed by the following equation.
  • the weighting coefficient is defined by the following equation using the distance between moles.
  • the collation image is defined by the following equation using the distance (d 2 , i, j) between moles in the collation image.
  • a weighting coefficient is obtained for all i and j pairs for the registered image and the collated image.
  • the image collating means 13 calculates the similarity between mole positions (step C4). It is considered that the difference vector of the corresponding points between the registered image and the collation image indicates the direction seen by all moles if it is the person himself. Therefore, the following formula 8 is defined as the similarity between mole positions.
  • s0 is a normalization term and is expressed by the following equation.
  • the identity determination means 14 performs identity determination using the similarity s calculated by the image matching means 13 in step A5 of FIG. For example, threshold processing is performed on the degree of similarity, and if it is equal to or greater than the threshold, it is determined that the person is the person, and if it is smaller than the threshold, it is determined that the person is a false person.
  • the input image is a multispectral image having a plurality of wavelengths, and a region that appears to be a mole is extracted from the multispectral image. Then, using the fact that the input image is a multispectral image, true moles and pseudo moles are identified by comparing the average spectra of areas that appear to be moles. Whether it is a true mole or a pseudo mole can be determined using the characteristic that each spectrum image shows an absorption spectrum similar to the skin region. At the time of authentication, pseudo moles are excluded, and moles identified as true moles are used to collate with moles in the registered image. Mismatching can be reduced by not performing matching with pseudo moles. Further, it is possible to prevent “spoofing” caused by a malicious impersonator who puts a false mole, and to reject the intruder.
  • Non-Patent Document 1 uses the similarity based on the position on the image, so the robustness when the posture changes is not sufficient. That is, in Non-Patent Document 1, the performance tends to be greatly reduced in the case of collation other than the same posture.
  • Patent Document 1 only describes that the degree of similarity is calculated for collation between moles, and no consideration is given to the position fluctuation of moles.
  • the degree of similarity of moles is calculated using a geometric constraint condition regarding the position shift of moles between images used for collation.
  • the configuration of the personal authentication system is the same as that of the first embodiment shown in FIG. FIG. 5 shows an operation procedure in the present embodiment.
  • the image input means 10 inputs a multispectral image (step D1).
  • the skin region extracting means 11 extracts a skin region from the multispectral image (step D2). Up to this point, the operations are the same as those in steps A1 and A2 in FIG.
  • the mole position estimation means 12 detects the mole position and the number of pseudo moles from the extracted skin region (step D3).
  • FIG. 6 shows the detailed procedure of step D3.
  • the mole position estimating means 12 generates a grayscale image from the multispectral image (step E1), and estimates the moleiness of each pixel (step E2). Thereafter, the mole position is estimated (step E3), the average absorption spectrum of each mole is calculated (step E4), and the pseudo mole is identified (step E5).
  • the operation from step E1 to step E5 is the same as the operation from step B1 to step B5 in FIG.
  • the mole position estimation means 12 includes the number Nf of moles determined to be pseudo moles among the N moles extracted in step E3, and (N ⁇ Nf) moles determined to be true moles.
  • the position is output (step E6).
  • the image collation means 13 determines whether or not the person is an impersonator based on the number of pseudo moles detected in step D3 before collation (step D4). For example, in the detection of mole position and the number of pseudo moles in step D3, if a pseudo mole is detected at a predetermined threshold value or more, it can be regarded as a malicious misrepresenter, and therefore, it is determined to be a misrepresenter. More specifically, when even one pseudo mole is detected, it is determined that the person is an impersonator. If it is determined that the person is an impersonator, the process ends without performing verification.
  • Step D5 determines whether or not the registered image and the verification image are the same person based on the verification result (step D6).
  • the operations of Step D5 and Step D6 are the same as the operations of Step A4 and Step A5.
  • the number of pseudo moles in the registered image may be obtained by a procedure similar to the procedure shown in FIG. 6 to confirm that the pseudo mole is zero. If there are one or more pseudo moles in the registered image, it may be re-started from the acquisition of the image or not registered in the database.
  • the person is an impersonator based on the number of pseudo moles.
  • the present invention can be used in the security field where personal authentication is required.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

黒子識別方法は、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力するステップと、前記マルチスペクトル画像から、黒子の候補を検出するステップと、前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別するステップとを有する。

Description

黒子識別装置、個人認証装置、方法、及び、プログラム
 本発明は、黒子識別装置、方法、及び、プログラムに関し、更に詳しくは、人間の顔画像から黒子を抽出する黒子識別装置、方法、及び、プログラムに関する。また、本発明は、顔画像から抽出した黒子を用いて個人認証を行う個人認証装置、方法、及び、プログラムに関する。
 人間の顔画像を入力し、顔画像の特徴点を利用した顔認証技術が知られている。黒子などの顔や肌に現れる母斑を利用した顔認証は、母斑による経年変化が少ないため、優れた一手法と考えられている。黒子を用いた顔認証としては、非特許文献1に記載の技術がある。非特許文献1では、円形領域の中心部と周辺部との輝度の分離度を求め、分離度を黒子らしさとする。黒子らしさが高い順に、顔画像から10個の黒子を抽出し、黒子の位置の類似度により、個人認証を行う。非特許文献1では、周辺部位に比べて中心部の輝度が低く、暗い部分の面積が小さい領域を黒子としている。
 顔認証に関する別の技術として、特許文献1に記載の技術がある。特許文献1には、検索したい顔の特徴を検索条件として指定し、顔画像データベースから、指定された特徴を有する顔画像を検索する旨が記載されている。特許文献1では、顔画像を検索する際の検索条件として、黒子、まぶた、ひげ、眼鏡、性別、推定年齢、肌色が列記されている。黒子を抽出する手法としては、周辺領域との輝度値がしきい値以下の画素が所定数以上集まっている領域を黒子とする手法が挙げられている。
特開2006-318375号公報 河原智一、山口修、福井和広著、「顔表面の微小特徴がなすグローバル構造を用いた人物認証」 第5回システムインテグレーション部門学術講演会(SI2004)、2004年12月17日~19日 pp.619-620
 特許文献1及び非特許文献1では、顔画像中の輝度が低い領域を黒子としており、黒子と顔に現れる他の輝度が低い領域とを区別していないという点が問題となる。例えば、顔面に擬似的にインクなどを用いて黒い点を書いた場合には、その領域は濃淡画像では輝度が低くなるため、黒子と認識されることになる。そのため、悪意を持った詐称者が登録された人物と同じ位置に黒子を付加した場合に、これを見破り、なりすましを防ぐことができないという問題がある。
 本発明は、上記問題点を解消し、真の黒子と擬似的な黒子とを判別可能な黒子識別装置、個人認証装置、方法、及び、プログラムを提供することを目的とする。
 本発明は、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力するステップと、前記マルチスペクトル画像から、黒子の候補を検出するステップと、前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別するステップとを有する黒子識別方法を提供する。
 本発明は、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力するステップと、前記マルチスペクトル画像から、黒子の候補を検出するステップと、前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、前記真の黒子と識別された黒子の位置を検出するステップと、前記真の黒子と識別された黒子の位置と、照合用の登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行うステップとを有する個人認証方法を提供する。
 本発明は、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する画像入力手段と、前記マルチスペクトル画像から黒子の候補を検出し、該検出した黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別する黒子位置推定手段とを備える黒子識別装置を提供する。
 本発明は、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する画像入力手段と、前記マルチスペクトル画像から黒子の候補を検出し、該検出した黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、真の黒子と識別された黒子の位置を検出する黒子位置推定手段と、前記真の黒子と識別された黒子の位置と、登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行う画像照合手段とを備える個人認証装置を提供する。
 本発明は、コンピュータに、顔画像に含まれる黒子を識別する処理を実行させるプログラムであって、前記コンピュータに、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する処理と、前記マルチスペクトル画像から、黒子の候補を検出する処理と、前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別する処理とを実行させるプログラムを提供する。
 本発明は、コンピュータに、顔画像に含まれる黒子を用いた個人認証処理を実行させるプログラムであって、前記コンピュータに、撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する処理と、前記マルチスペクトル画像から、黒子の候補を検出する処理と、前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、真の黒子と識別された黒子の位置を検出する処理と、前記真の黒子と識別された黒子の位置と、登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行う処理とを実行させるプログラムを提供する。
 本発明の黒子識別装置、個人認証装置、方法、及び、プログラムは、顔画像に含まれる黒子らしき領域について、真の黒子と擬似的な黒子とを判別することができる。
 本発明の上記及び他の目的、特徴及び利益は、図面を参照する以下の説明により明らかになる。
本発明の第1実施形態の個人認証装置を示すブロック図。 認証の動作手順を示すフローチャート。 黒子位置検出の動作手順を示すフローチャート。 照合の動作手順を示すフローチャート。 本発明の第2実施形態の個人認証装置の動作手順を示すフローチャート。 第2実施形態における黒子位置検出の動作手順を示すフローチャート。
 以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の第1実施形態の個人認証装置(システム)を示している。個人認証システムは、マルチスペクトル画像入力手段10、肌領域抽出手段11、黒子位置推定手段12、画像照合手段13、及び、本人判定手段14を有する。画像入力手段10は、個人認証の際の照合に用いられる画像を入力する。画像入力手段10が入力する画像は、複数のスペクトルから構成される2以上のスペクトル画像(マルチスペクトル画像)である。肌領域抽出手段11は、画像入力手段10により入力されたマルチスペクトル画像から、目、口、髪領域を含まない顔の肌領域を抽出する。本個人認証システムの上記手段は、コンピュータ読み込みが可能な記録媒体に格納された1又は複数のプログラムによって構成される。
 黒子位置推定手段12は、抽出された肌領域から黒子を抽出し、黒子位置を推定する。その際、各黒子の平均的な吸収スペクトルに基づいて、真の黒子と擬似黒子とを識別する。画像照合手段13は、黒子位置推定手段12にて真の黒子として検出された黒子の黒子位置から、照合に使用する画像間の黒子の位置ずれに関する幾何学的な拘束条件を用いることで、黒子の位置を照合し、画像間の類似度を算出する。本人判定手段14は、得られた類似度をしきい値処理し、対象人物が本人であるか否かを判定する。
 図2に、全体の動作手順を示す。画像入力手段(unit)10は、複数のスペクトルの画像が同時に取得できるマルチスペクトルカメラを用いて顔画像を撮像し、マルチスペクトル画像を入力する(ステップA1)。入力されたマルチスペクトル画像の輝度値は、顔画像における画素位置をx、波長をλとして、I(x,λ)で表す。ステップA1では、マルチスペクトル画像におけるスペクトル数をNspとすれば、Nsp枚の顔画像が得られる。
 肌領域抽出手段11は、各スペクトル画像について、顔画像中の肌領域を抽出する(ステップA2)。肌領域の抽出では、例えば、顔画像を、ガウシアンフィルタなどを用いてある程度ぼかしておき、各スペクトルにおける輝度値の中央値を求め、中央値からの輝度の自乗誤差はしきい値以内の画素を肌領域として抽出する。肌領域の抽出に際して、はじめにガウシアンフィルタなどでぼかしておくことで、肌中に含まれる黒子などは肌領域として抽出される一方、目、唇等のある程度大きな領域で輝度分布が異なる領域については、肌領域から排除できる。
 黒子位置推定手段12は、各スペクトル画像について、ステップA2で抽出された肌領域から黒子位置を検出する(ステップA3)。その際、黒子位置推定手段12は、真の黒子と擬似黒子とを識別する。擬似黒子を含む黒子は、通常の肌領域に比べ、全スペクトルで光の吸収が強い傾向にあり、平均輝度は低くなる。そこで、まず、複数のスペクトル画像から1つの濃淡画像を生成し、濃淡画像から、黒子らしい領域を抽出する。次いで、抽出された黒子らしい領域について、各スペクトル画像における平均的な吸収スペクトルを求める。その後、各黒子の平均的な吸収スペクトルを比較することで、真の黒子と擬似黒子とを識別する。
 図3に、ステップA3の黒子位置検出の詳細手順を示す。黒子位置推定手段12は、全スペクトルにわたり、輝度値の平均を画素ごとに計算し、濃淡画像を生成する(ステップB1)。ステップB1では、波長λのスペクトル画像の画素位置xの輝度値をI(x,λ)とし、スペクトル数をNspとして、濃淡画像の画素位置xにおける輝度値I(x)を、下記式により求める。
Figure JPOXMLDOC01-appb-I000001
 黒子位置推定手段12は、ステップB1で生成された濃淡画像から黒子らしい領域を求めるために、濃淡画像の各画素について、黒子らしさを求める(ステップB2)。ここでは、中心画素の輝度を、半径3画素以内に含まれる周辺画素の輝度値の最小値で割った値を黒子らしさとして定義する。すなわち、下記式で定義される中心画素と周辺画素との輝度比rを、黒子らしさとして定義する。
Figure JPOXMLDOC01-appb-I000002

 なお、上記式1にて、分母の周辺画素の輝度の最小値を求める際には、中心画素を含まないものとする。
 黒子位置推定手段12は、ステップB2で求めた各画素における黒子らしさを用いて、黒子位置を推定する(ステップB3)。上記式1で定義される黒子らしさrは、周辺画素に比して中心画素の輝度が高いと大きな値をとり、周辺画素に比して中心画素の輝度が小さいと小さな値をとる。黒子は、周辺画素に比して中心画素の輝度が小さい傾向にあることから、ステップB3では、黒子らしさrの値が小さい領域を、黒子領域とするとして推定する。例えば、黒子らしさrの値が小さい上位N画素を選び、それらを黒子の中心位置とする。
 黒子位置推定手段12は、黒子らしい領域について、各スペクトル画像から、波長ごとに各黒子の平均吸収スペクトルを算出する(ステップB4)。ステップB4では、得られたN個の黒子のうちのi番目の黒子における中心画素xの輝度値をI(x,λ)として、下記式により、画素xから半径c内に含まれる画素における平均を求め、波長ごとに黒子の平均吸収スペクトルを計算する。
Figure JPOXMLDOC01-appb-I000003

 ここで、Nは半径c以内に含まれる画素数であり、Ωはxを中心とした半径c以内に含まれる画素の集合を表す。cは黒子の大きさを意味する変数であり、画像の解像度により適当な値に調整する。
 ステップB3で位置が推定された黒子には、真の黒子の他に、擬似黒子が含まれている。黒子位置推定手段12は、画像のスペクトルが複数あることを利用し、各波長の平均吸収スペクトルを比較することで、擬似黒子を識別する(ステップB5)。擬似黒子の識別は、具体的には、以下のように行う。黒子は、肌のうちメラニン色素濃度が濃い領域であるので、基本的には、肌の吸収スペクトルと似た特性を持つ。そこで、黒子の吸収スペクトルをI(λ)とし、肌の吸収スペクトルをI(λ)として、I(λ)とI(λ)とは所定の関係(比例関係)にあると仮定する。
 顔全体での黒子の面積が小さいと仮定して、肌の吸収スペクトルを下記式3で表す。
Figure JPOXMLDOC01-appb-I000004

 ここで、Ωは肌領域と判定された画素の集合であり、Nは画素数である。
 黒子の吸収スペクトルを、式3と適当な係数aとを用いて、以下の式4で近似する。
Figure JPOXMLDOC01-appb-I000005

 次に、式4の黒子の吸収スペクトルと、式2の各黒子の平均吸収スペクトルとの類似度を求める。類似度は、下記式5で定義する。
Figure JPOXMLDOC01-appb-I000006

 式5中のI(λ)は、未知の係数aを含んでいる。式4を式5に代入すると、係数aは分子と分母でキャンセルされるため、式5は下記式6で表せる。
Figure JPOXMLDOC01-appb-I000007
 上記で求めた類似度tをしきい値判定することで、抽出された黒子が擬似黒子であるか否かを判定する。すなわち、式6で計算したtを、所定のしきい値Tと比較し、tがしきい値以上のときはi番目の黒子は真の黒子であると判定し、しきい値よりも小さいときは擬似黒子であると判定する。黒子位置推定手段12は、ステップB3で抽出したN個の黒子のうち、擬似黒子と判定された黒子を除く黒子を真の黒子として、その位置を検出する(ステップB6)。ステップB6では、擬似黒子と判定された黒子の個数がNf個であるとすれば(N-Nf)個の黒子の位置を検出する。
 図2に戻り、画像照合手段13は、ステップA3で検出された真の黒子の黒子位置を用いて、図示しないデータベース内にあらかじめ登録された画像との照合処理を行う(ステップA4)。データベースに登録された登録画像は、ステップA1で入力されるマルチスペクトル画像と同じスペクトル画像とする。例えば、入力マルチスペクトル画像の波長がλ1、λ2であれば、登録画像も、波長λ1、λ2の2つのスペクトル画像を用意しておく。本人判定手段14は、ステップA4の照合結果に基づいて、本人であるか否かの判定を行う(ステップA5)。
 図4に、ステップA4の照合処理の詳細手順を示す。なお、ここでは、照合に用いる顔画像を、登録画像と照合画像と呼ぶ。登録画像は、データベースにユーザ識別情報などと対応付けて登録された顔画像であり、照合画像は、図2のステップA1で入力された顔画像である。登録画像からは、N1個の黒子位置が得られているとする。また、照合画像からは、N2個の黒子位置が得られているとする。登録画像の黒子位置は、図3に示す、照合画像から黒子位置を推定する際と同じ手順で求めることができる。登録画像の黒子位置は、照合のたびに登録画像から推定してもよく、或いは、あらかじめ黒子位置データとしてデータベースに登録しておいてもよい。
 画像照合手段13は、登録画像と照合画像とにおける黒子の対応点を探索する(ステップC1)。対応点の探索に際しては、登録画像と照合画像とにおける顔位置や大きさなどを、目の位置などを用いてあらかじめ正規化しておくものとする。登録画像から得られるN1個の黒子の位置をx1(1)、x1(2)、・・・、x1(N1)とする。照合画像から得られるN2個の黒子の位置をx2(1)、x2(2)、・・・、x2(N2)とする。黒子の位置座標は、2次元ベクトルで表される。対応点の探索では、登録画像における黒子位置座標の各点x1(i)(i=1、・・・、N1)について、照合画像上での各黒子位置との距離計算を行い、最近傍の黒子を対応点とする。
Figure JPOXMLDOC01-appb-I000008

 照合画像についても同様に、照合画像の黒子位置座標の各点x2(i)(i=1、・・・、N2)について、登録画像上での各黒子位置との距離計算を行い、最近傍の黒子を対応点とする。
Figure JPOXMLDOC01-appb-I000009
 画像照合手段13は、対応点の探索後、対応する黒子位置の差分ベクトルを求める(ステップC2)。差分ベクトルの計算では、登録画像から見た照合画像における対応点の黒子位置との差z1と、照合画像から見た登録画像における対応点の黒子位置との差z2とを求める。差分ベクトルz1、z2を計算式で表すと、下記7で表すことができる。
 z1(i)=x1(i)-x2(i*)
 z2(i)=x2(i)-x1(i*)  (7)
 続いて、画像照合手段13は、黒子間の距離を用いて重み係数を計算する(ステップC3)。重み係数は、黒子間の距離に応じた値とする。望ましくは、黒子間の距離が遠いほど小さな値とする。登録画像におけるi番目の黒子とj番目の黒子との間の距離は、下記式で表される。
Figure JPOXMLDOC01-appb-I000010

 重み係数は、黒子間の距離を用いて、下記式で定義する。
Figure JPOXMLDOC01-appb-I000011

 照合画像についても同様に、照合画像における黒子間の距離(d,i,j)を用いて、下記式で定義する。
Figure JPOXMLDOC01-appb-I000012

 ステップC3では、登録画像と照合画像について、重み係数を、全てのi,jの組について求める。
 画像照合手段13は、黒子位置間の類似度を計算する(ステップC4)。登録画像と照合画像の対応点の差分ベクトルは、本人であれば、全ての黒子で見た方向を示すと考えられる。そこで、下記式8を黒子位置間の類似度として定義する。
Figure JPOXMLDOC01-appb-I000013

ここで、s0は正規化項で、次式で表される。
Figure JPOXMLDOC01-appb-I000014

 本人判定手段14は、図2のステップA5で、画像照合手段13が計算した類似度sを用いて、本人判定を行う。例えば、類似度をしきい値処理し、しきい値以上の場合は本人と判定し、しきい値よりも小さい場合は詐称者と判定する。
 本実施形態では、入力画像を、複数波長のマルチスペクトル画像とし、マルチスペクトル画像から、黒子らしき領域を抽出する。その後、入力画像がマルチスペクトル画像であることを利用し、黒子らしき領域の平均スペクトルを比較することで、真の黒子と擬似黒子とを識別している。真の黒子か擬似黒子かは、真の黒子であれば、各スペクトル画像にて肌領域と似たような吸収スペクトルを示すという特性を利用して、判定可能である。認証に際しては、擬似黒子を排除して、真の黒子と識別された黒子を用いて、登録画像における黒子との照合を行う。擬似黒子による照合を行わないことで、誤照合を減らすことができる。また、悪意ある詐称者が擬似黒子をつけることによる「なりすまし」を防ぐことができ、詐称者の侵入を拒絶できる。
 非特許文献1に記載されている黒子を使った画像照合手法は、画像上の位置に基づいた類似度を使っているので、姿勢が変化した場合の頑強度が十分ではない。つまり、非特許文献1では、同じ姿勢以外の照合の場合には、性能が大きく低下する傾向にある。また、特許文献1には、黒子同士の照合について、類似度を計算すると記載されているのみで、黒子の位置変動については、全く考慮されていない。本実施形態では、照合に用いる画像間の黒子の位置ずれに関する幾何学的な拘束条件を用いて、黒子の類似度を計算する。このような黒子位置ずれに頑強な照合手法を採用することにより、登録画像撮影時と照合画像撮影時とで、姿勢が異なる場合でも、高い精度で照合を行うことが可能である。
 続いて、本発明の第2実施形態について説明する。個人認証システムの構成は、図1に示す第1実施形態の構成と同様である。図5に、本実施形態における動作手順を示す。画像入力手段10は、マルチスペクトル画像を入力する(ステップD1)。肌領域抽出手段11は、マルチスペクトル画像から肌領域を抽出する(ステップD2)。ここまでは、図2のステップA1、ステップA2の動作と同様である。黒子位置推定手段12は、抽出された肌領域から、黒子位置と擬似黒子の個数とを検出する(ステップD3)。
 図6に、ステップD3の詳細手順を示す。黒子位置推定手段12は、マルチスペクトル画像から濃淡画像を生成し(ステップE1)、各画素の黒子らしさを推定する(ステップE2)。その後、黒子位置を推定し(ステップE3)、各黒子の平均吸収スペクトルを算出して(ステップE4)、擬似黒子を識別する(ステップE5)。ステップE1~ステップE5までの動作は、図3のステップB1~ステップB5の動作と同様である。黒子位置推定手段12は、ステップE3で抽出されたN個の黒子のうち、擬似黒子であると判定された黒子の個数Nfと、真の黒子と判定された(N-Nf)個の黒子の位置とを出力する(ステップE6)。
 図5に戻り、画像照合手段13は、照合の前に、ステップD3で検出された擬似黒子の個数に基づいて、詐称者か否かを判定する(ステップD4)。例えば、ステップD3の黒子位置と擬似黒子個数の検出で、擬似黒子が所定のしきい値以上検出されたときは、悪意のある詐称者とみなすことができるので、詐称者であると判定する。より具体的には、擬似黒子が1つでも検出されたときは、詐称者と判定する。詐称者と判定した場合は、照合を行わずに処理を終了する。
 画像照合手段13は、詐称者と判定しなかったときは、本人か否かを判定するため、ステップD3で検出された真の黒子を用いて、照合を行う(ステップD5)。本人判定手段14は、照合結果により、登録画像と照合画像とが同一人物であるか否かを判定する(ステップD6)。ステップD5及びステップD6の動作は、ステップA4及びステップA5の動作と同様である。
 なお、登録画像のデータベースへの登録に際しては、図6に示す手順と同様な手順により、登録画像における擬似黒子の個数を求め、擬似黒子が0であることを確認しておくとよい。登録画像に擬似黒子が1つ以上ある場合は、画像の取得からやり直すか、データベースへの登録を行わないようにすればよい。
 本実施形態では、擬似黒子の個数に基づいて、詐称者か否かを判定する。擬似黒子が検出された者を詐称者とみなして、照合処理の対象から外すことで、悪意のある人物が、他人になりすまして認証される危険性を低くすることができる。その他の効果は、第1実施形態と同様である。
 本発明を特別に示し且つ例示的な実施形態を参照して説明したが、本発明は、その実施形態及びその変形に限定されるものではない。当業者に明らかなように、本発明は、添付のクレームに規定される本発明の精神及び範囲を逸脱することなく、種々の変更が可能である。
 本出願は、2008年2月27日出願に係る日本特許出願2008―046463号を基礎とし且つその優先権を主張するものであり、引用によってその開示の内容の全てを本出願の明細書中に加入する。
 本発明は、個人認証が必要なセキュリティ分野で利用できる。

Claims (12)

  1.  撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力するステップと、
     前記マルチスペクトル画像から、黒子の候補を検出するステップと、
     前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別するステップとを有する黒子識別方法。
  2.  前記識別するステップでは、肌の吸収スペクトルと、前記黒子の吸収スペクトルとに基づいて、真の黒子と擬似黒子とを識別する、請求項1に記載の黒子識別方法。
  3.  前記識別するステップでは、真の黒子の吸収スペクトルが前記肌の吸収スペクトルの関数で表せると仮定して、前記黒子の候補の吸収スペクトルと前記肌の吸収スペクトルとの類似度を求め、該求めた類似度に従って、真の黒子と擬似黒子とを識別する、請求項2に記載の黒子識別方法。
  4.  前記識別するステップでは、前記真の黒子の吸収スペクトルと、前記肌の吸収スペクトルとが比例関係にあると仮定して、前記類似度を求める、請求項3に記載の黒子識別方法。
  5.  前記黒子の候補を検出するステップが、前記マルチスペクトル画像から肌領域を抽出するステップと、前記抽出された肌領域の画素と、当該画素の周辺画素との輝度比を求めるステップと、前記輝度比に基づいて、黒子の候補を検出するステップとを有する、請求項1乃至4の何れか一に記載の黒子識別方法。
  6.  撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力するステップと、
     前記マルチスペクトル画像から、黒子の候補を検出するステップと、
     前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、前記真の黒子と識別された黒子の位置を検出するステップと、
     前記真の黒子と識別された黒子の位置と、照合用の登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行うステップとを有する個人認証方法。
  7.  前記顔画像の照合を行うステップが、前記真の黒子と識別された黒子と、前記登録画像にて真の黒子と識別される黒子との対応点を抽出するステップと、対応点の座標から差分ベクトルを計算するステップと、各特徴点における差分ベクトルの向きが近いことを利用して特徴点間の類似度を求めるステップとを有する、請求項6に記載の個人認証方法。
  8.  前記真の黒子、擬似黒子を識別するステップで、所定数以上の擬似黒子が検出されたときは、詐称者と判定して処理を終了する、請求項6又は7に記載の個人認証方法。
  9.  撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する画像入力手段と、
     前記マルチスペクトル画像から黒子の候補を検出し、該検出した黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別する黒子位置推定手段とを備える黒子識別装置。
  10.  撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する画像入力手段と、
     前記マルチスペクトル画像から黒子の候補を検出し、該検出した黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、真の黒子と識別された黒子の位置を検出する黒子位置推定手段と、
     前記真の黒子と識別された黒子の位置と、登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行う画像照合手段とを備える個人認証装置。
  11.  コンピュータに、顔画像に含まれる黒子を識別する処理を実行させるプログラムであって、前記コンピュータに、
     撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する処理と、
     前記マルチスペクトル画像から、黒子の候補を検出する処理と、
     前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別する処理とを実行させるプログラム。
  12.  コンピュータに、顔画像に含まれる黒子を用いた個人認証処理を実行させるプログラムであって、前記コンピュータに、
     撮像装置を用いて撮影された、複数スペクトルで構成されるマルチスペクトル画像を入力する処理と、
     前記マルチスペクトル画像から、黒子の候補を検出する処理と、
     前記検出された黒子の候補の吸収スペクトルに基づいて、前記黒子の候補が真の黒子であるか、擬似黒子であるかを識別し、真の黒子と識別された黒子の位置を検出する処理と、
     前記真の黒子と識別された黒子の位置と、登録画像から検出される黒子位置との位置関係に基づいて、顔画像の照合を行う処理とを実行させるプログラム。
     
PCT/JP2009/052023 2008-02-27 2009-02-06 黒子識別装置、個人認証装置、方法、及び、プログラム WO2009107470A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010500632A JP5278424B2 (ja) 2008-02-27 2009-02-06 黒子識別装置、個人認証装置、方法、及び、プログラム
US12/919,061 US20110002511A1 (en) 2008-02-27 2009-02-06 Mole identifying device, and personal authentication device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008046463 2008-02-27
JP2008-046463 2008-02-27

Publications (1)

Publication Number Publication Date
WO2009107470A1 true WO2009107470A1 (ja) 2009-09-03

Family

ID=41015873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052023 WO2009107470A1 (ja) 2008-02-27 2009-02-06 黒子識別装置、個人認証装置、方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20110002511A1 (ja)
JP (1) JP5278424B2 (ja)
WO (1) WO2009107470A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096987A (ja) * 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
CN109978810A (zh) * 2017-12-26 2019-07-05 柴岗 痣的检测方法、系统、设备及存储介质
WO2020158158A1 (ja) * 2019-02-01 2020-08-06 ミツミ電機株式会社 認証装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666130B2 (en) * 2010-03-08 2014-03-04 Medical Image Mining Laboratories, Llc Systems and methods for bio-image calibration
US9135693B2 (en) 2010-05-18 2015-09-15 Skin Of Mine Dot Com, Llc Image calibration and analysis
US8837832B2 (en) * 2010-05-18 2014-09-16 Skin Of Mine Dot Com, Llc Systems and methods for monitoring the condition of the skin
JP2016053482A (ja) * 2014-09-02 2016-04-14 キヤノン株式会社 光音響波測定装置および光音響波測定方法
US10547610B1 (en) * 2015-03-31 2020-01-28 EMC IP Holding Company LLC Age adapted biometric authentication
US10674953B2 (en) * 2016-04-20 2020-06-09 Welch Allyn, Inc. Skin feature imaging system
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11074340B2 (en) 2019-11-06 2021-07-27 Capital One Services, Llc Systems and methods for distorting CAPTCHA images with generative adversarial networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071118A (ja) * 2003-08-26 2005-03-17 Hitachi Ltd 個人認証装置及び方法
JP2006107288A (ja) * 2004-10-07 2006-04-20 Toshiba Corp 個人認証方法、装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002952748A0 (en) * 2002-11-19 2002-12-05 Polartechnics Limited A method for monitoring wounds
JPWO2006088042A1 (ja) * 2005-02-16 2008-07-03 松下電器産業株式会社 生体判別装置および認証装置ならびに生体判別方法
JP4702598B2 (ja) * 2005-03-15 2011-06-15 オムロン株式会社 監視システム、監視装置および方法、記録媒体、並びにプログラム
US8131029B2 (en) * 2005-09-20 2012-03-06 Brightex Bio-Photonics Llc Systems and methods for automatic skin-based identification of people using digital images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071118A (ja) * 2003-08-26 2005-03-17 Hitachi Ltd 個人認証装置及び方法
JP2006107288A (ja) * 2004-10-07 2006-04-20 Toshiba Corp 個人認証方法、装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TOMOKAZU KAWAHARA ET AL.: "Kao Hyomen no Bisho Tokucho ga Nasu Global Kozo o Mochiita Jinbutsu Ninsho", DAI 5 KAI SYSTEM INTEGRATION BUMON GAKUJUTSU KOENKAI (SI2004), 17 December 2004 (2004-12-17), pages 619 - 620 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096987A (ja) * 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
CN109978810A (zh) * 2017-12-26 2019-07-05 柴岗 痣的检测方法、系统、设备及存储介质
CN109978810B (zh) * 2017-12-26 2024-03-12 南通罗伯特医疗科技有限公司 痣的检测方法、系统、设备及存储介质
WO2020158158A1 (ja) * 2019-02-01 2020-08-06 ミツミ電機株式会社 認証装置
JP2020126371A (ja) * 2019-02-01 2020-08-20 ミツミ電機株式会社 認証装置

Also Published As

Publication number Publication date
US20110002511A1 (en) 2011-01-06
JP5278424B2 (ja) 2013-09-04
JPWO2009107470A1 (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
JP5278424B2 (ja) 黒子識別装置、個人認証装置、方法、及び、プログラム
Priesnitz et al. An overview of touchless 2D fingerprint recognition
KR102561723B1 (ko) 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법
Raghavendra et al. Novel image fusion scheme based on dependency measure for robust multispectral palmprint recognition
CN107423690B (zh) 一种人脸识别方法及装置
JP4443722B2 (ja) 画像認識装置及び方法
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
US8385613B2 (en) Biometric authentication
US20180165508A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP2016081212A (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
KR101373274B1 (ko) 안경 제거를 통한 얼굴 인식 방법 및 상기 안경 제거를 통한 얼굴 인식 방법을 이용한 얼굴 인식 장치
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
Narang et al. Face recognition in the SWIR band when using single sensor multi-wavelength imaging systems
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
JP5698418B2 (ja) 虹彩認識による識別
Pan et al. Securitas: user identification through rgb-nir camera pair on mobile devices
Srinivas et al. Human identification using automatic and semi‐automatically detected facial Marks
JP2010257158A (ja) オブジェクト識別装置及びオブジェクト識別方法
JP2008015871A (ja) 認証装置、及び認証方法
Hongo et al. Personal authentication with an iris image captured under visible-light condition
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Nakazaki et al. Fingerphoto recognition using cross-reference-matching multi-layer features
Jilani et al. The computer nose best

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09713927

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12919061

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010500632

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09713927

Country of ref document: EP

Kind code of ref document: A1