WO2006051976A1 - 生体特徴入力装置 - Google Patents

生体特徴入力装置 Download PDF

Info

Publication number
WO2006051976A1
WO2006051976A1 PCT/JP2005/020905 JP2005020905W WO2006051976A1 WO 2006051976 A1 WO2006051976 A1 WO 2006051976A1 JP 2005020905 W JP2005020905 W JP 2005020905W WO 2006051976 A1 WO2006051976 A1 WO 2006051976A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
image
image sensor
input device
dimensional
Prior art date
Application number
PCT/JP2005/020905
Other languages
English (en)
French (fr)
Inventor
Teruyuki Higuchi
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to CA2588172A priority Critical patent/CA2588172C/en
Priority to AU2005302945A priority patent/AU2005302945B2/en
Priority to EP05806995A priority patent/EP1834581B1/en
Priority to US11/719,293 priority patent/US7903847B2/en
Publication of WO2006051976A1 publication Critical patent/WO2006051976A1/ja
Priority to HK07113730.1A priority patent/HK1108341A1/xx
Priority to US12/905,184 priority patent/US8170301B2/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger

Definitions

  • the present invention relates to an apparatus for inputting biometric features for authenticating an individual.
  • a biometric feature input device for authenticating an individual of this type is typically a device that reads a fingerprint that is a pattern on the skin of a fingertip. Fingerprints have the same characteristics as one person since ancient times, they have the same lifelong characteristics that never change, and they are studied especially in the fields of the police and the judicial field, and are used for high-accuracy personal identification. .
  • a method using the total reflection critical angle of a fiberoptic plate or a prism is widely used as a fingerprint input device.
  • a conventional fingerprint input device using, for example, the total reflection critical angle of a prism will be described with reference to FIG.
  • the finger skin 104 is written with an enlarged skin pattern.
  • the lens 106 and the two-dimensional image sensor 107 are disposed orthogonal to the prism surface 109 of the prism 105.
  • the light 101 from the portion of the finger not in contact with the prism is also greatly refracted by the aerodynamic surface with a refractive index of 1.0 being incident on the prism surface 108 with a refractive index of 1.4 or more, and totally reflected by the prism surface 109.
  • the force or prism surface 109 is not reached and the two-dimensional image sensor 107 is not reached.
  • the refractive index of oil or water on the skin or the surface of the skin is close to prism glass, the light 102 of the portion in contact with the skin is the light at the prism surface 108.
  • the refracting angle decreases, and the light enters a lens 106 which does not reach the total reflection angle at the prism surface 109, forms an image by the lens 106, and reaches the two-dimensional image sensor 107.
  • a fingerprint image can be obtained based on whether or not the uneven pattern of the skin such as a fingerprint of a finger contacts the prism.
  • this conventional fingerprint input device uses expensive and large optical components, which hinders the miniaturization and low cost of the device.
  • a sub-one-dimensional sensor using pressure, temperature, and capacitance is used, and partial images of finger fingerprints obtained by moving a finger are stitched together to form a finger.
  • Japanese Patent Application Laid-Open Nos. 10-91769 and 2001-155137 propose techniques for reconstructing a print image. Techniques for moving an object to read and reconstructing an image using a one-dimensional sensor are known in facsimiles and copiers, but a special mechanism is needed to obtain the speed in the direction of finger movement. . In order to omit such a special mechanism, in the technique proposed in Japanese Patent Laid-Open No. 10-91769, the image is reconstructed based on the similarity of images of several lines in a quasi-one-dimensional manner, Ru.
  • FIGS. 2A and 2B An example of image reconstruction of a fingerprint of this scheme will be described with reference to FIGS. 2A and 2B.
  • a partial image of II power In is obtained by moving the finger. Similar portions are removed from these partial images to obtain a reconstructed fingerprint image 302.
  • FIGS. 3A and 3B when the finger is powered slowly with respect to the imaging speed of the sensor, the overlap between the adjacent partial images is large, and the judgment of the similarity is It will be difficult.
  • the obtained fingerprint image 303 is longitudinally extended and distorted. Conversely, when the finger slide is performed faster than the imaging speed, as shown in FIGS.
  • this conventional example has the problem that fingerprint authentication, that is, authentication due to biometric characteristics is difficult when skin is partially peeled off due to dermatitis or the like. Ru.
  • the contactless fingerprint detection device has been proposed, for example, in Japanese Laid-Open Patent Publication No. 2003-85538.
  • this non-contact method even if the finger on which the peeled part is difficult to read and reading is difficult in the method based on the above contact, the part of the internal structure of the skin that is the origin of the skin pattern is preserved. Then the video is obtained. Also, because it is non-contact, it is not susceptible to changes in skin surface conditions such as moisture and dryness.
  • Light incident on the finger is scattered inside the finger and emitted light is emitted from the finger to reflect the internal structure of the skin.
  • the concave part of the fingerprint becomes a light area
  • the convex part becomes a dark area
  • a gray-scale image of the same shape as the fingerprint is obtained.
  • the structure of the dermis which is the basis of the epidermal pattern such as fingerprints, is preserved even if the stratum corneum is dropped off due to dermatitis or the like, regardless of the wet drying of the epidermis.
  • a fingerprint image can be obtained.
  • an intended image can not be obtained unless a space is provided between the finger and the imaging system.
  • the finger and the imaging system are separated, and even if the amount of light emitted by the skin surface force changes due to the internal structure of the finger, the light scatters on the skin surface, which is considered to be an adverse effect due to diffusion due to the distance of the imaging system. Depending on the event, the skin was actually peeled off, and a fingerprint image with a good contrast could not be obtained in the part.
  • a two-dimensional image sensor is provided in proximity to the finger, and the scattered radiation light such as finger force is imaged by the two-dimensional image sensor through a transparent protective cover made of glass or the like, and the concave portion of the fingerprint is a dark area
  • a fingerprint input device for acquiring a fingerprint image in which a convex portion is a bright region is proposed by the inventor of the present application in Japanese Patent No. 3150126.
  • Upper power of finger Irradiates near infrared rays, light intensity emitted from the inside of finger and discharges from the opposite finger
  • the blood vessel image is obtained by darkening by absorption of near infrared rays in blood abundantly present in blood vessels.
  • a fingerprint pattern can be read simultaneously, it can be complemented with fingerprint information, or a powerful source of information as to whether it is a living body or not. It is valid.
  • the effective information content of the blood vessel pattern generally changes due to less nutritional status than various fingerprints and disorders such as blood clots and blood pressure.
  • the accuracy is unconfirmed and remains as a future research topic, as compared with fingerprints whose research has been completed mainly by the police and the judicial field as inconsistencies in all life and lifelong.
  • the proposal of non-contact fingerprint detection device 2003-85538 a space is required between the finger and the imaging optical system, and a need for focusing is required, and a fixed frame for the finger is also required, which hinders operability and downsizing of the device. It had become.
  • the capillaries are present in the fingerprint portion of the fingertip, and the capillaries can not read the pattern by the above-mentioned method. Since the readable veins are at the base of the finger below the first joint, the part must be read simultaneously with the fingerprint portion of the finger tip above the first joint by the reduction optical system, so the device becomes larger. There is also the problem of
  • a fingerprint detection method is disclosed in Japanese Patent Laid-Open No. 5-168610.
  • the conventional fingerprint detection method is an optical fingerprint detection method in which a light source irradiates light to a specimen including a latent fingerprint and a fingerprint image obtained is arithmetically processed to detect a fingerprint.
  • the surface temperature of the sample is measured in advance and stored as thermal image information, and then light of a wavelength in a region where absorption characteristics change depending on the amount of water or organic substance contained in the fingerprint component of the sample is fixed for a fixed time After projection, cut the projection light.
  • the temperature of the sample surface at that time is measured and taken as thermal image information.
  • a fingerprint information processing apparatus is disclosed in Japanese Patent Application Laid-Open No. 10-143663.
  • This conventional fingerprint information processing apparatus has a fingerprint image detection unit for partially optically detecting the fingerprint of a subject.
  • the relative position detection unit detects relative positions of a plurality of partial fingerprint images detected by the fingerprint image detection unit.
  • the image combining unit forms a combined fingerprint image by correcting and combining positional deviations among the plurality of partial fingerprint images based on the relative position information detected by the relative position detection unit.
  • the storage unit registers data of the synthesized fingerprint image as a registered fingerprint image for personal identification information.
  • the photo sensor area of the optical image sensor 2 has an effective image area for converting scattered light from the inside of the finger into an image signal and an ⁇ black reference area which does not react to light.
  • the black reference area is formed by providing an optical light shielding film on silicon dioxide that covers the photo sensor area that may be connected by a thermally conductive film to the silicon substrate that is the base of the optical image sensor. Is made.
  • the black reference area reading unit reads the dark current of the photodiode of the optical image sensor before and after the finger is placed on the optical image sensor, and the dark current comparison unit compares both current signals.
  • the fingerprint collating unit takes in the image signal of the effective image area, collates and compares the fingerprint database.
  • the fingerprint determination unit determines that the finger is genuine only when a difference greater than or equal to a predetermined value is recognized as a result of comparison of the image signals, and as a result of comparison of the fingerprint database, the features match.
  • An object of the present invention is to provide a compact and inexpensive biometric feature that can stably input biometric features such as finger fingerprints using a one-dimensional or quasi one-dimensional image sensor. It is in providing a force device.
  • Another object of the present invention is to provide a small and inexpensive biometric feature input device capable of inputting a blood vessel image of a finger simultaneously with a fingerprint on the finger surface.
  • Still another object of the present invention is to provide an electronic device provided with a finger travel guide for stably inputting a biometric feature such as a fingerprint of a finger using a one-dimensional or quasi-one-dimensional image sensor. It is.
  • the biometric feature input device includes: a one-dimensional or quasi one-dimensional image sensor; a finger; and an effective pixel portion of the image sensor during relative movement in which the finger and the image sensor slide relative to each other. And a finger travel guide for maintaining a substantially constant distance without contact, and an image by radiation emitted from the surface of the skin of the finger scattered inside the finger during the relative movement.
  • Image processing means is provided by combining one-dimensional or quasi-one-dimensional partial images obtained by imaging with an image sensor!
  • a one-dimensional or quasi one-dimensional image sensor, a finger and the image sensor mutually correspond to each other.
  • a finger running guide for maintaining a substantially constant distance without contact between the finger and the effective pixel portion of the image sensor during relative movement sliding on the eyelid, and a light for blood vessel imaging on the back of the finger
  • An upper light source for emitting light, a first image by radiation emitted from the skin surface of the finger scattered inside the finger, and light emitted from the upper light source pass through the inside of the finger and the skin of the finger is Primary image obtained by alternately imaging with the image sensor the second image of the radiation emitted from the surface during the relative movement
  • An image processing means for connecting original or quasi one-dimensional partial images for each first image and each second image, and for extracting a blood vessel image which is a difference between the first and second reconstructed images; There is.
  • the finger travel guide may have a gap immediately above the effective pixel portion of the image sensor. It is preferable that the height of the gap is 10 m or more and 200 IX m or less, and the width parallel to the relative movement direction is an effective pixel length in the sub scanning direction of the image sensor or more and 2. O mm or less.
  • a solid having light transparency may be inserted into the gap.
  • the finger travel guide immediately above the effective pixel portion of the image sensor may be made of a solid having light transparency.
  • the height of the solid is preferably 10 m or more and 200 m or less.
  • the refractive index of the said solid is larger than 1.1. More preferably, the refractive index of the solid is greater than 1.1 and less than 1.4.
  • the refractive index of the said solid is larger than 2.0. It is more preferable that the refractive index power of the solid is greater than 2.0 and less than 5.0.
  • the living body characteristic input device may further include a lower light source that generates scattered light inside the finger by irradiating light to the abdomen of the finger from the vicinity of a region to be read by the image sensor.
  • the biometric feature input device may further include a band pass filter for extracting an image component of an output image signal power of the image sensor and a fingerprint pitch, and an automatic gain control circuit for amplifying an output of the band pass filter.
  • the image processing means may include a correction means for correcting distortion of the connected image by frequency analysis of a fingerprint portion.
  • the first electronic device is characterized in that the height is 10 ⁇ m or more and 200 ⁇ m or less and the short side width of the side edge of the image sensor is directly above the effective pixel portion of the one-dimensional or quasi one-dimensional image sensor. 2.
  • a gap which is greater than or equal to the effective pixel length in the eyelid direction 2.
  • the gap is less than or equal to O mm, and the finger does not contact the effective pixel portion of the image sensor during relative movement in which the finger and the image sensor slide relative to each other. It is preferable to provide a finger travel guide for maintaining a substantially constant distance.
  • the finger travel guide prevents contact between the finger and the effective pixel portion of the image sensor. Since the distance between the finger and the effective pixel portion is too long to prevent the image from being blurred or the distance from being distorted, the image is prevented from being distorted.
  • the radiation emitted from the skin surface of the finger can be stably imaged by the image sensor during the relative movement, and thus generated by joining together the imaged one-dimensional or quasi-one-dimensional partial images. Accuracy of the entire finger image.
  • FIG. 1 is a view for explaining the principle of an optical prism system on the premise of a conventional contact.
  • FIGS. 2A and 2B are diagrams for explaining a conventional image reconstruction method.
  • FIGS. 3A and 3B are diagrams for explaining problems in the case where the finger is moved slowly in conventional image reconstruction.
  • FIGS. 4A and 4B are diagrams for explaining the problems in the case where the finger is quickly turned on in the conventional image reconstruction.
  • FIGS. 5A and 5B are a top view and a cross-sectional view of a biometric feature input device according to a first embodiment of the present invention.
  • FIG. 6 is a view for explaining a state in which a finger is pressed against the gap of the finger travel guide of the biometric feature input device according to the first embodiment of the present invention.
  • FIG. 7 is a view for explaining a state in which the finger is moved along the finger travel guide of the biometric feature input device according to the first embodiment of the present invention.
  • FIG. 8 is a view for explaining the internal structure of the skin of a finger.
  • FIG. 9 is a flow chart showing an example of processing by the microprocessor unit of the biometric feature input device of the first embodiment of the present invention.
  • FIGS. 10A and 10B are a top view and a cross-sectional view of a biometric feature input device according to a second embodiment of the present invention.
  • FIG. 11 is a view for explaining the function of the light source of the biometric feature input device of the second embodiment of the present invention.
  • FIG. 12 is a view showing an example of a fingerprint image read by a biometric feature input device according to a second embodiment of the present invention.
  • FIG. 13 is a view showing an example of a fingerprint image inputted by the conventional fingerprint input device using the total reflection critical angle.
  • FIG. 14 is a cross-sectional view of a biometric feature input device according to a third embodiment of the present invention.
  • FIGS. 15A and 15B are explanatory views of the operation of the biometric feature input device according to the third embodiment of the present invention.
  • FIG. 16 is a graph showing the relationship between the refractive index and the contrast of the transparent solid film interposed between the two-dimensional image sensor and the finger.
  • FIG. 17 is a view showing an example of a fingerprint image read by the biometric feature input device according to the third embodiment of the present invention.
  • FIG. 18 is a cross-sectional view of a biometric feature input device according to a fourth embodiment of the present invention.
  • FIG. 19 is a cross-sectional view of a biometric feature input device according to a fifth embodiment of the present invention.
  • FIG. 20 is a cross-sectional view of a biometric feature input device according to a sixth embodiment of the present invention.
  • FIG. 21 is a view for explaining the principle of reading a blood vessel image at the same time as a fingerprint image by the biometric feature input device according to the sixth embodiment of the present invention.
  • FIG. 22 is a flow chart showing an example of processing by a microprocessor unit of the biometric feature input device of the sixth embodiment of the present invention.
  • FIGS. 23A and 23B are diagrams for explaining an image correction method for a spiral fingerprint in a biometric feature input device according to a sixth embodiment of the present invention.
  • FIGS. 24A and 24B are diagrams for explaining an image correction method for a scale-like fingerprint in a biometric feature input device according to a sixth embodiment of the present invention.
  • FIG. 25 is a view for explaining the shape of an arcuate fingerprint.
  • FIG. 26 is a flow chart showing an example of processing by a microprocessor unit of the biometric feature input device of the seventh embodiment of the present invention.
  • the biometric feature input device includes a one-dimensional or quasi one-dimensional image sensor 5 and a gap 2 directly above the effective pixel portion 1 of the image sensor 5.
  • the AZD conversion unit 7 which converts the analog output signal of the image sensor 5 into a digital signal, the control of the imaging timing of the image sensor 5 and the AZD conversion unit 7 And a microphone port processor unit 8 that executes image processing and the like on the output digital signal.
  • the one-dimensional image sensor 5 is a one-line image sensor, and the quasi-one-dimensional image sensor 5 is a rectangular image sensor of about two to twenty lines.
  • the ridge spacing of the fingerprint is about 0.2 mm force for adults and about 0.5 mm for children and women.
  • the sensor (light receiving element) pitch be approximately 20 to 50 m.
  • the width and radius of the finger are taken into consideration and the width of about 15 mm is considered as the contact effective part, for example, if the sensor of 2 lines and 5 12 dots at 12 intervals is arranged in 12 lines to make a quasi 1 dimensional image sensor, An image of 15.15 mm wide and 0.35 mm long can be obtained at a time.
  • the image sensor 5 can be manufactured by CMOS, CCD, TFT technology, etc., and its density and size can be sufficiently produced by the current integrated circuit technology, and an image sensor that has been put to practical use in video cameras etc. Necessary and sufficient sensitivity can also be obtained by considering the fact that m or less.
  • the finger travel guide 3 has a substantially constant distance without contact between the finger 4 and the effective pixel portion 1 of the image sensor 5 during relative movement at the time of fingerprint acquisition in which the finger 4 and the image sensor 5 slide relative to each other. It is provided between the finger 4 and the image sensor 5 so as to be maintained.
  • the finger The traveling guide 3 is made of an opaque material, and is attached to a housing (not shown) dedicated to the biometric feature input device, or attached to a housing of an electronic device such as a cellular phone or a personal computer, or the like. Configure a part of the chassis.
  • the shape of the gap 2 provided in the finger travel guide 3 of the present embodiment is rectangular when viewed from directly above, and the long side size thereof is sufficient for light to be applied to the effective pixel portion 1 of the image sensor 5.
  • the size is equal to or more than the short side of 1 (sub scanning direction). If the gap 2 is too large, the skin of the finger 4 will come into direct contact with the effective pixel portion 1 at the time of fingerprint collection, so that the short side size is 2. Omm or less, preferably 1. Omm or less.
  • the size in the height (depth) direction of the gap 2 is too small, the skin of the finger 4 directly contacts the effective pixel portion 1 at the time of fingerprint collection, and if too large, the skin of the finger 4 and the effective pixel Since the distance to the part 1 is too large and the image blur becomes worse, the size is 10 ⁇ m to 200 ⁇ m, preferably 20 ⁇ m to 80 ⁇ m.
  • the AZD conversion unit 7 converts the analog output signal of the image sensor 5 into a digital signal and outputs the digital signal to the microprocessor unit 8.
  • the microprocessor unit 8 inputs the digital signal of the A / D conversion unit 7 and Execute image processing.
  • the first joint of the finger 4 is applied to the vicinity of the gap 2 of the finger travel guide 3 and Draw finger 4 in the direction of arrow 6 in Fig. 5B as you trace. Since the skin of the finger 4 has elasticity, as shown in FIG. 6, when the finger 4 is pressed in the direction of the arrow 601, the height and width of the finger 4 contact the effective pixel portion 1 of the image sensor 5 Even with the gap 2, if the gap 2 is lightly traced by the abdomen of the finger 4 as described above, a force 603 in the opposite direction to the pulling direction 602 is applied to the skin surface of the finger 4 as shown in FIG. When the finger 4 is not in contact with the pixel unit 1, the distance between the skin of the finger 4 and the effective pixel unit 1 is always kept constant while the finger 4 is moving.
  • the tissue inside the finger of the epidermis 1004 has a dermis 1005, and the ridge 1002 of the ridge of the fingerprint There is a papillary gland tissue 1003 below.
  • the dermis 1005 including the papillary gland contains more water and oil than the epidermis 1004, causing a difference in refractive index.
  • the light emitted from the valley portion 1001 which is the concave portion of the fingerprint is reduced by the papillary gland projecting to the fingerprint ridge portion. Therefore, among the sensors (light receiving elements) arranged in the effective pixel portion 1 of the image sensor 5, the sensor closer to the ridge 1002 at the timing of imaging is incident compared to the sensor closer to the valley portion 100 1. As a result, a partial image in which the valley portion 1001 is a bright area and the ridge 1002 is a dark area is obtained.
  • an analog signal that produces a one-dimensional or quasi-one-dimensional partial image obtained at appropriate timings is converted into a digital signal by the AZD conversion unit 7 and is input to the microprocessor unit 8.
  • the microprocessor unit 8 reconstructs a pattern image of the skin of the entire finger 4 by connecting the partial images sequentially input.
  • the connection processing of partial images performed by the microprocessor unit 8 is basically performed by judging the similarity between partial images in the same manner as the method described in FIG. 2A. An example of the process is shown in Fig.9.
  • a partial image of one frame of the image sensor 5 is read, and written to the bottom of the first memory (not shown) (step S101).
  • the partial image for one frame means an image obtained for all the lines in the case of the quasi-one-dimensional image sensor in which the image sensor 5 is composed of several lines, and the image sensor 5 is an image for one line In the case of a one-dimensional image sensor, the image obtained by that one line is meant.
  • the partial image of one frame of the image sensor 5 is read again, and the partial image stored in the first memory is compared line by line from the top line (step S102).
  • the image part of the line or more having the difference is the partial image stored in the first memory.
  • the image sensor 5 is also configured to have 12 line forces, and the last 3 lines of the 12 lines read this time are the same as the 3 lines on the top line side of the partial image stored in the first memory, If the fourth to last line force is also different from the first line, the image portion from the first line to the ninth line is added onto the topmost line of the first memory.
  • the image data for one finger is acquired in the above-described steps S102 to S104. (Step S105).
  • a finger pattern image of the skin directly reflecting the internal structure of the finger 4 using the one-dimensional or quasi-one-dimensional image sensor 5 and unnecessary optical components is used. It is possible to read stably without being affected by wetting or drying, and to make the device simple and compact. The reason is that a small and inexpensive one-dimensional or quasi one-dimensional image sensor is used as the image sensor 5 and the finger 4 and the image sensor 5 are effective during relative movement in which the finger 4 and the image sensor 5 slide relative to each other.
  • a finger travel guide 3 is provided to maintain a substantially constant distance without contacting the pixel portion 1, and the surface force of the finger 4 is scattered by the inside of the finger 4 and the skin surface force of the finger 4 is emitted.
  • the image is directly captured by the image sensor 5 during the relative movement, and the obtained one-dimensional or quasi-one-dimensional partial images are stitched together by the image processing of the microprocessor sensor unit 8 to reconstruct a finger-like image. It is from.
  • the biometric feature input device according to the second embodiment of the present invention is the same as the one shown in FIGS. 5A and 5B in that a plurality of light sources 151 are disposed on the finger travel guide 3.
  • This embodiment is the same as the first embodiment except for the biometric feature input device according to the first embodiment.
  • the light sources 151 are arranged in a line along the long side in the vicinity of the gap 2 of the finger travel guide 3 and move the finger 4 moving on the finger travel guide 3 in the direction indicated by the arrow 6 at the time of fingerprint extraction. It illuminates from the abdomen side (the finger travel guide 3 side) and generates scattered light inside the finger.
  • the light source 151 is arranged on the side where the finger 4 is drawn with the gap 2 at the center so that scattered light can be sufficiently generated inside the fingertip even when the fingertip reaches the vicinity of the gap 2.
  • the surface light that is scattered inside the finger The emitted light has a skin-like pattern even with ambient light alone If the light source 151 is placed in parallel with the one-dimensional or quasi-one-dimensional image sensor 5 in the finger pulling direction, the light from the light source 151 is scattered inside the finger and the light source The light component of the direction is strongly emitted. This situation will be described with reference to FIG.
  • FIG. 11 shows an image of the same part of the same finger read by the method using the total reflection critical angle among the methods based on the conventional contact.
  • FIG. 12 there is a light source on the lower side of the figure, which is the side that pulls a finger.
  • the more distant fingerprint ridges become darker and the near side of the valleys brighter.
  • the light source side of the fingerprint ridge is darker and the contrast is rising.
  • This portion is considered to overlap with the attenuation effect of the scattered light inside the skin of the finger by the papillary gland tissue 1003.
  • a pattern is missing around the center of the image in Fig. 13 and there is a force with a portion that corresponds to a peeled portion of the skin!
  • the same site has a pattern in FIG. 11, and the image of the peeled portion which has conventionally been lost is also obtained with high V and contrast!
  • the light source 151 is disposed on the side from which the finger 4 is pulled from the gap 2.
  • the light source 151 may be disposed on the opposite side from the gap 2. You may arrange the
  • a protective cover 801 made of a light transmitting solid is inserted in the gap 2 of the finger travel guide 3.
  • This embodiment differs from the biometric feature input device according to the first embodiment shown in FIG. 1 and is otherwise the same as the first embodiment.
  • the lower surface of the protective cover 801 is substantially in contact with the effective pixel portion 1 of the image sensor 5, and the upper surface thereof is substantially flush with the upper surface of the finger travel guide 3.
  • the protection embedded in gap 2 of finger travel guide 3 around the first joint of finger 4 If the finger 4 is pulled so as to trace the protective cover 801 with the abdomen of the finger 4 and apply pressure near the cover 801, a part of the skin of the finger 4 always touches the protective cover. For this reason, among the light scattered in the finger and emitted from the skin surface force of the finger, the light emitted also from the fingerprint ridge portion contacting the protective cover, etc. is directly protected as shown by reference numeral 1111 in FIG. 15A.
  • the light is incident on 801 and propagates in the protective cover 801 to reach the effective pixel portion 1 of the image sensor 5.
  • light that has also emitted a force such as fingerprint valleys not in contact with the protective cover 801 enters the air layer once and propagates in the air layer as shown by reference numeral 1112 and then enters the protective cover 801 and thereafter the fingerprint ridges.
  • the light which has been emitted is also propagated through the protective cover 801 in the same manner as the emitted light and reaches the effective pixel portion 1 of the image sensor 5.
  • the light scattered in the finger and emitted from the skin surface of the finger is the light regardless of the fingerprint ridge and the fingerprint valley
  • the light enters the air layer and propagates the air layer, and then reaches the effective pixel portion 1.
  • the ridge portion is detected by the image sensor 5 as a dark region and the valley portion as a bright region.
  • the protective cover 801 shown in FIG. 15A is interposed, if the refractive index of the protective cover 801 is close to the same value “1” as air, it is equivalent to FIG.
  • the ridges are detected by the image sensor 5 as dark areas and valleys as bright areas. However, if the refractive index of the protective cover 801 is increased, the ridges are bright areas and the valleys are dark. As an area, it is detected by the image sensor 5. This is because the refractive index difference between the finger 4 and the air and between the air and the protective cover 801 is greater than the refractive index difference between the finger 4 and the protective cover 801 when the refractive index of the protective cover 801 increases.
  • the light 11 12 emitted from the valley passes through the two interfaces with a large difference in refractive index (the interface between the finger and air, the interface between the air and the protective cover), and thus the skin surface
  • the intensity of the emitted light in the valley is stronger than that of the ridge, when it reaches the effective pixel area 1, the light arriving from the ridge is stronger than the valley.
  • a two-dimensional image sensor in which finger radiation is radiated close to the finger through a transparent protective cover made of glass or the like.
  • a fingerprint image in which the valley portion of the fingerprint is a dark area and the ridge portion is a bright area is obtained.
  • the refractive index of the protective cover 801 is a certain value, the contrast force SO between the ridges and the valleys is obtained.
  • a refractive index value is referred to as a singular point
  • the protective cover 801 is made of a light transmitting solid having a refractive index of a value other than the value near the singular point.
  • the refractive index of the protective cover 801 will be considered below.
  • the line connecting the points of + marks is for the case where the refractive index of the finger is assumed to be 1.4
  • the line connecting the points of X is for the case where the refractive index of the finger is assumed to be 1.5.
  • the graph in Fig. 16 is obtained by calculating only the effect due to the difference in refractive index between the skin of the finger and the interface between the air and the transparent solid film, which is different from the effect due to the internal structure of the skin of the finger.
  • the contrast is 0%.
  • the graph in FIG. 16 assumes that the power of light directed from inside the skin to the ridges is the same as the power of light directed to the valleys.
  • the refractive index is 1.0
  • the same contrast as in the first embodiment is obtained.
  • the contrast value is negative.
  • the protective cover 801 with a refractive index of 1.1 has a contrast of valleys and ridges of zero.
  • the refractive index of the protective cover 801 needs to be greater than or equal to 1.0 and less than 1.1, or greater than 1.1. Since almost no light transmitting solid having a refractive index of less than 1.1, the protective cover 801 may be composed of a light transmitting solid having a refractive index of substantially greater than 1.1.
  • the refractive index of the transparent solid film has a contrast in the range of 1. 4 to 2.0. Is particularly high. If the whole peeled part of the skin does not come in contact with the transparent solid film, the whole part does not have the same contrast, but rather a pattern reflecting the structure of the inside of the finger as described above. Therefore, if the contrast between the ridges in contact with the transparent solid film and the valleys not in contact with the transparent solid film is abnormally high compared to the contrast of the pattern, the sensor's dynamic range is not broad. Detection becomes difficult. Therefore, for the protective cover 801, a refractive index in the range of 1. 4 to 2.0, for which the contrast is particularly high in FIG. 16, is not suitable.
  • the refractive index of the protective cover 801 be greater than 1.1 and less than 1.4 or less than 2.0 greater than 5.0.
  • An example of a substance having a refractive index of less than 1.4 and suitable for the protective cover 801 is, for example, a glass containing BeF 3 (beryllium fluoride) as a main component.
  • the protective cover 801 As a solid suitable for the protective cover 801 with a substance having a refractive index of greater than 2.0, for example, a glass containing a large amount of BaO (barium oxide) or PbO (lead oxide), hematite (red iron and steel), rutile (gold akaiseki), germana -There is Yuum, diamond or silicon.
  • silicon is easy to obtain as a semiconductor material, easy to process, and relatively inexpensive. If a silicon wafer is used as a protective cover with a thickness of 200 m or less, a sufficient sensor light output can be obtained with high transparency in the low wavelength region of light, in particular, near infrared light with a wavelength of 800 to 1000 nm.
  • Silicon is also an environmentally friendly material compared to glasses containing harmful substances.
  • the lower part of the image sensor such as CMOS and CCD created from silicon wafer was thinly polished and the thickness to the photosensitive layer was set to 200 m or less and turned upside down, and it was the base of the original silicon wafer. If the lower part is in contact with the skin, an equivalent structure can be obtained without applying a special cover.
  • the finger of the finger 4 read by the biometric feature input device of the present embodiment provided with a protective cover 801
  • the image of the print is shown in FIG. It can be seen that the contrast of the ridges is also obtained in the round peeled area at the upper left of the image. However, the bright and dark areas are reversed with other places.
  • the protective cover 801 is provided in this way, depending on the refractive index of the protective cover 801 as described above, the fingerprint ridge becomes bright depending on the conditions of the contact, and the valley becomes dark and the non-contact and the light and dark reverse. .
  • This problem can be solved by image processing and fingerprint authentication. That is, it is sufficient to extract and connect only the continuity of ridges by edge emphasis.
  • the authentication method is based on the position relationship between the bifurcation point and the end point of the fingerprint and the feature point, the inversion of light and dark does not affect the authentication.
  • a band pass filter 1801 and an automatic gain control circuit 1802 are connected between the image sensor 5 and the AZD conversion unit 7.
  • the third embodiment is the same as the third embodiment except for the biometric feature input device according to the third embodiment shown in FIG.
  • the band pass filter 1801 extracts only the image component of the fingerprint pitch from the image signal power output from the image sensor 5.
  • the optimum frequency characteristics of the band-pass filter 1801 are determined from the sensor density and scanning frequency, taking into account fingerprint ridge pitch 0.2 mm to 0.5 mm.
  • the image component extracted by the band pass filter 1801 is amplified by the automatic gain control circuit 1802 in the subsequent stage and output to the AZD conversion unit 7.
  • the band pass filter 1801 for extracting only the image component of the fingerprint pitch from the output of the image sensor 5 and the automatic gain control circuit 1802 for amplifying the output are provided.
  • the small output of the part can also be increased.
  • the output of the peeled portion becomes too small and recognition becomes difficult.
  • the example can improve such a problem. It is advantageous in price if it is possible to use a material such as ordinary glass with a refractive index of 1.4 or more and 2.0 or less for the protective cover 801. Of course, 1. It is made of a material with a refractive index other than 4 to 2.0 This embodiment is also effective when the protective cover 801 is configured.
  • the biometric feature input device differs from the third embodiment in that the entire finger travel guide 3 is a protective cover 901, and the other points are the third. It is the same as the example.
  • the protective cover 901 is made of a light transmitting solid having the same refractive index as that of the protective cover 801 in the third embodiment, and the thickness condition is the same as that of the protective cover 801.
  • the entire travel guide 3 becomes the protective cover 901, so that it is excellent in assemblability,! There is.
  • the biometric feature input device includes a light source 161 for illuminating the back (nail side) of the finger 4 from above, and simultaneously with the skin pattern of the finger 4, a blood vessel image.
  • the second embodiment is different from the second embodiment in reading, and the other points are the same as the second embodiment.
  • a light source 161 attached to the upper part (back) of the finger 4 by means of a support (not shown) is for reading blood vessels of the finger, and has a stronger absorption of near-infrared light than other biological fibers, and hemoglobin.
  • the light is well absorbed and light is irradiated from around 800 to 100 nm.
  • an LED developed for infrared remote control in the wavelength range of 820 to 950 nm has a large output and is suitable for the light source 161.
  • the image derived from the light source 151 placed under the finger 4 can only obtain an image of the skin surface.
  • the image from the light source irradiated from the upper light source 161 passes through a thick blood vessel where blood containing hemoglobin is concentrated.
  • the second joint of the finger 4 is applied to the vicinity of the gap 2 of the finger travel guide 3 and the finger 4 Pull the finger 4 as you trace the gap 2 in the abdomen of the stomach, and so on. While the finger 4 is moving, an image is captured by the image sensor 5.
  • the light source 151 disposed under the finger is turned on to obtain an image.
  • the light source 151 below the finger is turned off and the light source 161 above the finger is turned on to obtain the next frame image of the image sensor 5.
  • an image 1701 by the lower light source 151 and an image 1702 by the upper light source 161 as shown in FIG. 21 are obtained.
  • a fingerprint 1704 and a texture 1707 between the first joint 1705 and the second joint 1706 exist, but the image from the light source 161 from the top further includes a blood vessel image 1708.
  • An image 1703 of only the blood vessel image 1709 can be obtained by calculating the difference between the two images 1701 and 1702 in which these are alternately switched. The process of obtaining this difference is performed by the microprocessor unit 8.
  • Figure 22 shows an example of this process.
  • a partial image of one frame of the image sensor 5 is read in a state where only the light source 151 is lit, and is written in a first memory (not shown) (steps S201 and S202).
  • a partial image of one frame of the image sensor 5 is read in a state where only the light source 1 61 is lit, and is written in a second memory (not shown) (steps S203 and S204).
  • the partial image of one frame of the image sensor 5 is read in a state where only the light source 151 is turned on again, and compared with the line on the highest line side of the image stored in the first memory in line units (step S205 , S2 06), if there is a line that is different from the line on the top line side of the image stored in the first memory among the lines read this time, the line after the line with the difference is the top of the first memory Add to the line side (steps S207 and S208).
  • the partial image of one frame of the image sensor 5 is read in a state where only the light source 161 is lighted, and compared with the line on the highest line side of the image stored in the second memory in line units (step S209, S210), if there is a line having a difference from the line on the top line side of the image stored in the second memory among the lines read this time, the line after the line having the difference is the top of the second memory It is added to the upper line side (steps S211 and S212).
  • the processes in steps S205 to S212 are repeated until image data for one finger is obtained (step S213).
  • the image 1701 of FIG. 21 is stored in the first memory
  • the image 1702 of FIG. 17 is stored in the second memory.
  • the image stored in the second memory and the image stored in the first memory are subtracted to generate the image 1703 of FIG. 21 (step S214).
  • the fingerprint of the fingertip 1704 and the first joint and the second joint can be performed in one operation at the same time. It becomes possible to read skin patterns 1707 and blood vessels 1709 between joints.
  • the accuracy is not sufficient as information for personal identification, but it can be used as interpolation data for personal identification by skin patterns such as fingerprints, or for determination of false fingers. Therefore, all images have the effect of enabling personal authentication with higher accuracy than fingerprints of fingertips alone.
  • the biometric feature input apparatus is the same as the first embodiment in that the processing for correcting the distortion of the image is executed after the connection processing of partial images in the microprocessor unit 8.
  • the other points are the same as those of the first embodiment, unlike the vital biometric feature input device. Therefore, the configuration of this embodiment is the same as that of FIG.
  • the microprocessor unit 8 joins partial images together and performs processing in this order, and processing for distortion correction of the image.
  • the process of connecting partial images is the same as in the first embodiment.
  • the image in the horizontal direction of the finger is not distorted at the sensor pitch of the image sensor 5 uniquely, but an image can be obtained in the vertical direction, even if the correlation is checked. I will.
  • the authentication methods such as fingerprints
  • the method of viewing the correlation between ridge branch points and end points is relatively resistant to distortion, but it is still desirable that correction be made to improve authentication accuracy. Therefore, in the present embodiment, it is used in the fingerprint that the components of the ridges are in the horizontal direction and the vertical direction and the interval between the ridges is almost constant in the individual. Predict and correct as follows.
  • the frequency component 1202 of the horizontal ridge of the original finger pattern image 1201 is fl
  • the frequency component 1203 of the vertical ridge is f2
  • the pixel on the ridge before correction is Assuming that the vertical coordinate is Y, the ordinate Y 'of the pixel on the ridge after correction is given by the following equation.
  • FIG. 23A shows a case where the image is drawn by pulling the finger slowly and the force is too fast and it becomes too short.
  • Figures 23A and 23B show swirl marks in the form of fingerprints
  • Figures 24A and 24B show wrinkle marks.
  • these two patterns are often included in the case of humans.
  • Figure 25 In the case of this bow-like print, the frequency components of the horizontal ridges differ greatly. Therefore, the above-mentioned method can not be applied.
  • the arch pattern is statistically small (it is said to be less than 1% in Japanese), it is possible to correct most pattern images by the above correction method.
  • FIG. 26 shows the flow of image processing performed by the microprocessor unit 8.
  • Steps S301 to S305 show a process of combining partial images! /, Which is the same as steps S101 to S105 in FIG.
  • Steps S306 to S308 show the procedure of the process of correcting the distortion of the image.
  • image processing such as edge enhancement and skeleton processing is performed on the image stored in the first memory to extract ridges (step S306).
  • the number of horizontal and vertical ridges of the image is determined and divided by the number of horizontal and vertical pixels to determine the frequency component fl of the horizontal ridge and the frequency component f2 of the vertical ridge (Step S 307).
  • the form of the fingerprint pattern is judged from the shape of the ridge line, and if it is a vortex-like pattern and a ridge-like pattern shown in FIGS. 23A and 23B and FIGS. 24A and 245B, the ridgeline is Correct the ordinate of the pixel and stretch the image vertically (step S308).
  • the same effect as that of the first embodiment can be obtained, and it is possible to obtain a pattern-like image with little distortion.
  • the reason is the ability to predict and correct the vertical distortion of the image based on the difference in frequency components of the horizontal and vertical ridges in the image reconstructed by connecting the partial images.
  • the present invention has been described with reference to several embodiments.
  • the present invention is not limited to only the above embodiments, and various other additions and modifications are possible.
  • the bandpass filter 1801 and the automatic gain in the fourth embodiment in the third to seventh embodiments in which the light source 151 of the second embodiment is provided, and in the first, third and fifth to seventh embodiments, the bandpass filter 1801 and the automatic gain in the fourth embodiment.
  • an embodiment in which the control circuit 1802 is provided may be combined with any of the above-described embodiments as appropriate.
  • the biometric feature input device is useful as a small and inexpensive reading device for stably reading a pattern such as a fingerprint of a finger or a blood vessel image. It is suitable as a device that can input biological characteristics even under adverse conditions such as skin peeling due to dermatitis.
  • a biometric feature such as a fingerprint of a finger can be stably input by the image sensor.
  • Two-dimensional image sensor at a fixed distance to a finger with curvature Although it is difficult to obtain a fingerprint image stably while maintaining a non-contact state, the present invention uses a one-dimensional or quasi-one-dimensional image sensor, and the finger and one-dimensional or quasi-one-dimensional
  • the image sensor is provided with a finger travel guide for keeping a substantially constant distance without contact between the finger and the effective pixel portion of the image sensor during relative movement in which the image sensor and the image sensor slide relative to each other.
  • FIG. 12 is an example image of the same part of the same finger according to an embodiment of the present invention.
  • FIG. 17 is an example of the image of the same site according to another embodiment of the present invention, and in this image also, although the contrast is reversed with respect to the site of peeling, the image is obtained without any loss.
  • biometric feature input device with higher accuracy than a conventional biometric feature input device using only a fingerprint.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Input (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

明 細 書
生体特徴入力装置
技術分野
[0001] 本発明は、個人を認証するための生体特徴を入力する装置に関する。
背景技術
[0002] 近年、情報化の発達に伴い個人情報の漏洩やネットワーク上の取引行ためにおけ る他人のなりすましが問題ィ匕してきている。これを防ぐために、個人固有の生体特徴 を入力して個人を認証する装置が開発されてきている。また、携帯電話に代表される ように情報を扱う装置の小型化と低価格化が進み、生体特徴を入力する装置も小型 ィ匕と低価格ィ匕が要求されている。更に、生体による個人認証が重要なクレジットカー ド等の決済行ためにまで利用される応用事例も考えると、本人を確実に、しかもどの ような状況下でも認証できるために生体特徴入力装置の高精度化の必要性も高まつ ている。
[0003] 従来この種の個人を認証するための生体特徴入力装置は、指先の皮膚の紋様で ある指紋を読取る装置が代表的である。指紋は古くから一人として同じものがない万 人不同、一生変わることがない終生不変の特性を有し、特に警察や司法の分野で研 究されており、高精度な個人認証に利用されている。
例えば特許第 3045629号公報や米国特許第 6381347のように、ファイバーォプ ティックプレートやプリズムの全反射臨界角を利用した方式は、指紋入力装置として 広く利用されている。図 1を参照して、例えばプリズムの全反射臨界角を利用した従 来の指紋入力装置を説明する。指の皮膚 104は皮膚の紋様を拡大して書かれて ヽ る。レンズ 106と 2次元イメージセンサ 107は、プリズム 105のプリズム面 109に対して 直交方向に配置されている。プリズムと接触していない指の部分からの光 101は、屈 折率 1. 0の空気力も屈折率 1. 4以上のプリズム面 108に入射して大きく屈折し、プリ ズム面 109で全反射する力、あるいはプリズム面 109に到達せず 2次元イメージセン サ 107に到達しない。一方、皮膚ないし皮膚表面の油脂あるいは水分の屈折率はプ リズムガラスに近いので、皮膚が接触している部分の光 102は、プリズム面 108での 屈折角が小さくなり、プリズム面 109で全反射角に達することなぐレンズ 106に入射 し、レンズ 106で結像して 2次元イメージセンサ 107に到達する。このようにして指の 指紋等の皮膚の凹凸紋様が、プリズムに接触するか、しないかに基づいて指紋画像 が得られる。し力しながら、この従来の指紋入力装置は、高価で大きな光学部品を使 用しており、装置の小型化と低価格ィ匕の妨げになっていた。
[0004] 指紋入力装置の小型化を実現するために、圧力、温度、静電容量を用いる準 1次 元センサを使用し、指を動かして得られる指の指紋の部分画像をつなぎ合わせて指 紋画像を再構成する技術が、例えば特開平 10— 91769号公報および特開 2001— 155137号公報に提案されている。 1次元のセンサを使用して、読取り対象を動かし て映像を再構成する技術は、ファクシミリや複写機において既知であるが、指を動か す方向の速度を得るための特別なメカニズムが必要である。そのような特別なメカ- ズムを割愛するため、特開平 10— 91769号公報に提案された技術では、準 1次元 の数ラインの画像の類似性に基づ 、て映像が再構成されて 、る。
[0005] 図 2Aと 2Bを参照してこの方式の指紋の画像再構成例を説明する。指 301の画像 として、指を動かすことによって II力 Inの部分画像が得られる。これらの部分画像か ら類似部が除かれて再構成された指紋画像 302が得られる。し力しながら、この方法 では、図 3Aと 3Bに示されるように、指をセンサの撮像速度に対してゆっくり動力した 場合、隣り合う部分画像の間で重なりが大きくなり、類似性の判断が困難になる。また 、得られた指紋画像 303が、縦に間延びして歪んでしまう。逆に、撮像速度より早く指 力 Sスライドされると、図 4Aと 4Bに示されるように、部分画像 IIから Inの間に欠損する 画像が生じ、指紋画像 304のように縦に縮んで歪んでしまう。このように、この従来例 は、上記問題に加えて、皮膚炎などで部分的に皮膚が剥けている場合、指紋認証、 つまり生体特徴による認証がしづら 、と 、う問題を有して 、る。
[0006] こういった状況の中で非接触の指紋検出装置力 例えば特開 2003— 85538号公 報に提案されている。この非接触方式によれば、上記の接触を前提とした方式では 皮が剥けた部分の接触が困難で読取りが難しかった指でも、皮膚紋様の由来となる 皮膚内部構造の部分が保存されて ヽればその映像が得られる。また非接触なので、 湿潤や乾燥といった皮膚表面の状態変化の影響も受けにくい。 この従来例では、 指に入射した光が指内部で散乱し、皮膚の内部構造を反映するように放射光が指か ら放射される。こうして得られた指紋画像において、指紋の凹部が明部領域となり、凸 部が暗部領域となり、指紋と同じ形の濃淡画像が得られる。こうして、この従来例では 、表皮の湿潤乾燥に左右されず、表皮角質層が皮膚炎等によってむけて脱落してい る場合でも、指紋等の表皮紋様の元となる真皮の構造が保存されていれば、指紋画 像が得られる。ただし、特開 2003— 85538号公報に示される指紋検出装置の場合 、指と結像系の間に空間を設け非接触にしないと目的の画像が得られない。また焦 点を合わせる必要性力 指の固定枠が必要であり、操作性と装置の小型化を妨げて いる。また、結像光学系が必要であり、更に装置が大型化してしまう。また、指と結像 系が離れており、指の内部構造で皮膚表面力 射出する光の量が変化しても皮膚表 面で散乱し、結像系の距離による拡散による悪影響と推測される事象によって、実際 に皮の剥けて 、る部分では良好なコントラストの指紋画像が得られな 、と 、う問題点 かあつた。
[0007] このため、光や電界、圧力や静電容量や温度といった物理量の絶対値や変化量を 利用した各種の読取り装置が開発されている。例えば、指に近接して 2次元イメージ センサが設けられ、指力ゝらの散乱放射光をガラスなどでできた透明保護カバーを介し て 2次元イメージセンサによって撮像して、指紋の凹部が暗部領域、凸部が明部領 域となる指紋画像を取得する指紋入力装置が、本願の発明者によって特許第 3150 126号に提案されている。この従来例では、圧力、温度、静電容量、全反射臨界角 を利用したセンサに比較して指の湿潤や乾燥や外乱光等の外部環境の影響を受け にくぐ装置の小型化と低価格化を実現している。しかし、大型の 2次元イメージセン サが必要であり、レンズ等の光学系は廃したものの、更なる装置の小型化と低価格化 の妨げになっていた。また、本願の発明者によって提案された特開 2003— 006627 号公報に記述されて 、るように、透明保護カバーの屈折率を最適に選ぶことによって コントラストの高い画像を得ることができる。
[0008] また、指力もの散乱放射光による指紋像は、皮膚とセンサ保護膜との界面状態に大 きく依存することは本発明者の提案に力かる特開 2003— 006627号公報によって明 らかにされている。一方で指力もの散乱放射光を読取る技術は、指内部に光が一旦 入射していることから、指内部の構造を反映することは明らかである。従って、本願の 発明者による特許第 3150126号による指紋入力装置は、光学結像系を廃しある程 度の小型の指紋検出装置を実現すると共に、皮が剥けた非接触の部分においての 現象として、特開 2003— 85538号公報で指摘されている指の皮膚の内部構造を反 映した画像が得られる。しかしながら、指紋とそれに近接して配置された 2次元ィメー ジセンサとの間に存在する透明カバーの屈折率を、特開 2003— 006627号公報に 述べられているように透明カバーに接する指紋の凸部に対応する明部領域と接しな い凹部に対応する暗部領域とのコントラストが大きくなるように選定すると、界面の反 射と屈折の影響が強くなり皮膚構造を反映する成分が小さくなるため、皮膚が剥けて いる部分に本来現れる皮膚構造を反映した指紋像のコントラストが得に《なるという 問題点があった。この問題はダイナミックレンジを広くとれな 、場合に特に顕著である 。非接触状態を保てば界面の影響がなくなるが、 2次元のイメージセンサにおいて曲 率のある指に対して一定の距離で非接触状態を保つことはできず安定した指紋画像 を得るのは困難であった。
他方、指に存在する生体特徴の入力装置として指紋以外に指の第一関節より下の 指の付け根側の血管のパターンを認証する技術が近年実用化されつつある。これは 、血液による近赤外線の吸収を利用して静脈等の太い血管パターンを読取るもので 、 1980年代に盛んに研究された光 CT (コンピュータ トモグラフィー)、いわゆる人体 に害の少ない光によって人体のコンピューター断層撮影を行おうとする技術の応用 である。指の上部力 近赤外線を照射し、指内を通過して反対側の指の腹力 射出 する光力 血管内に豊富に存在する血液における近赤外線の吸収によって暗くなる ことによって血管像を得る。例えば特開 2001— 155137号公報で開示されているよ うに指紋の紋様と同時に読取ることができれば指紋情報との補完、あるいは生体であ るかどうかの有力な情報源となり偽指の判断方法としても有効である。
し力しながら、血管のパターンの有効な情報量は一般に多様な指紋より少なぐま た栄養状態や血栓や血圧等の障害によって変化する。万人不同、終生不変として警 察と司法分野が主体で研究が完成されている指紋に比較してその精度は未確認で あり今後の研究課題として残されている。また、非接触の指紋検出装置の提案 (特開 2003— 85538号公報)と同様に指と結像光学系の間に空間が必要であり、また焦 点を合わせる必要性力 指の固定枠も必要であり、操作性と装置の小型化の妨げに なっていた。また、指先の指紋部分には毛細血管のみしか存在せず、毛細血管は前 記方式ではパターンを読取ることはできない。読取りが可能な静脈血管は第一関節 より下の指の付け根側であるため、その部分を第一関節より上の指先の指紋部分と 同時に縮小光学系で読まなければならないので更に装置が大型化してしまうという 問題点もある。
[0010] 上記説明と関連して、指紋検出方法が特開平 5— 168610号公報に開示されてい る。この従来例の指紋検出方法は、潜在指紋を含む検体に光源から光を照射し、得 られる指紋像を演算処理して指紋を検出する光学的指紋検出方法である。予め検体 の表面温度を測定して熱画像情報として記憶し、次に検体に対して指紋成分中に含 まれる水分または有機物質の量によって吸収特性が変化する領域の波長の光を一 定時間投射した後投射光をカットする。その時の検体表面の温度を測定し熱画像情 報としてとらえる。予め測定し記憶しておいた投射光照射前の熱画像情報と、投射光 を照射した後の熱画像情報とを電気信号に変換し、 2次元温度分布の差を演算し、 演算した結果得られる画像を表示することにより指紋隆線の所在を特定する。
[0011] また、指紋情報処理装置が特開平 10— 143663号公報に開示されている。この従 来例の指紋情報処理装置は、対象者の指紋を部分的に光学検出する指紋画像検 出部を有している。相対位置検出部は、指紋画像検出部にて検出される複数の部分 指紋画像の相対位置を検出する。画像合成部は、相対位置検出部にて検出された 相対位置情報に基づいて複数の部分指紋画像の相互間の位置ずれを補正しつつ 合成することにより合成指紋画像を形成する。記憶部は、合成指紋画像のデータを 個人識別情報用の登録指紋画像として登録する。
[0012] また、指紋認証装置が特開 2002— 49913号公報に開示されている。この従来例 の指紋認証装置では、光学イメージセンサ 2のフォトセンサ領域は、指内部からの散 乱光を画像信号に変換する有効画像領域と、光に反応しな!ヽ黒基準領域を有する。 黒基準領域は、光学イメージセンサの母体となるシリコン基板と熱伝導性膜で接続し てもよぐフォトセンサ領域を覆う二酸ィ匕シリコン上に光学遮光膜を設けることにより形 成される。黒基準領域読出部は、指が光学イメージセンサに載置される前後の、光 学イメージセンサのフォトダイオードの暗電流を読み出し、暗電流比較部は両電流信 号を比較する。指紋照合部は画像信号に所定値以上の差が検出されると、有効画 像領域の画像信号を取り込み、指紋データベースを照合して比較する。指紋判定部 は、画像信号の比較の結果、所定値以上の差が認められ、かつ指紋データベースの 照合の結果、特徴が一致した場合にのみ指を本物と判定する。
発明の開示
[0013] 本発明の目的は、指の指紋などの生体特徴を 1次元または準 1次元のイメージセン サを使用して生体の特徴を安定的に入力することのできる小型で低廉な生体特徴入 力装置を提供することにある。
[0014] 本発明の他の目的は、指表面の指紋と同時に指の血管像も入力することのできる 小型で低廉な生体特徴入力装置を提供することにある。
[0015] 本発明の更に他の目的は、指の指紋などの生体特徴を 1次元または準 1次元のィ メージセンサを使用して安定に入力するための指走行ガイドを備えた電子機器を提 供することにある。
[0016] 本発明の観点では、生体特徴入力装置は、 1次元または準 1次元のイメージセンサ と、指と前記イメージセンサとが互いにスライドする相対運動中に前記指と前記ィメー ジセンサの有効画素部とが接触せずにほぼ一定の距離が保たれるようにする指走行 ガイドと、前記指の内部で散乱して前記指の皮膚表面から放射される放射光による 画像を前記相対運動中に前記イメージセンサによって撮像して得た 1次元または準 1 次元の部分画像をつなぎ合わせて 、く画像処理手段とを備えて!/、る。
[0017] 本発明の他の観点では、生体特徴入力装置は、 1次元または準 1次元のイメージセ ンサと、指と前記イメージセンサとが互!ヽにスライドする相対運動中に前記指と前記ィ メージセンサの有効画素部とが接触せずにほぼ一定の距離が保たれるようにする指 走行ガイドと、前記指の背部に血管像用の光を照射する上部光源と、前記指の内部 で散乱して前記指の皮膚表面から放射される放射光による第 1画像と前記上部光源 から照射された光が指内を通過して前記指の皮膚表面から放射される放射光による 第 2画像とを前記相対運動中に前記イメージセンサによって交互に撮像して得た 1次 元または準 1次元の部分画像を第 1画像毎および第 2画像毎につなぎ合わせ、且つ 、再構成した第 1画像と第 2画像の差分である血管像を抽出する画像処理手段とを 備えている。
上記の生体特徴入力装置において、前記指走行ガイドは、前記イメージセンサの 前記有効画素部の直上に間隙を有してもよい。前記間隙の高さが 10 m以上、 200 IX m以下、前記相対運動方向に平行な幅が前記イメージセンサの副走査方向の有 効画素長以上、 2. Omm以下であることが好ましい。また、前記間隙に、光透過性を 有する固体が挿入されて 、てもよ 、。
また、前記指走行ガイドの少なくとも前記イメージセンサの前記有効画素部の直上 部分が光透過性を有する固体で構成されていてもよい。前記固体の高さが 10 m以 上、 200 m以下であることが好ましい。また、前記固体の屈折率が、 1. 1より大きい ことが好ましい。前記固体の屈折率が、 1. 1より大きぐ 1. 4より小さいことがより好ま しい。また、前記固体の屈折率が、 2. 0より大きいことが好ましい。前記固体の屈折 率力 2. 0より大きぐ 5. 0より小さいことがより好ましい。
上記生体特徴入力装置は、前記イメージセンサによる読取対象部位の近傍より前 記指の腹部に光を照射することにより、指内部に散乱光を発生させる下部光源を更 に備えてもよい。
また、上記生体特徴入力装置は、前記イメージセンサの出力画像信号力 指紋ピ ツチの画像成分を抽出するバンドパスフィルタと、該バンドパスフィルタの出力を増幅 する自動利得制御回路と更に備えてもよい。
また、上記生体特徴入力装置は、前記画像処理手段は、つなぎ合わせた画像の歪 みを指紋部分の周波数解析によって修正する補正手段を含んでもよい。
本発明の第 1電子機器は、 1次元または準 1次元のイメージセンサの有効画素部の 直上に、高さが 10 μ m以上、 200 μ m以下、短辺の幅が前記イメージセンサの副走 查方向の有効画素長以上、 2. Omm以下である間隙を有し、指と前記イメージセン サとが互いにスライドする相対運動中に前記指と前記イメージセンサの有効画素部と が接触せずにほぼ一定の距離が保たれるようにするための指走行ガイドを備えること が好ましい。 [0019] 本発明の電子機器において、前記間隙に、光透過性を有する固体が挿入されてい ることが好ましい。
本発明にあっては、指と 1次元または準 1次元のイメージセンサとが互いにスライド する相対運動中、指走行ガイドによって指とイメージセンサの有効画素部との接触が 防止されると同時に、両者の距離がほぼ一定に保たれるため、指と有効画素部の距 離が遠すぎて画像がぼけたり、距離が変動して画像が歪んだりするのが防止され、 指の内部で散乱して指の皮膚表面から放射される放射光を前記相対運動中にィメ ージセンサによって安定して撮像することができ、ひいては、撮像された 1次元または 準 1次元の部分画像をつなぎ合わせることで生成される指全体の画像の精度を高め ることがでさる。
図面の簡単な説明
[0020] [図 1]図 1は、従来の接触を前提とした光学プリズム方式の原理を説明する図である。
[図 2]図 2Aと 2Bは、従来の画像再構成方式を説明する図である。
[図 3]図 3Aと 3Bは、従来の画像再構成で指を遅く動力ゝした場合の問題点を説明する 図である。
[図 4]図 4Aと 4Bは、従来の画像再構成で指を早く動力ゝした場合の問題点を説明する 図である。
[図 5]図 5Aと 5Bは、本発明の第 1実施例にかかる生体特徴入力装置の上面図と横 断面図である。
[図 6]図 6は、本発明の第 1実施例にカゝかる生体特徴入力装置の指走行ガイドの間隙 に指を押しつけた状態を説明する図である。
[図 7]図 7は、本発明の第 1実施例にカゝかる生体特徴入力装置の指走行ガイドに沿つ て指を移動させた状態を説明する図である。
[図 8]図 8は、指の皮膚の内部構造を説明する図である。
[図 9]図 9は、本発明の第 1実施例に力かる生体特徴入力装置のマイクロプロセッサ 部による処理例を示すフローチャートである。
[図 10]図 10Aと 10Bは、本発明の第 2実施例にかかる生体特徴入力装置の上面図と 横断面図である。 [図 11]図 11は、本発明の第 2実施例にカゝかる生体特徴入力装置の光源による作用 を説明する図である。
[図 12]図 12は、本発明の第 2実施例に力かる生体特徴入力装置で読み取った指紋 画像例を示す図である。
[図 13]図 13は、従来の全反射臨界角を利用した指紋入力装置で入力した指紋画像 例を示す図である。
[図 14]図 14は、本発明の第 3実施例に力かる生体特徴入力装置の横断面図である
[図 15]図 15Aと 15Bは、本発明の第 3実施例に力かる生体特徴入力装置の作用の 説明図である。
[図 16]図 16は、 2次元イメージセンサと指との間に介在する透明固体膜の屈折率とコ ントラストとの関係を示すグラフである。
[図 17]図 17は、本発明の第 3実施例に力かる生体特徴入力装置で読み取った指紋 画像例を示す図である。
[図 18]図 18は、本発明の第 4実施例に力かる生体特徴入力装置の横断面図である
[図 19]図 19は、本発明の第 5実施例に力かる生体特徴入力装置の横断面図である
[図 20]図 20は、本発明の第 6実施例に力かる生体特徴入力装置の横断面図である
[図 21]図 21は、本発明の第 6実施例にカゝかる生体特徴入力装置により指紋画像と同 時に血管像を読取る原理を説明する図である。
[図 22]図 22は、本発明の第 6実施例にカゝかる生体特徴入力装置のマイクロプロセッ サ部による処理例を示すフローチャートである。
[図 23]図 23Aと 23Bは、本発明の第 6実施例に力かる生体特徴入力装置において 渦状指紋に対する画像補正方法を説明する図である。
[図 24]図 24Aと 24Bは、本発明の第 6実施例に力かる生体特徴入力装置において 蹄状指紋に対する画像補正方法を説明する図である。 [図 25]図 25は、弓状指紋の形状を説明する図である。
[図 26]図 26は、本発明の第 7実施例にカゝかる生体特徴入力装置のマイクロプロセッ サ部による処理例を示すフローチャートである。
発明を実施するための最良の形態
[0021] 以下に添付図面を参照して、本発明の生体特徴入力装置について詳細に説明す る。
[0022] [第 1実施例]
図 5Aと 5Bは、本発明の第 1実施例に係る生体特徴入力装置を示す図である。図 5 Aと 5Bを参照して、第 1実施例に力かる生体特徴入力装置は、 1次元または準 1次元 のイメージセンサ 5と、このイメージセンサ 5の有効画素部 1の直上に間隙 2が位置す るように取り付けられた指走行ガイド 3と、イメージセンサ 5のアナログ出力信号をデジ タル信号に変換する AZD変換部 7と、イメージセンサ 5の撮像タイミングの制御およ び AZD変換部 7から出力されるデジタル信号に対する画像処理などを実行するマ イク口プロセッサ部 8とを備えて 、る。
[0023] 1次元のイメージセンサ 5とは 1ラインのイメージセンサであり、準 1次元のイメージセ ンサ 5とは 2ラインから 20ライン程度の短冊形のイメージセンサである。指の生体特徴 のうち、指紋を読取ることを可能にするには、指紋の隆線間隔が成人の場合 0. 2mm 力 0. 5mm程度であり、子供や婦人の場合は 0. 1mm程度までであることを考慮す ると、センサ(受光素子)のピッチは 20〜50 m程度が望ましい。指の幅と丸みを考 慮し、横幅 15mm程度を接触有効部分とすれば、例えば 29. 6 m間隔で 1ライン 5 12ドットのセンサを 12ラインならべて準 1次元のイメージセンサとすれば、 1度に横 15 . 15mm,縦 0. 35mmの短冊形の画像が得られる。イメージセンサ 5は、 CMOSや CCD, TFT技術などによって製作可能であり、この密度と大きさは現状の集積回路 技術によって十分生産可能であり、且つビデオカメラ等で実用化されているイメージ センサが 10 m以下ということを考え合わせると必要十分な感度も得られる。
[0024] 指走行ガイド 3は、指 4とイメージセンサ 5とが互いにスライドする指紋採取時の相対 運動中に指 4とイメージセンサ 5の有効画素部 1とが接触せずにほぼ一定の距離が 保たれるように指 4とイメージセンサ 5との間に設けられている。本実施例の場合、指 走行ガイド 3は、不透明な材質で構成され、生体特徴入力装置専用の図示しない筐 体に取り付けられるか、携帯電話機やパーソナルコンピュータ等の電子機器の筐体 に取り付けられるか、そのような電子機器の筐体の一部を構成する。また、本実施例 の指走行ガイド 3に設けられた間隙 2の形状は、真上から見て矩形状をなしており、 その長辺サイズは、イメージセンサ 5の有効画素部 1に光が十分入射するように少な くとも有効画素部 1の長辺(主走査方向)以上のサイズがあり、その短辺サイズは、同 じく有効画素部 1に光が十分入射するように少なくとも有効画素部 1の短辺(副走査 方向)以上のサイズである。間隙 2が大きすぎると指紋採取時に指 4の皮膚が有効画 素部 1に直接接触してしまうため、 2. Omm以下、好ましくは 1. Omm以下の短辺サイ ズになっている。また間隙 2の高さ (深さ)方向のサイズは、小さすぎると指紋採取時 に指 4の皮膚が有効画素部 1に直接接触してしまい、大きすぎると、指 4の皮膚と有 効画素部 1との距離が離れすぎて画像のぼけがひどくなるため、 10 μ m〜200 μ m 、好ましくは 20 μ〜80 μ mのサイズになっている。
AZD変換部 7は、イメージセンサ 5のアナログ出力信号をデジタル信号に変換して マイクロプロセッサ部 8へ出力し、マイクロプロセッサ部 8は、 A/D変換部 7のデジタ ル信号を入力して適切な画像処理を実行する。
[0025] 本実施例の生体特徴入力装置を使用して、指 4の指紋を読み取る場合、指 4の第 一関節あたりを指走行ガイド 3の間隙 2付近にあてがい、指 4の腹部で間隙 2をなぞる ように図 5Bの矢印 6方向に指 4を引いていく。指 4の皮膚には弾力 ¾があるため、図 6に示すように指 4を矢印 601の方向に押し付けるとイメージセンサ 5の有効画素部 1 に指 4が接触してしまうような高さと幅の間隙 2であっても、上記のように指 4の腹部で 間隙 2を軽くなぞるようにすると、図 7に示すように引く方向 602と反対方向の力 603 が指 4の皮膚表面に加わり、有効画素部 1に指 4が接触することはなぐ指 4の移動中 、指 4の皮膚と有効画素部 1との距離が常に一定に保たれる。
[0026] この指 4の移動中、指 4の内部で散乱して指 4の皮膚表面力 放射される放射光に よる画像がイメージセンサ 5によって撮像される。ここで、指 4内で散乱し、指 4の皮膚 表面力も放射される光は、図 8に示す指の内部構造にしたがって陰影を形成する。 表皮 1004の指内部側の組織には真皮 1005があり、指紋の凸部である隆線 1002の 下には乳頭腺組織 1003がある。乳頭腺を含む真皮 1005は、表皮部 1004より水分 と油分を多く含み屈折率に差が生じる。従って指紋隆線部に突出しているこの乳頭 腺によって隆線 1002は指紋の凹部である谷部 1001より放射される光が減少すると 考えられる。このため、イメージセンサ 5の有効画素部 1に配列されているセンサ(受 光素子)のうち、撮像のタイミングにおいて隆線 1002に近接するセンサは、谷部 100 1に近接するセンサに比べて入射する放射光が少なくなり、谷部 1001が明部領域、 隆線 1002が暗部領域となる部分画像が得られる。
[0027] こうして適当なタイミング毎に得られた 1次元または準 1次元の部分画像に力かるァ ナログ信号は、 AZD変換部 7によりデジタル信号に変換されてマイクロプロセッサ部 8に入力される。マイクロプロセッサ部 8は、順次入力される部分画像どうしをつなぎ 合わせていくことにより、指 4全体の皮膚の紋様画像を再構成する。このマイクロプロ セッサ部 8で実施される部分画像のつなぎあわせ処理は、基本的に図 2Aで説明した 方法と同様に、部分画像どうしの類似性を判断して実施する。その処理の一例を図 9 に示す。
[0028] まず、イメージセンサ 5の 1フレーム分の部分画像を読み取り、図示しない第 1メモリ の底の部分に書き込む (ステップ S101)。ここで、 1フレーム分の部分画像とは、ィメ ージセンサ 5が数ラインカゝら構成される準 1次元イメージセンサの場合は全ラインで得 られた画像を意味し、イメージセンサ 5が 1ラインカゝら構成される 1次元イメージセンサ の場合はその 1ラインで得られた画像を意味する。次に、再びイメージセンサ 5の 1フ レーム分の部分画像を読み取り、第 1メモリに記憶された部分画像と最上位ラインか らライン単位で比較する (ステップ S102)。今回読み取った部分画像のラインの中で 第 1メモリに記憶された部分画像のラインと差のあるラインがある場合、差のあるライン 以上の画像部分を第 1メモリに格納されている部分画像の最上位ラインの上に追カロ 的に格納する。例えば、イメージセンサ 5が 12ライン力も構成されており、今回読み取 つた 12ラインのうち、最後の 3ラインが第 1メモリに記憶された部分画像の最上位ライ ン側の 3ラインと同じであり、最後から 4番目のライン力も先頭ラインまでが異なる場合 、先頭ラインから 9番目のラインまでの画像部分が第 1メモリの最上位ラインの上に追 カロされる。以上のステップ S102〜S104の処理を指 1本分の画像データが取得され るまで繰り返し行う(ステップ S 105)。
[0029] 本実施例によれば、 1次元または準 1次元のイメージセンサ 5を使用し且つ余計な 光学部品を使用することなぐ指 4の内部構造を直接反映した皮膚の紋様画像を、指 4の湿潤や乾燥などの影響を受けずに安定して読み取ることができ、また装置を単純 かつ小型化することができる。その理由は、イメージセンサ 5として小型で廉価な 1次 元または準 1次元イメージセンサを使用すると共に、指 4とイメージセンサ 5とが互い にスライドする相対運動中に指 4とイメージセンサ 5の有効画素部 1とが接触せずにほ ぼ一定の距離が保たれるようにするための指走行ガイド 3を備え、指 4の内部で散乱 して指 4の皮膚表面力 放射される放射光による画像を前記相対運動中にイメージ センサ 5によって直接撮像し、得られた 1次元または準 1次元の部分画像をマイクロプ 口セッサ部 8の画像処理によりつなぎ合わせていって指の紋様画像を再構成するか らである。
[0030] また、特開 2003— 85538号公報のような縮小光学系を使用すると、皮膚の表面で 拡散してレンズや光路によって拡散すると思われる現象によって良好なコントラストが 得られな力つた皮剥け部分でも、本実施例によれば、指内部の構造を反映した良好 なコントラストの紋様が得られる。これは、本実施例においては、指 4に近接した距離 でイメージセンサ 5に光を指力 直接入射するため、皮膚の表面で拡散して混じり合 う成分が少なくなるためと思われる。
[0031] [第 2実施例]
図 10Aと 10Bを参照すると、本発明の第 2実施例に力かる生体特徴入力装置は、 指走行ガイド 3上に複数の光源 151が配設されている点で図 5Aと 5Bに示した第 1実 施例に力かる生体特徴入力装置と相違し、それ以外は第 1実施例と同じである。
[0032] 光源 151は、指走行ガイド 3の間隙 2の近傍にその長辺に沿って一列に配列されて おり、指紋採取時に指走行ガイド 3上を矢印 6に示す方向に移動する指 4をその腹部 側 (指走行ガイド 3側)から照明し、指内部に散乱光を発生させる。光源 151を間隙 2 を中心にして指 4を引く側に配列してあるのは、指先が間隙 2付近に達した状態でも 十分に指先内部に散乱光を発生できるようにするためである。
[0033] 指内部で散乱し皮膚表面力 放射する光は、周囲光のみでも皮膚紋様のパターン が読取れるが、更に光源 151を指の引く方向に 1次元な 、し準 1次元イメージセンサ 5に平行に近接して配置すれば、その光源 151からの光は指内部で散乱して光源方 向の光成分が強く射出する。この様子を図 11を参照して説明する。
[0034] 図 11を参照すると、光源方向に強度が偏った散乱光のうち、矢印 1011で示す隆 線 1002付近を通過するものは、表皮 1004を通過する距離が長くなつて暗くなると考 えられる。反対に矢印 1102で示す指紋谷部 1001付近を通過する光は、表皮 1004 を通過する距離が短くなつて明るくなると考えられる。従って距離の差によってコント ラストが増加する。実際の詳細なメカニズムは不詳だが、実験の結果を画像例として 図 12に示す。また参考として、同じ指の同じ部位を従来の接触を前提とする方式のう ち全反射臨界角を利用した方式で読み取った画像を図 13に示す。
[0035] 図 12において、図の下側に光源があり、指を引く側である。より距離のある指紋隆 線部が暗くなり、谷部の手前側は明るくなる。特に指紋隆線部の光源側がより暗くな つており、コントラストが上昇している。この部分は、乳頭腺組織 1003による指の皮膚 内部の散乱光の減衰効果と重なり合っていると考えられる。また図 13の画像中央部 あたりに紋様が欠落して 、る箇所がある力 これは皮膚の剥けた部分に対応して!/、る 。同じ部位は図 11では紋様が現れており、従来欠損していた皮剥け部分の画像も高 V、コントラストで得られて!/、る。
なお、本実施例では、間隙 2から指 4を引く側に光源 151を配設したが、間隙 2から 反対側に光源 151を配設しても良ぐまた間隙 2の両側の近傍に光源 151を配列し ても良い。
[0036] [第 3実施例]
図 14を参照すると、本発明の第 3実施例に力かる生体特徴入力装置は、指走行ガ イド 3の間隙 2に光透過性を有する固体で作られた保護カバー 801が挿入されている 点で図 1に示した第 1実施例に力かる生体特徴入力装置と相違し、それ以外は第 1 実施例と同じである。
[0037] 保護カバー 801の下面はイメージセンサ 5の有効画素部 1にほぼ接しており、その 上面は指走行ガイド 3の上面とほぼ同一面になっている。したがって、指 4の指紋を 読み取るために指 4の第一関節あたりを指走行ガイド 3の間隙 2に埋め込まれた保護 カバー 801付近にあて力 ^、、指 4の腹部で保護カバー 801をなぞるように指 4を引い ていった場合、指 4の皮膚の一部は常に保護カバーに接する。このため、指内で散 乱し、指の皮膚表面力も放射した光のうち、保護カバーに接触する指紋隆線部など 力も放射した光は、図 15Aの符号 1111に示すように直接に保護カバー 801に入射 して保護カバー 801内を伝播しイメージセンサ 5の有効画素部 1に到達する。また、 保護カバー 801に接触しない指紋谷部など力も放射した光は、符号 1112に示すよう に一旦空気層に入射して空気層を伝播した後に保護カバー 801に入射し、その後 は指紋隆線部カゝら放射した光と同じく保護カバー 801内を伝播してイメージセンサ 5 の有効画素部 1に到達する。
これに対して、図 15Bに示される保護カバー 801がない第 1実施例の場合、指内で 散乱し、指の皮膚表面から放射した光は、指紋隆線部および指紋谷部にかかわらず 、図 15Bの符号 1111および 1112に示すように、ー且空気層に入射して空気層を伝 播した後に有効画素部 1に到達する。この結果、第 1実施例で述べたように、隆線部 は暗部領域として、谷部は明部領域としてイメージセンサ 5で検出される。これに対し て、図 15Aに示される保護カバー 801が介在する場合、保護カバー 801の屈折率が 空気と同じ値「1」に近ければ、保護カバー 801が存在しない図 15Bと等価になるの で、隆線部が暗部領域、谷部が明部領域としてイメージセンサ 5で検出されるが、保 護カバー 801の屈折率の値が大きくなれば、隆線部が明部領域、谷部が暗部領域と してイメージセンサ 5で検出されるようになる。これは、保護カバー 801の屈折率が大 きくなると、指 4と保護カバー 801との間の屈折率差よりも、指 4と空気との間の屈折率 差および空気と保護カバー 801との間の屈折率差の方が大きくなることと、図 15Aの 隆線部から放射する光 1111が有効画素部 1に到達するまでには屈折率差の少な 、 1つの界面 (指と保護カバーとの界面)を通過するのに対し、谷部から放射する光 11 12は屈折率差の大きな 2つの界面 (指と空気との界面、空気と保護カバーとの界面) を通過することにより、皮膚表面力 放射した時点では隆線部よりも谷部の放射光の 方が強度が強かったものが、有効画素部 1に到達した時点では、谷部よりも隆線部か ら届く光の方が強度が相対的に強くなつたためと推測される。事実、指力 の散乱放 射光をガラスなどでできた透明保護カバーを介して指に近接させた 2次元イメージセ ンサによって撮像する特許第 3150126号の指紋入力装置では、指紋の谷部が暗部 領域、隆線部が明部領域となる指紋画像が得られる。
[0039] このため、保護カバー 801の屈折率が或る値のとき、隆線部と谷部とのコントラスト 力 SOになる。本明細書において、そのような屈折率の値を特異点と呼び、保護カバー 801は、特異点近傍の値以外の値の屈折率を持つ光透過性の固体で構成されてい る。以下、保護カバー 801の屈折率について考察する。
[0040] 本願の発明者の提案に力かる特開 2003— 006627号公報では、 2次元イメージセ ンサと指との間に介在する透明固体膜の屈折率とコントラストとの関係が解析されて おり、それによれば図 16に示すような関係が導出されている。図 16において、縦軸 は、指紋隆線直下の透明固体膜に入射した光のパワーを P3L、指紋谷部直下の透 明固体膜に入射した光のパワーを P3Dとしたときに、(P3L— P3D) ZP3Lで計算され るコントラスト、横軸は、透明固体膜の屈折率である。また、 +印の点を結ぶ線は指の 屈折率を 1. 4、 X印の点を結ぶ線は指の屈折率を 1. 5とそれぞれ仮定した場合のも のである。ただし、図 16のグラフは指の皮膚と空気と透明固体膜の界面との屈折率 の差による効果のみを計算で求めたものであり、指の皮膚内構造による効果とは異な る。
[0041] 図 16を参照すると、透明固体膜の屈折率が空気と同じ 1. 0のときにコントラストが 0 %になっている。これは、図 16のグラフは、皮膚内部から隆線部に向力う光のパワー と谷部に向力う光のパワーを同じと仮定しているためである。本来は、屈折率が 1. 0 のときに第 1実施例と同じコントラストが得られる。図 16ではそのコントラスト値はマイ ナスとなる。第 1実施例で得られるコントラストをじ%とすると、図 16のグラフでコントラ ストが C%となる屈折率の値が特異点となる。一般的には、 C= 10程度なので、特異 点 = 1. 1になり、屈折率が 1. 1の保護カバー 801では谷部と隆線部のコントラストが 0になる。従って、保護カバー 801の屈折率は、 1. 0以上かつ 1. 1未満か、あるいは 1. 1より大きい必要がある。 1. 1未満の屈折率を持つ光透過性の固体は殆どないの で、実質的には 1. 1より大きい屈折率を持つ光透過性の固体で保護カバー 801を構 成すればよい。
[0042] 他方、図 16を参照すると、透明固体膜の屈折率が 1. 4〜2. 0の範囲でコントラスト が特に高くなつている。皮膚の剥けた部分全体が透明固体膜に接しない場合、その 部分全体が同じコントラストになるのではなぐ前述したように指内部の構造を反映し た紋様が現れる。このため、その紋様のコントラストに比べて、透明固体膜に接する 隆線と接しない谷部とのコントラストが異常に高いと、センサのダイナミックレンジが広 くない場合、皮膚の剥けた部分の紋様の検知が困難になる。従って、保護カバー 80 1には、図 16においてコントラストが特に高くなつている 1. 4〜2. 0の範囲の屈折率 は適さない。
[0043] 更に本願の発明者の提案に力かる特開 2003— 006627号公報で解析されている ように、透明固体膜の屈折率が大きくなると、コントラストが出ても明度が下がり、外乱 光によるノイズおよび回路で発生するノイズをノイズ成分として SZN比が下がり、指 紋隆線部と指紋谷部の識別が不正確となる確率が高くなる。このため、屈折率の上 限値は 5. 0程度が望ましい。
以上の考察の結果、保護カバー 801の屈折率は、 1. 1より大きく 1. 4より小さいか、 または 2. 0より大きぐ 5. 0より小さいことが望ましい。
[0044] 屈折率 1. 4未満の物質で保護カバー 801に適する固体としては、たとえば BeF3 ( フッ化ベリリュウム)を主成分とするガラスがある。
屈折率 2. 0より大きい物質で保護カバー 801に適する固体としては、たとえば BaO (酸化バリウム)や PbO (酸化鉛)を多量に含むガラス、へマタイト (赤鉄鋼)、ルチル ( 金赤石)、ゲルマ-ユウム、ダイアモンドあるいはシリコンなどがある。この中でシリコン は、半導体材料として入手が容易であり、かつ加工も容易で比較的安価である。シリ コンウェハを厚さ 200 m以下に力卩ェし保護カバーとすれば、光の低波長域、特に 波長 800〜1000nmの近赤外光において透過性が高ぐ十分なセンサ光出力が得 られる。またシリコンは有害物質を含むガラスに比較して、環境を配慮した材料でもあ る。またシリコンウェハより作り出した CMOS、 CCD等のイメージセンサの下部を薄く 研磨して感光層までの厚さを 200 m以下として上下をひっくり返して配置し、もとも とのシリコンウェハの基部であった下部を皮膚に接触させれば、特別にカバーを施す ことなく同等の構造が得られる。
[0045] 保護カバー 801を備えた本実施例の生体特徴入力装置により読み取った指 4の指 紋画像を図 17に示す。画像左上の丸い皮剥け部分においても隆線部のコントラスト が得られていることがわかる。ただし、明部と暗部は、他の場所と反転している。この ように保護カバー 801を設けると、前述したように保護カバー 801の屈折率によって は接触部分の条件により指紋隆線部は明るぐ谷間部は暗くなり、非接触の部分と明 暗が逆転する。この問題に対しては画像処理と指紋認証の方式によって解決できる 。すなわちエッジ強調によって隆線の連続性のみを抽出してつなげていけば良い。 また、認証方式として指紋の分岐点や端点と!ヽつた特徴点の位置関係で認証する方 式を採用すれば、明暗の逆転は認証に影響を与えな 、。
このように本実施例によれば、第 1実施例と同様の効果が得られるのに加えて、指 走行ガイド 3の間隙 2にゴミがたまって画質が劣化するという心配がなくなるという効果 がある。
[0046] [第 4実施例]
図 18を参照すると、本発明の第 4実施例に力かる生体特徴入力装置は、イメージ センサ 5と AZD変換部 7との間にバンドパスフィルタ 1801および自動利得制御回路 1802が接続されている点で、図 14に示した第 3実施例に力かる生体特徴入力装置 と相違し、それ以外は第 3実施例と同じである。
[0047] バンドパスフィルタ 1801は、イメージセンサ 5から出力される画像信号力も指紋ピッ チの画像成分のみを抽出する。バンドバスフィルター 1801の最適周波数特性は指 紋の隆線ピッチ 0. 2mmから 0. 5mmを考慮しかつセンサの密度と走査周波数から 決定される。このバンドパスフィルタ 1801で抽出された画像成分は、後段の自動利 得制御回路 1802によって増幅されて、 AZD変換部 7に出力される。
[0048] 本実施例によれば、イメージセンサ 5の出力から指紋ピッチの画像成分のみを抽出 するバンドパスフィルタ 1801とその出力を増幅する自動利得制御回路 1802とを設 けてあるため、皮剥け部分の小さい出力も大きくすることができる。保護カバー 801と して屈折率が 1. 4から 2. 0の範囲の材質を使用した場合、第 3実施例では、皮剥け 部分の出力が小さくなり過ぎて認識が困難になるが、本実施例ではそのような問題を 改善できる。保護カバー 801に屈折率 1. 4以上 2. 0以下の通常ガラス等の物質が 使えれば、価格的に有利である。勿論、 1. 4〜2. 0以外の屈折率を持つ材質で保 護カバー 801が構成されている場合にも本実施例は有効である。
[0049] [第 5実施例]
図 19を参照すると、本発明の第 5実施例に力かる生体特徴入力装置は、指走行ガ イド 3全体を保護カバー 901とした点で第 3実施例と相違し、その他の点は第 3実施 例と同じである。
[0050] 保護カバー 901は、第 3実施例における保護カバー 801と同様の屈折率を有する 光透過性の固体で構成され、その厚みの条件は保護カバー 801と同じである。
[0051] 本実施例によれば、第 3実施例と同様の効果が得られるのに加え、走行ガイド 3全 体が保護カバー 901になって 、るため、組み立て性に優れると!、う効果がある。
[0052] [第 6実施例]
図 20を参照すると、本発明の第 6実施例に力かる生体特徴入力装置は、上方より 指 4の背部 (爪側)を照明する光源 161を備え、指 4の皮膚紋様と同時に血管像を読 み取る点で、第 2実施例と相違し、その他の点は第 2実施例と同じである。
[0053] 指 4の上部(背部)に図示しない支持具により取り付けられている光源 161は、指の 血管を読取るためのもので、他の生体糸且織より近赤外線の吸収が強 、ヘモグロビン の吸収が良好に生じる 800から lOOOnm付近の光を照射する。特に波長 820〜950 nm付近の赤外リモコン用等に開発された LEDは出力が大きく光源 161に適して ヽ る。指 4の下部に配置した光源 151に由来する画像からは皮膚表面の画像のみが得 られる力 上部光源 161から照射した光源による画像には、ヘモグロビンを含む血液 が集中している太い血管を通過し他の組織より暗くなる血管の映像を含む。従って、 以下のようにして、光源 161による画像と光源 151による画像を求め、両者の画像の 差を演算することで、指の皮膚紋様と同時に血管像を読み取ることができる。
[0054] 本実施例の生体特徴入力装置を使用して、指の皮膚紋様と同時に血管像を読み取 る場合、指 4の第二関節あたりを指走行ガイド 3の間隙 2付近にあてがい、指 4の腹部 で間隙 2をなぞるように指 4を引 、て 、く。この指 4の移動中にイメージセンサ 5によつ て画像を撮像する。まず、イメージセンサ 5の最初のフレーム画像を得る時に指下部 に配置した光源 151を点灯し画像を得る。次に指下部の光源 151を消灯し指上部の 光源 161を点灯してイメージセンサ 5の次のフレーム画像を得る。これを繰り返してい き、交互にそれぞれの光源の画像をつなぎあわせることによって、図 21に示すような 下部の光源 151による画像 1701と上部の光源 161による画像 1702を得る。両者と も指紋 1704および第一関節 1705と第二関節 1706間の紋様 1707が存在するが、 上部からの光源 161による画像には更に血管像 1708を含む。これらを交互に切り替 えた 2つの画像 1701、 1702の差分を求めることによって、血管像 1709のみの画像 1703を得ることができる。この差分を求める処理は、マイクロプロセッサ部 8によって 行われる。図 22にその処理例を示す。
[0055] まず、光源 151のみ点灯させた状態でイメージセンサ 5の 1フレーム分の部分画像 を読み取り、図示しない第 1メモリに書き込む (ステップ S201、 S202)。次に、光源 1 61のみ点灯させた状態でイメージセンサ 5の 1フレーム分の部分画像を読み取り、図 示しない第 2メモリに書き込む (ステップ S203、 S204)。次に、再び光源 151のみ点 灯させた状態でイメージセンサ 5の 1フレーム分の部分画像を読み取って第 1メモリに 記憶された画像の最上位ライン側のラインとライン単位で比較し (ステップ S205、 S2 06)、今回読み取ったラインの中で第 1メモリに記憶された画像の最上位ライン側の ラインと差のあるラインがある場合、差のあるライン以降のラインを第 1メモリの最上位 ライン側に追加する (ステップ S207、 S208)。次に、光源 161のみ点灯させた状態 でイメージセンサ 5の 1フレーム分の部分画像を読み取って第 2メモリに記憶された画 像の最上位ライン側のラインとライン単位で比較し (ステップ S209、 S210)、今回読 み取ったラインの中で第 2メモリに記憶された画像の最上位ライン側のラインと差のあ るラインがある場合、差のあるライン以降のラインを第 2メモリの最上位ライン側に追加 する(ステップ S211、 S212)。以上のステップ S205〜S212の処理を指 1本分の画 像データが取得されるまで繰り返し行う(ステップ S213)。これにより、第 1メモリには 図 21の画像 1701が、第 2メモリには図 17の画像 1702が記憶される。最後に、第 2メ モリに記憶された画像力ゝら第 1メモリに記憶された画像を減算し、図 21の画像 1703 を生成する(ステップ S214)。
[0056] このように本実施例によれば、指 4を第二関節 1706から指先まで指走行ガイド 3上 を滑らせることによって、指先の指紋 1704と同時に一度の動作で第一関節と第二関 節間の皮膚紋様 1707と血管像 1709を読取ることが可能になる。残念ながら指を圧 迫することによって血管像が薄くなり、あるいは変化するため、個人認証の情報として は精度が不十分であるが、指紋等の皮膚紋様による個人認証の補間データとして、 あるいは偽指の判定に使用できるため、全ての画像によって指先の指紋単独よりも 高精度に個人認証が可能になるという効果がある。
[0057] [第 7実施例]
本発明の第 7実施例に力かる生体特徴入力装置は、マイクロプロセッサ部 8におけ る部分画像のつなぎ合わせ処理後に画像の歪みを補正する処理を実行するようにし た点で第 1実施例に力かる生体特徴入力装置と相違し、その他の点は第 1実施例と 同じである。従って、本実施例の構成は図 1と同じである。
[0058] 本実施例にお!、ては、マイクロプロセッサ部 8は、部分画像をつなぎ合わせて!/、く 処理と、画像の歪み補正を行う処理とをその順に実施する。部分画像をつなぎあわ せていく処理は、第 1実施例と同様である。この場合、指の横方向の画像はイメージ センサ 5のセンサピッチで一意に歪みのな 、画像が得られるが、縦方向は相関関係 を見ながらつなげて行っても指 4の移動速度によって歪んでしまう。指紋などの認証 方式のうち、隆線の分岐点や端点の相関関係を見る方式は比較的歪みに強いが、 それでも認証精度を高めるためには、補正されていることが望ましい。そこで本実施 例では、指紋においては横方向と縦方向に隆線の成分があり隆線の間隔は個人で ほぼ一定であることを利用し、縦横の隆線の周波数成分の違いから縦の歪みを予測 し、以下のように補正する。
[0059] 図 23Aと 23Bにおいて、もとの指の紋様画像 1201の横方向の隆線の周波数成分 1202を fl、縦方向の隆線の周波数成分 1203を f2、補正前の隆線上の画素の縦座 標を Yとすれば、補正後の隆線上の画素の縦座標 Y'は、次式で与えられる。
Y,=YX (f2/fl) - -- (l)
[0060] 図 23Aは指をゆっくり引いて縦に伸びた画像の場合である力 早く引きすぎて短く なった場合でも部分的に欠損はする力 欠損度によって限度はあるものの近似画像 が得られる。図 23Aと 23Bは指紋の形態のうちの渦状紋を示し、図 24Aと 24Bは蹄 状紋を示す。統計的にこの 2つの紋様が人間の場合に多く含まれる。稀に図 25のよ うな弓状紋があり、この弓状紋の場合、横方向の隆線の周波数成分が大きく異なるた め、前述した方法は適用できない。しかし、弓状紋は統計的に少ない(日本人で 1% 以下と言われる)ため、大部分の紋様画像を上記の補正方式で補正することが可能 である。
[0061] 図 26にマイクロプロセッサ部 8で実施される画像処理の流れを示す。ステップ S301 〜S 305は部分画像をつなぎ合わせて!/、く処理を示し、図 5のステップ S 101〜S 10 5と同じである。ステップ S306〜S308は画像の歪みを補正する処理の手順を示す。 画像の歪みを補正する処理においては、まず、第 1メモリに記憶された画像に対して エッジ強調、スケルトン処理等の画像処理を行って隆線を抽出する (ステップ S306) 。次に、画像の横と縦の隆線数を求め、それぞれ横と縦の画素数で割ることにより、 横方向の隆線の周波数成分 fl、縦方向の隆線の周波数成分 f2を求める (ステップ S 307)。次に、隆線の形状から指紋紋様の形態を判断し、図 23Aと 23Bおよび図 24 Aと 245Bに示した渦状紋および蹄状紋であれば、前述した式(1)を用いて隆線上の 画素の縦座標を補正し、画像を縦方向に伸縮する (ステップ S308)。
[0062] このように本実施例によれば、第 1実施例と同様の効果が得られると共に、歪みの 少ない紋様画像を得ることができる。その理由は、部分画像をつなげて再構成した画 像における横および縦方向の隆線の周波数成分の違いに基づいて、画像の縦方向 の歪みを予測し補正する力 である。
[0063] 以上、本発明を幾つかの実施例を挙げて説明した力 本発明は以上の実施例にの み限定されず、その他各種の付加変更が可能である。例えば、第 3〜第 7実施例に 第 2実施例における光源 151を設けた実施例、第 1、第 3、第 5〜第 7実施例に第 4実 施例におけるバンドパスフィルタ 1801と自動利得制御回路 1802を設けた実施例な ど、前記実施例を適宜組み合わせた実施例も考えられる。
[0064] 以上のように、本発明に力かる生体特徴入力装置は、指の指紋等の紋様や血管像 を安定に読み取る小型で廉価な読取装置として有用であり、特に指の湿潤や乾燥、 皮膚炎等による皮膚の剥け等の悪条件化でも生体特徴を入力できる装置として適し ている。
[0065] 本発明によれば、指の指紋などの生体特徴をイメージセンサによって安定して入力 することができる。 2次元のイメージセンサでは曲率のある指に対して一定の距離で 非接触状態を保って安定して指紋画像を得るのは困難であるが、本発明は 1次元ま たは準 1次元のイメージセンサを使用しており、且つ、指と 1次元または準 1次元のィ メージセンサとが互いにスライドする相対運動中に指とイメージセンサの有効画素部 とが接触せずにほぼ一定の距離が保たれるようにする指走行ガイドを備えて ヽる。
[0066] また、指の湿潤や乾燥、皮膚炎等による皮膚の剥け等の悪条件化でも生体特徴を 入力できる。 1次元ないし準 1次元のイメージセンサ上に近接配置された指とイメージ センサとの相対運動によって指とイメージセンサを画像が直接読取れる適切な距離と 非接触状態を保ちながら指内部の構造を反映した指の画像を読取ることができる。 更にこの効果を実際の画像例を使って説明する。図 13は、従来の接触を前提とした 方式のうち全反射臨界角を利用した方式の画像であり、画像のほぼ中央部にある皮 膚の剥けた部分で画像が欠損している。図 12は、本発明の実施例による同じ指の同 じ部位の画像例である。同じ皮剥けの部位においてコントラストが得られている。図 1 7は、更に本発明の別の実施例の同じ部位の画像例であり、この画像においても皮 剥けの部位に関して明暗は反転しているものの画像が欠損することなく得られている
[0067] また、小型で低価格な生体特徴を入力できる装置を提供できる。 1次元な!/ヽし準 1 次元のイメージセンサ上に近接配置された指とイメージセンサとの相対運動によって 指とイメージセンサを画像が直接読取れる適切な距離と非接触状態を保ちながら読 取った指内部の構造を反映した指の画像をつなぎ合わせる方式を採用することによ つて、イメージセンサ等の部品が小型になり低価格のものが採用できる。
[0068] また、従来の指紋のみによる生体特徴入力装置よりも高精度な生体特徴入力装置 を提供できる。指を動かすことによって指先の指紋だけでなく指の第一関節と第二関 節の間の紋様と血管像を入力してより多くの生体特徴を同時に読取ることができる。
[0069] 以上、本発明の実施例を詳細に説明したが、請求の範囲の記載や本発明の精神 から離れることなぐ種々の変更、変形、改変が行われてもよいことは当業者には明ら かであろう。また、審査手続の間に請求項の補正がなされたとしても、クレームされた 発明の全ての均等物を含み続けることが発明者の意図である。

Claims

請求の範囲
[1] 1次元または準 1次元のイメージセンサと、
指と前記イメージセンサとが互いに相対的にスライドときに前記指と前記イメージセ ンサの有効画素部とが接触せずにほぼ一定の距離を保つ指走行ガイドと、
前記指の内部で散乱して前記指の皮膚表面から放射される放射光による画像を前 記相対的スライド中に前記イメージセンサによって撮像された 1次元または準 1次元 の部分画像をつなぎ合わる画像処理部と
を備える生体特徴入力装置。
[2] 1次元または準 1次元のイメージセンサと、
指と前記イメージセンサとの相対的なスライド運動中に前記指と前記イメージセンサ の有効画素部とが接触せずにほぼ一定の距離を保つ指走行ガイドと、
前記指の背部に血管像用の光を照射する上部光源と、
前記指の内部で散乱して前記指の皮膚表面から放射される放射光による第 1画像 と前記上部光源から照射された光が指内を通過して前記指の皮膚表面から放射され る放射光による第 2画像とを前記相対運動中に前記イメージセンサによって交互に 撮像された 1次元または準 1次元の部分画像を第 1画像毎および第 2画像毎につな ぎ合わせ、且つ、再構成した第 1画像と第 2画像の差分である血管像を抽出する画 像処理部と
を備える生体特徴入力装置。
[3] 前記指走行ガイドは、前記イメージセンサの前記有効画素部の直上に間隙を有す る請求項 1または 2記載の生体特徴入力装置。
[4] 前記間隙の高さが 10 m以上、 200 m以下、前記相対運動方向に平行な幅が 前記イメージセンサの副走査方向の有効画素長以上、 2. Omm以下である請求項 3 記載の生体特徴入力装置。
[5] 前記間隙に、光透過性を有する固体が挿入されている請求項 4記載の生体特徴入 力装置。
[6] 前記指走行ガイドの少なくとも前記イメージセンサの前記有効画素部の直上部分 が光透過性を有する固体で構成されている請求項 1または 2記載の生体特徴入力装 置。
[7] 前記固体の高さが 10 μ m以上、 200 μ m以下である請求項 6記載の生体特徴入 力装置。
[8] 前記固体の屈折率が、 1. 1より大きい請求項 5、 6または 7記載の生体特徴入力装 置。
[9] 前記固体の屈折率が、 1. 1より大きぐ 1. 4より小さい請求項 5、 6または 7記載の生 体特徴入力装置。
[10] 前記固体の屈折率が、 2. 0より大きい請求項 5、 6または 7記載の生体特徴入力装 置。
[11] 前記固体の屈折率が、 2. 0より大きぐ 5. 0より小さい請求項 5、 6または 7記載の生 体特徴入力装置。
[12] 前記イメージセンサによる読取対象部位の近傍より前記指の腹部に光を照射する ことにより、指内部に散乱光を発生させる下部光源を備える請求項 1、 2、 3、 5または 6記載の生体特徴入力装置。
[13] 前記イメージセンサの出力画像信号力も指紋ピッチの画像成分を抽出するバンドパ スフィルタと、該バンドパスフィルタの出力を増幅する自動利得制御回路とを備える請 求項 1、 2、 3、 5または 6記載の生体特徴入力装置。
[14] 前記画像処理部は、つなぎ合わせた画像の歪みを指紋部分の周波数解析によつ て修正する補正部を含む請求項 1、 2、 3、 5または 6記載の生体特徴入力装置。
[15] 1次元または準 1次元のイメージセンサと、
前記イメージセンサの有効画素部の直上に、高さが 10 m以上、 200 m以下、 短辺の幅が前記イメージセンサの副走査方向の有効画素長以上、 2. Omm以下で ある間隙を有し、指と前記イメージセンサとの相対的スライド運動中に前記指と前記ィ メージセンサの有効画素部とが接触せずにほぼ一定の距離を保つ指走行ガイドと を備えた電子機器。
[16] 前記間隙に、光透過性を有する固体が挿入されている請求項 15記載の電子機器
PCT/JP2005/020905 2004-11-15 2005-11-15 生体特徴入力装置 WO2006051976A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CA2588172A CA2588172C (en) 2004-11-15 2005-11-15 Apparatus for inputting biometrical feature
AU2005302945A AU2005302945B2 (en) 2004-11-15 2005-11-15 Living body feature innput device
EP05806995A EP1834581B1 (en) 2004-11-15 2005-11-15 Living body feature input device
US11/719,293 US7903847B2 (en) 2004-11-15 2005-11-15 Apparatus for inputting biometrical feature
HK07113730.1A HK1108341A1 (en) 2004-11-15 2007-12-18 Living body feature input device
US12/905,184 US8170301B2 (en) 2004-11-15 2010-10-15 Apparatus for inputting biometrical feature

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004330830 2004-11-15
JP2004-330830 2004-11-15

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/719,293 A-371-Of-International US7903847B2 (en) 2004-11-15 2005-11-15 Apparatus for inputting biometrical feature
US12/905,184 Division US8170301B2 (en) 2004-11-15 2010-10-15 Apparatus for inputting biometrical feature

Publications (1)

Publication Number Publication Date
WO2006051976A1 true WO2006051976A1 (ja) 2006-05-18

Family

ID=36336641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/020905 WO2006051976A1 (ja) 2004-11-15 2005-11-15 生体特徴入力装置

Country Status (9)

Country Link
US (2) US7903847B2 (ja)
EP (1) EP1834581B1 (ja)
KR (1) KR100944021B1 (ja)
CN (1) CN100577102C (ja)
AU (1) AU2005302945B2 (ja)
CA (1) CA2588172C (ja)
HK (1) HK1108341A1 (ja)
TW (1) TW200632764A (ja)
WO (1) WO2006051976A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286457B2 (en) 2004-06-14 2016-03-15 Rodney Beatson Method and system for providing password-free, hardware-rooted, ASIC-based authentication of a human to a mobile device using biometrics with a protected, local template to release trusted credentials to relying parties
JP2008020942A (ja) 2006-07-10 2008-01-31 Rohm Co Ltd 個人識別装置及びこれを用いた電子機器
JP4640295B2 (ja) * 2006-09-07 2011-03-02 株式会社日立製作所 個人認証装置及び方法
JP2008123206A (ja) * 2006-11-10 2008-05-29 Sony Corp 登録装置、照合装置、登録方法、照合方法及びプログラム
TWI340920B (en) * 2007-02-09 2011-04-21 Egis Technology Inc Biometrics method based on a thermal image of a finger
JP5773645B2 (ja) * 2007-06-25 2015-09-02 リアル イメージング リミテッド 画像分析のための方法、装置およびシステム
JP4941311B2 (ja) * 2008-01-09 2012-05-30 ソニー株式会社 マウス
JP5292821B2 (ja) * 2008-01-16 2013-09-18 ソニー株式会社 静脈画像取得装置および静脈画像取得方法
US7792334B2 (en) * 2008-03-31 2010-09-07 Immersion Corporation Locating blood vessels
JP5040835B2 (ja) * 2008-07-04 2012-10-03 富士通株式会社 生体情報読取装置、生体情報読取方法および生体情報読取プログラム
ES2335565B1 (es) 2008-09-26 2011-04-08 Hanscan Ip, B.V. Sistema optico, procedimiento y programa de ordenador para detectar la presencia de un elemento biologico vivo.
JP5287868B2 (ja) * 2008-12-17 2013-09-11 富士通株式会社 生体認証装置及び生体認証方法
EP2383694B1 (en) * 2009-01-28 2018-05-09 Fujitsu Limited Fingerprint reader and electronic device
JP5424788B2 (ja) * 2009-09-16 2014-02-26 株式会社日立ソリューションズ 生体認証装置に用いる生体情報作成方法および認証方法並びに装置
EP2511872B1 (en) * 2009-12-07 2020-05-13 Nec Corporation Fake finger discrimination device
JP2011243042A (ja) * 2010-05-19 2011-12-01 Nec Corp 生体撮像装置、及び生体撮像方法
EP2596478B1 (en) * 2010-07-19 2019-09-04 Risst Ltd. Fingerprint sensors and systems incorporating fingerprint sensors
TWI485629B (zh) * 2011-11-21 2015-05-21 Pixart Imaging Inc An optical input device, an input detection method thereof, and a method for the optical input device
US9846799B2 (en) 2012-05-18 2017-12-19 Apple Inc. Efficient texture comparison
US9135496B2 (en) 2012-05-18 2015-09-15 Apple Inc. Efficient texture comparison
US20140003683A1 (en) * 2012-06-29 2014-01-02 Apple Inc. Far-Field Sensing for Rotation of Finger
US9715616B2 (en) 2012-06-29 2017-07-25 Apple Inc. Fingerprint sensing and enrollment
US9202099B2 (en) 2012-06-29 2015-12-01 Apple Inc. Fingerprint sensing and enrollment
TWI518306B (zh) * 2012-10-04 2016-01-21 原相科技股份有限公司 影像擷取裝置以及光學位移估測裝置
US9111125B2 (en) 2013-02-08 2015-08-18 Apple Inc. Fingerprint imaging and quality characterization
US10068120B2 (en) 2013-03-15 2018-09-04 Apple Inc. High dynamic range fingerprint sensing
JP6134662B2 (ja) * 2014-01-31 2017-05-24 株式会社 日立産業制御ソリューションズ 生体認証装置および生体認証方法
JPWO2015145778A1 (ja) 2014-03-28 2017-04-13 パイオニア株式会社 車載用照明装置
US9760755B1 (en) * 2014-10-03 2017-09-12 Egis Technology Inc. Fingerprint matching methods and device
JP6660720B2 (ja) * 2015-12-08 2020-03-11 株式会社日立製作所 指静脈認証装置
KR102466995B1 (ko) * 2015-12-21 2022-11-14 삼성전자주식회사 사용자 인증 장치 및 방법
JP6743429B2 (ja) * 2016-03-11 2020-08-19 富士通株式会社 生体撮影装置、生体撮影方法および生体撮影プログラム
US10713458B2 (en) 2016-05-23 2020-07-14 InSyte Systems Integrated light emitting display and sensors for detecting biologic characteristics
US10931859B2 (en) * 2016-05-23 2021-02-23 InSyte Systems Light emitter and sensors for detecting biologic characteristics
CN106022067B (zh) 2016-05-30 2018-03-27 广东欧珀移动通信有限公司 一种解锁控制方法及终端设备
US10037454B2 (en) * 2016-12-19 2018-07-31 Fingerprint Cards Ab Method and device for forming a fingerprint representation
US10339361B2 (en) * 2017-03-23 2019-07-02 International Business Machines Corporation Composite fingerprint authenticator
CN107256068B (zh) 2017-05-12 2019-08-23 Oppo广东移动通信有限公司 指纹的采集方法及相关产品
JP6978665B2 (ja) 2017-07-25 2021-12-08 富士通株式会社 生体画像処理装置、生体画像処理方法及び生体画像処理プログラム
CN108073912B (zh) * 2018-01-03 2021-01-26 京东方科技集团股份有限公司 指纹识别装置和指纹识别设备
US11308339B2 (en) * 2018-01-30 2022-04-19 T-Mobile Usa, Inc. Methods and systems for identifying and profiling biological tissue
TWI654441B (zh) * 2018-06-29 2019-03-21 金佶科技股份有限公司 取像裝置
US10599909B2 (en) * 2018-08-07 2020-03-24 UITResFP, LLC Electronic device and method for non-contact capacitive and optical pin hole fingerprint detection
KR102716356B1 (ko) * 2019-01-25 2024-10-10 삼성전자주식회사 생체신호 측정용 텍스쳐 인터페이스 및 이를 포함한 생체신호 측정장치
US11353993B2 (en) * 2020-05-05 2022-06-07 Pixart Imaging Inc. Optical detection device
CN112464866B (zh) * 2020-06-15 2024-02-27 神盾股份有限公司 指纹感测装置以及指纹感测方法
CN112603276B (zh) * 2020-12-28 2022-08-02 中科彭州智慧产业创新中心有限公司 双手寸口脉搏波的快速检测设备及方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04190470A (ja) * 1990-11-26 1992-07-08 Sharp Corp 指紋入力装置
JPH08154921A (ja) * 1994-12-06 1996-06-18 Nippon Telegr & Teleph Corp <Ntt> 指紋撮像装置
JPH10222641A (ja) * 1997-02-05 1998-08-21 Nec Corp 指ガイド付指紋画像入力装置
JP2003303178A (ja) * 2002-04-12 2003-10-24 Nec Corp 個人識別システム
JP2004234040A (ja) * 2003-01-28 2004-08-19 Hitachi Ltd 個人認証装置
JP2005174280A (ja) * 2003-11-18 2005-06-30 Canon Inc 画像取得装置、指紋認証装置及び画像取得方法
JP2005242907A (ja) * 2004-02-27 2005-09-08 Casio Comput Co Ltd リング型読み取り装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0210988B1 (en) 1984-03-20 1989-07-05 National Research Development Corporation Method and apparatus for the identification of individuals
JPH0345629A (ja) 1989-07-14 1991-02-27 Shin Etsu Chem Co Ltd ビス―シリルアルコキシアリーレン化合物
JPH03150126A (ja) 1989-11-08 1991-06-26 Toppan Printing Co Ltd 真空圧空成形機
US5177802A (en) * 1990-03-07 1993-01-05 Sharp Kabushiki Kaisha Fingerprint input apparatus
JPH05168610A (ja) 1991-12-20 1993-07-02 Kawatetsu Techno Res Corp 指紋検出方法
JP3045629B2 (ja) 1993-02-17 2000-05-29 三菱電機株式会社 凹凸パターン検出装置
FR2749955B1 (fr) 1996-06-14 1998-09-11 Thomson Csf Systeme de lecture d'empreintes digitales
JPH10143663A (ja) 1996-11-13 1998-05-29 Hamamatsu Photonics Kk 指紋情報処理装置
JPH10208022A (ja) 1997-01-23 1998-08-07 Hamamatsu Photonics Kk ファイバ光学プレート
JP2980051B2 (ja) 1997-03-12 1999-11-22 日本電気株式会社 指紋検知方法および装置
US6259804B1 (en) * 1997-05-16 2001-07-10 Authentic, Inc. Fingerprint sensor with gain control features and associated methods
NO307065B1 (no) * 1998-02-26 2000-01-31 Idex As Fingeravtrykksensor
US6381347B1 (en) 1998-11-12 2002-04-30 Secugen High contrast, low distortion optical acquistion system for image capturing
JP3150126B2 (ja) 1999-02-03 2001-03-26 静岡日本電気株式会社 指紋入力装置
JP4253827B2 (ja) 1999-09-27 2009-04-15 カシオ計算機株式会社 2次元画像読取装置
JP3738629B2 (ja) 1999-11-25 2006-01-25 三菱電機株式会社 携帯型電子機器
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP2002049913A (ja) 2000-08-02 2002-02-15 Nec Corp 指紋認証装置および指紋認証方法
WO2002061668A1 (en) * 2000-12-05 2002-08-08 Arete Associates, A California Corporation Linear contact sensor apparatus and method for use in imaging features of an object
JP2003006627A (ja) 2001-06-18 2003-01-10 Nec Corp 指紋入力装置
JP4281272B2 (ja) 2001-09-14 2009-06-17 三菱電機株式会社 指紋画像撮像方法、指紋画像取得方法、指紋画像撮像装置および個人識別装置
JP2003150943A (ja) 2001-11-13 2003-05-23 Casio Comput Co Ltd 画像読み取り装置
JP4169185B2 (ja) * 2002-02-25 2008-10-22 富士通株式会社 画像連結方法、プログラム及び装置
JP2003308516A (ja) 2002-04-12 2003-10-31 Matsushita Electric Ind Co Ltd 指紋センサ及び電子機器
US6904126B2 (en) 2002-06-19 2005-06-07 Canon Kabushiki Kaisha Radiological imaging apparatus and method
DE60238281D1 (de) 2002-09-17 2010-12-23 Fujitsu Ltd Gerät zur aufzeichnung biologischer informationen und biologische informationen benutzendes berechtigungsgerät
JP4457593B2 (ja) * 2003-08-11 2010-04-28 株式会社日立製作所 指認証装置
JP4207717B2 (ja) 2003-08-26 2009-01-14 株式会社日立製作所 個人認証装置
JP2005182474A (ja) 2003-12-19 2005-07-07 Fujitsu Ltd 指紋センサのセンサ面保護構造
JP4556111B2 (ja) 2004-09-02 2010-10-06 ソニー株式会社 情報処理装置
JP2006098340A (ja) 2004-09-30 2006-04-13 Sharp Corp 内部検出装置
US7376451B2 (en) 2004-10-27 2008-05-20 General Electric Company Measurement and treatment system and method
JP2006221514A (ja) * 2005-02-14 2006-08-24 Canon Inc 生体認証装置及び画像取得方法
JP4101243B2 (ja) 2005-02-23 2008-06-18 上銀科技股▲分▼有限公司 交換可能な貯油装置付きボールねじ

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04190470A (ja) * 1990-11-26 1992-07-08 Sharp Corp 指紋入力装置
JPH08154921A (ja) * 1994-12-06 1996-06-18 Nippon Telegr & Teleph Corp <Ntt> 指紋撮像装置
JPH10222641A (ja) * 1997-02-05 1998-08-21 Nec Corp 指ガイド付指紋画像入力装置
JP2003303178A (ja) * 2002-04-12 2003-10-24 Nec Corp 個人識別システム
JP2004234040A (ja) * 2003-01-28 2004-08-19 Hitachi Ltd 個人認証装置
JP2005174280A (ja) * 2003-11-18 2005-06-30 Canon Inc 画像取得装置、指紋認証装置及び画像取得方法
JP2005242907A (ja) * 2004-02-27 2005-09-08 Casio Comput Co Ltd リング型読み取り装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1834581A4 *

Also Published As

Publication number Publication date
CA2588172C (en) 2012-08-14
US20090074263A1 (en) 2009-03-19
HK1108341A1 (en) 2008-05-09
EP1834581A4 (en) 2009-09-16
US7903847B2 (en) 2011-03-08
TWI312136B (ja) 2009-07-11
EP1834581A1 (en) 2007-09-19
CN101056578A (zh) 2007-10-17
CA2588172A1 (en) 2006-05-18
TW200632764A (en) 2006-09-16
US8170301B2 (en) 2012-05-01
AU2005302945B2 (en) 2012-07-19
US20110025835A1 (en) 2011-02-03
AU2005302945A1 (en) 2006-05-18
EP1834581B1 (en) 2012-01-11
KR20070068453A (ko) 2007-06-29
CN100577102C (zh) 2010-01-06
KR100944021B1 (ko) 2010-02-24

Similar Documents

Publication Publication Date Title
WO2006051976A1 (ja) 生体特徴入力装置
JP4182988B2 (ja) 画像読取装置および画像読取方法
JP4466529B2 (ja) 生体特徴入力装置
US7801338B2 (en) Multispectral biometric sensors
US7945073B2 (en) Vein authentication device
JP5292821B2 (ja) 静脈画像取得装置および静脈画像取得方法
JP4182987B2 (ja) 画像読取装置
JP2000217803A (ja) 指紋入力装置
WO2013146761A1 (ja) 認証装置、認証用プリズム体及び認証方法
JP5556663B2 (ja) 照合装置、照合方法、及びプログラム
JP6320277B2 (ja) 生体認証装置
JP2010503079A (ja) ロバストな指紋取得のためのシステムおよび装置
KR20070094736A (ko) 인증 장치, 인증 방법 및 프로그램
JP6443349B2 (ja) 指認証プリズムを用いた生体認証装置及び生体認証方法
JP5811386B2 (ja) 認証装置、認証用プリズム体及び認証方法
JP5811385B2 (ja) 認証装置、認証用プリズム体及び認証方法
JPH025190A (ja) 指紋センサ
KR101547659B1 (ko) 손가락 정맥 스캐닝을 이용하는 생체 인증 장치 및 이를 구비한 단말기
JP2799054B2 (ja) 指紋入力装置
CN110580433A (zh) 身份识别装置
JPH04120671A (ja) 指紋入力装置
JPH04242486A (ja) 指紋入力装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005302945

Country of ref document: AU

Ref document number: 2588172

Country of ref document: CA

Ref document number: 2005806995

Country of ref document: EP

Ref document number: 11719293

Country of ref document: US

Ref document number: 1020077010894

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580039057.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2005302945

Country of ref document: AU

Date of ref document: 20051115

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 2005302945

Country of ref document: AU

WWP Wipo information: published in national office

Ref document number: 2005806995

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP