WO2010106657A1 - 生体情報取得装置及び生体認証装置 - Google Patents

生体情報取得装置及び生体認証装置 Download PDF

Info

Publication number
WO2010106657A1
WO2010106657A1 PCT/JP2009/055352 JP2009055352W WO2010106657A1 WO 2010106657 A1 WO2010106657 A1 WO 2010106657A1 JP 2009055352 W JP2009055352 W JP 2009055352W WO 2010106657 A1 WO2010106657 A1 WO 2010106657A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
hand
dark line
unit
thickness
Prior art date
Application number
PCT/JP2009/055352
Other languages
English (en)
French (fr)
Inventor
渡辺 正規
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2011504660A priority Critical patent/JP5293806B2/ja
Priority to PCT/JP2009/055352 priority patent/WO2010106657A1/ja
Priority to EP09841862.7A priority patent/EP2410486B1/en
Priority to ES09841862T priority patent/ES2731898T3/es
Publication of WO2010106657A1 publication Critical patent/WO2010106657A1/ja
Priority to US13/235,131 priority patent/US8692875B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • This case relates to a biometric information acquisition apparatus and biometric authentication apparatus using hands.
  • the hand has surface information on the hand caused by a palm of the hand, which is called a palm print on the palm or a palm fortune-telling.
  • the finger joint also has finger surface information resulting from the bending and stretching of the finger. There are the following techniques for acquiring hand surface information.
  • An image captured using reflected light contains more surface information than an image captured using transmitted light. Therefore, the surface information of the object can be specified by taking the difference between the two images.
  • the surface information of the object is acquired by irradiating the object with a plurality of lights.
  • An apparatus including a plurality of illuminations has a complicated configuration of the illumination unit. Therefore, the cost of the illumination part in manufacture of the apparatus which irradiates a target object with several illuminations and acquires surface information increases.
  • the purpose of this case is to provide a biological information acquisition device that acquires surface information of a hand with a simple configuration.
  • the disclosed biological information acquisition apparatus employs the following means in order to solve the above-described problems.
  • the first aspect is An imaging unit that acquires a first image taken in a first state where the hand is stretched inside the user's hand and a second image taken in a state where the hand is bent inside the user's hand;
  • a dark line extraction unit that extracts a dark line from each of the first image and the second image;
  • a dark line element feature extraction unit that extracts features of the dark line element in the first image and features of the dark line element in the second image;
  • a surface information determination unit that extracts a dark line caused by a heel of a hand based on a transition of a feature of a dark line element in the first image and the second image; It was set as the biometric information acquisition apparatus provided with.
  • FIG. 1 is a diagram illustrating an example of a configuration of a biological information acquisition apparatus according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of a state in which a hand is opened.
  • FIG. 3 is a diagram illustrating an example of a state where the hand is bent.
  • FIG. 4 is a diagram illustrating an overall operation flow of the biological information acquisition apparatus according to the present embodiment.
  • FIG. 5 is a diagram illustrating an example of an operation flow of hand photographing.
  • FIG. 6 is a diagram illustrating an example of the state of the authentication sensor unit and the hand.
  • FIG. 7 is a diagram for explaining distance calculation using beam light.
  • FIG. 8 is a diagram illustrating an example of an image captured by the imaging unit when the distance measuring unit irradiates the beam light.
  • FIG. 8 is a diagram illustrating an example of an image captured by the imaging unit when the distance measuring unit irradiates the beam light.
  • FIG. 9 is a diagram illustrating an example of an operation flow of calibration of the authentication sensor unit.
  • FIG. 10 is a diagram for explaining the distance calculation of the hand region.
  • FIG. 11 is a diagram for explaining plane normalization.
  • FIG. 12 is a diagram illustrating an example of the first derivative based on the luminance and the luminance position of the dark line portion of a certain axis on the plane-normalized hand image and the periphery thereof.
  • FIG. 13 is a diagram illustrating an example of determination criteria for surface information.
  • FIG. 14 is a diagram illustrating an example of a biometric authentication device.
  • Biometric Information Acquisition Device 100 Authentication Sensor Unit 112 Illumination Unit 114 Illumination Control Unit 122 Imaging Unit 122A Lens 122B Imaging Element 124 Imaging Control Unit 132 Distance Measurement Unit 134 Distance Measurement Unit 150 Image Acquisition Unit 210 hand region extraction unit 220 hand region distance calculation unit 230 hand region plane normalization unit 240 dark line extraction unit 250 dark line element feature extraction unit 260 surface information determination unit 270 biological change information storage unit 280 biological surface feature storage unit 500 vein authentication unit 600 Determination unit 700 Storage unit 1000 Biometric authentication device
  • Embodiment It is known that the surface information of the hand resulting from hand wrinkles changes depending on lifestyle and environment. Therefore, it is difficult to use the hand surface information as specific information throughout the life of an individual.
  • the surface information of the hand changes, it usually does not change significantly in a short period of about 1-2 days. Therefore, the surface information of the hand can be used as authentication information for biometric authentication that can be used temporarily if the interval between the registration time and the collation time is short.
  • FIG. 1 is a diagram illustrating an example of a configuration of a biological information acquisition apparatus according to the present embodiment.
  • 1 includes an authentication sensor unit 100, a hand region extraction unit 210, a hand region distance calculation unit 220, a hand region plane normalization unit 230, and a dark line extraction unit 240.
  • the biological information acquisition apparatus 10 includes a dark line element feature extraction unit 250, a surface information determination unit 260, a biological change information storage unit 270, and a biological surface feature storage unit 280.
  • the hand region extraction unit 210, the hand region distance calculation unit 220, the hand region plane normalization unit 230, the dark line extraction unit 240, the dark line element feature extraction unit 250, and the surface information determination unit 260 may be implemented as hardware or software. Can also be realized.
  • two or more components may function as one processing unit. Any one of these components may function as a plurality of processing units. The same applies to the constituent elements described later.
  • the authentication sensor unit 100 of the biological information acquisition apparatus 10 includes an illumination unit 112, an illumination control unit 114, an imaging unit 122, an imaging control unit 124, a distance measurement unit 132, a distance measurement control unit 134, and an image acquisition unit 150.
  • the authentication sensor unit 100 can also be used as an authentication sensor for vein authentication.
  • the illumination control unit 114, the imaging control unit 124, the distance measurement control unit 134, and the image acquisition unit 150 may be realized as hardware or software.
  • the imaging unit 122 can photograph the user's hand.
  • the imaging unit 122 includes at least a lens 122A and an imaging element 122B.
  • a CCD image sensor Charge Coupled Device Image Sensor
  • the imaging device 122B of the imaging unit 122 is not limited to a CCD image sensor.
  • another image pickup device such as a CMOS image sensor (Complementary Metal Oxide Semiconductor Image Sensor) may be used.
  • the imaging control unit 124 instructs the imaging unit 122 to shoot a hand directed to the imaging unit 122.
  • the imaging control unit 124 can instruct the imaging unit 122 to shoot a plurality of hands directed to the imaging unit 122.
  • FIG. 2 is a diagram showing the hand in a state where the inside of the hand is opened.
  • the hand 2A in FIG. 2 is a hand with the inside of the hand stretched.
  • the surface shape of the inside of the hand is substantially flat.
  • FIG. 3 is a diagram showing the hand in a state where the inside of the hand is bent.
  • the hand 2B in FIG. 3 is a hand in a state where the inside of the hand is bent.
  • the surface shape of the inside of the hand corresponds to a curved surface.
  • the illumination unit 112 is turned on or off based on the control from the illumination control unit 114.
  • An incandescent lamp, a fluorescent tube, an LED (Light-Emitted Device), or the like can be used as the illumination unit 112, but is not limited thereto.
  • the illumination intensity of the illuminating unit 112 is set so as to reach only a short distance (for example, 10 cm or less) from the illuminating unit 112.
  • the illumination unit 112 can illuminate only the hand directed to the authentication sensor unit 100 by making the illumination intensity reach only from the illumination unit 112 to a short range.
  • the illumination control unit 114 controls lighting or extinguishing of the illumination unit 112 when acquiring a hand image. Further, the illumination control unit 114 can instruct to turn off the illumination of the illumination unit 112 when measuring the distance of the hand.
  • the distance measurement control unit 134 instructs the distance measurement unit 132 to irradiate the hand with beam light when measuring the distance of the hand.
  • the distance measurement control unit 134 can measure the distance to the hand when the distance measurement unit 132 irradiates the beam light in a predetermined direction.
  • the distance measuring unit 132 irradiates the hand with beam light based on the control from the distance measuring control unit 134.
  • a laser light source or the like can be used as the distance measuring unit 132, but the distance measuring unit 132 is not limited to this.
  • the distance measuring unit 132 may be a plurality of laser light sources or the like.
  • the distance measuring unit 132 is installed so that at least one light beam is irradiated on the hand.
  • the beam direction of the distance measuring unit 132 may be fixed or variable.
  • the image acquisition unit 150 includes an illumination control unit 114, an imaging control unit 124, and a distance measurement control unit 134. Is instructed to acquire a hand image or measure a hand distance.
  • the image acquisition unit 150 prompts the user to turn the inner side of the hand toward the authentication sensor unit 100.
  • the image acquisition unit 150 can prompt the user to turn the inner side of the hand toward the authentication sensor unit 100 in a state where the inner side of the hand is stretched and a state where the inner side of the hand is bent.
  • the image acquisition unit 150 receives an image captured from the imaging control unit 124 and transmits the image to the hand region extraction unit 210.
  • the image acquisition unit 150 receives an image captured by the imaging unit 122 by irradiating the beam light from the distance measuring unit 132 from the imaging control unit 122.
  • the image acquisition unit 150 calculates the distance between the plane on which the imaging unit 122 exists and the position irradiated with the beam light, and transmits the distance to the hand region distance calculation unit 220.
  • the hand region extraction unit 210 extracts a hand portion from the image received from the image acquisition unit 150.
  • the hand region can be extracted from a difference between an image captured with illumination from the illumination unit 112 and an image captured without illumination from the illumination unit 112.
  • the hand region extraction unit 210 transmits the extracted hand image to the hand region distance calculation unit 220.
  • the hand region extraction unit 210 extracts hand regions for the state in which the inside of the hand is stretched and the state in which the inside of the hand is bent.
  • the hand region distance calculation unit 220 receives the hand image extracted by the hand region extraction unit 210 from the hand region extraction unit 210.
  • the hand region distance calculation unit 220 receives the distance between the plane where the imaging unit 122 exists and the position irradiated with the beam light from the image acquisition unit 150 of the authentication sensor unit 100.
  • the hand area distance calculation unit 220 calculates the distance between the plane on which the imaging unit 122 exists and all the points of the hand area on the captured image. From the distance, the three-dimensional shape of the hand can be known.
  • the hand region distance calculation unit 220 is between the plane on which the imaging unit 122 exists and all points of the hand on the photographed image with respect to the state where the inner side of the hand is stretched and the state where the inner side of the hand is bent. Each distance is calculated.
  • the hand region plane normalization unit 230 applies the hand distance information calculated by the hand region distance calculation unit 220 to an appropriate model and normalizes it to a plane.
  • a fitting model for example, an elliptic paraboloid can be used.
  • the hand region plane normalization unit 230 applies hand distance information to an appropriate model and normalizes the plane with respect to a state where the inside of the hand is stretched and a state where the inside of the hand is bent.
  • the dark line extraction unit 240 extracts dark lines from the hand image.
  • the dark line of the hand image is a linear dark part of the hand image.
  • the dark line of the image of the hand includes a palm print of the palm and a heel of a finger joint.
  • the dark line element feature extraction unit 250 extracts the feature of the dark line element of the hand image.
  • the dark line element of the hand image includes the thickness of the dark line and the dark line darkness.
  • the surface information determination unit 260 determines whether the extracted dark line is the surface information of the hand based on the feature of the dark line element of the hand image extracted by the dark line element feature extraction unit 250.
  • the surface information determination unit 260 can use information stored in the biological change information storage unit 270 as a determination criterion.
  • the surface information determination unit 260 can determine whether or not the extracted dark line is the surface information of the hand by using, for example, the change in the thickness of the dark line and the change in the dark line density of the hand image.
  • the biological change information storage unit 270 stores information serving as a determination criterion (rule) used when the surface information determination unit 260 determines whether or not the extracted dark line is surface information of the hand.
  • the biological surface feature storage unit 280 stores the determination result by the surface information determination unit 260. In addition, the biological surface feature storage unit 280 stores hand surface information.
  • FIG. 4 is a diagram illustrating an overall operation flow of the biological information acquisition apparatus according to the present embodiment.
  • the image acquisition unit 150 of the authentication sensor unit 100 instructs the illumination control unit 114, the imaging control unit 124, and the distance measurement control unit 134 to capture a hand image.
  • the image acquisition unit 150 prompts the user to turn the inner side of the hand toward the authentication sensor unit 100.
  • the image acquisition unit 150 may prompt the user to direct a plurality of hands to the authentication sensor unit 100.
  • the image acquisition unit 150 shoots the hand with the imaging unit 122 by irradiating the light beam from the distance measuring unit 132.
  • the image acquisition unit 150 captures a hand with the imaging unit 122 while illuminating the hand from the illumination unit 112.
  • the image acquisition unit 150 captures the hand with the imaging unit 122 in a state where the illumination unit 112 and the distance measuring unit 132 are turned off (S102).
  • the image acquisition unit 150 calculates the distance between the plane where the imaging unit 122 exists and the position irradiated with the beam light.
  • the hand region extraction unit 210 receives an image obtained by photographing the hand with illumination from the illumination unit 112 from the image acquisition unit 150. In addition, the hand region extraction unit 210 receives, from the image acquisition unit 150, an image obtained by photographing a hand with the illumination unit 112 and the distance measurement unit 132 turned off. Since the illumination from the illumination unit 112 reaches only within a short range, the part other than the hand (the part serving as the background) is not illuminated. Therefore, the hand region extraction unit 210 can extract the hand region by obtaining the difference between the acquired images.
  • the hand region distance calculation unit 220 receives the hand image extracted by the hand region extraction unit 210 from the hand region extraction unit 210.
  • the hand region distance calculation unit 220 receives from the image acquisition unit 150 of the authentication sensor unit 100 the distance between the plane where the imaging unit 122 and the light source of the beam light are present and the position where the beam light is irradiated.
  • the hand region distance calculation unit 220 calculates the distance to each point of the hand region and the plane where the imaging unit 122 and the light source of the beam light are present (S104).
  • the hand region distance calculation unit 220 transmits a set of distances to each point of the plane and hand region where the imaging unit 122 exists as a hand distance map to the hand region plane normalization unit 230.
  • the hand region plane normalization unit 230 applies the model to the hand distance map received from the hand region distance calculation unit 220.
  • the hand region plane normalization unit 230 adopts an elliptic paraboloid as a model and applies a hand distance map (S106).
  • the hand region plane normalization unit 230 performs plane normalization on the elliptic paraboloid fitted with the hand distance map (S108).
  • Planar normalization means that an image is deformed so that a curved surface is expanded to become a flat surface.
  • the dark line extraction unit 240 extracts dark lines from the hand region image that has been plane-normalized by the hand region plane normalization unit 230 (S110).
  • the dark line is a linear part having a lower luminance than the surroundings in the hand region image.
  • the dark line element feature extraction unit 250 extracts a dark line element feature for each dark line extracted by the dark line extraction unit 240.
  • the types of dark line element features include the thickness of the dark line and the dark line density.
  • the dark line element feature extraction unit 250 extracts the thickness of the dark line from the width of the dark line of the hand region image (S112).
  • the dark line element feature extraction unit 250 calculates the amount of change in the thickness of the dark line from the thickness of the dark line when shooting with the inside of the hand opened and the thickness of the dark line when shooting with the inside of the hand bent. (S114).
  • the dark line element feature extraction unit 250 extracts the dark line density from the dark line luminance of the hand region image (S122).
  • the dark line element feature extraction unit 250 calculates the amount of change in dark line density from the dark line density when shooting with the inside of the hand open and the dark line density when shooting with the inside of the hand bent. (S124).
  • the surface information determination unit 260 determines, for each dark line, whether or not the dark line is surface information from the change amount of the dark line thickness and the change amount of the dark line density (S130).
  • the surface information determination unit 260 can use information stored in the biological change information storage unit 270 when determining whether the dark line is surface information.
  • the biological change information storage unit 270 stores information that is a criterion for determining whether or not the dark line is surface information.
  • FIG. 5 is a diagram illustrating an example of an operation flow for photographing the inside of the hand. Photographing the inside of the hand is performed using the authentication sensor unit 100.
  • the image acquisition unit 150 prompts the user to turn the inner side of the hand toward the authentication sensor unit 100.
  • the image acquisition unit 150 instructs the user to point the inner side of the hand toward the authentication sensor unit 100 so as to be within a predetermined distance from the authentication sensor unit 100.
  • the image acquisition unit 150 can specify the shape of the hand facing the authentication sensor unit 100 to the user.
  • the distance measurement control unit 134 instructs the distance measurement unit 132 to turn on the beam light.
  • the distance measuring unit 132 irradiates the hand with beam light (S202).
  • the imaging control unit 124 instructs the imaging unit 122 to shoot a hand.
  • the imaging unit 122 captures a hand (S204). The hand photographed here is irradiated with beam light.
  • the distance measurement control unit 134 instructs the distance measurement unit 132 to turn off the beam light.
  • the distance measuring unit 132 stops the irradiation of the beam light (S206).
  • the illumination control unit 114 instructs the illumination unit 112 to turn on the illumination.
  • the illumination unit 112 illuminates the hand (S208).
  • the illumination intensity of the illumination unit 112 is set so as to reach only a short distance range from the illumination unit 112.
  • the imaging control unit 124 instructs the imaging unit 122 to shoot a hand.
  • the imaging unit 122 captures a hand (S210). The hand photographed here is illuminated.
  • the illumination control unit 114 instructs the illumination unit 112 to turn off the illumination.
  • the illumination unit 112 turns off the illumination (S212).
  • the imaging control unit 124 instructs the imaging unit 122 to shoot a hand.
  • the imaging unit 122 captures a hand (S214). The hand photographed here is neither light nor illuminated.
  • the authentication sensor unit 100 captures a hand for each state of the hand. For example, the image acquisition unit 150 of the authentication sensor unit 100 instructs the user to point the inner side of the hand toward the authentication sensor unit 100 with the hand open, and shoots the operation flow of FIG. Further, the image acquisition unit 150 of the authentication sensor unit 100 instructs the user to turn the inner side of the hand toward the authentication sensor unit 100 in a state where the inner side of the hand is bent, and shoot the operation flow of FIG. Do.
  • the order of photographing the hand is not limited to the example of the operation flow in FIG. For example, photographing performed in a state where the illumination unit 112 and the distance measuring unit 132 are turned off may be performed first. Further, the shooting with the inside of the hand bent may be performed before the shooting with the inside of the hand opened.
  • a plurality of light sources may be prepared.
  • the light beam may be irradiated in order for each light source, and the hand may be photographed by the imaging unit 122.
  • the direction of the beam light of the distance measuring unit 132 may be variable.
  • a hand may be photographed by the imaging unit 122 for each direction of the beam light.
  • FIG. 6 is a diagram illustrating an example of the state of the authentication sensor unit and the hand.
  • the authentication sensor unit 100 prompts the inside of the hand to face the authentication sensor unit 100, the hand is illuminated by the laser light from the distance measuring unit 132 or the illumination unit 112, and the hand is photographed by the imaging unit 122. Alternatively, the distance measuring unit 132 and the illumination unit 112 are turned off, and the hand is photographed by the imaging unit 122.
  • the authentication sensor unit 100 instructs to turn the hand toward the authentication sensor unit 100 in an open state or a bent state.
  • the hand region extraction unit 210 receives an image obtained by photographing the hand with the illumination turned on from the image acquisition unit 150. In addition, the hand region extraction unit 210 receives from the image acquisition unit 150 an image obtained by photographing the hand with the illumination turned off.
  • the hand region extraction unit 210 extracts a hand region from an image obtained by photographing the hand with the illumination turned on and an image obtained by photographing the hand with the illumination turned off.
  • the hand region extraction unit 210 extracts a hand region by taking a difference between an image obtained by photographing the hand with the illumination turned on and an image obtained by photographing the hand with the illumination turned off.
  • the illumination does not reach areas other than the hand area. Therefore, areas other than the hand area appear in the same manner in an image obtained by photographing the hand with the illumination turned on and an image obtained by photographing the hand with the illumination turned off. Accordingly, by taking the difference between an image obtained by photographing the hand with the illumination turned on and an image obtained by photographing the hand with the illumination turned off, the region other than the hand region can be removed and the hand region can be extracted.
  • the hand region extraction unit 210 may determine that a region where a difference between an image obtained by photographing a hand with the illumination turned on and an image obtained by photographing the hand with the illumination turned off is equal to or higher than a predetermined luminance is a hand region. Is possible.
  • the hand area extraction unit 210 extracts a hand area for a hand when opened and a hand when bent.
  • FIG. 7 is a diagram for explaining distance calculation using beam light.
  • the image acquisition unit 150 calculates the distance from the imaging unit 122 to the plane including the position where the light beam hits using an image obtained by irradiating the hand with the light beam and photographing the hand.
  • the beam light source that is the distance measuring unit 132 is located at a distance d from the center C of the lens 122A within a plane P1 that includes the center C (the principal point of the lens) of the lens 122A and is orthogonal to the optical axis OA of the lens.
  • the lens 122A is disposed at a position separated from the optical axis OA by a distance d.
  • the direction of the beam light of the beam light source exists in a plane including the optical axis OA and the beam light source.
  • the direction of the beam light of the beam light source has an inclination of an angle ⁇ with respect to the optical axis OA of the lens 122A of the imaging unit 122.
  • a distance between a plane P2 including the position A of the hand hit by the beam light and orthogonal to the optical axis of the lens of the imaging unit 122 and the center C of the lens 122A of the imaging unit 122 is a distance L.
  • the distance between the position A of the hand hit by the light beam and the intersection B of the plane P2 including the position A hitting the light beam and perpendicular to the optical axis OA is a distance x.
  • the angle of view of the image sensor 122B of the imaging unit 122 is an angle 2 ⁇ .
  • An angle that is half the angle of view of the image sensor 122B of the imaging unit 122 is an angle ⁇ .
  • a half of the distance on the plane P2 that falls within the angle of view of the image sensor 122B of the imaging unit 122 is a distance W.
  • the distance W is a distance between the optical axis OA and the outermost part that falls within the angle of view 2 ⁇ on the plane P2.
  • the distance between the position A and the optical axis OA is a distance a.
  • FIG. 8 is a diagram illustrating an example of an image captured by the imaging unit when the distance measuring unit irradiates the beam light.
  • the angle formed by the plane including the optical axis OA of the lens 122A of the imaging unit 122 and the beam light source and the horizontal axis of the image captured by the imaging unit 122 is an angle ⁇ .
  • the center of the image captured by the imaging unit 122 is the position of the optical axis OA of the lens 122A of the imaging unit 122.
  • the position where the light beam hits the image is extracted by taking the difference between the image of the hand shot by irradiating the beam light and the image of the hand shot with the illumination turned off.
  • the center of the range where the light beam hits the image can be the position where the light beam hits the image.
  • the distance calculation using the beam light can be performed by the image acquisition unit 150.
  • the image acquisition unit 150 transmits the calculated distance L to the hand region distance calculation unit 220.
  • At least one of the light beams may be used to calculate the distance from the plane P1 to the position A where the hand light beam hits.
  • FIG. 9 is a diagram illustrating an example of an operation flow of calibration of the authentication sensor unit.
  • the authentication sensor unit 100 performs calibration as pre-processing before calculating the distance of the hand area.
  • a uniform color object (calibrated plane P3) is arranged at a known distance from the authentication sensor unit 100 (S302).
  • the diffuse reflection coefficient of the calibration plane P3 is assumed to be uniform on the plane P3.
  • the illumination control unit 114 instructs the illumination unit 112 to turn on the illumination by the illumination unit 112.
  • the imaging control unit 124 instructs the imaging unit 122 to image the object.
  • the imaging unit 122 images the object (S304).
  • the image acquisition unit 150 stores the known distance and the captured image in the hand region distance calculation unit 220 (S306). The brightness of each point on the image can be calculated from the captured image.
  • FIG. 10 is a diagram illustrating the distance calculation of the hand region.
  • the hand region distance calculation unit 220 calculates the distance between the plane on which the imaging unit 122 and the light source of the beam light are present and all the points of the hand region on the captured image.
  • the hand area is extracted by the hand area extraction unit 210.
  • the distance between the center of the lens of the imaging unit 122 and the calibration plane P3 is a distance Z C.
  • the distance Z C is assumed to be known.
  • the diffuse reflection coefficient of the calibration plane P3 is r C.
  • the diffuse reflection coefficient of the calibration plane P3 may be known or unknown.
  • the diffuse reflection of the calibrated plane P3 is determined based on the fact that the luminance is attenuated in inverse proportion to the square of the distance using the image taken in the calibration.
  • a coefficient r C can be calculated.
  • the brightness on the calibration plane P3 of the image taken at the time of calibration is assumed to be E C. In general, the brightness E C varies depending on the position on the screen.
  • a distance between a plane perpendicular to the optical axis of the lens of the imaging unit 122 and passing through the center of the lens and a point on the subject (inside the hand) is a distance Z F.
  • the luminance of a point on the subject (inside the hand) is assumed to be EF .
  • the diffuse reflection coefficient of the subject (inside the hand) is r F.
  • the diffuse reflection coefficient r F of the subject (inside the hand) is assumed to be uniform inside the hand.
  • the ratio of the diffuse reflection coefficient r F of the diffuse reflection coefficient r C and the object (the inside of the hand) of the calibration plane P3 is determined as follows.
  • the distance Z C and the luminance E C are known.
  • the luminance E F was shot by irradiating the beam light in the image shot with the illumination unit 112 turned on. It is a brightness
  • the brightness E C used here is the brightness at the same position as the position where the light beam hits the image shot by irradiating the beam light in the image shot at the time of calibration.
  • a distance Z F between a plane perpendicular to the optical axis of the lens of the imaging unit 122 and passing through the center of the lens and an arbitrary point on the subject (inside the hand) is obtained by the following equation.
  • luminance using E F is the luminance of any point in the image obtained by photographing the hand lit illumination unit 112. Further, the luminance E C used here is the luminance at the same position as the arbitrary point in the image taken at the time of calibration.
  • the hand region distance calculation unit 220 can calculate the three-dimensional position (distance map) of each point in the hand region.
  • the hand region distance calculation unit 220 may calculate the hand region distance by another method.
  • the hand region distance calculation unit 220 calculates the hand region distance for the hand when it is opened and the hand when it is bent.
  • the hand region plane normalization unit 230 performs plane normalization of the hand region.
  • the hand region plane normalization unit 230 performs plane normalization after fitting the three-dimensional shape of the hand region to the model.
  • the hand is uneven in three dimensions.
  • the shape of the hand varies from person to person. It is desirable to measure various human hand shapes in three dimensions, divide the shapes into categories, and prepare models that represent each category. More specifically, the representation of each model may be represented as a set of voxels. As a model that is most simply expressed, there is a model that assumes a bowl-like shape with respect to the hand and expresses it by an elliptic paraboloid.
  • (X 0 , Y 0 , Z 0 ) are the coordinates of the center of the elliptic paraboloid.
  • a and b are coefficients.
  • the hand region plane normalization unit 230 can obtain an elliptic paraboloid equation by the iterative approximation method using the three-dimensional position of each point of the hand region calculated by the hand region distance calculation unit 220 as a sample point.
  • a three-dimensional position of each point of the hand region calculated by the hand region distance calculation unit 220 is set as a set S.
  • the hand region plane normalization unit 230 uses the set S as a sample point, calculates the center of gravity of the hand region from (X 0 , Y 0 , Z 0 ) and any two points in the set S (a, b) as initial values.
  • a set of a, b, X 0 , Y 0 , Z 0 giving the following equation can be obtained by an iterative approximation method.
  • the hand region plane normalization unit 230 obtains an equation of an elliptic paraboloid fitted to the elliptic paraboloid for the hand when opened and the hand when bent.
  • FIG. 11 is a diagram for explaining plane normalization.
  • Planar normalization means that an image is deformed so that a curved surface is expanded to become a flat surface.
  • FIG. 11 shows a plane parallel to the Z-axis of the three-dimensional coordinate.
  • the vertical axis in FIG. 11 represents a direction parallel to the Z-axis direction.
  • the horizontal axis in FIG. 11 represents a direction parallel to the X-axis direction or the Y-axis direction.
  • FIG. 11A is a cross-sectional view of an elliptic paraboloid.
  • FIG. 11B is a cross-sectional view of a plane orthogonal to the Z axis.
  • the hand region plane normalization unit 230 deforms a curved surface obtained by fitting a hand as shown in FIG. 11A to an elliptic paraboloid so as to become a plane as shown in FIG. 11B.
  • N can be set to a finite number according to the performance of the computer.
  • the hand region plane normalization unit 230 performs plane normalization for the hand when opened and the hand when bent.
  • the dark line extraction unit 240 extracts dark lines from the hand region image that has been plane normalized by the hand region plane normalization unit 230.
  • the dark line is a linear part having a lower luminance than the surroundings in the hand region image.
  • FIG. 12 is a diagram showing an example of the first derivative based on the luminance and the luminance position of the dark line portion of an axis on the plane-normalized hand image and the periphery thereof.
  • the horizontal axis of the graph in FIG. 12 represents the position.
  • the vertical axis of the graph in FIG. 12 represents luminance or the first derivative of luminance.
  • the dark line extraction unit 240 scans the hand region image in the horizontal direction or the vertical direction to obtain a difference in luminance between adjacent pixels.
  • the dark line extraction unit 240 searches for a location where the cumulative value of the luminance difference values in a section of a predetermined length that changes from light to dark in both the horizontal and vertical directions is equal to or less than a predetermined value.
  • the dark line extraction unit 240 has a cumulative value of the difference value of the luminance in a section of a predetermined length changing from dark to bright in a positive direction away from a pixel in the positive direction by a predetermined value or more. Can be detected as a dark line.
  • the dark line extraction unit 240 may extract dark lines by other methods.
  • the dark line extraction unit 240 extracts dark lines for the hand when opened and the hand when bent.
  • the dark line element feature extraction unit 250 extracts a dark line element feature for each dark line extracted by the dark line extraction unit 240.
  • the types of dark line element features include the thickness of the dark line and the dark line density.
  • the position of the dark line can be expressed as the coordinates of the midpoint of the end point closest to the other section among the end points of the adjacent section changing from light to dark and the section changing from dark to light.
  • the thickness (width) of the dark line can be represented by the distance between the center of the adjacent section that changes from light to dark and the center of the section that changes from dark to bright.
  • the dark line darkness can be expressed as an average of the absolute values of the cumulative values of the difference values of the brightness of each of the adjacent sections that change from light to dark and sections that change from dark to light.
  • the dark line element feature extraction unit 250 may extract the dark line element feature by another method.
  • the dark line element feature extraction unit 250 extracts dark line element features for the hand when opened and the hand when bent.
  • the dark line element feature extraction unit 250 creates a two-dimensional array (image format) image in which the dark line darkness value is stored in the pixel at the position where the dark line is detected.
  • the dark line element feature extraction unit 250 creates an image of a two-dimensional array (image format) in which the value of the thickness of the dark line is stored in the pixel at the position where the dark line is detected.
  • the dark line element feature extraction unit 250 creates these images for the open hand and the bent hand.
  • an image storing the darkness value when the hand is opened is referred to as an image Id1.
  • An image in which the value of the thickness of the dark line when the hand is opened is stored as an image Iw1.
  • an image storing the dark line darkness value when the hand is bent is defined as an image Id2.
  • An image in which the value of the thickness of the dark line when the hand is bent is stored as an image Iw2.
  • the surface information determination unit 260 determines, for each dark line, whether or not the dark line is surface information from the change amount of the dark line thickness and the change amount of the dark line density. Therefore, the surface information determination unit 260 can extract the dark line that is the surface information of the hand.
  • the surface information determination unit 260 can adjust the size in the state where the hand is opened and the state where the hand is bent as well as the alignment.
  • the surface information determination unit 260 performs alignment and size adjustment between the two images for the image Id1 and the image Id2.
  • the coefficients for approximation of the elliptic paraboloid when the hand is opened are (a1, b1, X01, Y01, Z01), and the coefficients for the approximation of the elliptic paraboloid when the hand is bent are Assume that (a2, b2, X02, Y02, Z02).
  • the surface information determination unit 260 moves ⁇ (X02 ⁇ X01) and ⁇ (Y02 ⁇ Y01) with respect to the image Id2 in the X axis direction and the Y axis direction, respectively.
  • the moved image Id2 is referred to as an image Id2 ′.
  • the area of the hand area of the image after plane normalization when the hand is opened (the number of pixels included in the hand area) is A1, and the area of the hand area of the image after plane normalization when the hand is bent is Let A2.
  • the surface information determination unit 260 enlarges / reduces the image Id2 ′ by (A1 / A2) 1/2 times around (X01, Y01).
  • An image obtained by enlarging or reducing the image Id2 ′ is an image Id2 ′′.
  • the surface information determination unit 260 adjusts the position and size of the images Iw1 and Iw2 between the two images.
  • the surface information determination unit 260 obtains an image Iw2 ′ and an image Iw2 ′′ by performing the same operation as described above.
  • the surface information determination unit 260 reads a condition determined as surface information from the surface change information storage unit 270.
  • the surface change information storage unit 270 stores, for example, a condition for determining a surface wrinkle when the change in dark line density is positive and the change in dark line thickness is negative. .
  • surface information determination unit 260 determines that the dark line is surface information.
  • the surface information determination unit 260 determines that the dark line is not surface information when ⁇ d ⁇ 0 or ⁇ w> 0.
  • FIG. 13 is a diagram showing an example of criteria for determining surface information.
  • the dark line is information on the surface wrinkles (surface information).
  • the surface information determination unit 260 stores the dark line information determined to be surface information in the biological surface feature storage unit 280.
  • the surface information determination unit 260 can store information on the position of the dark line determined to be surface information in the biological surface feature storage unit 280.
  • the surface information determination unit 260 can determine that the photographed hand is not a living body when there is no dark line recognized as surface information in the photographed hand image. This is because if it is a living body, it is considered that there is information on the surface of the hand caused by a hand heel.
  • the hand surface information stored in the biological surface feature storage unit 280 can be used as personal identification information for biometric authentication.
  • the biological surface feature storage unit 280 can store surface information of a known person's hand in advance. At this time, the surface information determination unit 260 can perform personal identification by comparing the surface information of the photographed hand image with the surface information of the hand stored in the biological surface feature storage unit 280.
  • the biological surface feature storage unit 280 can store the surface information of the hands of a plurality of persons and the identification information of the persons in association with each other.
  • Palmprint information which is palm surface information
  • palmprint authentication which is a technique of biometric authentication.
  • the biometric authentication device including the above-described biometric information acquisition device stores palm print information for each user in advance, surface information (palm print information) of the hand acquired by photographing the user's hand, and palm print information stored in advance By comparing these, biometric authentication can be performed.
  • biometric authentication device that combines biometric authentication based on palm surface information and palm vein authentication, which is biometric authentication for the same palm.
  • the authentication sensor unit 100 of the present embodiment can also be used as an authentication sensor in vein authentication.
  • FIG. 14 is a diagram illustrating an example of a biometric authentication device.
  • a biometric authentication device 1000 in FIG. 14 includes a biometric information acquisition device 10 having an authentication sensor unit 10, a vein authentication unit 500, and a determination unit 600.
  • the biometric authentication device 1000 may include a storage unit 700.
  • the biological information acquisition apparatus 10 captures the palm and extracts the surface information of the palm.
  • the biometric information acquisition apparatus 10 performs biometric authentication using the extracted palm surface information. Moreover, when the surface information of the palm cannot be acquired, the biological information acquisition apparatus 10 determines that the photographed palm is non-biological.
  • the biometric information acquisition apparatus 10 transmits to the determination unit 600 at least one of a result of biometric authentication based on palm surface information and a result of determination as to whether or not it is a living body.
  • the biometric information acquisition apparatus 10 in FIG. 14 has at least the same configuration and function as the biometric information acquisition apparatus 10 in FIG.
  • the biological information acquisition device 10 can extract one or more palm surface information stored in advance in the biological surface feature storage unit 280 or the like, which is similar to the palm surface information extracted from the captured image.
  • the vein authentication unit 500 performs biometric authentication using palm vein information using the palm image captured by the authentication sensor unit 10.
  • the vein authentication unit 500 can extract palm vein information from the palm image taken by the authentication sensor unit 10.
  • the vein authentication unit 500 transmits a biometric authentication result based on palm vein information to the determination unit 600.
  • the vein authentication unit 500 can perform biometric authentication using vein information using an image taken with the palm open.
  • the vein authentication unit 500 can extract the vein information of the palm from the image taken with the palm open.
  • the vein authentication unit 500 can store vein information of a palm of a known person in advance.
  • the vein authentication unit 500 can perform biometric authentication by comparing vein information extracted from a captured image with stored vein information.
  • the vein authentication unit 500 can store the palm vein information of a plurality of persons and the identification information of the persons in association with each other.
  • the vein authentication unit 500 can perform collation processing between palm vein information corresponding to one or a plurality of palm surface information extracted by the biometric information acquisition apparatus 10 and palm vein information extracted from a captured image. .
  • the determination unit 600 can perform authentication based on the result of biometric authentication based on palm surface information, the result of determination as to whether or not a living body is based on palm surface information, and the result of biometric authentication based on palm vein information.
  • the determination unit 600 can authenticate the person himself / herself when authentication is successful (authentication OK) in biometric authentication using the palm surface information and authentication is successful (authentication OK) in biometric authentication using the palm vein information. .
  • the storage unit 700 can store the user's palm surface information, vein information, and the user identification information in association with each other.
  • the storage unit 700 can store these pieces of information of a plurality of users in advance.
  • the biometric information acquisition apparatus 10 and the vein authentication unit 500 may acquire the palm surface information and vein information from the storage unit 700, respectively.
  • the biometric information acquisition apparatus 10 and the vein authentication unit 500 may not store these pieces of information.
  • Palm palm information is information on the surface of the body, whereas palm vein information is information on the body. Therefore, there is basically no relationship between the two pieces of information. For this reason, information for one individual increases, and if both of the two pieces of information are used, personal authentication can be realized with further improved personal identification accuracy of the present palm vein authentication. That is, if a person whose both palm print information and palm vein information match is identified as the person, the personal identification accuracy is increased.
  • palmprint authentication can be used to shorten the time for palm vein authentication.
  • Palm vein authentication has high personal identification accuracy, but the amount of information per person is large and the verification time is long. Therefore, when trying to match palm vein information input for personal identification processing with all registered persons, it may take ten or more seconds. For this reason, from the viewpoint of a human interface, there is a possibility that a human may feel uncomfortable when waiting for an authentication result.
  • a plurality of persons having similar palm print information (palm surface information) can be selected first, and palm vein authentication can be applied only to the plurality of persons.
  • biometric authentication based on palmprint information and palm vein information can realize a personal identification process comparable to palm vein authentication.
  • the palm surface information can be extracted by photographing the palm in an open state and a bent state.
  • biometric authentication can be performed using the extracted palm surface information.
  • palmprint authentication and vein authentication can be performed using images taken by the same authentication sensor.
  • more accurate personal identification processing can be realized by performing biometric authentication using palm surface information and palm vein information that are not related to each other.

Abstract

ユーザの開いた状態の手及び前記ユーザのたわました状態の手を撮影し、それぞれ、第1画像及び第2画像を取得する撮影部と、前記第1画像及び前記第2画像から、暗線を抽出する暗線抽出部と、前記第1画像及び前記第2画像から、前記暗線抽出部が抽出した前記暗線の濃さ及び太さを抽出する暗線要素特徴抽出部と、前記第1画像の暗線の濃さ、前記第2画像の暗線の濃さ、前記第1画像の暗線の太さ、及び、前記第2画像の暗線の太さに基づいて、手の表面情報である暗線を抽出する表面情報判定部と、を備える生体情報取得装置とした。

Description

生体情報取得装置及び生体認証装置
 本件は、手を利用した生体情報取得装置及び生体認証装置に関する。
 手には、手のひらに掌紋、もしくは、占いで手相と呼ばれている、手の皺に起因する手の表面情報がある。また、指の関節にも、指の屈伸に起因する指の表面情報がある。手の表面情報を取得する技術として、次のような技術がある。
 主に指を対象として、透過光を用いて撮影した画像と反射光を用いて撮影した画像との2枚の画像を使用する技術がある。反射光を用いて撮影した画像には、透過光を用いて撮影した画像よりも、より多くの表面情報が写る。そこで、2枚の画像の差分を取ることにより、対象物の表面情報が特定され得る。
 また、凹凸がある物体に方向の異なる照明を与えると、異なる影が形成される。この現象を利用し、照明光の強度、照明光の方向、照明光の波長、撮影の方向、撮影の時間のうちいずれか1つまたは複数が異なる複数の照明を使用して、対象物が撮影される。これらの撮影された画像の差分を解析することにより、対象物の表面情報が特定され得る。
特開2004-255212号公報 特開2006-244234号公報 特開2004-185276号公報 特開平04-277874号公報 特開2003-50993号公報 特開2006-99700号公報
 複数の照明を対象物に照射することによって、対象物の表面情報を取得することが、行われている。複数の照明を備える装置は、照明部の構成が複雑になる。よって、複数の照明を対象物に照射して表面情報を取得する装置の製造における照明部のコストが増大する。
 本件は、簡易な構成により、手の表面情報を取得する生体情報取得装置を提供することを目的とする。
 開示の生体情報取得装置は、上記課題を解決するために、以下の手段を採用する。
 即ち、第1の態様は、
 ユーザの手の内側を手が伸ばされた第1の状態で撮影した第1画像と、前記ユーザの手の内側を手がたわんだ状態で撮影した第2画像とを取得する撮影部と、
 前記第1画像及び前記第2画像のそれぞれから、暗線を抽出する暗線抽出部と、
 前記第1画像における前記暗線の要素の特徴、並びに、前記第2画像における前記暗線の要素の特徴を抽出する暗線要素特徴抽出部と、
 前記第1画像及び第2画像における暗線の要素の特徴の推移に基づいて、手の皺に起因する暗線を抽出する表面情報判定部と、
を備える生体情報取得装置とした。
 開示によれば、簡易な構成により、手の表面情報を取得する生体情報取得装置を提供することができる。
図1は、本実施形態の生体情報取得装置の構成の例を示す図である。 図2は、手を開いた状態の例を示す図である。 図3は、手をたわました状態の例を示す図である。 図4は、本実施形態の生体情報取得装置の全体の動作フローを示す図である。 図5は、手の撮影の動作フローの例を示す図である。 図6は、認証センサ部及び手の状態例を示す図である。 図7は、ビーム光を使用した距離算出を説明する図である。 図8は、測距部がビーム光を照射した際に撮像部が撮影した画像の例を示す図である。 図9は、認証センサ部のキャリブレーションの動作フローの例を示す図である。 図10は、手の領域の距離算出を説明する図である。 図11は、平面正規化を説明する図である。 図12は、平面正規化された手の画像上のある軸の暗線の部分及びその周辺の、輝度及び輝度の位置による一次微分の例を示す図である。 図13は、表面情報の判定基準の例を示す図である。 図14は、生体認証装置の例を示す図である。
符号の説明
          2A  伸ばされた手
          2B  たわんだ手
         10    生体情報取得装置
        100     認証センサ部
        112      照明部
        114      照明制御部
        122      撮像部
        122A      レンズ
        122B      撮像素子
        124      撮像制御部
        132      測距部
        134      測距制御部
        150      画像取得部
        210     手領域抽出部
        220     手領域距離算出部
        230     手領域平面正規化部
        240     暗線抽出部
        250     暗線要素特徴抽出部
        260     表面情報判定部
        270     生体変化情報記憶部
        280     生体表面特徴記憶部
        500    静脈認証部
        600    判定部
        700    記憶部
       1000   生体認証装置
 以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、開示の実施形態の構成に限定されない。
 〔実施形態〕
 手の皺に起因する手の表面情報は、生活の習慣や環境に依存して変化することが、知られている。したがって、手の表面情報を、一個人の生涯を通じた特定情報として使用することは、困難である。
 一方、手の表面情報は、変化するとはいえ、1-2日程度の短い期間で大きく変化することは通常ない。したがって、手の表面情報は、登録時刻と照合時刻との間隔が短いならば、一時的に使用できる生体認証用の認証情報として使用可能である。
 (構成)
 図1は、本実施形態の生体情報取得装置の構成の例を示す図である。図1の生体情報取得装置10は、認証センサ部100、手領域抽出部210、手領域距離算出部220、手領域平面正規化部230、暗線抽出部240を有する。また、生体情報取得装置10は、暗線要素特徴抽出部250、表面情報判定部260、生体変化情報記憶部270、生体表面特徴記憶部280を有する。
 手領域抽出部210、手領域距離算出部220、手領域平面正規化部230、暗線抽出部240、暗線要素特徴抽出部250、及び、表面情報判定部260、は、ハードウェアとしても、ソフトウェアとしても実現され得る。
 これらの構成要素のうち2以上の構成要素が1つの処理部として機能してもよい。これらの構成要素のうちいずれか1つの構成要素が、複数の処理部として機能してもよい。以後に記載される構成要素についても同様である。
 生体情報取得装置10の認証センサ部100は、照明部112、照明制御部114、撮像部122、撮像制御部124、測距部132、測距制御部134、画像取得部150を有する。認証センサ部100は、静脈認証用の認証センサとしても使用され得る。
 照明制御部114、撮像制御部124、測距制御部134、及び、画像取得部150は、ハードウェアとしても、ソフトウェアとしても実現され得る。
 撮像部122は、ユーザの手を撮影することができる。撮像部122は、少なくともレンズ122A及び撮像素子122Bを含む。撮像部122の撮像素子122Bとして、例えば、CCDイメージセンサ(Charge Coupled Device Image Sensor)が使用されるが、撮像部122の撮像素子122BはCCDイメージセンサに限定されるものではない。撮像部122の撮像素子122Bとして、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)等の他の撮像素子を使用することも可能である。
 撮像制御部124は、撮像部122に向けられた手を撮影することを、撮像部122に指示する。撮像制御部124は、撮像部122に向けられた複数の状態の手を撮影することを、撮像部122に指示できる。
 図2は、手の内側を開いた状態の手を示す図である。図2の手2Aは、手の内側が伸ばされた状態の手である。図2のように手の内側を開いた状態(手の内側が伸ばされた状態)では、手の内側の表面形状はほぼ平面になる。
 図3は、手の内側をたわました状態の手を示す図である。図3の手2Bは、手の内側がたわんだ状態の手である。図3のように手の内側をたわました状態(手の内側がたわんだ状態)では、手の内側の表面形状は曲面に相当する。
 照明部112は、照明制御部114からの制御に基づき、点灯または消灯する。照明部112として、白熱灯、蛍光管、LED(Light Emitted Device)等が使用され得るが、これらに限定されるものではない。照明部112の照明の強さは、照明部112から近距離(例えば、10cm以下)の範囲までしか届かないように設定される。照明部112は、照明の強さを照明部112から近距離の範囲までしか届かないようにすることで、認証センサ部100に向けられた手のみに、照明を当てることができる。
 照明制御部114は、手の画像取得の際、照明部112の点灯または消灯を制御する。また、照明制御部114は、手の距離計測の際、照明部112の照明を消灯させること指示することができる。
 測距制御部134は、手の距離計測の際、測距部132に対し、手にビーム光を照射することを指示する。測距制御部134は、測距部132が所定の方向にビーム光を照射することにより、手までの距離を計測することができる。
 測距部132は、測距制御部134からの制御に基づき、手にビーム光を照射する。測距部132としてレーザ光源等が使用され得るが、測距部132はこれに限定されるものではない。測距部132は、複数のレーザ光源等としてもよい。測距部132は、少なくとも1つのビーム光が手に照射されるように設置される。測距部132のビームの方向は、固定されていてもよいし、可変であってもよい。
 画像取得部150は、照明制御部114、撮像制御部124、及び、測距制御部134
に対して、手の画像取得または手の距離計測を指示する。画像取得部150は、ユーザに対して、認証センサ部100に手の内側を向けることを促す。画像取得部150は、ユーザに対して、手の内側を伸ばした状態及び手の内側をたわました状態で、認証センサ部100に手の内側を向けることを促し得る。画像取得部150は、撮像制御部124から撮影した画像を受信し、手領域抽出部210に送信する。また、画像取得部150は、測距部132からビーム光を照射して撮像部122で撮影した画像を、撮像制御部122から受信する。画像取得部150は、撮像部122の存在する平面とビーム光が照射された位置との距離を算出し、手領域距離算出部220に送信する。
 手領域抽出部210は、画像取得部150から受信した画像から、手の部分を抽出する。手の領域は、照明部112から照明を当てて撮影した画像と照明部112から照明を当てずに撮影した画像との差分から、抽出され得る。手領域抽出部210は、抽出した手の画像を手領域距離算出部220に送信する。
 手領域抽出部210は、手の内側を伸ばした状態及び手の内側をたわました状態について、それぞれ、手の領域を抽出する。
 手領域距離算出部220は、手領域抽出部210が抽出した手の画像を、手領域抽出部210から受信する。手領域距離算出部220は、認証センサ部100の画像取得部150から、撮像部122が存在する平面とビーム光が照射された位置との距離を、受信する。手領域距離算出部220は、撮像部122が存在する平面と撮影された画像上の手領域のすべての点との間の距離をそれぞれ算出する。当該距離により、手の3次元形状が分かる。
 手領域距離算出部220は、手の内側を伸ばした状態及び手の内側をたわました状態について、撮像部122が存在する平面と撮影された画像上の手のすべての点との間の距離をそれぞれ算出する。
 手領域平面正規化部230は、手領域距離算出部220が算出した手の距離情報を適切なモデルに当てはめ、平面に正規化する。当てはめるモデルとして、例えば、楕円放物面が使用され得る。
 手領域平面正規化部230は、手の内側を伸ばした状態及び手の内側をたわました状態について、手の距離情報を適切なモデルに当てはめ、平面に正規化する。
 暗線抽出部240は、手の画像から暗線を抽出する。手の画像の暗線は、手の画像の線状の暗い部分である。手の画像の暗線は、手のひらの掌紋や指の関節の皺などを含む。
 暗線要素特徴抽出部250は、手の画像の暗線要素の特徴を抽出する。手の画像の暗線要素には、暗線の太さ及び暗線の濃さが含まれる。
 表面情報判定部260は、暗線要素特徴抽出部250が抽出した手の画像の暗線要素の特徴に基づいて、抽出された暗線が手の表面情報か否かを判定する。表面情報判定部260は、判定基準として、生体変化情報記憶部270に格納された情報を使用することができる。表面情報判定部260は、例えば、手の画像の暗線の太さの変化及び暗線の濃さの変化を使用して、抽出された暗線が手の表面情報か否かを判定することができる。
 生体変化情報記憶部270は、抽出された暗線が手の表面情報か否かを表面情報判定部260が判定する際に使用する、判定基準(ルール)となる情報を格納する。
 生体表面特徴記憶部280は、表面情報判定部260による判定結果を格納する。また、生体表面特徴記憶部280は、手の表面情報を格納する。
 (動作例)
 図4は、本実施形態の生体情報取得装置の全体の動作フローを示す図である。
 認証センサ部100の画像取得部150は、手の画像を撮影することを照明制御部114、撮像制御部124、及び、測距制御部134に指示する。画像取得部150は、ユーザに対して、認証センサ部100に手の内側を向けることを促す。画像取得部150は、ユーザに対して、複数の状態の手を、認証センサ部100に向けることを促し得る。画像取得部150は、手を、測距部132からビーム光を照射して撮像部122で撮影する。また、画像取得部150は、手を、照明部112から照明を当てて撮像部122で撮影する。さらに、画像取得部150は、手を、照明部112及び測距部132が消灯した状態で、撮像部122で撮影する(S102)。
 また、画像取得部150は、撮像部122の存在する平面とビーム光が照射された位置との間の距離を算出する。
 手領域抽出部210は、照明部112から照明を当てて手を撮影した画像を、画像取得部150から受信する。また、手領域抽出部210は、照明部112及び測距部132が消灯した状態で手を撮影した画像を、画像取得部150から受信する。照明部112からの照明は近距離の範囲内までしか届かないため、手以外の部分(背景となる部分)には照明が当たらない。よって、手領域抽出部210は、取得した両画像の差分を求めることにより、手の領域を抽出することができる。
 手領域距離算出部220は、手領域抽出部210が抽出した手の画像を、手領域抽出部210から受信する。手領域距離算出部220は、認証センサ部100の画像取得部150から、撮像部122及びビーム光の光源が存在する平面とビーム光が照射された位置との距離を、受信する。手領域距離算出部220は、撮像部122及びビーム光の光源が存在する平面と手領域の各点まで距離を算出する(S104)。手領域距離算出部220は、撮像部122が存在する平面と手領域の各点まで距離の集合を、手の距離マップとして、手領域平面正規化部230に送信する。
 手領域平面正規化部230は、手領域距離算出部220から受信した手の距離マップに、モデルを当てはめる。手領域平面正規化部230は、例えば、モデルとして楕円放物面を採用し、手の距離マップを、当てはめる(S106)。
 手領域平面正規化部230は、手の距離マップを当てはめた楕円放物面を平面正規化する(S108)。平面正規化は、曲面を伸開して平面になるように、画像を変形させることをいう。
 暗線抽出部240は、手領域平面正規化部230で平面正規化された手領域画像から暗線を抽出する(S110)。暗線は、手領域画像において、周囲と比較して輝度の低い線状の部分である。
 暗線要素特徴抽出部250は、暗線抽出部240で抽出された暗線毎に、暗線要素特徴を抽出する。暗線要素特徴の種類として、暗線の太さ及び暗線の濃さが挙げられる。
 暗線要素特徴抽出部250は、手領域画像の暗線の幅から、暗線の太さを抽出する(S112)。暗線要素特徴抽出部250は、手の内側を開いて撮影した場合の暗線の太さと、手の内側をたわませて撮影した場合の暗線の太さとから、暗線の太さの変化量を算出する(S114)。
 暗線要素特徴抽出部250は、手領域画像の暗線の輝度から、暗線の濃さを抽出する(S122)。暗線要素特徴抽出部250は、手の内側を開いて撮影した場合の暗線の濃さと、手の内側をたわませて撮影した場合の暗線の濃さとから、暗線の濃さの変化量を算出する(S124)。
 表面情報判定部260は、暗線の太さの変化量及び暗線の濃さの変化量から、暗線毎に当該暗線が表面情報か否かの判定を行う(S130)。表面情報判定部260は、暗線が表面情報か否かの判定を行う際、生体変化情報記憶部270に格納された情報を使用することができる。生体変化情報記憶部270は、暗線が表面情報か否かの判定基準となる情報を記憶する。
 〈撮影〉
 図5は、手の内側の撮影の動作フローの例を示す図である。手の内側の撮影は、認証センサ部100を使用して、行われる。
 画像取得部150は、ユーザに対して、認証センサ部100に手の内側を向けることを促す。画像取得部150は、ユーザに対して、認証センサ部100から所定の距離の範囲内になるように手の内側を認証センサ部100に向けることを指示する。このとき、画像取得部150は、ユーザに対し、認証センサ部100に向ける手の形状を指定することができる。測距制御部134は、測距部132によるビーム光の点灯を指示する。測距部132は、手にビーム光を照射する(S202)。
 撮像制御部124は、撮像部122に手を撮影することを指示する。撮像部122は、手を撮影する(S204)。ここで撮影される手は、ビーム光が照射されている。
 測距制御部134は、測距部132によるビーム光の消灯を指示する。測距部132は、ビーム光の照射を中止する(S206)。
 照明制御部114は、照明部112による照明の点灯を指示する。照明部112は、手に照明を当てる(S208)。照明部112の照明の強さは、照明部112から近距離の範囲までしか届かないように設定される。
 撮像制御部124は、撮像部122に手を撮影することを指示する。撮像部122は、手を撮影する(S210)。ここで撮影される手は、照明が当てられている。
 照明制御部114は、照明部112による照明の消灯を指示する。照明部112は、照明を消す(S212)。
 撮像制御部124は、撮像部122に手を撮影することを指示する。撮像部122は、手を撮影する(S214)。ここで撮影される手は、ビーム光も照明も当てられていない。
 認証センサ部100は、手を、手の状態毎に、撮影する。例えば、認証センサ部100の画像取得部150は、ユーザに対し、手を開いた状態で手の内側を認証センサ部100に向けることを指示し、図5の動作フローの撮影を行う。さらに、認証センサ部100の画像取得部150は、ユーザに対し、手の内側をたわました状態で手の内側を認証センサ部100に向けることを指示し、図5の動作フローの撮影を行う。
 図5の動作フローは、速やかに実行されることが望ましい。同一の状態の手の撮影開始から撮影終了まで、手の状態(形状)が保持されることが望ましいからである。
 手の撮影を行う順序は、図5の動作フローの例に限定されるものではない。例えば、照明部112及び測距部132が消灯した状態で行う撮影が、最初に行われてもよい。また、手の内側をたわました状態の撮影が、手の内側を開いた状態の撮影より前に行われてもよい。
 測距部132として、複数の光源が用意されてもよい。測距部132として、複数の光源が用意された場合、光源毎に順番にビーム光を照射し、それぞれ撮像部122により手が撮影されてもよい。また、測距部132のビーム光の方向は、可変であってもよい。測距部132のビーム光の方向が可変である場合、ビーム光の方向毎に、撮像部122により手が撮影されてもよい。
 図6は、認証センサ部及び手の状態例を示す図である。認証センサ部100が手の内側を認証センサ部100に向けることを促し、手に、測距部132からレーザ光若しくは照明部112から照明が当てられて、撮像部122によって手が撮影される。または、測距部132及び照明部112が消灯して、手が撮像部122によって、撮影される。認証センサ部100は、手を、開いた状態若しくはたわました状態にして、認証センサ部100に向けることを指示する。
 〈手領域の抽出〉
 手領域抽出部210は、照明を点灯して手を撮影した画像を、画像取得部150から受信する。また、手領域抽出部210は、照明を消灯して手を撮影した画像を、画像取得部150から受信する。
 手領域抽出部210は、照明を点灯して手を撮影した画像と照明を消灯して手を撮影した画像とから、手領域を抽出する。手領域抽出部210は、照明を点灯して手を撮影した画像と照明を消灯して手を撮影した画像との差分をとることにより、手領域を抽出する。
 手領域以外の領域には照明が届かない。そのため、照明を点灯して手を撮影した画像及び照明を消灯して手を撮影した画像において、手領域以外の領域は、同様に写る。従って、照明を点灯して手を撮影した画像と照明を消灯して手を撮影した画像との差分をとることにより、手領域以外の領域が除去され、手領域が抽出され得る。
 手領域抽出部210は、照明を点灯して手を撮影した画像と照明を消灯して手を撮影した画像との差分が所定の輝度以上である領域を、手領域であると判断することが可能である。
 手領域抽出部210は、開いた場合の手及びたわました場合の手について、手領域の抽出を行う。
 〈手領域の距離算出〉
 《ビーム光を使用した距離算出》
 図7は、ビーム光を使用した距離算出を説明する図である。画像取得部150は、手にビーム光を照射して手を撮影した画像を使用して、撮像部122からビーム光が当たった位置を含む平面までの距離を算出する。
 測距部132であるビーム光源は、レンズ122Aの中心C(レンズの主点)を含み当該レンズの光軸OAと直交する平面P1内で、レンズ122Aの中心Cから距離dだけ離れた位置、かつ、レンズ122Aの光軸OAから距離dだけ離れた位置に配置される。当該ビーム光源のビーム光の方向は、光軸OA及び当該ビーム光源を含む平面内に存在する。当該ビーム光源のビーム光の方向は、撮像部122のレンズ122Aの光軸OAに対し角度θの傾きを有する。ビーム光が当たっている手の位置Aを含み撮像部122のレンズの光軸と直交する平面P2と、撮像部122のレンズ122Aの中心Cとの間の距離は、距離Lとする。ビーム光が当たっている手の位置Aと、ビーム光が当たっている位置Aを含み光軸OAと直交する平面P2との交点Bとの間の距離は、距離xとする。撮像部122の撮像素子122Bの画角は、角度2αとする。撮像部122の撮像素子122Bの画角の半分の角度は、角度αである。撮像部122の撮像素子122Bの画角に納まる、平面P2上の距離の半分は、距離Wとする。距離Wは、平面P2において光軸OAと画角2αに納まる最も外側の部分との間の距離である。位置Aと光軸OAとの間の距離は、距離aとする。
 図8は、測距部がビーム光を照射した際に撮像部が撮影した画像の例を示す図である。
 撮像部122のレンズ122Aの光軸OAとビーム光源とを含む平面と撮像部122が撮影した画像の横軸とがなす角度は、角度φとする。撮像部122が撮影した画像の中心は、撮像部122のレンズ122Aの光軸OAの位置である。
 ここで、図7に示す実世界上での相対関係と、図8に示す撮像部122が撮影した画像上の相対関係とは、等しい。よって、次の式が成立する。
Figure JPOXMLDOC01-appb-M000001
ここで、
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
である。この式を、距離Lについて解くことにより、次の式が得られる。
Figure JPOXMLDOC01-appb-M000004
 この式により、ビーム光が当たっている位置Aと平面P1との間の距離Lが、求められる。
 画像上でのビーム光が当たった位置は、ビーム光を照射して手を撮影した画像と照明を消灯して手を撮影した画像との差分を取ることにより、抽出される。画像上でのビーム光が当たった位置が大きさを有する場合は、画像上でのビーム光が当たった範囲の中心を画像上でのビーム光が当たった位置とすることができる。
 ビーム光を使用した距離算出は、画像取得部150によって行われ得る。画像取得部150は、算出した距離Lを、手領域距離算出部220に送信する。
 複数の種類のビーム光が存在する場合、少なくとも、いずれか1つのビーム光を使用して、平面P1から手のビーム光が当たった位置Aまでの距離の算出が行われればよい。
 《キャリブレーション》
 図9は、認証センサ部のキャリブレーションの動作フローの例を示す図である。
 認証センサ部100は、手領域の距離を算出する前に、事前処理として、キャリブレーションを行う。
 認証センサ部100から既知の距離に一様な色の物体(キャリブレート平面P3)が配置される(S302)。キャリブレート平面P3の拡散反射係数は、当該平面P3において一様であるとする。照明制御部114は、照明部112による照明の点灯を、照明部112に指示する。撮影制御部124は、撮像部122に上記の物体を撮影することを指示する。撮像部122は、上記の物体を撮影する(S304)。画像取得部150は、上記の既知の距離及び撮影された画像を、手領域距離算出部220に格納する(S306)。撮影された画像から画像上の各点の輝度が、算出され得る。
 《手領域の距離算出》
 図10は、手領域の距離算出を説明する図である。手領域距離算出部220は、撮像部122及びビーム光の光源が存在する平面と撮影された画像上の手領域のすべての点との間の距離を算出する。
 手領域は、手領域抽出部210により抽出されている。
 撮像部122のレンズの中心とキャリブレート平面P3との間の距離は、距離ZCとする。距離ZCは、既知であるとする。キャリブレート平面P3の拡散反射係数は、rCとする。キャリブレート平面P3の拡散反射係数は、既知であっても未知であってもよい。キャリブレート平面P3の拡散反射係数rCが未知である場合、キャリブレーションにおいて撮影された画像を使用して、輝度は距離の2乗に反比例して減衰することに基づいて、キャリブレート平面P3の拡散反射係数rCが算出され得る。キャリブレーションの際に撮影された画像のキャリブレート平面P3上の輝度は、ECとする。一般的に、輝度ECは、画面上の位置により異なる。
 撮像部122のレンズの光軸に直交し当該レンズの中心を通る平面と被写体(手の内側)のある点と間の距離は、距離ZFとする。この、被写体(手の内側)のある点の輝度は、EFとする。被写体(手の内側)の拡散反射係数は、rFとする。被写体(手の内側)の拡散反射係数rFは、手の内側において一様であるとする。
 このとき、キャリブレート平面P3の拡散反射係数rCと被写体(手の内側)の拡散反射係数rFとの比は、次のように求められる。
Figure JPOXMLDOC01-appb-M000005
 ここで、距離ZC及び輝度ECは、既知である。距離ZFとしてビーム光を使用して算出した被写体(手の内側)までの距離を使用すると、輝度EFは、照明部112を点灯して撮影した画像における、ビーム光を照射して撮影した画像におけるビーム光が当たった位置と同位置の、輝度である。また、ここで使用する輝度ECは、キャリブレーションの際に撮影された画像における、ビーム光を照射して撮影した画像におけるビーム光が当たった位置と同位置の、輝度である。
 また、撮像部122のレンズの光軸に直交し当該レンズの中心を通る平面と被写体(手の内側)の任意の点と間の距離ZFは、次の式で求められる。
Figure JPOXMLDOC01-appb-M000006
 ここで使用する輝度EFは、照明部112を点灯して手を撮影した画像における任意の点の輝度である。また、ここで使用する輝度ECは、キャリブレーションの際に撮影された画像における、当該任意の点と同位置の、輝度である。
 以上により、撮像部122及びビーム光の光源が存在し撮像部122のレンズの光軸と直交する平面と、撮影された画像上の手領域のすべての点との間の距離が算出される。換言すると、手領域距離算出部220は、手領域の各点の三次元位置(距離マップ)を算出することができる。
 手領域距離算出部220は、手領域の距離算出を、他の方法により行ってもよい。
 手領域距離算出部220は、開いた場合の手及びたわました場合の手について、手領域の距離算出を行う。
 〈手領域平面正規化〉
 一人の人物の複数の形状の手を比較するため、手領域平面正規化部230は、手領域の平面正規化を行う。
 《モデルあてはめ》
 手領域平面正規化部230は、手領域の三次元形状をモデルにあてはめた後に平面正規化を行う。
 手は、三次元的に凹凸がある。手の形状は、人によって様々である。様々な人間の手の形状を三次元的に計測し、その形状をカテゴリーに分け、それぞれのカテゴリーを代表するモデルを用意することが、望ましい。各モデルの表現は、より詳細にはボクセルの集合として表されることがよい。最も簡素に表現するモデルとして、手に対して椀状の形状を想定し、楕円放物面により表現するモデルが挙げられる。
 ここでは、手領域の形状が、楕円放物面にあてはめられる。楕円放物面の式は、次のように表現される。
Figure JPOXMLDOC01-appb-M000007
ここで、(X0,Y0,Z0)は、楕円放物面の中心の座標である。また、a及びbは、係数である。
 手領域平面正規化部230は、手領域距離算出部220が算出した手領域の各点の三次元位置を標本点として、反復近似法により楕円放物面の方程式を求めることができる。
 手領域距離算出部220が算出した手領域の各点の三次元位置は、集合Sとする。手領域平面正規化部230は、集合Sを標本点とし、手領域の重心を(X0,Y0,Z0)及び集合Sの任意の2点から算出した(a,b)を初期値として、次の式を与えるa、b、X0、Y0、Z0の組を、反復近似法により求めることができる。
Figure JPOXMLDOC01-appb-M000008
 手領域平面正規化部230は、開いた場合の手及びたわました場合の手について、楕円放物面にあてはめた楕円放物面の方程式を求める。
 《平面正規化》
 図11は、平面正規化を説明する図である。平面正規化は、曲面を伸開して平面になるように、画像を変形させることをいう。
 図11は、三次元座標のZ軸に平行な面を表す。図11の縦軸は、Z軸方向と平行な方向を表す。図11の横軸は、X軸方向若しくはY軸方向と平行な方向を表す。図11の(a)は、楕円放物面の断面図である。また、図11の(b)は、Z軸と直交する平面の断面図である。
 手領域平面正規化部230は、図11の(a)のような手を楕円放物面に当てはめた曲面を、図11の(b)のような平面になるように変形させる。
 手を当てはめた楕円放物面上の(X,Y)は、平面上の(X′,Y′)に変換される。ここで、(X,Y)と(X′,Y′)との関係は、次のように表現される。
Figure JPOXMLDOC01-appb-M000009
 ただし、
Figure JPOXMLDOC01-appb-M000010
である。ここで、Nは、計算機の性能に合わせて、有限の数に設定され得る。
 手領域平面正規化部230は、開いた場合の手及びたわました場合の手について、平面正規化を行う。
 《暗線抽出及び暗線要素特徴抽出》
 暗線抽出部240は、手領域平面正規化部230で平面正規化された手領域画像から暗線を抽出する。暗線は、手領域画像において、周囲と比較して輝度の低い線状の部分である。
 図12は、平面正規化された手の画像上のある軸の暗線の部分及びその周辺の、輝度及び輝度の位置による一次微分の例を示す図である。図12のグラフの横軸は、位置を表す。図12のグラフの縦軸は、輝度若しくは輝度の一次微分を表す。
 暗線の部分では、図12の上のグラフのように、安定したある程度大きな値の輝度(明)から小さい値の輝度(暗)に変化する部分と小さい値の輝度から大きな値の輝度に変化する部分とが隣接する。
 暗線抽出部240は、手領域画像を横方向若しくは縦方向に走査して隣接する画素の輝度の差分を求める。暗線抽出部240は、横方向にも縦方向にも明から暗に変化する所定の長さの区間での輝度の差分値の累積値が所定の値以下である箇所を探す。暗線抽出部240は、当該箇所の画素から正の方向に所定の値以内の距離離れた、暗から明に変化する所定の長さの区間での輝度の差分値の累積値が所定の値以上である箇所を、暗線として検出することができる。暗線抽出部240は、他の方法により、暗線を抽出してもよい。
 暗線抽出部240は、開いた場合の手及びたわました場合の手について、暗線の抽出を行う。
 暗線要素特徴抽出部250は、暗線抽出部240で抽出された暗線毎に、暗線要素特徴を抽出する。暗線要素特徴の種類として、暗線の太さ及び暗線の濃さが挙げられる。
 暗線の位置は、隣接する明から暗に変化する区間及び暗から明に変化する区間の端点のうち、それぞれ他の区間に近い方の端点の中点の座標として表され得る。暗線の太さ(幅)は、隣接する明から暗に変化する区間の中心と暗から明に変化する区間の中心との距離で表され得る。暗線の濃さは、隣接する明から暗に変化する区間及び暗から明に変化する区間の輝度のそれぞれの区間の差分値の累積値の絶対値の平均として表され得る。暗線要素特徴抽出部250は、他の方法により、暗線要素特徴を抽出してもよい。
 暗線要素特徴抽出部250は、開いた場合の手及びたわました場合の手について、暗線要素特徴を抽出する。
 暗線要素特徴抽出部250は、暗線を検出した位置の画素に暗線の濃さの値を格納した二次元配列(画像形式)の画像を作成する。また、暗線要素特徴抽出部250は、暗線を検出した位置の画素に暗線の太さの値を格納した二次元配列(画像形式)の画像を作成する。暗線要素特徴抽出部250は、開いた場合の手及びたわました場合の手について、これらの画像を作成する。
 ここで、手を開いた場合の暗線の濃さの値を格納した画像を、画像Id1とする。手を開いた場合の暗線の太さの値を格納した画像を、画像Iw1とする。また、手をたわました場合の暗線の濃さの値を格納した画像を、画像Id2とする。手をたわました場合の暗線の太さの値を格納した画像を、画像Iw2とする。
 〈表面情報判定〉
 表面情報判定部260は、暗線の太さの変化量及び暗線の濃さの変化量から、暗線毎に当該暗線が表面情報か否かの判定を行う。よって、表面情報判定部260は、手の表面情報である暗線を抽出することができる。
 人間の手の内側をたわませることによって、手の内側の皺が寄る。手の内側表面の包絡面上の表面積は、手を開いた状態よりも手をたわました状態の方が小さい。表面情報判定部260は、位置合わせと共に、手を開いた状態と手をたわました状態とで、大きさの調整を行うことができる。
 表面情報判定部260は、画像Id1と画像Id2とに対し、2枚の画像間で位置合わせ及び大きさの調整を行う。手を開いた場合の楕円放物面の近似の際の係数が(a1、b1、X01,Y01,Z01)であり、手をたわました場合の楕円放物面の近似の際の係数が(a2、b2、X02,Y02,Z02)であったとする。表面情報判定部260は、画像Id2について、X軸方向及びY軸方向について、それぞれ、-(X02-X01)、-(Y02-Y01)移動する。画像Id2を移動させたものは、画像Id2′とする。手を開いた場合の平面正規化後の画像の手領域の面積(手領域に含まれる画素数)をA1とし、手をたわました場合の平面正規化後の画像の手領域の面積をA2とする。表面情報判定部260は、画像Id2′に対して(X01,Y01)を中心として(A1/A2)1/2倍の拡縮を行う。画像Id2′を拡縮したものは、画像Id2″とする。
 同様に、表面情報判定部260は、画像Iw1と画像Iw2とに対し、2枚の画像間で位置合わせ及び大きさの調整を行う。表面情報判定部260は、上記と同様の操作を行うことにより、画像Iw2′及び画像Iw2″を得る。
 表面情報判定部260は、Id1、Id2″、Iw1、Iw2″で同じ座標(x,y)に出力がある画素に対し、暗線の濃さの変化Δd=Id2″(x,y)―Id1(x,y)及び暗線の太さの変化Δw=Iw2″(x,y)―Iw1(x,y)を求める。
 表面情報判定部260は、表面変化情報記憶部270から、表面情報と判定される条件を読み出す。表面変化情報記憶部270には、例えば、暗線の濃さの変化が正であり、かつ、暗線の太さの変化が負である場合に、表面の皺と判断するとの条件が格納されている。このとき、表面情報判定部260は、Δd>0であり、かつ、Δw<0である場合、当該暗線は表面情報であると判断する。また、表面情報判定部260は、Δd<0であり、又は、Δw>0である場合、当該暗線は表面情報ではないと判断する。
 図13は、表面情報の判定基準の例を示す図である。図13の例では、暗線の濃さの変化が濃くなる方向であり、暗線の太さの変化が細くなる方向である場合、当該暗線が表面の皺の情報(表面情報)であると判断される。
 表面情報判定部260は、表面情報であると判定した暗線の情報を、生体表面特徴記憶部280に格納する。表面情報判定部260は、表面情報であると判定した暗線の位置の情報を、生体表面特徴記憶部280に格納することができる。
 表面情報判定部260は、撮影された手の画像に表面情報であると認められる暗線が存在しない場合、撮影された手が生体ではないと判断することができる。生体であれば、手の皺に起因する手の表面情報が存在すると考えられるからである。
 生体表面特徴記憶部280に格納された手の表面情報は、生体認証の際の個人識別情報として使用され得る。
 生体表面特徴記憶部280は、あらかじめ、既知の人物の手の表面情報を格納しておくことができる。このとき、表面情報判定部260が、撮影された手の画像の表面情報と生体表面特徴記憶部280に格納される手の表面情報とを照合することで、個人識別を行うことができる。生体表面特徴記憶部280は、複数の人物の手の表面情報と当該人物の識別情報とを対応付けて格納することができる。
 (応用例)
 手のひらの表面情報である掌紋情報は、生体認証の一技術である掌紋認証として利用することができる。上記の生体情報取得装置を含む生体認証装置が、あらかじめユーザ毎の掌紋情報を格納しておき、ユーザの手を撮影して取得した手の表面情報(掌紋情報)とあらかじめ格納された掌紋情報とを比較することで、生体認証を行うことができる。
 また、手のひらの表面情報による生体認証と同じ手のひらを対象とする生体認証である手のひら静脈認証とを組み合わせた生体認証装置とすることが可能である。このとき、本実施形態の認証センサ部100は、静脈認証における認証センサとしても使用され得る。
 図14は、生体認証装置の例を示す図である。図14の生体認証装置1000は、認証センサ部10を有する生体情報取得装置10と、静脈認証部500と、判定部600を有する。また、生体認証装置1000は、記憶部700を有してもよい。
 生体情報取得装置10は、手のひらを撮影し、手のひらの表面情報を抽出する。生体情報取得装置10は、抽出された手のひらの表面情報を使用して、生体認証を行う。また、生体情報取得装置10は、手のひらの表面情報を取得できなかった場合、撮影された手のひらは非生体であると判断する。生体情報取得装置10は、手のひらの表面情報による生体認証の結果、及び、生体か否かの判定結果のうち少なくとも1つを判定部600に送信する。図14の生体情報取得装置10は、少なくとも、図1の生体情報取得装置10と、同様の構成、機能を有する。生体情報取得装置10は、撮影された画像から抽出された手のひらの表面情報に類似する、生体表面特徴記憶部280等にあらかじめ格納される1又は複数の手のひら表面情報を抽出することができる。
 静脈認証部500は、認証センサ部10で撮影された手のひらの画像を使用して手のひら静脈情報による生体認証を行う。静脈認証部500は、認証センサ部10で撮影された手のひらの画像から手のひらの静脈情報を抽出することができる。静脈認証部500は、手のひら静脈情報による生体認証結果を判定部600に送信する。静脈認証部500は、手のひらを開いた状態で撮影された画像を使用して静脈情報による生体認証を行うことができる。静脈認証部500は、手のひらを開いた状態で撮影された画像から、手のひらの静脈情報を抽出することができる。
 静脈認証部500は、あらかじめ、既知の人物の手のひらの静脈情報を格納しておくことができる。静脈認証部500は、撮影された画像から抽出した静脈情報と、格納された静脈情報とを照合して、生体認証を行うことができる。静脈認証部500は、複数の人物の手のひらの静脈情報と当該人物の識別情報とを対応付けて格納することができる。
 静脈認証部500は、生体情報取得装置10が抽出した1又は複数の手のひら表面情報に対応する手のひらの静脈情報と撮影された画像から抽出された手のひらの静脈情報との照合処理を行うことができる。
 判定部600は、手のひらの表面情報による生体認証の結果、手のひらの表面情報による生体か否かの判定結果、及び、手のひらの静脈情報による生体認証の結果に基づいて、認証を行うことができる。判定部600は、手のひらの表面情報による生体認証において認証成功(認証OK)し、かつ、手のひらの静脈情報による生体認証において認証成功(認証OK)した場合に、本人であると認証することができる。
 記憶部700は、ユーザの手のひらの表面情報と静脈情報と当該ユーザの識別情報とを関連付けて格納することができる。記憶部700は、あらかじめ、複数のユーザのこれらの情報を格納することができる。生体情報取得装置10及び静脈認証部500は、それぞれ、手のひらの表面情報及び静脈情報を、記憶部700から取得してもよい。記憶部700がユーザの手のひらの表面情報と静脈情報と当該ユーザの識別情報とを関連付けて格納した場合、生体情報取得装置10及び静脈認証部500は、これらの情報を格納しなくてもよい。
 掌紋情報は体の表面の情報であるのに対し、手のひら静脈の情報は体内の情報である。したがって、2つの情報の間には基本的に関連がない。そのため、一個人に対する情報が増加することになり、2つの情報を両方とも利用すれば、現状の手のひら静脈認証の個人識別精度をさらに高めた個人認証を実現することができる。すなわち、掌紋情報と手のひら静脈情報の両方とも一致した人物を本人と識別すれば、個人識別精度が高まる。
 また、掌紋認証は、手のひら静脈認証の時間短縮に使用することもできる。手のひら静脈認証は個人識別精度が高いが、その分、一人あたりの情報量が多く、照合時間も長い。したがって、個人識別処理のために入力された手のひら静脈情報を、登録されたすべての人と照合しようとすると、十数秒の時間がかかることがある。このため、ヒューマンインタフェースの観点からは、人間が認証結果を待つときに不快を感じる可能性がある。そこで、登録されたすべての人の中で、先に掌紋情報(手のひらの表面情報)が類似した人を複数選択し、その複数の人だけに手のひら静脈認証を適用することができる。
 掌紋情報は手のひら静脈情報に比べると、情報量が多くはないので、掌紋情報を単独で生体認証に用いたのでは個人識別精度は劣る。しかし、掌紋認証は、情報量が少ないため、照合にかかる時間が少なくすることができる。したがって、掌紋情報及び手のひら静脈情報による生体認証の照合時間は、手のひら静脈認証単独の照合時間より短い時間で実現できる。さらに、掌紋情報及び手のひら静脈情報による生体認証は、手のひら静脈認証に匹敵する個人識別処理を実現できる。
 (実施形態の作用効果)
 本実施形態によると、手のひらを、開いた状態及びたわました状態で撮影することで、手のひらの表面情報を抽出することができる。本実施形態によれば、抽出された手のひらの表面情報を使用して、生体認証を行うことができる。
 また、本実施形態によると、同一の認証センサで撮影された画像を使用して、掌紋認証及び静脈認証をおこなうことができる。本実施形態によれば、互いに関連のない、手のひら表面情報と手のひら静脈情報とを使用して、生体認証を行うことで、より精度の高い個人識別処理を実現できる。

Claims (8)

  1.  ユーザの手の内側を手の内側が伸ばされた第1の状態で撮影した第1画像と、前記ユーザの手の内側を手の内側がたわんだ状態で撮影した第2画像とを取得する撮影部と、
     前記第1画像及び前記第2画像のそれぞれから、暗線を抽出する暗線抽出部と、
     前記第1画像における前記暗線の要素の特徴、並びに、前記第2画像における前記暗線の要素の特徴を抽出する暗線要素特徴抽出部と、
     前記第1画像及び第2画像における暗線の要素の特徴の推移に基づいて、手の屈伸に基づく皺に起因する暗線を抽出する表面情報判定部と、
    を備える生体情報取得装置。
  2.  前記暗線要素特徴抽出部は、前記第1画像における前記暗線の濃さ及び太さ、並びに、前記第2画像における前記暗線の濃さ及び太さを抽出し、
     前記表面情報判定部は、前記第1画像及び前記第2画像の同位置の暗線における、前記第2画像の暗線の濃さが前記第1画像の暗線の濃さよりも濃く、前記第2画像の暗線の太さが前記第1画像の暗線の太さより細い場合、当該暗線は手の皺に起因する暗線であると判定する、
    請求項1に記載の生体情報取得装置。
  3.  前記表面情報判定部は、前記第1画像及び前記第2画像から抽出した暗線に手の屈伸に基づく皺に起因する暗線が含まれる場合、前記第1画像及び前記第2画像は生体が撮影されることにより得られたものであると判定する、
    請求項2に記載の生体情報取得装置。
  4.  ユーザの手の内側を手の内側が伸ばされた第1の状態で撮影した第1画像と、前記ユーザの手の内側を手の内側がたわんだ状態で撮影した第2画像とを取得する撮影部と、
     前記第1画像及び前記第2画像のそれぞれから、暗線を抽出する暗線抽出部と、
     前記第1画像における前記暗線の要素の特徴、並びに、前記第2画像における前記暗線の要素の特徴を抽出する暗線要素特徴抽出部と、
     前記第1画像及び第2画像における暗線の要素の特徴の推移に基づいて、手の屈伸に基づく皺に起因する暗線を抽出し、抽出された前記手の皺に起因する暗線と前記ユーザに対応するあらかじめ用意された手の皺に起因する暗線との照合処理を行う表面情報判定部と、
    を備える生体認証装置。
  5.  前記暗線要素特徴抽出部は、前記第1画像における前記暗線の濃さ及び太さ、並びに、前記第2画像における前記暗線の濃さ及び太さを抽出し、
     前記表面情報判定部は、前記第1画像及び前記第2画像の同位置の暗線における、前記第2画像の暗線の濃さが前記第1画像の暗線の濃さよりも濃く、前記第2画像の暗線の太さが前記第1画像の暗線の太さより細い場合、当該暗線は手の皺に起因する暗線であると判定する、
    請求項4に記載の生体認証装置。
  6.  前記第1画像から手の静脈情報を抽出し、前記静脈情報と前記ユーザに対応するあらかじめ用意された手の静脈情報との照合処理を行う静脈情報判定部と、
     前記表面情報判定部の照合結果が正常を示し、かつ、前記静脈情報判定部の照合結果が正常を示す場合に、前記ユーザを認証し、そうでなければ前記ユーザを認証しない判定部と、を備える請求項4または5に記載の生体認証装置。
  7.  複数のユーザの、識別情報と、手の屈伸に基づく皺に起因する暗線による表面情報と、手の静脈情報とを対応付けて格納する記憶部と、
     ユーザの手の内側を手の内側が伸ばされた第1の状態で撮影した第1画像と、前記ユーザの手の内側を手の内側がたわんだ状態で撮影した第2画像とを取得する撮影部と、
     前記第1画像及び前記第2画像のそれぞれから、暗線を抽出する暗線抽出部と、
     前記第1画像における前記暗線の要素の特徴、並びに、前記第2画像における前記暗線の要素の特徴を抽出する暗線要素特徴抽出部と、
     前記第1画像及び第2画像における暗線の要素の特徴の推移に基づいて、手の皺に起因する暗線を抽出し、抽出された前記手の皺に起因する暗線と前記記憶部に格納された手の皺に起因する暗線との照合処理を行い、抽出された前記手の皺に起因する暗線と類似する1又は複数の前記記憶部に格納された手の皺に起因する暗線の表面情報を抽出する表面情報判定部と、
     前記第1画像から手の静脈情報を抽出し、前記静脈情報と前記表面情報判定部が前記記憶部から抽出した1又は複数の手の皺に起因する暗線の表面情報に対応する手の静脈情報との照合処理を行う静脈情報判定部と、
     前記静脈情報判定部の照合結果が正常を示す場合に、前記ユーザを認証し、そうでなければ前記ユーザを認証しない判定部と、
    を備える生体認証装置。
  8.  前記暗線要素特徴抽出部は、前記第1画像における前記暗線の濃さ及び太さ、並びに、前記第2画像における前記暗線の濃さ及び太さを抽出し、
     前記表面情報判定部は、前記第1画像及び前記第2画像の同位置の暗線における、前記第2画像の暗線の濃さが前記第1画像の暗線の濃さよりも濃く、前記第2画像の暗線の太さが前記第1画像の暗線の太さより細い場合、当該暗線は手の皺に起因する暗線であると判定する、
    請求項7に記載の生体認証装置。
PCT/JP2009/055352 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置 WO2010106657A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011504660A JP5293806B2 (ja) 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置
PCT/JP2009/055352 WO2010106657A1 (ja) 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置
EP09841862.7A EP2410486B1 (en) 2009-03-18 2009-03-18 Biometric data aquisition device
ES09841862T ES2731898T3 (es) 2009-03-18 2009-03-18 Dispositivo de adquisición de datos biométricos
US13/235,131 US8692875B2 (en) 2009-03-18 2011-09-16 Biometric data acquiring device and biometric authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/055352 WO2010106657A1 (ja) 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/235,131 Continuation US8692875B2 (en) 2009-03-18 2011-09-16 Biometric data acquiring device and biometric authentication device

Publications (1)

Publication Number Publication Date
WO2010106657A1 true WO2010106657A1 (ja) 2010-09-23

Family

ID=42739326

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/055352 WO2010106657A1 (ja) 2009-03-18 2009-03-18 生体情報取得装置及び生体認証装置

Country Status (5)

Country Link
US (1) US8692875B2 (ja)
EP (1) EP2410486B1 (ja)
JP (1) JP5293806B2 (ja)
ES (1) ES2731898T3 (ja)
WO (1) WO2010106657A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180435A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP2016081416A (ja) * 2014-10-21 2016-05-16 Kddi株式会社 生体検知装置、システム、方法及びプログラム
JP2016170692A (ja) * 2015-03-13 2016-09-23 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
JP2022538850A (ja) * 2019-07-01 2022-09-06 タレス・ディス・フランス・エス・ア・エス スラップ/指前景マスクを生成するための方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2628178C1 (ru) * 2013-09-24 2017-08-15 Бэйцзин Чжбоон Информэйшн Тэкнолоджи Ко., Лтд. Способ, устройство и мобильный терминал для бесконтактной аутентификации по отпечатку ладони
KR102302844B1 (ko) 2014-10-23 2021-09-16 삼성전자주식회사 정맥 패턴을 이용한 사용자 인증 방법 및 장치
CN106407881B (zh) * 2015-07-29 2020-07-31 财团法人工业技术研究院 生物辨识装置及方法与穿戴式载体

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04277874A (ja) 1991-03-06 1992-10-02 Sharp Corp 指紋入力装置
JPH0721348A (ja) * 1993-06-21 1995-01-24 Asahi Optical Co Ltd 手相入力装置
JP2002532808A (ja) * 1998-12-17 2002-10-02 イー.エル.スペシャリスツ、インコーポレイテッド 三次元電気的接触により記述される照射イメージ
JP2003050993A (ja) 2001-08-06 2003-02-21 Omron Corp 指紋読取方法および指紋読取装置
JP2004185276A (ja) 2002-12-03 2004-07-02 Matsushita Electric Ind Co Ltd 画像撮影装置および光学素子および情報装置ならびに画像補正方法
JP2004255212A (ja) 2004-06-16 2004-09-16 Hitachi Ltd 指の特徴パターン検出装置及び個人識別装置
JP2005182332A (ja) * 2003-12-18 2005-07-07 Hitachi Ltd 個人認証装置
JP2006098340A (ja) * 2004-09-30 2006-04-13 Sharp Corp 内部検出装置
JP2006099700A (ja) 2004-09-30 2006-04-13 Secom Co Ltd 画像監視装置
JP2006244234A (ja) 2005-03-04 2006-09-14 Fujitsu Ltd 内部構造画像取得装置、内部構造画像取得方法および内部構造画像取得プログラム
JP2006312064A (ja) * 2006-07-03 2006-11-16 Hitachi Ltd 指の特徴パターン検出装置及び個人識別装置
JP2007075305A (ja) * 2005-09-14 2007-03-29 Hitachi Ltd 個人認証装置及び方法
JP2007219625A (ja) * 2006-02-14 2007-08-30 Canon Inc 血管画像入力装置、及び個人認証システム
JP2008217307A (ja) * 2007-03-02 2008-09-18 Kddi Corp 掌紋認証装置、携帯電話端末、プログラム、および掌紋認証方法
JP2008305427A (ja) * 2008-08-04 2008-12-18 Hitachi Ltd 個人認証装置及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4421242B4 (de) 1993-06-17 2005-12-08 Pentax Corp. Bilderfassungseinrichtung für ein Identifikationssystem
US6091838A (en) 1998-06-08 2000-07-18 E.L. Specialists, Inc. Irradiated images described by electrical contact
WO2006135394A2 (en) * 2004-08-20 2006-12-21 The Regents Of The University Of Colorado, A Body Corporate Biometric signature and identification through the use of projective invariants
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
JP5098973B2 (ja) * 2008-11-27 2012-12-12 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04277874A (ja) 1991-03-06 1992-10-02 Sharp Corp 指紋入力装置
JPH0721348A (ja) * 1993-06-21 1995-01-24 Asahi Optical Co Ltd 手相入力装置
JP2002532808A (ja) * 1998-12-17 2002-10-02 イー.エル.スペシャリスツ、インコーポレイテッド 三次元電気的接触により記述される照射イメージ
JP2003050993A (ja) 2001-08-06 2003-02-21 Omron Corp 指紋読取方法および指紋読取装置
JP2004185276A (ja) 2002-12-03 2004-07-02 Matsushita Electric Ind Co Ltd 画像撮影装置および光学素子および情報装置ならびに画像補正方法
JP2005182332A (ja) * 2003-12-18 2005-07-07 Hitachi Ltd 個人認証装置
JP2004255212A (ja) 2004-06-16 2004-09-16 Hitachi Ltd 指の特徴パターン検出装置及び個人識別装置
JP2006098340A (ja) * 2004-09-30 2006-04-13 Sharp Corp 内部検出装置
JP2006099700A (ja) 2004-09-30 2006-04-13 Secom Co Ltd 画像監視装置
JP2006244234A (ja) 2005-03-04 2006-09-14 Fujitsu Ltd 内部構造画像取得装置、内部構造画像取得方法および内部構造画像取得プログラム
JP2007075305A (ja) * 2005-09-14 2007-03-29 Hitachi Ltd 個人認証装置及び方法
JP2007219625A (ja) * 2006-02-14 2007-08-30 Canon Inc 血管画像入力装置、及び個人認証システム
JP2006312064A (ja) * 2006-07-03 2006-11-16 Hitachi Ltd 指の特徴パターン検出装置及び個人識別装置
JP2008217307A (ja) * 2007-03-02 2008-09-18 Kddi Corp 掌紋認証装置、携帯電話端末、プログラム、および掌紋認証方法
JP2008305427A (ja) * 2008-08-04 2008-12-18 Hitachi Ltd 個人認証装置及び方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180435A (ja) * 2013-03-19 2014-09-29 Fujitsu Ltd 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
JP2016081416A (ja) * 2014-10-21 2016-05-16 Kddi株式会社 生体検知装置、システム、方法及びプログラム
JP2016170692A (ja) * 2015-03-13 2016-09-23 富士通株式会社 画像処理装置、画像処理プログラム、及び画像処理方法
JP2022538850A (ja) * 2019-07-01 2022-09-06 タレス・ディス・フランス・エス・ア・エス スラップ/指前景マスクを生成するための方法
JP7403562B2 (ja) 2019-07-01 2023-12-22 タレス・ディス・フランス・エス・ア・エス スラップ/指前景マスクを生成するための方法

Also Published As

Publication number Publication date
EP2410486B1 (en) 2019-04-24
EP2410486A4 (en) 2016-05-11
JP5293806B2 (ja) 2013-09-18
ES2731898T3 (es) 2019-11-19
JPWO2010106657A1 (ja) 2012-09-20
EP2410486A1 (en) 2012-01-25
US20120007976A1 (en) 2012-01-12
US8692875B2 (en) 2014-04-08

Similar Documents

Publication Publication Date Title
JP5293806B2 (ja) 生体情報取得装置及び生体認証装置
JP6523925B2 (ja) 生体情報を用いた認証装置及び認証方法
KR101122971B1 (ko) 생체 인증 장치, 생체 인증 방법, 및 생체 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록 매체
JP6165540B2 (ja) 血管画像撮影装置及び端末
US7801335B2 (en) Apparatus and methods for detecting the presence of a human eye
TWI381319B (zh) Refers to the intravenous authentication device
KR101947538B1 (ko) 인증 장치, 및 인증 방법
JP4247691B2 (ja) 登録装置、照合装置、登録方法、照合方法及びプログラム
KR20120039498A (ko) 정보 처리 장치, 정보 처리 방법, 프로그램 및 전자 장치
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP2008065570A (ja) 個人認証装置及び方法
JP4999731B2 (ja) 顔画像処理装置
JP4783331B2 (ja) 顔認証装置
JP6799155B2 (ja) 情報処理装置、情報処理システム、および被写体情報特定方法
JP2010250466A (ja) 個人認証装置
CN113260299A (zh) 用于眼睛追踪的系统和方法
US11837029B2 (en) Biometric authentication device and biometric authentication method
JP7264257B2 (ja) 制御装置、制御方法及びプログラム
JP6759065B2 (ja) 血管画像撮影装置および個人認証システム
WO2020230445A1 (ja) 画像処理装置、画像処理方法、及び、コンピュータプログラム
JP2005284394A (ja) 特徴検出装置
WO2015068495A1 (ja) 器官画像撮影装置
US20220277488A1 (en) Imaging method and imaging apparatus
JP2007102421A (ja) 生体認証装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09841862

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009841862

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011504660

Country of ref document: JP