WO2017082100A1 - 生体情報を用いた認証装置及び認証方法 - Google Patents

生体情報を用いた認証装置及び認証方法 Download PDF

Info

Publication number
WO2017082100A1
WO2017082100A1 PCT/JP2016/082252 JP2016082252W WO2017082100A1 WO 2017082100 A1 WO2017082100 A1 WO 2017082100A1 JP 2016082252 W JP2016082252 W JP 2016082252W WO 2017082100 A1 WO2017082100 A1 WO 2017082100A1
Authority
WO
WIPO (PCT)
Prior art keywords
finger
living body
image
authentication
light
Prior art date
Application number
PCT/JP2016/082252
Other languages
English (en)
French (fr)
Inventor
三浦 直人
友輔 松田
長坂 晃朗
宮武 孝文
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to CN201680051560.7A priority Critical patent/CN107949863B/zh
Publication of WO2017082100A1 publication Critical patent/WO2017082100A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an authentication system for authenticating an individual using a living body, and more particularly, to a small, excellent and highly accurate authentication technology.
  • finger vein authentication is known as a technology that can realize highly accurate authentication. Since finger vein authentication uses a blood vessel pattern inside the finger, it achieves excellent authentication accuracy, and it is difficult to forge and falsify compared to fingerprint authentication, so that high security can be realized.
  • biometric authentication devices have been installed in devices such as mobile phones, notebook PCs (Personal Computers), mobile devices such as smartphones and tablet devices, lockers, safes, and printers, and there has been an increase in cases of securing the security of each device. ing.
  • biometric authentication has been used in recent years as a field to which biometric authentication is applied.
  • Patent Document 1 As a technology related to miniaturization in an authentication apparatus that performs personal authentication based on the shape of a blood vessel.
  • Patent Document 2 discloses a technique for performing authentication by taking a reflected image of a visible light source including red with a color camera and extracting a palm vein and a palm print on a palm held in contact with the apparatus. Has been.
  • the opening of the sensor is made narrower than the width of the finger in order to reduce the size of the device. Position correction is difficult when the finger is misaligned, and there is no mention of a solution.
  • it is necessary to place a finger at a predetermined position of the apparatus it is impossible to capture a wide range of biological information, and it is necessary to provide a finger rest, and it is difficult to reduce the size of the apparatus.
  • Patent Document 2 describes a technique for photographing and authenticating palm veins and palmprints at the same time using a color camera provided as standard on a smartphone or tablet and ambient light or light on a liquid crystal screen. .
  • This technique has the advantage that a wide range of biometric information of the palm can be captured without touching the device.
  • guidance such as a user stopping the living body at an appropriate position.
  • An authentication apparatus for authenticating an individual using characteristics of a living body, comprising: an installation area in which a living body is installed; a light source that irradiates light to the living body presented in the installation area; and a light source that reflects the living body
  • An imaging unit that captures light; an image processing unit that processes an image captured by the imaging unit; a feature extraction unit that extracts a biological feature of the living body from the image; and a storage unit that holds the biological feature;
  • a collation unit that compares similarities of the biological features, the imaging device and the plurality of light sources are arranged at positions facing the living body, the plurality of light sources irradiate different wavelengths, and the imaging device includes a plurality of imaging devices.
  • the living body Based on the posture of the living body, having means for photographing the wavelength and measuring the distance between the living body and the imaging device, determining the posture of the living body, detecting an optimum presentation position, and guiding to the position.
  • the living body An authentication device and performs correction features.
  • toe although a device housing is small, it can image
  • the position can be corrected or detected even when the finger is misaligned, and a small and highly convenient authentication apparatus with high authentication accuracy can be provided.
  • FIG. 1 is a diagram showing an overall configuration of a biometric authentication system using a finger blood vessel according to the first embodiment.
  • the present invention may be configured not as a system but as a device in which all or a part of the configuration is mounted on a housing.
  • the apparatus may be a personal authentication apparatus including an authentication process, or the authentication process may be performed outside the apparatus, and may be a blood vessel image acquisition apparatus or a blood vessel image extraction apparatus specialized for acquiring a blood vessel image.
  • the embodiment as a terminal may be used as described later.
  • the authentication system includes an input device 2, an authentication processing unit 10, a storage device 14, a display unit 15, an input unit 16, a speaker 17, and an image input unit 18.
  • the input device 2 includes a light source 3 installed in the housing and an imaging device 9 installed in the housing.
  • the image processing function portion of the authentication processing unit 10 or the image processing function including the image input unit 18 may be referred to as an image processing unit.
  • the authentication processing unit 10 is a collective term for processing units that execute processing related to authentication, and a determination unit that determines the distance between the living body (finger) and the system or the posture of the living body (finger) from the image, A state control unit that instructs the display unit or the like to correct the distance to the (finger) or the posture of the living body (finger), an unnecessary information removal unit that removes unnecessary information (wrinkles, background, etc.) from the captured image, and imaging A feature extraction unit that extracts feature information from the captured image, and a collation unit that collates the extracted feature information with registered data stored in advance in a storage device.
  • the light source 3 is a light emitting element such as an LED (Light Emitting Diode), for example, and irradiates light on the finger 1 presented on the upper part of the input device 2.
  • the imaging device 9 captures an image of the finger 1 presented on the input device 2. Note that a plurality of fingers 1 may be provided.
  • the image input unit 18 acquires an image captured by the imaging device 9 of the input device 2 and inputs the acquired image to the authentication processing unit 10.
  • the authentication processing unit 10 includes a central processing unit (CPU: Central Processing Unit) 11, a memory 12, and various interfaces (IF) 13.
  • CPU Central Processing Unit
  • IF various interfaces
  • the CPU 11 performs various processes by executing programs stored in the memory 12.
  • the memory 12 stores a program executed by the CPU.
  • the memory 12 temporarily stores the image input from the image input unit 18.
  • the interface 13 connects the authentication processing unit 10 and an external device. Specifically, the interface 13 is connected to the input device 2, the storage device 14, the display unit 15, the input unit 16, the speaker 17, the image input unit 18, and the like.
  • the storage device 14 stores user registration data in advance.
  • the registration data is information for collating users, and is, for example, an image of a finger vein pattern.
  • a finger vein pattern image is an image obtained by capturing blood vessels (finger veins) distributed mainly under the skin on the palm side of a finger as a dark shadow pattern.
  • the display unit 15 is, for example, a liquid crystal display, and is an output device that displays information received from the authentication processing unit 10.
  • the input unit 16 is, for example, a keyboard, and transmits information input from the user to the authentication processing unit 10.
  • the speaker 17 is an output device that transmits information received from the authentication processing unit 10 as an acoustic signal (for example, voice).
  • the display unit 15 and the speaker 17 are devices (instruction units) for instructing the user who uses this authentication system to correct the distance between the living body (finger) and the system and the posture of the living body (finger).
  • the present invention is not limited to this apparatus.
  • each processing unit described above may perform all processing with one CPU, or a CPU may be used for each processing unit.
  • FIG. 2 is a diagram illustrating the structure of the input device of the biometric authentication system according to the first embodiment.
  • the input device 2 captures biological features distributed on the surface of the finger or subcutaneously.
  • the input device 2 is surrounded by a device housing 21, in which two imaging devices 9 are arranged, and a plurality of infrared light sources 31 and visible light sources 32 are alternately arranged around the imaging device 9 in an annular shape. It is arranged and the finger 1 can be illuminated uniformly through the opening.
  • the infrared light source 31 emits infrared light
  • the visible light source 32 emits visible light.
  • the wavelength of the visible light source 32 can be arbitrarily selected from about 450 nm to 570 nm, that is, from blue to green. Further, it is assumed that the light source 31 and the light source 32 can irradiate with arbitrary intensity.
  • the light source 31 selects 850 nm infrared light
  • the light source 32 selects 550 nm green wavelength.
  • the light emitting element of each wavelength may be united.
  • An acrylic plate 22 is fitted in the opening, and has an effect of preventing dust and the like from entering the inside of the apparatus and physically protecting members inside the apparatus.
  • the subject becomes invisible. Therefore, all the light sources are turned on in time series to continuously photograph the subject, and each image is HDR (High Dynamic Range). It is also possible to obtain a clear subject with no reflection component by combining with technology.
  • the light source 31 and the light source 32 may be arranged in an annular shape or a lattice shape between the two imaging devices 9, not around the imaging device 9, and an annular shape or a lattice so as to surround the two imaging devices 9. You may arrange in a shape.
  • the imaging device 9 is a color camera, and has a plurality of light receiving elements having sensitivity in visible and infrared wavelength bands.
  • the imaging device 9 has, for example, three types of CMOS or CCD elements having light receiving sensitivity in blue (B), green (G), and red (R), and these are arranged in a grid as known as a Bayer array. ing.
  • Each element of RGB has sensitivity to near infrared light.
  • the sensitivity of each light receiving element is composed of, for example, a sensor having a light receiving sensitivity peak near 450 nm for blue, 550 nm for green, and 620 nm for red. Further, it is assumed that the color image to be photographed is in the RGB color image format in which the RGB color planes can be acquired independently.
  • the imaging device 9 may be a multispectral camera having a light receiving element having more than three wavelengths.
  • the imaging device 9 is provided with a band-pass filter 33 that transmits all wavelengths of light output from the light source 3 and blocks other bands, and blocks unnecessary stray light to improve image quality. In this embodiment, only light having wavelengths of 550 nm and 850 nm are transmitted.
  • the input device 2 can shoot various biological features existing in the skin of the fingertip by irradiating a plurality of visible lights. For example, there are fingerprints, epidermis wrinkles, joint wrinkles, veins, melanin patterns such as spots and moles, blood patterns, and fat leaflet patterns in the subcutaneous tissue (herein called fat crests).
  • FIG. 3 is an example of a processing flow for performing authentication while estimating the posture of a living body with a stereo camera.
  • the system prompts the user to present a finger (S401). Subsequently, the two color cameras start photographing while synchronizing with infrared light and green light (S402). At this time, when luminance saturation is observed due to external light or the like, exposure adjustment may be performed and set to an exposure time at which luminance saturation disappears. Subsequently, the distance and the solid shape of the subject are measured from the photographed video (S403). Then, it is determined whether or not the subject exists within the range of the distance set in advance from the authentication device (S404), and if it does not exist, it is considered that the living body is not presented, and the process returns to the initial processing (S401). Wait until presented.
  • the posture information of the finger includes the position of the fingertip or the base of the finger, and each image is cut out using the position information of one or more fingers to be authenticated. Then, the enlargement ratio of the image is corrected according to the position, orientation, and distance of the finger with respect to the cut finger image, and the posture of the finger is normalized (S409). Subsequently, a biometric feature is extracted from the finger image whose posture is normalized (S410). Thereafter, the biometric features are collated (S411), the similarity with the registration data is calculated, and it is determined whether or not the user is a registrant (S412).
  • the distance / shape measurement (S403) of the subject will be described in detail.
  • reflected images of near-infrared light and green light are captured using two color cameras, and distance measurement is performed by applying a stereo viewing (stereo matching) technique using the parallax. It is assumed that internal parameters and external parameters for converting the coordinate system between the two cameras are known. It is also assumed that shooting can be synchronized between cameras. At this time, by using a general stereo vision method, it is possible to associate an arbitrary pixel of the left camera with an arbitrary pixel of the right camera, and acquire the distance of the subject in units of pixels.
  • template matching between partial images, association by feature points using SIFT (Scale-invariant Feature Transform), or the like can be used. Thereby, distance information or shape information of a subject photographed in common by both cameras can be acquired, and the three-dimensional structure of the subject can be grasped.
  • SIFT Scale-invariant Feature Transform
  • infrared light and green light are emitted at the same time, and the reflected light is photographed.
  • Information such as veins that can be photographed with infrared light, and fingerprints and fat prints with fine edges that can be photographed with green light are obtained. Earn at the same time.
  • FIG. 4 is an example of images of veins, fingerprints, and fat prints taken by simultaneously emitting infrared light and green light.
  • the finger vein 62 is photographed unclearly in the reflected image 61 of infrared light, the fingerprints of the epidermis are hardly noticeable, and feature points such as edges are relatively few.
  • the finger vein 62 can hardly be observed in the green light reflection image 63, the fingerprint 64, the joint wrinkle 65, and the fat crest 66 are observed. Since these feature quantities have strong edges, feature points can be easily acquired by a general feature point extraction method such as SIFT, and the accuracy of matching the coordinates of both images in stereo matching is improved. can do.
  • SIFT general feature point extraction method
  • FIG. 5 is an example of spectral sensitivity characteristics of each RGB element of the color camera.
  • the RGB elements have almost the same sensitivity distribution in the infrared light region having a wavelength longer than around 850 nm.
  • the sensitivity of the G element is high.
  • the amounts of light received by the three elements R, G, and B (Ir, Ig, and Ib, respectively) and the wavelength of the emitted LED are obtained by the following simultaneous equations.
  • I550 and I850 are the reflected light components of green light and infrared light, respectively, and Wr ( ⁇ ), Wg ( ⁇ ), and Wg ( ⁇ ) are the sensitivities of the R, G, and B elements at wavelength ⁇ , respectively. To do. From these equations, the reflected light components (I550 and I850) of green light and infrared light can be obtained. However, although the number of equations is three for two unknowns, two unknowns can be obtained with two equations, and by averaging three results that take out three equations, The error contained in the unknown solution is leveled.
  • the method of this embodiment can simultaneously capture an infrared image and a fat print, so that the subject can be photographed at a high speed, and high-precision stereo matching can be realized because there is no positional shift between the frames of the subject.
  • the result of distance measurement by stereo vision obtained by the above-described method is performed in units of pixels.
  • an inaccurate result may be generated in units of pixels due to the influence of image noise. Therefore, noise removal may be performed by spatially leveling by applying a graph cut or a speckle filter.
  • step S405 an example of the posture detection of the living body performed in step S405 will be described.
  • Various situations are assumed for the finger presentation method. For example, hold your finger over the device, hold your 5 fingers open, hold your finger over it, or your finger position is misaligned from the camera. There is something about the presentation position. Therefore, by using the result of the distance measurement process of the subject described above, the posture of the finger such as the fingertip or base position of each finger and the finger presentation angle is estimated, and based on this, the appropriate presentation position and posture are obtained. Acquire information to guide the user or correct it on the image.
  • FIG. 6 shows an embodiment of a method for detecting the finger presentation position.
  • a projection luminance distribution 101 obtained by integrating the distance image 100 toward the x-axis and obtaining an average value is obtained.
  • the projected luminance distribution of the portion where the finger is observed has a high value
  • the projected luminance distribution of the portion where no subject exists such as a gap between the fingers, has a low value.
  • the region of interest 102 around each finger is then defined.
  • the finger region of interest 102 sets a threshold value for the projected luminance distribution 101, and has an arbitrary width that is sufficiently wider than the finger width, with the maximum point exceeding the threshold set as the center in the x-axis direction. It is an area
  • FIG. 6C shows an example of processing for detecting one specific finger. Considering the reduction of lens distortion at the center of the image and the fact that the user holds the finger directly over the authentication device, it is considered most reasonable to target the finger image reflected at the center of the image. . Therefore, only the finger close to the center of the image is taken out.
  • the projection distribution 101 on the x-axis is multiplied by a weighting factor 103 that increases as it approaches the center of the image, and is converted so that the value of the projection distribution close to the center of the image becomes higher.
  • this x coordinate is defined as the position in the x axis direction of the finger closest to the image center.
  • FIG. 7 is an explanatory diagram of an embodiment for detecting a finger outline and a fingertip.
  • pixel values in each region of interest can be separated by separating the finger and background based on a binarization process based on discriminant analysis or graph cut, and strong edges can be connected. Or you may take out by the method of tracking.
  • the edge weight and the curvature are minimized while maximizing the total amount of edges by increasing the weight of the edge closer to the center of the image.
  • a connection method may be adopted. Thereby, it is less likely to extract the contour of the adjacent finger by mistake, and an effect of reducing the authentication error can be obtained.
  • the finger outline 120 can be obtained as shown in FIG.
  • the finger center line 121 is then obtained.
  • the finger center line 121 may be obtained by linearly approximating the finger outline 120, or the inner area of the extracted finger outline is defined as the finger area, and the principal component analysis is performed using each pixel of the finger area as an element. Then, it may be obtained as the direction (main direction) of the obtained first main component.
  • the fingertip 122 is obtained using the finger outline 120 and the finger center line 121. In this case, the intersection of the finger center line and the finger contour line may be defined as the fingertip 122, or the projection distribution is calculated toward the y axis of the region of interest 102 and is directed from the lower side to the upper side of the image.
  • the value of the luminance distribution is examined, and the y coordinate that falls below a threshold that can be determined to be the background first may be determined as the fingertip.
  • the processing can be simplified and speeded up.
  • the finger posture is detected using the measurement result of the finger distance and the three-dimensional shape.
  • the posture of the finger includes not only the x, y, and z coordinates of the finger, but also the bending and warping of the finger, and rotation about the x, y, and z axes. Is required. It is assumed that the finger is divided into three nodes by two finger joints, and the skeleton structure of the finger that approximates the center axis of each node to a straight line is analyzed. In the coordinate system shown in FIG. 6A, rotations about the x-axis, y-axis, and z-axis are defined as pitching, rolling, and yawing, respectively.
  • FIG. 8 shows an embodiment for detecting the posture of a finger.
  • the finger 1 including the two joints 150 is photographed in the region of interest 102 with respect to the distance image, the finger is lightly bent, and further includes rolling.
  • the finger is lightly bent, and further includes rolling.
  • only one joint may be included or no joint may be included.
  • the area inside the finger outline 120 is closer to the camera as it is brighter.
  • a normal vector 140 of each coordinate is calculated by partial differentiation of the distance image. Since the finger 1 has a shape similar to an elliptical cylinder, it can be seen that the normals are distributed radially.
  • the normal vector of the pixel passing through the central axis 121 of the finger is examined. This normal vector is shown in FIG.
  • the normal vector is directed in various directions due to the bulges of the fingertip and the middle joint of the finger.
  • the joint 150 is a depression
  • the normal vector at the position across the joint faces the direction in which the directions intersect. Therefore, an angle formed by these normal vectors and the central axis 121 of the finger is obtained, and a position where the direction is reversed is detected as an estimated joint position 151.
  • the direction that is most orthogonal to all normal vectors is obtained by principal component analysis, and this is used as the nodal center axis 152.
  • a skeleton structure for each finger node can be obtained.
  • finger pitching can be obtained as a tilt angle by linearly approximating the distribution of distance values of the finger inner area along the center axis 152 of the node. Yawing is obtained from the inclination of the central axis 121 of the finger.
  • the cross section of the finger is regarded as an ellipse
  • the major axis and minor axis of the ellipse are estimated from the coordinates of the observable part of the finger surface
  • the rolling angle is obtained from the angle formed by the major axis direction and the x axis Can do.
  • FIG. 9A when a finger cross section 160 passing through a certain pixel of interest 163 and orthogonal to the center axis 152 of the node obtained above is defined, this cross section and the finger surface are defined.
  • the major axis 162 of the ellipse 161 and the length and direction of the minor axis can be obtained.
  • a large number of major axes 162 are obtained by changing the target pixel 163 to various positions in the direction along the central axis 152 of the finger node.
  • the average value of the angles formed by all the major axes 162 and the x axis is obtained.
  • the average rolling angle of the corresponding finger node can be estimated.
  • the average rolling angle of all nodes is estimated and averaged, the average rolling angle of the finger can be obtained.
  • a large amount of finger images with known finger posture information are used as teacher data, and based on machine learning such as Random forest, the finger position information is obtained from an unknown distance image. Posture information may be estimated.
  • each finger's x, y and z axes, finger bending angle, and rotation angle are accumulated in time series for each frame, and the movement speed or movement acceleration related to the position and posture of the finger is calculated from these information.
  • these can also be used for finger posture determination. For example, if it is detected that the finger is moving at high speed, image blurring will occur, so the user will be guided not to move the finger at high speed, or it may be accidental if the finger is hardly moving. Since there is a possibility that the finger is photographed, it is possible to explicitly indicate that the user is authenticated by prompting the user to move the finger.
  • FIG. 10 shows an example of a guidance screen for guiding the finger position and posture suitable for authentication to the user.
  • FIG. 10A shows a state in which a finger outline guide 180 is displayed at a position suitable for authentication, and a guide message 181 that prompts the user to present a finger is displayed.
  • the images taken by the imaging device are displayed in an overlapping manner, so that when the user moves his / her finger to the right, the image's finger also moves to the right so that the user can easily operate it.
  • the left / right reversal processing is applied.
  • the image displayed here may be a distance image obtained by combining the images of the left and right cameras, or may be an infrared light reflection image or a green light reflection image of either the left or right camera.
  • the finger area may be painted out in order to conceal biometric information.
  • the outline of the finger outline does not conform to the shape of every finger, it cannot always match the shape of the outline of the finger held up.
  • the camera distance needs to be adjusted to an appropriate position, so even if you hold your finger so that it matches the displayed finger contour guide, the appropriate presentation position It is not always over.
  • FIG. 10B shows an example when three fingers are held up.
  • a finger movement instruction arrow 182 in the left direction is displayed so that the finger detected at the center of the three fingers detected by the above-described process is positioned at the center of the image. Thereby, the overall alignment of the fingers can be performed.
  • FIG. 10C even when the center finger is moved to the center of the image, the left and right fingers are misaligned, so that the fingers are lightly closed, A finger movement instruction arrow 182 pointing right or left is displayed near each finger to guide the position. Similarly, when the finger is unnaturally closed, it is possible to display that the finger is lightly opened.
  • FIG. 10 (d) shows a state in which the finger is shifted to the right, is rotated, is close to the camera position, and the joint is bent.
  • an arrow for moving the finger to the left is displayed, and then a camera distance instruction icon 183 for separating the camera distance is displayed.
  • a rotation instruction icon 184 for returning the finger rotation is displayed.
  • the user is instructed to extend the finger joints straight. If the fingertip goes too far below the screen at this time, that fact may be displayed.
  • the finger presentation position and posture can be guided to the correct position based on the above-described posture detection result.
  • the appropriate number of fingers to be photographed is assumed to be three. However, photographing may be performed if the number is between 1 and 5. If the number of fingers is large, guiding the average position of the rightmost finger and the leftmost finger to the center of the image allows the entire finger to be held in a well-balanced angle of view. Can be guided to. Alternatively, it is also possible to detect the number of fingers currently held over in real time and switch the display number of the above-mentioned finger outline guide 180 for each number of fingers to indicate an appropriate position. By these processes, a plurality of fingers can be efficiently presented, and more accurate multi-finger authentication can be realized.
  • step S407 for determining whether or not the finger is in an appropriate position will be described.
  • the finger position and posture suitable for authentication can be determined uniquely, but if deviation from the finger position is not allowed, it takes time for the user to present the finger and the convenience is reduced. For this reason, an allowable range is set for the deviation from the ideal state for parameters such as the number of photographing fingers, the x, y, and z positions of the finger, rotation, bending and stretching state, etc. It is determined that the posture is correct. For example, if the number of shooting fingers is set to an appropriate value, for example, three images are kept guided until they are included in the image to secure the data amount. May be acceptable. This is because there are cases in which it is possible to determine that the person is probabilistically apparent even if there is only one match. By doing so, restrictions on the posture of the finger at the time of authentication can be relaxed, and a highly convenient operation is possible. Can be realized.
  • the detection result of finger posture information here, the fingertip, the joint, and the root means a state labeled with the three-dimensional shape of the finger
  • a two-dimensional planar biological image being photographed is geometrically transformed and corrected to a normalized state.
  • the fingertip position obtained above for the infrared light reflection image and the green light reflection image 200 as shown in FIG. A cut-out image 201 of the finger with reference to is generated.
  • the fingertip comes into contact with the upper side of the cut-out image 201, and the positional deviation between the x-axis and the y-axis is corrected.
  • the posture information such as the fingertip position, the finger contour, and the central axis for each node of the finger obtained above is obtained with respect to the distance image 100, and is based on the coordinate system of the reflected images taken by the left and right cameras. There is a gap.
  • the deviation of the coordinate system between the distance image 100 and the reflected image 200 can be calibrated and is obtained by coordinate conversion. If there is an error in coordinate conversion, the total amount of edges on all pixels where the finger contour is present is measured while the finger contour obtained from the distance image is translated on the reflected image, and the total amount of edges on the finger contour is the largest. The position may be corrected again at the place.
  • the reflected image 200 may be an image from either the left or right camera, or may be an image obtained by combining both the left and right images. It is assumed that coordinate conversion is possible in any case.
  • the size of the image is enlarged or reduced with respect to the contour of the finger shown in the cut-out image 201 so that the finger distance value obtained in the distance image is constant.
  • the calculation of the enlargement ratio is determined by the ratio between the optimum distance value and the current finger distance value. Thereby, even if there is a shift in the z-axis direction, the size of the finger can be kept constant.
  • the non-uniformity of the distance due to the finger pitching angle can also be eliminated.
  • the rotation correction is performed so that the central axis 152 for each finger node faces upward. Since the inclination of the central axis 152 may be different for each node of the finger, the average value of the central axis for each node may be obtained and the rotation may be corrected so that it is directed upward.
  • the coordinates of the two-dimensional plane are projected and converted so that the ellipse 161 and the major axis 162 of the finger cross section obtained above are parallel to the x-axis of the image.
  • the x-axis after projection conversion is shown as x'-axis, but this is also referred to as x-axis hereinafter.
  • the x-, y-, and z-axis coordinates of the finger and the rotation direction can be corrected. Note that the same effect can be obtained even if the correction shown here is performed after the feature extraction process described later.
  • feature extraction processing S410
  • collation processing S411
  • determination processing S412
  • feature quantities are extracted for each of the infrared reflection image and the green reflection image. Since information such as veins is confirmed in infrared reflected images, and fingerprints, joint wrinkles, and fat prints are confirmed in green reflected images, general vein pattern extraction processing and texture pattern extraction processing are performed. , Acquire biological features.
  • unsharp mask processing may be performed as preprocessing. Note that there are two images, the left and right cameras, but only one camera image may be used, and feature extraction may be performed separately using both images, and the pattern obtained at the end may be synthesized.
  • both images have parallax and can be used as different information
  • accuracy can be improved by using images from a plurality of cameras.
  • the similarity of the extracted pattern is determined by a general template matching or feature point matching method. Then, authentication is successful when the obtained similarity falls below a predetermined threshold.
  • multiple biometric features can be obtained by using infrared images, green images, and video from multiple cameras, but the average similarity when all of them are matched or the average of multiple results with high similarity Depending on the degree of similarity, authentication may be determined.
  • the calculation of a plurality of similarities increases data redundancy and contributes to improvement in accuracy.
  • the differences between the guidance method at the time of registration and the guidance method at the time of authentication will be described in detail.
  • the time of registration it is desirable to photograph a living body in a state as stable as possible. Therefore, registration data is created after guidance is continued to an ideal presentation position so that the imaging state of the living body is improved.
  • the subject to be photographed should be reflected in the center as much as possible, the subject should be as wide as possible, the finger must be rotated and the camera should be facing the camera, it should be included in the set depth of field, and the finger should be bent Guide your finger to fill things that are not.
  • the first one is guided to be photographed at the position where the image quality is highest as described above, and then photographed at a position with a high magnification, which is a little closer to the camera. Finally, take a picture with your finger away from the camera. If these three images are registered, even if a variation occurs in which the finger held during authentication moves closer to or away from the camera than the standard position, any one image has a higher degree of similarity. As a result, it is possible to realize collation that is robust against fluctuations in the enlargement ratio.
  • finger postures such as shooting three ways: guiding to the standard position, guiding to the left from the standard position, and guiding to the right from the standard position. Needless to say. Since finger postures in which the variation of the living body becomes larger depending on the characteristics of the camera and the shape of the apparatus can be considered, it is more effective to guide to a finger posture with a large variation. Such guidance can realize authentication that is robust to changes in the posture of the finger.
  • the tolerance of the guide deviation is set larger than that at the time of registration, and the positional deviation is absorbed by performing correction based on the posture information of the finger.
  • the system configuration is such that images can be taken in real time and collation can be performed, authentication will be successful if the finger posture is close to the registered data somewhere while the hand is held up. Even if it is allowed, it can be correctly authenticated. For this reason, the authentication process may be performed even when the finger is not in an appropriate position, and the processing flow may be changed so as to display that the position is shifted on the screen.
  • a high-quality living body can be photographed at the time of registration, and authentication processing can be performed with a highly convenient operation at the time of authentication.
  • FIG. 12 is a diagram showing an embodiment of the configuration and operation method of an authentication device that easily guides the position of a finger.
  • the fingertip guide mark 220 and the finger base guide mark 221 are installed on the device housing 21.
  • the guide mark is indicated by a triangle, and the direction of the apex of the triangle indicates the fingertip side. Thereby, the relationship of the orientation of the device and the finger can be shown.
  • these marks should just show direction and direction of a finger
  • the user places the fingertip of the finger 1 on the fingertip guide mark 220 and places the fingertip so as to be between the two fingertip guide marks 221.
  • the finger is moved away from the device as shown in FIG.
  • the guide mark is arranged at the center of the housing. However, it may be arranged so that the finger can easily move to an appropriate photographing position according to the position of the camera, the number of fingers to be photographed, and the like.
  • the guide mark may be a depression formed in the device housing 21 in accordance with the shape of the finger, and the finger may be placed there.
  • the system provides guidance to the user, “Put your finger on the device”. Then, the light source is turned on, and the display of the living body is awaited while continuously capturing images. If the living body is placed on the finger rest, the image is saturated by the strong reflected light of the light source. Since whether or not the image is saturated in luminance is determined by the distance between the light source and the finger, a threshold value process is performed in which an average luminance value when the finger is placed on the device housing 21 is checked in advance to determine whether or not the finger is placed. The placement of the finger can be determined by setting and placing it. When the user places a finger on the guide mark, it is determined that the finger is placed by the finger placement determination process.
  • the system provides guidance to the user, “Please keep your finger away”. Accordingly, as shown in FIG. 12C, when the user moves the finger away from the apparatus, the intensity of the reflected light gradually decreases, and it can be seen that the finger and the apparatus are separated from each other. And if the distance measurement process mentioned above is implemented and it can detect that a finger exists in the appropriate distance, the feature-value of a biological body will be extracted from the image at that time. If it is a registration process, the biometric feature is registered, and if it is an authentication process, the biometric feature is input and collated with registered data.
  • the user by placing the finger on the finger guide mark, the user can take a picture of the living body without having the finger greatly deviated from the angle of view or greatly deviating from the appropriate shooting distance from the camera. This makes it possible to determine an optimum photographed image in a series of operations without allowing the camera to stand still in the air.
  • the optimum shooting distance threshold is changed according to the number of registration trials when acquiring a plurality of registration data, and the registration data includes a plurality of different distances. Registration data may be included. This makes it possible to maintain similarity with registered data even if the finger distance changes during authentication.
  • tapping the device As another method of operating the authentication device that easily guides the position of the finger.
  • the above-described operation of moving the finger away is difficult to carry out unless the device is fixed or held with one hand. Therefore, instead of the operation of moving the finger away, tapping in the vertical direction is performed such that the device is held with one hand and the fingertip of the same hand is placed at a predetermined position, and then the distance is returned to the original position. Thereby, the biological image which becomes the optimal camera distance can be image
  • the user grasps the device housing 21 and places, for example, the index finger 240 on the guide mark of the fingertip.
  • the system instructs to tap the finger
  • the user starts tapping.
  • the finger direction is presented obliquely as shown in FIG. 13B, so that the photographed finger image is also photographed in a pitched state.
  • the operation of moving the finger up and down is repeated several times, and several shots are taken at the timing when the finger falls within the angle of view.
  • biometric feature data is generated from these images and registered. If the same operation is performed at the time of authentication, the similarity with the registration data increases at the moment when the finger posture is close to the state at the time of registration, and the authentication is successful.
  • the finger presentation position can be kept within a certain range, so that the reproducibility with the registered data is improved, and in addition, the finger can be easily in the air without performing finger positioning in the air. Since the finger can be photographed and authentication can be performed while holding the device with one hand, the convenience of the device is improved.
  • FIG. 14 shows an example of a reflective non-contact biometric authentication apparatus configured with a light source that emits infrared light and one infrared camera according to the second embodiment.
  • a plurality of infrared light sources 31 are arranged around the imaging device 9, and a band pass filter 33 that allows passage of light only near the wavelength emitted by the infrared light source 31 is mounted on the lens unit of the imaging device 9.
  • the imaging device 9 is an infrared camera and can capture light reflected by the finger 1.
  • FIG. 15 shows an example of the processing flow in this embodiment. This is almost the same as the processing flow shown in FIG. However, the difference from the above is that one infrared camera is used instead of two color cameras, that distance measurement by stereo vision is not performed, and that a single wavelength image is used instead of multiple wavelengths. .
  • the outline of the processing flow will be described below.
  • the system prompts the user to present a finger (S501). Subsequently, shooting is started with one infrared camera while irradiating infrared light (S502). If the outside light is strong at this time, exposure adjustment is also performed. Subsequently, the distance and the solid shape of the subject are estimated from the captured video (S503). It is determined whether or not the subject is present within a predetermined distance range from the authentication device (S504). If there is no subject, it is determined that the living body is not presented, and the process waits until the living body is presented. On the other hand, if there is a subject within the range of the predetermined distance, it is considered that a living body has been presented, and a finger posture detection process is performed (S505).
  • finger guidance processing is performed using the posture determination result (S506).
  • the posture determination result S506
  • the user is guided using the screen display, guide LED, buzzer, etc. to obtain an appropriate shooting state.
  • a finger image clipping process is performed based on the finger posture information (S508).
  • the posture information of the finger includes the position of the fingertip or the base of the finger, and each image is cut out using the position information of one or more fingers to be authenticated.
  • the enlargement ratio of the image is corrected according to the position, orientation, and distance of the finger with respect to the cut finger image, and the posture of the finger is normalized (S509).
  • a biometric feature is extracted from the finger image whose posture is normalized (S510).
  • the biometric features are collated (S511), the similarity with the registration data is calculated, and it is determined whether or not the user is a registrant (S512).
  • FIG. 15 which is the present embodiment
  • FIG. 3 which is the first embodiment
  • the infrared light irradiation and the camera photographing process (S502) will be described.
  • various objects exist around the photographing device. For this reason, in photographing infrared reflection images, unnecessary subjects other than fingers are often photographed. Since an unnecessary subject may become noise for correctly detecting a finger, it is necessary to remove the unnecessary subject in order to perform more accurate authentication.
  • One method is to mount a bandpass filter 33 that transmits only the wavelength of the light source 31, as shown in FIG.
  • the component cannot be removed. Therefore, in this embodiment, background removal is performed based on the difference between the light-on image and the light-off image.
  • an image with the light source 31 turned off is taken.
  • an image with the light source 31 turned on is taken.
  • subtracting the image taken when the light is turned off from the image taken when the light is turned on it is possible to remove the unnecessary subject component that appears bright regardless of the light source 31 while the image of the hand held up remains.
  • the finger can be accurately cut out regardless of the influence of external light.
  • an external light component is irradiated on the finger surface, it is canceled by calculating the difference, so that malfunction caused by external light in the posture detection process described later can be reduced.
  • One method of estimating distance with a single infrared camera is to use the inverse square law regarding the light intensity of the reflected light. Since the light source is installed around the camera and can be regarded as a point light source, the light emitted toward the finger spreads in a spherical shape. Since the surface area of a sphere increases in proportion to the square of the radius of the sphere, the energy of light per unit area is inversely proportional to the square of the radius. Therefore, the brightness of the subject is determined by the reflectance and absorption rate of the subject and the distance between the subject and the camera.
  • the amount of light to be irradiated is Ii
  • the reflection / absorption coefficient on the skin is ⁇
  • the distance to the subject is D
  • the amount of light received is Io.
  • the reflected light on the finger surface is Lambert reflection and the reflected light is diffused isotropically, the following approximate expression holds.
  • the distance of each pixel of the image can be grasped by solving for the distance D.
  • the amount of light emitted and the amount of light received are detected as the luminance value of the image, but if Ii is directly measured as the luminance value, the luminance is generally saturated.
  • the video is taken in the attenuated state, and calibration such as increasing the light amount Ii by the attenuated amount is performed.
  • a mirror or the like that directly reflects the irradiation light Ii may be mounted in the apparatus so that the irradiation light Ii can be directly observed through the filter having the known attenuation factor.
  • a camera that can accurately measure the distance and the imaging device of this embodiment are used to photograph a finger and collect a large amount of learning data in which correct distance labels are assigned to each pixel, such as a machine such as Random Forest.
  • a distance image of the finger may be obtained from the infrared reflection image based on learning.
  • the absolute value of the distance D includes an error. Accordingly, it is possible to grasp the three-dimensional structure of the subject by obtaining a relative distance distribution with the distance of the subject at an arbitrary position in the image being 1.
  • a rough conversion table of the luminance value and distance value of the image is created in advance, and this distance value is read from the luminance value at the pixel of the subject at the arbitrary position, and this distance value is converted into the relative distance value of the entire image. By multiplying the values, a rough distance image can be obtained.
  • the infrared reflection image is regarded as a distance image, and the region of interest 102 is acquired by the method shown in FIG.
  • the higher the luminance value of the reflected image the closer the distance.
  • the position detection of the finger in the x-axis direction can be obtained from the coordinates in the x-axis direction obtained when the region of interest is determined by regarding the infrared reflection image as a distance image, as shown in FIG. .
  • the fingertip position detection in the y-axis direction of the finger can be obtained by the same method shown in FIG.
  • the distance to the camera z-axis position detection
  • the inverse square law is established between the brightness of the reflected image and the light source distance, and there is a correlation between them, so that a certain light quantity value is emitted.
  • the average brightness inside the finger is obtained, and the camera distance is calculated from this average brightness value using the conversion table.
  • the luminance value is too bright, it can be detected that the finger is too close to the camera, and conversely, when the luminance value is too dark, it can be detected that the finger is too far from the camera.
  • this value changes due to the influence of outside light, if the brightness due to outside light is grasped by taking an image when the light source is turned off, the influence of outside light can be reduced by subtracting that value.
  • FIG. 16 shows an embodiment of the detection method.
  • pitching rotation occurs in a direction in which the fingertip moves away from the camera.
  • an average luminance projection distribution 301 is calculated toward the y-axis with respect to the finger cut-out image 300 shown in the infrared reflection image.
  • the average luminance projection distribution at the coordinate y is expressed as Iave (y). Since the fingertip is far from the camera, Iave (y) has a low value near the fingertip.
  • the reflection image is accompanied by a luminance change caused by the presence or absence of fine irregularities on the fingers or blood vessels, fine undulations are also observed in Iave (y).
  • the relative distance Dr (y) shown in the following Expression 7 is calculated.
  • yc is the image center coordinate of the y-axis of the cut-out image 300 of the finger
  • Wa is an arbitrary proportional coefficient
  • Wb is a calibration coefficient described later
  • Sqrt ⁇ x ⁇ is the square root of x.
  • a value proportional to the distance in the oblique direction from the light source to the coordinate y is D ′ (y)
  • a value proportional to the vertical distance from the height of the light source to the coordinate y is D (y) (FIG. 16). (See (b)).
  • the relative distance Dr (y) is a relative distance at each coordinate y when the vertical distance of the coordinate yc is defined as zero.
  • Equation 6 includes a parameter Wb, which is determined in advance so that D ′ (y) becomes a constant value regardless of y when a horizontal flat plate is held in front of the camera.
  • FIG. 16 (c) shows the flow of calculation.
  • D ′ (y) is obtained from Iave (y) as shown in Equation 5 (the vertical axis is not shown in the figure).
  • this is converted into Dr (y) using Equation 6 and Equation 7.
  • the obtained Dr (y) is linearly approximated by the least square method to obtain an estimated pitch straight line 303 of the finger.
  • the slope of this straight line is obtained.
  • the inclination at this time becomes the estimated pitch angle. If this angle is larger than a certain value, a warning of pitch deviation is warned, or the infrared reflection image is normalized by the pitching correction method described in detail in the first embodiment. Or
  • the presence or absence of rolling and its rotating direction are estimated from the direction of the joints of the fingers and the shape of the contour.
  • a large number of rotation images of fingers with known rotation angles are collected and learned by, for example, a convolutional neural network, and then the rolling angle of an unknown image is estimated.
  • a warning is issued when the rotation angle exceeds a certain value, or the infrared reflection image is normalized by the rolling correction method described in detail in the first embodiment.
  • the posture of the finger can be estimated and the amount of deviation from the standard posture can be obtained without acquiring a distance image of the subject. Can be corrected.
  • FIG. 17 shows an embodiment of an authentication apparatus configuration for determining that the distance of the subject is close by the light shielding region of the infrared light source.
  • a light shielding plate 320 is disposed above the imaging device 9 mounted on the input device 2 so as to surround the outer periphery thereof.
  • the light shielding plate 320 is installed so as to hide the inside of the infrared light source 31 arranged on the circumference, and shields a part of the infrared light.
  • a situation is detected in which the center of the image is dark and the periphery is bright. If this situation is detected, it can be determined that the finger is too close and a warning is given to the user. It is also possible to estimate the distance between the finger and the camera by measuring the area or radius of the central dark region.
  • an efficient and stable finger vein pattern can be extracted from the infrared reflection image.
  • an unsharp mask that emphasizes the line in the direction orthogonal to the longitudinal direction of the finger more strongly and removes noise is applied so that the joint wrinkle pattern is emphasized.
  • a joint wrinkle line pattern is extracted. Since the shape of the line pattern and the distance between the first and second joints are personal, they can be used as authentication information.
  • the finger contour information can be obtained in the same manner by the finger contour detection process shown in the above-described embodiment. By this processing, it is possible to acquire biological features of a plurality of modalities such as veins, joint wrinkles, and finger contours.
  • a method of measuring the three-dimensional structure of the subject while continuously photographing the subject may be implemented.
  • the system provides guidance to the user so that the user moves his / her finger toward the input device in various directions, and continuously shoots the video. If the movement of the subject in the captured video is detected by feature point matching such as template matching or SIFT, the three-dimensional shape of the subject can be measured.
  • feature point matching such as template matching or SIFT
  • SfM Structure from motion
  • a measure such as performing feature point matching corresponding to a non-rigid body.
  • the method of moving a living body has a three-dimensional biological feature based on the amount of movement and the information of the three-dimensional structure even if it is a biological feature on the back surface that cannot be observed in a specific posture. Since it can be acquired, it is possible to realize strong verification against the movement of the living body.
  • FIG. 18 shows an example of a reflective non-contact biometric authentication apparatus that includes a light source that emits visible light and one color camera according to the third embodiment.
  • a plurality of visible light sources 341 are arranged around the color camera 340, and a low-pass filter 342 for blocking infrared light is mounted on the lens of the camera.
  • the wavelength of the visible light source 341 has, for example, emission intensity peaks in the vicinity of 450 nm for blue, 550 nm for green, and 620 nm for red, and the emission intensity of each wavelength can be individually adjusted.
  • the authentication processing procedure is the same as in the second embodiment.
  • the difference from the second embodiment is that a color camera is used instead of an infrared camera, and that a captured image uses a visible reflection image having a plurality of wavelengths instead of a single wavelength infrared reflection image.
  • a color camera is used instead of an infrared camera
  • a captured image uses a visible reflection image having a plurality of wavelengths instead of a single wavelength infrared reflection image.
  • the living body can be photographed with an RGB color camera.
  • Visible light unlike infrared light, has the property that it is difficult to reach the deep part of the living body surface, but on the other hand, it can handle multiple wavelengths. Can be taken.
  • Skin tissue has various biological features such as fingerprints, epidermis wrinkles, finger joint wrinkles, melanin, blood in capillaries, arteries, veins, and subcutaneous fat. Is different. Therefore, by examining the reflection characteristics of each biological tissue in advance, irradiating a plurality of visible lights and simultaneously observing the information, information on each biological tissue can be extracted independently.
  • a method of separating melanin and blood by independent component analysis for three RGB images, or a multi-layer biometric technique can be used.
  • veins are easy to observe in red images
  • finger joints are easy to observe in green or blue, so the finger joint components are removed from the red image by combining the difference between the two images or by an arbitrary ratio. Since only an image can be acquired, biometric features can be measured more clearly.
  • reflection non-contact measurement using a three-wavelength light source and a color camera it is possible to acquire biological information that is difficult to observe with infrared light, so that an effect of improving authentication accuracy can be obtained.
  • each distance can be calculated independently. For example, average skin reflection characteristics are obtained in advance for each of the irradiated light beams of three wavelengths, and each reflected light is photographed simultaneously with a color camera. At this time, the relationship between the light intensity radiated at each wavelength and the observed light intensity is described as the relationship between the attenuation due to reflection and the attenuation due to the distance of the subject, as shown in Expression 4. If the average attenuation of light on the finger surface due to reflection is known, only the distance of the subject is unknown. Thus, the distance of the subject is obtained for the three wavelengths.
  • FIG. 19 shows an example of the configuration of the reflective non-contact biometric authentication device in the smartphone or tablet according to the fourth embodiment.
  • the smartphone 360 includes an in-camera 362 on the color liquid crystal panel 361 and an out-camera 363 on the back surface thereof.
  • a flash-projecting white light source 364 used for flash photography is mounted near the out-camera 363.
  • the in-camera 362 and the out-camera 363 are color cameras that can capture visible light, and an optical filter that blocks infrared light is mounted therein.
  • a focus adjustment function and an exposure adjustment function are also installed.
  • the authentication processing procedure in this embodiment is basically the same as that in the second embodiment.
  • the difference from the second embodiment is that the reflected light source may not be used and the sensitivity characteristics of the camera and the wavelength spectrum of the light source may not be known in advance.
  • processing unique to the present embodiment will be described in detail.
  • the subject shooting process, distance measurement, and finger posture detection will be described.
  • the distance measurement, posture detection, and biometric feature extraction processing of the subject in the same way as the method shown in the third embodiment, a method for increasing the accuracy of distance measurement using a color camera, A technique for extracting biometric features can be used. It is also possible to individually register the color of the finger on the palm side in advance and use the color for detection of the finger area.
  • the liquid crystal panel 361 is positioned facing the living body held over, so that the liquid crystal panel may be used as a light source for living body imaging.
  • the liquid crystal panel can control planar light emission, so that the light source position is arbitrary, for example, only the upper half of the panel is turned on for shooting and then only the lower half is turned on for shooting. Can be set. Since the position where the light is emitted is known, it is also possible to acquire the three-dimensional shape of the subject by the photometric stereo technique in the configuration of the present invention.
  • the light intensity of the liquid crystal panel is generally weaker than that of a light emitting element such as an LED, and there is a possibility that the subject cannot be irradiated with sufficient intensity. Therefore, it is necessary to perform shooting using ambient light distributed around the authentication device. In this case, since the ambient light cannot specify the position of the light source, it is difficult to perform distance measurement based on the intensity of the image luminance value. In addition, since the spectral distribution of light varies depending on the environment, it is difficult to obtain biological information such as veins, melanin, and fat prints using color information.
  • the photographed finger image is decomposed into RGB color plane images, the average luminance is obtained for each image, and if it is darker than a predetermined threshold, the color plane image is discarded without being used,
  • a vein enhancement filter, a finger joint enhancement filter, and the like can be applied to an image of a color plane that can be determined to be bright, and a plurality of biological features can be acquired.
  • the color of hemoglobin can be extracted by taking the color difference between the finger joint and its surroundings because the color of the hemoglobin is observed dark at that position.
  • the color of general hemoglobin is observed in advance with various ambient light, and is expressed as color space information such as RGB space or HSV space.
  • the color space information of hemoglobin that can be grasped from the current image is compared with the color space information of various hemoglobins prepared in advance, and the ambient light associated with the most similar color space information is the current ambient light. It can be estimated that The ambient light may be estimated by this method and used for the finger region detection and the living body measurement described above.
  • the second embodiment described above is based on the premise that the reflected light is irradiated from a position close to the camera, so that the finger position can be estimated.
  • the assumption cannot be used because there is no light source. Therefore, as an example of finger posture detection, a technique is used in which a finger region shown in an image is detected using color information or image edge information.
  • a finger is photographed using the smartphone camera of the embodiment together with a distance sensor that can calculate distance information and finger posture information as learning data.
  • the correct value of distance information and posture information is labeled on the image photographed by the camera of the smartphone.
  • the number of types of fingers, the number of types of postures, and the number of images are acquired as much as possible.
  • parameter learning is performed for estimating finger distance information and posture information using only a smartphone image. For example, in order to obtain distance information and posture information of a pixel at a certain coordinate, learning is performed based on a random forest while using the strength of the skin color component of the pixel value and the image edge amount in the vicinity as evaluation values.
  • the smartphone image is put into a random forest after learning and traversed, and is classified into either the background area or the finger inner area for each pixel, and if it is within the finger, whether it is the fingertip or at the root It is determined whether it is a joint part or not.
  • the distance value is estimated. Since the estimation result of the distance value varies from pixel to pixel due to the influence of noise or the like, processing may be performed so as to be spatially smooth.
  • the finger based on the luminance value of the reflected image without distance measurement is applied as shown in the second embodiment by blackening the background portion.
  • the attitude detection method can be applied. Therefore, authentication processing can be realized by combining the biometric feature extraction methods shown in the third embodiment.
  • FIG. 20 shows an embodiment of a guide method for photographing a finger with the out-camera in this embodiment.
  • the user holds the smartphone with the hand 380 on the side that holds the device, and photographs the other finger 1.
  • a finger contour guide 381 is drawn on the liquid crystal panel 361, and the user shoots a finger so as to match the guide.
  • the system calculates posture information of the finger in real time, takes a picture when it falls within the allowable range, extracts biometric features based on this image, and performs authentication.
  • the position of the crotch of the finger is clearly indicated on the finger outline guide 381 as shown in the figure, it is easy to adjust the approximate distance between the camera and the finger.
  • Such a display is applicable to any embodiment of the present invention.
  • misalignment occurs, guide the misalignment direction with visual means such as arrows as shown in the above embodiment, or use a speaker or vibration element mounted on the smartphone.
  • Finger misalignment may be notified by sound or vibration function.
  • guidance on the screen is difficult with regard to the distance between the camera and the living body, and if the guide position is increased by increasing the vibration amount of the vibe function or increasing the volume of the guide sound emitted from the speaker as the position shift is larger, it is intuitively aligned. Can be implemented.
  • FIG. 21 shows an example of a guide method for photographing a finger with an out-camera that can be performed by one-handed operation.
  • the user holds the smartphone with one hand, and first the system instructs to close the out camera 363 with the fingertip.
  • the user closes the out camera 363 with the finger 1.
  • a finger outline guide 381 is displayed on the screen, and an instruction is given to warp the finger so that the finger is shown far away.
  • the user turns his / her finger away from the out-camera 363 according to the guidance while holding the smartphone 360.
  • the finger 1 appears in an inclined state.
  • the system performs shooting processing and authentication processing.
  • the user may be guided to lightly shake the smartphone 360 while the finger 1 is warped. At this time, if a continuous image is taken, the held finger 1 is observed at the same position as it is, but the unnecessary background 400 reflected in the video moves in accordance with the falling operation. Therefore, it is possible to detect the finger area by determining the presence or absence of movement for each pixel and regarding the area that has not moved as the finger area and the other area as the background area. According to this method, the finger region can be accurately detected by simple image processing, and the authentication accuracy can be improved.
  • FIG. 22 shows an example of a guide method when an in-camera is used.
  • In-cameras are often set to easily capture a face, and it is difficult to capture a finger near the liquid crystal panel. In this case, the finger is held up in the air, but it is difficult to confirm because the liquid crystal screen is hidden by the finger. Therefore, guidance is given so that the finger is placed at a predetermined position on the liquid crystal panel and then moved into the air.
  • a guidance 420 for placing a finger on the screen and a finger position guide 421 for placing the finger are displayed as shown in FIG.
  • the direction in which the finger is placed is set to the upper left direction.
  • the direction may be changed according to the dominant hand, or may be held in the direction to the side.
  • the user then places his finger here. Since the liquid crystal panel 361 is a touch panel, when it is detected that the finger is placed at the designated position, a guidance 422 indicating that the finger is floated is displayed as shown in FIG. 22B. At this time, since the finger is placed on the upper left, the guidance 422 indicating that the finger is lifted in a hollow state is displayed at the lower left of the screen so that the guidance can be easily seen.
  • voice guidance may be used together.
  • the user moves his / her finger in the air accordingly.
  • the finger enters the angle of view of the camera as shown in FIG.
  • shooting is performed.
  • the position of the guide 421 where the finger is placed has an effect of guiding the finger to a position where the finger can easily enter the angle of view.
  • the guide 421 may be a finger outline of the plurality of fingers. At this time, if the finger is guided to open at an appropriate angle, an effect of easily photographing a plurality of fingers simultaneously can be obtained.
  • Other guidance methods include guiding the in-camera or the liquid crystal panel near the in-camera to lightly repeat tapping with a fingertip, and detecting tapping based on variations in the brightness of the touch panel or in-camera. At this time, images are taken in a continuous frame, the distance of the finger is detected by distance measuring means based on the measurement of the width of the finger outline, and the biometric feature extraction is performed from the finger image captured at an appropriate distance. You can also go and authenticate.
  • Such a tapping-based guiding method is a relatively simple operation, can easily guide the finger position, is easy to align because it is hollow and does not require the fingers to be stationary, Since the distance to the camera always changes, there is a timing at which the living body reaches a distance suitable for photographing, and there is an effect that the living body can be photographed with an appropriate focus.
  • the smart phone shown in the present embodiment refers to the case where an in-camera and an out-camera that are generally spread at present are installed. If a camera capable of projecting a finger near the LCD panel, an infrared camera, a multispectral camera, a distance camera, etc. are mounted on a smartphone or tablet, these cameras can be used to It goes without saying that distance measurement, finger posture detection processing, and authentication processing may be performed as described. Further, the present embodiment is not limited to a smartphone, and can be similarly implemented even with a tablet or a portable game machine.
  • a finger rest that can place a finger at a certain distance from the camera, and authenticates using a pedestal that can be fitted into a smartphone or tablet. May be.
  • a stationary tablet may be installed as a terminal that can be easily operated by general users.
  • portability is not particularly a problem, it is possible to perform authentication with a simpler operation while eliminating the need for a dedicated authentication device by installing a combination of the above-described pedestal and tablet. .
  • FIG. 23 shows an embodiment in which the authentication device shown in the first to third embodiments is applied to a video game.
  • a motion capture device 441 for operating the game by detecting the posture of the player's body is installed at the top of the television 440, and the authentication input device 2 is provided therein.
  • the user's finger 1 is shown and authentication is performed.
  • the user operates the game using the motion capture device 441 or a separately prepared game controller, and the input device 2 detects the user's finger and performs authentication.
  • guidance may be displayed on the television 440, or voice guidance using a speaker or the like is possible.
  • FIG. 23B shows an embodiment in which the input device 2 is mounted on the controller 442 of the video game.
  • the user holds the controller 442 to perform a game operation, and the authentication input device 2 is incorporated therein, and can be used for the game control as described above and the payment for the item.
  • FIG. 23 (c) shows an embodiment mounted on a portable game machine.
  • An authentication input device 2 is provided at the center of the portable game machine 443.
  • the authentication method is the same as the example of mounting on a smartphone shown in the fourth embodiment.
  • the following authentication application can be implemented.
  • various parameters of the game character can be changed according to the result of authentication, and charging for paid items can be automatically settled.
  • the functions can be divided according to the type of the presented finger. For example, in the case of an action RPG game, a strike-type attack is presented when the index finger is presented, a magic attack is presented when the middle finger is presented, and physical strength is restored by magic if the ring finger is presented. At present, such switching of operations is selected on the menu screen or a complicated command is input using a plurality of input keys. However, these operations can be simplified by this embodiment.
  • the finger can be presented on the input device and the finger can be rolled around the axis to correspond to the presented rolling angle. Can be matched with the registered data. According to this, since the finger rolling angle can be detected according to the matched registration data, this operation can be utilized as an interface to the game. For example, it is possible to change the engine speed in a racing game in an analog manner according to the rolling angle of the finger.
  • FIG. 24 shows an embodiment in which the authentication apparatus of the present invention is applied to a walk-through gate that can be authenticated only by holding a finger while walking.
  • the user brings the finger 1 close to the input device 2 as shown in the figure.
  • the input device 2 continuously captures images and performs authentication at high speed while detecting the posture of the fingers. If the authentication is successful, the flapper 461 is opened and the user can pass.
  • the finger can be guided by the liquid crystal screen 462 or the speaker 463.
  • the liquid crystal screen 462 can display not only a finger guide but also an authentication result and a result of billing performed at the time of gate.
  • Registration may be performed by the authentication gate 460, and a CPU and a memory may be mounted inside the gate to store registration data, and a registration terminal in which the input device 2 is mounted is installed in another location.
  • the registration data may be transferred to the authentication gate 460 via the network. Further, the registration data may be stored in a server installed separately. Authentication may be performed inside the authentication gate, or may be performed on the server after transferring the image to the server. Also, a device for wireless communication is mounted on the authentication gate 460, and the user carries a wireless IC tag or the like when passing through the gate and transfers the registration data stored in the wireless IC tag to the authentication gate 460 for authentication. May be implemented.
  • the present embodiment since it is a reflection non-contact authentication device, it is possible to perform authentication even when walking roughly while walking, and the throughput of the gate can be improved. Further, by applying the method based on the difference image of blinking light sources and the exposure adjustment function in the above-described embodiment, it is possible to perform photographing even outdoors, and the application range of the apparatus can be expanded.
  • a hybrid authentication device combining a general transmitted light device may be used.
  • FIG. 25 shows an embodiment of a transmission / reflection type apparatus configuration.
  • FIG. 25A shows a configuration in which a transmission light source 481 is arranged vertically in the gate authentication device 480.
  • the transmissive light source 481 and the reflected light source 482 simultaneously irradiate light.
  • the transmitted light source 481 emits infrared light
  • the reflected light source 482 emits green and red visible light.
  • the wavelengths of green, red, and infrared are 550 nm, 620 nm, and 850 nm, respectively.
  • the imaging device 9 is an RGB color camera having infrared sensitivity, and simultaneously receives transmitted and reflected light. At this time, the luminance components of the three wavelengths can be described as follows, depending on the spectral sensitivity characteristics of the camera.
  • the definitions of the symbols are the same as those shown in Equations 1 to 3 in Example 1.
  • the reflected light components I550 and I620 and the transmitted light component I850 can be obtained, and authentication can be performed on each image.
  • one camera may be installed so that transmitted light and reflected light can be separately photographed, and the light source to be irradiated in time division may be switched.
  • the former increases the cost and the latter increases the frame.
  • the rate decreases.
  • the method in which light of different wavelengths is simultaneously photographed by one camera and the separation processing is performed can be photographed at low cost and at high speed.
  • the place where the hand is held is open, so even a first user can easily operate.
  • FIG. 25 (b) shows a method of presenting fingers in the space in the apparatus.
  • a transmitted image and a reflected image can be taken.
  • the fingers may be inserted from the right to the left of the drawing, but may be inserted by moving the fingers from the side of the apparatus as shown in the lower part of the drawing. At this time, the side of the apparatus is opened so as not to hinder the movement of fingers.
  • a plurality of photosensors 483 are installed at positions where they are slightly shifted from each other on the side of the input side.
  • This photo sensor responds when the finger passes directly below, and senses the movement speed of the finger, the angle of the finger, etc. from the difference in timing of the reaction time of the four sensors shown in the figure and the distance between the sensors. it can.
  • the time for the finger to pass through the center of the camera is predicted instantaneously, and the imaging device 9 captures the finger at a timing suitable for photographing.
  • the exposure time is extremely short so as not to cause blurring of the image due to the movement of the finger, and the amount of light is also very intense and irradiated in a short time.
  • any of the systems of this embodiment it is possible to obtain biological characteristics of both transmitted light and reflected light, so that improvement in accuracy and improvement in forgery resistance can be expected. Further, even when a living body is held over a position where the transmitted light cannot be irradiated with the clear finger vein and the transmitted light cannot be irradiated with the reflected light, stable authentication can be realized, and the user can use the authentication device more easily. The effect which becomes like this is acquired.
  • FIG. 26 shows an embodiment in which the authentication device of the present invention is applied to a mouse.
  • the mouse 500 is equipped with a left button 501 and a right button 502, and a wheel 503 at the center.
  • the authentication input device 2 described above is installed near the wheel 503 in the center of the mouse 500.
  • the shape of the mouse 500 is curved in accordance with the shape of the finger, and the inclination from the fingertip side to the mouse center and the inclination from the mouse center to the palm side are reversed. When the mouse 500 is held, the distance between the finger 1 and the input device 2 is close.
  • the input device 2 may be mounted on the left button 501 or the right button 502 of the mouse.
  • This finger-stretching operation can be done easily while holding the mouse, so various situations when operating the PC, such as identity verification at PC login, identity verification by online payment, confirmation of user access rights for each application software For example, it can be realized in a natural operation of the PC without impairing the convenience of the user.
  • any place may be used as long as it is skin of a living body, for example, any location such as face, ear, palm, back of hand, wrist, arm, neck, foot. Can be applied.
  • an optimal posture detection process is required according to each part, but it goes without saying that it can be realized by a method of performing machine learning after collecting a large amount of teacher data.
  • region of interest of the finger 103 ... weighting factor, 104 ... Maximum value of projection distribution, 120 ... finger outline, 121 ... finger center line, 122 ... fingertip, 140 ... method 150, joint, 151 ... estimated position of joint, 152 ... central axis of finger node, 160 ... cross section of finger, 161 ... ellipse, 162 ... major axis of ellipse, 163: attention pixel, 180 ... finger contour guide, 181 ... guide message, 182 ... finger movement instruction arrow, 183 ... camera distance instruction icon, 184 ... rotation instruction icon, 200 .. Reflected image, 201... Clipped image, 220... Fingertip guide mark, 221...
  • Projection distribution, 302 ... average luminance projection distribution of flat plate, 303 ... estimated pitch straight line of finger, 320 ... light shielding plate, 321 ... area where light does not reach, 340 ... color camera, 341 ..Visible light source, 342 ... low pass filter, 360 ... smart phone, 361 ... color liquid crystal panel, 362 ... in camera, 363 ... out camera, 364 ... white light source for flash projection 380: Hand holding the device, 381 ... Finger contour guide, 400 ... Unnecessary background, 420 ... Finger placement guidance, 421 ... Finger position guide, 422 ... Finger Floating guidance, 440 ... Television, 441 ...
  • Motion capture device 442 ... Controller, 443 ... Portable game machine, 460 ... Authentication gate, 461 ... Flapper, 462 ... Liquid crystal Screen, 463 ... Speaker, 480 ... Gate authentication device, 481 ... Transmission light source, 482 ... Reflection light source, 483 ... Photo sensor, 500 ... mouse, 501 ... left button, 502 ... right button, 503 ... wheel

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

簡便に操作できる、高精度で小型の生体認証装置を実現する。 生体の特徴を用いて個人を認証する認証装置であって、生体が設置される設置領域と、前記設置領域に提示された生体に光を照射する光源と、前記生体を反射した前記光源からの光を撮影する撮像部と、前記撮像部によって撮像された画像を処理する画像処理部と、前記画像から前記生体の生体特徴を抽出する特徴抽出部と、前記生体特徴を保持する記憶部と、前記生体特徴の類似度を比較する照合部、を備え、前記撮像装置および前記複数光源は前記生体と向かい合う位置に配置され、前記複数光源は各々異なる波長を照射し、かつ前記撮像装置は複数の波長を撮影し、前記生体と前記撮像装置との距離を測定する手段を有し、前記生体の姿勢を判定して最適な提示位置を検出してその位置に誘導し、前記生体の姿勢に基づいて前記生体の特徴の補正を行うことを特徴とする認証装置である。

Description

生体情報を用いた認証装置及び認証方法
 本発明は、生体を用いて個人を認証する認証システムに関し、特に、小型で利便性に優れ、高精度な認証技術に関する。
 様々な生体認証技術の中でも、指静脈認証は高精度な認証を実現できるものとして知られている。指静脈認証は、指内部の血管パターンを使用するため優れた認証精度を実現し、かつ指紋認証に比べて偽造及び改ざんが困難であることによって、高度なセキュリティを実現できる。
 近年では、携帯電話機、ノート型PC(Personal Computer)、スマートフォンやタブレット端末などの携帯端末、ロッカー、金庫、プリンターなどの機器に生体認証装置を搭載し、各機器のセキュリティを確保する事例が増加している。また、生体認証が適用される分野として、入退室管理、勤怠管理、コンピュータへのログインなどに加え、近年では決済などにも生体認証が利用されてきている。特に公共で利用される生体認証装置は、確実な個人認証を実現することが重要である。さらには、近年のタブレット型携帯端末の普及やウェアラブル・コンピューティングの潮流を鑑みると、上記のように利便性を担保しつつ、装置の小型化を実現することも重要な要件の一つとなる。また、利用者が認証装置を容易に利用できるように、操作性の高い認証装置を提供することも重要となる。
 血管の形状に基づいて個人認証を行う認証装置における小型化に関する技術として、特許文献1がある。
 また特許文献2には、装置に非接触状態でかざされた掌を、赤色を含む可視光源の反射画像をカラーカメラで撮影し、掌の静脈と掌紋とを抽出して認証を行う技術が開示されている。
特許公開2013-33555号公報 国際公開第13/136553号
 小型で使い勝手が良く、そして高精度な個人認証装置を実現するためには、面積の狭いセンサより広範囲の生体情報を撮影すること、そして生体を提示する際の位置ずれを効果的に補正すること、あるいは位置ずれが生じている場合に正しい位置を利用者に誘導することが重要となる。
 特許文献1に記載の生体認証装置では、装置小型化のためにセンサの開口部を指の幅より狭くしているが、指を接触して提示することから指の輪郭が撮影できず、よって指の位置ずれが生じている場合の位置補正が困難となり、さらにはその解決手段に関する言及がなかった。また指を装置の所定の位置に置く必要があるため広範囲の生体情報を撮影することができず、さらには指置き台を具備する必要があるため装置の小型化が困難であった。
 特許文献2には、スマホやタブレットに標準装備されているカラーカメラと、環境光あるいは液晶画面の光とを利用して、掌静脈と掌紋とを同時に撮影して認証する技術が記載されている。この技術は、装置に接触することなく掌の生体情報を広く撮影できる利点を有する。しかしながら、利用者が適切な位置に生体を停止させるなどのガイダンスについて開示されていない。
 そこで本発明では、小型で使い勝手が良い高精度な個人認証を実現するべく、生体を提示する際の自由度を高く保ちつつ、個人を特徴付ける情報を多分に有する生体特徴の情報を取得することが可能な個人認証装置を実現することを目的とする。
 生体の特徴を用いて個人を認証する認証装置であって、生体が設置される設置領域と、前記設置領域に提示された生体に光を照射する光源と、前記生体を反射した前記光源からの光を撮影する撮像部と、前記撮像部によって撮像された画像を処理する画像処理部と、前記画像から前記生体の生体特徴を抽出する特徴抽出部と、前記生体特徴を保持する記憶部と、前記生体特徴の類似度を比較する照合部、を備え、前記撮像装置および前記複数光源は前記生体と向かい合う位置に配置され、前記複数光源は各々異なる波長を照射し、かつ前記撮像装置は複数の波長を撮影し、前記生体と前記撮像装置との距離を測定する手段を有し、前記生体の姿勢を判定して最適な提示位置を検出してその位置に誘導し、前記生体の姿勢に基づいて前記生体の特徴の補正を行うことを特徴とする認証装置である。
 本発明によれば、指を用いた生体認証装置において、装置筺体が小型でありながらも広い範囲の生体を撮影でき、そこから多様な生体特徴を獲得することで高精度に認証を行うことができ、また指の位置ずれが生じた場合においても位置を補正あるいは検知することができ、小型で利便性に優れた認証精度の高い認証装置を提供することができる。
第1の実施の形態の生体認証システムの全体の構成を示す図である。 第1の実施の形態の生体認証システムの装置構成を説明する図である。 入力装置を用いて反射非接触認証を実施処理フローの一例である。 赤外光と緑光を同時発光して撮影した静脈や指紋や脂肪紋の画像例である。 カラーカメラのRGB各素子の分光感度特性の一例である。 指の提示位置の検知方法の説明図である。 指輪郭と指先の位置の検出方法の説明図である。 指の姿勢を検出する方法を示す説明図である。 指のローリング回転角を検出する方法を示す説明図である。 認証に適した指の位置や姿勢を利用者に誘導するガイダンス画面の一実施例である。 指の切り出し処理と立体補正処理の説明図である。 指位置の誘導を容易に行える認証装置の構成と操作方法の説明図である。 指をタップすることで位置を容易に誘導する認証装置の操作方法の説明図である。 第2の実施の形態である、赤外光源とひとつの赤外カメラで構成された反射非接触生体認証装置の一実施例である。 第2の実施の形態における処理フローの一例である。 第2の実施の形態における指のピッチング角度の検出方法の説明図である。 赤外光源の遮光領域によって被写体の距離が近いことを判定する認証装置構成の一実施例である。 第3の実施の形態の認証装置の装置構成を説明する図である。 第4の実施の形態の認証装置の装置構成を説明する図である。 第4の実施の形態における、手指を撮影するガイド方法の説明図である。 第4の実施の形態における、片手操作で手指を撮影するガイド方法の説明図である。 第4の実施の形態における、手指を撮影するガイド方法の別の一実施例の説明図である。 第5の実施の形態における認証装置の構成の説明図である。 第6の実施の形態における認証装置の構成の説明図である。 第6の実施の形態における認証装置の別の装置構成の説明図である。 第7の実施の形態における認証装置の構成の説明図である。
 図1は、第1の実施の形態の指の血管を用いた生体認証システムの全体の構成を示す図である。尚、本発明はシステムとしてではなく、すべてまたは一部の構成を筐体に搭載した装置としての構成であってもよいことは言うまでも無い。装置は、認証処理を含めた個人認証装置としても良いし、認証処理は装置外部で行い、血管画像の取得に特化した血管画像取得装置、血管画像抽出装置としてもよい。また、後述のように端末としての実施形態であってもよい。
 実施1の形態の認証システムは、入力装置2、認証処理部10、記憶装置14、表示部15、入力部16、スピーカ17及び画像入力部18を含む。
 入力装置2は、その筐体に設置された光源3及び筐体内部に設置された撮像装置9を含む。なお、認証処理部10の画像処理機能の部分、又は、この画像処理機能に画像入力部18を含めて画像処理部という場合がある。いずれにしても、認証処理部10は認証に関わる処理を実行する処理部の総称であり、画像から生体(指)とシステムとの距離又は生体(指)の姿勢を判断する判断部や、生体(指)との距離又は生体(指)の姿勢の修正指示を表示部等に行う状態制御部や、撮像した画像から不要情報(しわ、背景、等)を除去する不要情報除去部や、撮像した画像から特徴情報を抽出する特徴抽出部や、抽出した特徴情報と記憶装置に予め格納した登録データとを照合する照合部等を備える。
 光源3は、例えば、LED(Light Emitting Diode)などの発光素子であり、入力装置2の上部に提示された指1に光を照射する。撮像装置9は、入力装置2に提示された指1の画像を撮影する。なお、指1は複数本であっても良い。
  画像入力部18は、入力装置2の撮像装置9で撮影された画像を取得し、取得した画像を認証処理部10へ入力する。
 認証処理部10は、中央処理部(CPU:Central Processing Unit)11、メモリ12及び種々のインターフェイス(IF)13を含む。
 CPU11は、メモリ12に記憶されているプログラムを実行することによって各種処理を行う。メモリ12は、CPUによって実行されるプログラムを記憶する。また、メモリ12は、画像入力部18から入力された画像を一時的に記憶する。
 インターフェイス13は、認証処理部10と外部の装置とを接続する。具体的には、インターフェイス13は、入力装置2、記憶装置14、表示部15、入力部16、スピーカ17及び画像入力部18などと接続する。
 記憶装置14は、利用者の登録データを予め記憶している。登録データは、利用者を照合するための情報であり、例えば、指静脈パターンの画像等である。通常、指静脈パターンの画像は、主に指の掌側の皮下に分布する血管(指静脈)を暗い影のパターンとして撮像した画像である。
 表示部15は、例えば、液晶ディスプレイであり、認証処理部10から受信した情報を表示する出力装置である。
 入力部16は、例えば、キーボードであり、利用者から入力された情報を認証処理部10に送信する。スピーカ17は、認証処理部10から受信した情報を、音響信号(例えば、音声)で発信する出力装置である。
 ここで、表示部15及びスピーカ17は、この認証システムを利用するユーザに対して生体(指)とシステムとの距離や、生体(指)の姿勢の修正を指示するための装置(指示部)としての一例であり、本発明はこの装置に限定されるものではない。
 また、上記で説明した各処理部は、ひとつのCPUで全ての処理を行っても良いし、処理部毎にCPUを用いても良い。
 図2は、第1の実施の形態の生体認証システムの入力装置の構造を説明する図である。
 入力装置2は、指の表面あるいは皮下に分布する生体特徴を撮影する。入力装置2は装置筺体21で囲われ、その内部には2台の撮像装置9が配置されており、また複数の赤外光源31および可視光源32は撮像装置9の周囲に円環状に交互に配置され、開口部を介して指1を一様に照らすことができる。赤外光源31は赤外光を、可視光源32は可視光を照射する。可視光源32の波長は、概ね450nmから570nm程度、すなわち青から緑の波長から任意に選択できる。また光源31と光源32はそれぞれ任意の強度で照射できるものとする。具体的な波長の一例として、光源31は850nmの赤外光、光源32は550nmの緑色の波長を選択する。なお、各波長の発光素子は一体となっていてもよい。開口部にはアクリル板22がはめ込まれており、埃などが装置内部に侵入することを防いだり、装置内部の部材を物理的に保護したりする効果を有する。なお、光源31および光源32の照射する光がアクリル板22に反射すると被写体が見えなくなるため、すべての光源を時系列的に点灯して被写体を連続撮影し、各画像をHDR(High dynamic range)技術により合成し、反射成分のない鮮明な被写体を獲得しても良い。なお、光源31および光源32は、撮像装置9の周囲ではなく、2つの撮像装置9の間に円環状ないしは格子状に配置しても良く、2つの撮像装置9を取り囲むように円環状ないしは格子状に配置しても良い。
 撮像装置9はカラーカメラであり、可視光と赤外光の波長帯に感度を持つ複数の受光素子を有する。撮像装置9は、たとえば青(B)、緑(G)、赤(R)に受光感度を持つ3種類のCMOSまたはCCD素子を有し、これらがBayer配列として知られる通り、格子状に配置されている。またRGBの各素子は近赤外光にも感度を有する。各受光素子の感度は、たとえば青で450nm付近、緑で550nm付近、 赤で620nm付近に受光感度のピークを持つセンサから構成される。また撮影されるカラー画像はRGBそれぞれの色プレーンが独立に獲得できるRGBカラー画像形式であるとする。なお、撮像装置9は3波長を超える受光素子を有するマルチスペクトルカメラとしてもよいことは言うまでもない。また撮像装置9には光源3の出力するすべての光の波長を透過し、それ以外の帯域を遮断するバンドパスフィルタ33が備えられており、不要な迷光を遮断して画質を高めている。本実施例においては550nmと850nmの波長の光のみを透過させる。
 入力装置2は、複数の可視光を照射することで指先の皮膚内に存在する様々な生体特徴を撮影することができる。たとえば、指紋や表皮のしわ、関節のしわ、静脈、しみやほくろなどのメラニンの模様、血液の模様、皮下組織の脂肪小葉の模様(ここでは脂肪紋と呼ぶ)、などがある。
 図3はステレオカメラで生体の姿勢を推定しながら認証を行う処理フローの一実施例である。
 まず、システムが利用者に対して指の提示を促す(S401)。続いて赤外光と緑光を照射しながら2台のカラーカメラが同期を取りながら撮影を開始する(S402)。このとき、外光などによって輝度飽和が見られる場合は露光調整を実施し、輝度飽和が消失する露光時間に設定しても良い。続いて撮影された映像から被写体の距離・立体形状計測を実施する(S403)。そして認証装置から予め設定した距離の範囲内に被写体が存在するかを判定し(S404)、もし存在しない場合は生体が提示されていないものとみなし、初めの処理(S401)に戻って生体が提示されるまで待つ。一方、所定距離の範囲内に被写体がある場合は生体が提示されたものとみなし、手指の姿勢検知処理を実施する(S405)。次に、姿勢判定結果を用いて指の誘導処理を行う(S406)。このとき指の位置や角度が想定からずれていたり、指が不適切に曲げられていたりする場合は、適切な撮影状態となるよう画面表示やガイドLED、ブザーなどを用いて利用者を誘導し、姿勢判定と誘導を反復して行う。一方、適切な姿勢と判定された場合は(S407)、指の姿勢情報に基づいて指画像の切り出し処理を実施する(S408)。指の姿勢情報には、指先や指の根元の位置が含まれており、認証の対象となる1本ないし複数本の指の位置情報を用いてそれぞれの画像を切り出す。そして、切り出された指画像に対して指の位置や向き、距離に応じて画像の拡大率の補正し、指の姿勢を正規化する(S409)。続いて、姿勢が正規化された指画像から生体特徴を抽出する(S410)。その後、生体特徴を照合し(S411)、登録データとの類似度を算出して、利用者が登録者であるかどうかを判定する(S412)。
 ここで、各処理ブロックについて詳述する。
 まず、被写体の距離・形状計測(S403)について詳述する。本実施例では、2台のカラーカメラを用いて、近赤外光と緑光の反射画像を撮影し、その視差を利用したステレオ視(ステレオマッチング)の技術を適用して距離計測を実施する。なお、2台のカメラ間の座標系を変換するための内部パラメータと外部パラメータは既知であるとする。またカメラ間の撮影の同期も取ることができるとする。このとき、一般的なステレオ視の手法を用いることで、左カメラの任意の画素と右カメラの任意の画素とを対応付け、被写体の距離を画素単位で獲得できる。両カメラ間の画素の対応付けの方法としては、部分画像同士のテンプレートマッチングやSIFT(Scale-invariant Feature Transform)を用いた特徴点による対応付けなどを利用できる。これにより、両カメラで共通に撮影している被写体の距離情報あるいは形状情報を獲得でき、被写体の立体構造が把握できる。
 一般的なステレオマッチングでは、強いエッジ情報が被写体に存在しない場合は、両カメラ間の画素の対応付けが困難となり、正確な距離情報を得ることが難しくなる。特に、指などの生体に対する赤外光の反射画像は一般的にエッジが弱いため対応点が取りにくい。そこで本実施例では、赤外光と緑光とを同時に発光してその反射光を撮影し、赤外光で撮影できる静脈などの情報と、緑光で撮影できる、エッジの細かい指紋や脂肪紋とを同時に獲得する。
 図4は、赤外光と緑光を同時発光して撮影した静脈や指紋や脂肪紋の画像の一例である。赤外光の反射画像61には指静脈62が不鮮明に撮影され、表皮の指紋などはほとんど目立たず、エッジなどの特徴点は比較的少ない。一方、緑光の反射画像63には指静脈62はほぼ観察できないものの、指紋64や関節しわ65、脂肪紋66が観測される。これらの特徴量は強いエッジを有しているため、SIFTなどの一般的な特徴点抽出手法によって容易に特徴点を獲得することができ、ステレオマッチングにおける両画像の座標の対応付けの精度を向上することができる。
 ただし、指紋、関節しわ、脂肪紋は局所的には他の位置のエッジに類似することが多い。そのため、一般的な画像処理で特徴点とその特徴量を求める際に、特徴量を抽出する局所画像の面積が小さい場合は他の特徴点の特徴量と識別ができず、誤った対応点を検出してしまう可能性がある。そのため、指紋や関節しわといった線特徴の場合は、線の末端や分岐点のみを抽出するようにするか、脂肪紋のような粒状の特徴の場合は、周囲の指紋あるいは脂肪紋の複数のエッジを含むようにやや広い範囲からその点の特徴量を抽出する。これにより、特徴点の誤対応の要因として一般的に知られる開口問題を抑制することが可能となる。
 ここで、赤外光と緑光とを同時に照射することで赤外と緑の反射画像を同時に獲得する一実施例について述べる。
 生体がかざされた状態で赤外光と緑光とを同時に照射すると、これらの光は生体の表面あるいは表面下で吸収あるいは反射され、その反射光が撮像装置に到達する。これにより、生体表面付近での反射光強度分布が可視化される。このとき、赤外光と緑光とが同時に照射されているため、カラーカメラのRGBの各受光素子にその光強度が反映される。
 図5は、カラーカメラのRGBの各素子の分光感度特性の一例である。この図の通り、波長850nm付近より長波長の赤外光領域で、RGBの各素子はほとんど同じ感度分布となっている。一方、緑光に対しては、Gの素子の感度だけが高い。このとき、R、G、Bの3つの素子の受光量(それぞれIr,Ig,Ib)と、発光したLEDの波長とを、以下の連立方程式により求める。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
ただし、I550,I850はそれぞれ緑光と赤外光の単体での反射光成分、Wr(λ),Wg(λ),Wg(λ)はそれぞれ波長λにおけるR,G,B各素子の感度を意味する。これらの方程式より、緑光と赤外光の反射光成分(I550とI850)を求めることができる。ただし、未知数の数が2つに対して方程式の数が3つとなるが、2つの方程式で2つの未知数を求められることから、3つの方程式を2つ取り出す3通りの結果を平均することで、未知数の解に含まれる誤差を平準化する。
 なお、別の実施例として、赤外光と緑光を交互に点灯してそれぞれの映像を用いる手法とすることも可能であるが、本方式に比べて撮影のフレームレートが半分に低下すると共に、両波長の画像に映る被写体の位置が僅かにずれる可能性がある。従って本実施例の方式は、赤外画像と脂肪紋とを同時に撮影できるため被写体を高速に撮影できると共に、被写体のフレーム間での位置ずれが生じないため高精度なステレオマッチングが実現できる。
 なお、一般的に上述の手法で求めたステレオ視による距離計測の結果は画素単位で実施
されるが、画像のノイズの影響により画素単位で不正確な結果を生じる場合もある。そのため、グラフカットやスペックルフィルタの適用により、空間的に平準化を行ってノイズ除去を実施しても良い。
 続いてステップS405で実施される生体の姿勢検知の一実施例について述べる。手指の提示方法には様々な状況が想定される。たとえば、指を1本だけ装置にかざす、5本指を開いてかざす、指を曲げてかざす、などの手指の姿勢に関するものや、指の位置がカメラからずれていて適切に映っていないなどの提示位置に関するものがある。そこで上述の被写体の距離計測処理の結果を利用し、各指の指先や根元の位置、指の提示角度などの指の姿勢を推定し、これに基づいて適切な提示位置や姿勢となるように利用者を誘導したり、画像上で補正したりするための情報を獲得する。
 図6は、指の提示位置の検知方法の一実施例である。まず、図6(a)に示す通り、距離画像100をx軸に向けて積分して平均値を取った投影輝度分布101を求める。ただし、ここでは距離が近いほど距離画像の輝度値が高いとし、また画像の右方向をx軸方向、下方向をy軸方向、カメラから遠ざかる(紙面奥)方向をz軸方向と定義する。このとき、指が観測される部分の投影輝度分布は値が高く、指の隙間など被写体が存在しない部分の投影輝度分布は低い値となる。また、指は画像に複数本映ることがあるため、投影輝度の起伏は複数存在する。このとき、図6(b)に示されるように投影輝度のピークを求めると、複数の指のx軸方向の座標を求めることができる。
 複数の指の大まかな提示位置が把握できると、次にそれぞれの指を中心とした関心領域102を定義する。指の関心領域102は、図6(b)のように投影輝度分布101に対して閾値を設定し、それを超えた極大点をx軸方向の中心とし、指の幅より十分広い任意の幅を有する領域である。また領域の高さは距離画像100と同じ高さとする。本実施例では3本の指が同時に撮影されているため、3つの関心領域が設定される。
 なお、撮影された複数本の指すべてを認証処理の対象とするのではなく、特定の指一本のみを処理対象することも可能である。図6(c)は特定の指一本を検出する処理の一実施例である。レンズの歪みは画像中心で低減することや利用者が認証装置の真上に指をかざすことを考慮すると、画像の中心に映る指画像を処理対象とすることが最も合理的であると考えられる。そこで、画像の中心に近い指のみを取り出す。まず、x軸への投影分布101に対し、画像の中心に近づくほど値の大きくなる重み係数103を乗算し、画像の中心に近い投影分布の値が高くなるように変換する。その後、投影分布の最大値104を求め、このx座標を画像中心に最も近い指のx軸方向の位置と定義する。これにより、画像の端に映る指ではなく画像の中心に映る指を検出することが可能となる。
 次に、各関心領域に対して、指の輪郭検知を実施する。図7は、指の輪郭と指先を検出する一実施例の説明図である。指の輪郭検知は、各関心領域内の画素値を判別分析に基づく2値化処理あるいはグラフカットなどの手法に基づき指と背景とを分けてその境界を取り出しても良く、また強いエッジを連結あるいは追跡する方式により取り出しても良い。このとき、隣の指が関心領域に含まれてしまう可能性もあることから、画像中心に近いほどエッジの重みを高くして、エッジの総量を最大化しながらエッジの距離や曲率を最小化する連結方法を採用しても良い。これにより、誤って隣の指の輪郭を抽出することが少なくなり、認証エラーを低減する効果が得られる。この処理によって、図7に示すように指輪郭120を獲得することができる。
 各関心領域の指輪郭120が検出できると、次に指の中心線121を求める。指の中心線121は、指輪郭120を直線近似して求めても良く、あるいは抽出された指輪郭の内側領域を指領域と定義し、指領域の各画素を要素とした主成分分析を実施し、得られた第一主成分の方向(主方向)として求めても良い。次に、指輪郭120と指の中心線121とを用いて指先122を求める。これば、指の中心線と指の輪郭線の交点を指先122と定義してもよく、もしくは、関心領域102のy軸に向けて投影分布を算出し、画像の下側から上側に向けて輝度分布の値を調べ、はじめに背景であると判別できる閾値を下回ったy座標を指先と決めても良い。この方法では指輪郭を検出しなくても指先の大まかな位置を判定できるため、処理を簡素化し、高速化することが可能となる。
 以上の処理により、各指のx座標、y座標、z座標の提示位置を検出し、また指輪郭と指先の位置を抽出できた。
 次に、指の距離・立体形状の計測結果を利用して、指の姿勢を検出する。指の姿勢は、指のx、y、z座標だけではなく、指の曲げや反り、そしてx、y、z軸の各軸を中心とした回転を含んでおり、これらの状態を検出することが必要となる。なお、指は2つの指関節によって3つの節に分けられるものとし、各節の中心軸を直線に近似した指の骨格構造を解析するものとする。また、図6(a)に示した座標系において、x軸、y軸、z軸の各軸を中心とした回転を、それぞれピッチング、ローリング、ヨーイングと定義する。
 図8は指の姿勢を検出する一実施例を示す。図8(a)に示す通り、この例では距離画像に対する関心領域102に2つの関節150を含む指1が撮影されており、指が軽く曲げられ、さらにローリングを含んでいる。提示された指の位置によっては、例示した図とは異なり関節が1つしか含まれない、あるいは関節がまったく含まれない場合も想定される。また指輪郭120の内側の領域は、明るいほどカメラに近い距離であるとする。まず、図8(b)に示すように距離画像を偏微分して各座標の法線ベクトル140を計算する。指1は楕円の円筒に類似する形状であるため、法線が放射状に分布していることが分かる。次に、図8(c)に示すように指の中心軸121が通る画素の法線ベクトルを調べる。この法線ベクトルを図8(d)に示す。指先や指の中節部などの膨らみによって、法線ベクトルは様々な方向を向く。このとき、関節150は窪みであるため、関節をまたぐ位置の法線ベクトルはその方向が交差する方向を向く。そこで、これらの法線ベクトルと指の中心軸121の成す角を求め、その方向が反転した位置を関節の推定位置151として検出する。最後に、関節の推定位置151によって分断された各節の領域について、すべての法線ベクトルと最も直交する方向を主成分分析より求め、これを節の中心軸152とする。このような処理により、指の節ごとの骨格構造を獲得することができる。また、指のピッチングは節の中心軸152に沿った指内部領域の距離値の分布を直線近似し、その傾き角として求めることができる。またヨーイングは指の中心軸121の傾きから得られる。
 指のローリングについては、指の断面を楕円とみなし、観測できる部分の指表面の座標から楕円の長径と短径とを推定し、その長径方向とx軸との成す角度からローリング角を得ることができる。具体的には、まず図9(a)に示すように、ある注目画素163を通り、かつ、上記で求めた節の中心軸152と直交する指の断面160を定義すると、この断面と指表面とが成す曲線は楕円161となる。このとき、楕円161はすべて観測できている訳ではなく、映像として獲得できている複数の法線ベクトル140が分布している部分のみが観測されている。この部分に関しては、指の表面のx、y、zの各座標は既知である。つまり、楕円161の一部分のみが観測されている状態となっている。この部分曲線に対し、たとえばHough変換を適用することで、楕円161の長径162と短径の長さと向きとを獲得することができる。そして注目画素163を指の節の中心軸152に沿う方向に様々な位置に変えることによって多数の長径162が得られるが、求めたすべての長径162とx軸との成す角の平均値を求めることで、該当する指の節の平均的なローリング角が推定できる。最終的に、すべての節の平均的なローリング角を推定して平均すれば、その指の平均的なローリング角を得ることができる。
 上述した指の姿勢情報を獲得する別の実施例としては、指の姿勢情報が既知となる大量の指画像を教師データとし、Random forestなどの機械学習に基づいて、未知の距離画像から指の姿勢情報を推定しても良い。
 以上より、各指のx、y、z軸の位置、指の曲げや反り、回転の状態を把握することができる。
 また、各指のx、y、z軸の位置、指の曲げ角度、回転角度を各フレームごとに時系列に蓄積し、それらの情報から指の位置や姿勢に関わる移動速度あるいは移動加速度を算出し、これらを指の姿勢判定に用いることもできる。たとえば、指が高速に移動していることを検知した場合は映像のぶれが生じるため、利用者に指を高速に動かさないように誘導したり、あるいは指がほとんど移動していない場合には偶然指が撮影されている可能性もあるため、指を動かすように促すことで認証していることを明示的に意思表示させることもできる。また、カメラから遠ざかる動作をさせた場合にのみ撮影を許容することで、被写体のぶれの傾向が概ね一致した画質の映像を撮影することができる。これにより登録時と入力時との画質が統一化されるため認証精度を向上することができる。
 次に、図3で示した手指を誘導するガイドの表示(S406)の一実施例について詳述する。上記のように指の提示位置や姿勢が検知できると、撮影されている指を適切な位置に誘導することが可能となる。
 図10は、認証に適した指の位置や姿勢を利用者に誘導するガイダンス画面の一実施例である。図10(a)は、認証に適した位置に指輪郭ガイド180を表示すると共に、指の提示を促すガイドメッセージ181を表示した状態である。この画面には、撮像装置で撮影された映像がオーバーラップして表示されており、利用者が操作しやすいように、利用者が右に指を動かすと映像の指も右側に動くように画像の左右反転処理を施している。なお、ここで表示する画像は左右カメラの画像を合成した距離画像としても良く、左または右カメラのどちらかの赤外光反射画像もしくは緑光反射画像としても良い。また生体情報の秘匿のため、指領域を塗りつぶしても良い。
 利用者はこの表示に合せて指をかざす。しかしながら、指輪郭の概形はあらゆる指の形状に適合するものではないため、必ずしもかざした指の輪郭の形状と一致させることができるとは限らない。さらには、2次元平面的な位置合わせだけではなく、カメラ距離についても適切な位置に合せる必要があるため、表示されている指輪郭ガイドに一致するように指をかざしたとしても適切な提示位置にかざされているとは限らない。さらには、複数の指の位置を合せることは容易ではなく、すべての指が認証に適した位置に来るとも限らない。そのため、ガイド内容を順次変えながら誘導する必要がある。
 図10(b)は、3本指をかざしたときの一例を示す。まずは、上述の処理によって検出された3本の指のうち、中央に検出された指が画像の中心に位置するよう、左方向への指移動指示矢印182を表示する。これにより、指の全体的な位置合わせが実施できる。次に、図10(c)に示すように、中央の指が画像の中心に移動した状態であっても、左右の指が位置ずれを起こしているため、指を軽く閉じる旨を知らせると共に、各指の近くに右または左向きの指移動指示矢印182を表示して位置を誘導する。同様に、指が不自然に閉ざされている場合には、指を軽く開く旨の表示を行うこともできる。
 また図10(d)は、指が右にずれていて、かつローテーションを起こし、かつカメラ位置から近く、かつ関節が曲がっている状態を示す。まず指を左に移動するための矢印を表示し、続いてカメラ距離を離すためのカメラ距離指示アイコン183を表示する。その後、指のローテーションを元に戻すための回転指示アイコン184を表示する。最後に、指の関節を真っ直ぐに伸ばす旨を指示する。もしこのとき指先が画面の下に行き過ぎている場合はその旨を表示しても良い。
 このように、まずは指の上下左右の位置やカメラ距離を誘導し、その後にピッチングなどの回転や指の曲げ伸ばしを誘導すると、大まかな提示位置から細かい調整の順に誘導でき、誘導の効率を高めることが可能となる。
 以上の通り、上述の姿勢検出結果に基づいて、指の提示位置と姿勢を正しい位置に誘導することができる。
 なお、上述の実施例において適正な指の撮影本数は3本を想定したが、1本から5本までの間であれば撮影は実施してもよい。指の本数が多い場合は、最も右に位置する指と最も左に位置する指との平均位置が画像中央になるように誘導することで、かざした指全体を画角にバランス良く収められるように誘導できる。もしくは、現在かざされている指の本数をリアルタイムに検知し、各指の本数ごとに、上述の指輪郭ガイド180の表示本数を切り替えて適切な位置を示すこともできる。これらの処理により、複数指を効率良く提示でき、より高精度な複数指認証を実現できる。
 次に、手指が適切な位置にあるかの判定ステップS407について述べる。認証に適した指の位置や姿勢は唯一に決定することはできるが、そこからのずれを許容しないと利用者は指の提示で時間が掛かり、利便性が低下する。そのため、撮影指の本数、指のx、y、zの位置、回転、曲げ伸ばし状態、などのパラメータに、理想状態からのずれ量に許容範囲を設け、すべてが許容範囲に入った時点で適切な姿勢であると判定する。なお、撮影指の本数について、たとえば3本を適正値とした場合、登録時は3本が画像に含まれるまで誘導し続けてデータ量を確保するようにするが、認証時は1本だけでも許容して良い。これは、ただ1本の一致でも確率的に明らかに本人であると判定できるケースがあるからであり、このようにすることで認証時の指の姿勢の制約を緩和でき、利便性の高い操作が
実現できる。
 次に、指の切り出し処理ステップS408と立体補正処理ステップS409の一実施例について述べる。
 上述の通り指のガイダンスを実施した場合でも、利用者の利便性を考慮すると理想的な位置での撮影は難しく、従って指の姿勢変動が含まれる。この場合、姿勢の変動に伴う生体特徴の変形により、登録時のパターンと異なった特徴量が得られる。これに対し、たとえばSIFT特徴量などの変形にロバストな特徴量によって照合を実施するか、あるいは元画像の変形を補正するなどが必要となる。本実施例では、処理コストが小さいテンプレートマッチングによる照合を前提とし、指の姿勢情報(ここでは指先や関節、根元が手指の立体形状にラベリングされた状態を意味する)の検出結果を利用し、撮影されている2次元平面の生体画像を幾何学変換し、正規化した状態に補正する。
 まず、図11(a)に示すように距離画像100に対して決定した関心領域102について、図11(b)に示すように赤外光反射画像および緑光反射画像200について上述で求めた指先位置を基準とした指の切り出し画像201を生成する。これにより、指先が切り出し画像201の上辺に接するようになり、x軸およびy軸の位置ずれが補正される。なお、上述で求めた指先位置、指輪郭、指の節ごとの中心軸などの姿勢情報は距離画像100に対して求めたものであり、左右2つのカメラにより撮影された反射画像の座標系に対するずれが存在する。ここで、距離画像100と反射画像200との間の座標系のずれはキャリブレーション可能であるとし、座標変換によって求められるものとする。座標変換に誤差が生じる場合には、距離画像で求めた指輪郭を反射画像上で平行移動させながら指輪郭の存在する全画素のエッジ総量を計測し、指輪郭上のエッジ総量が最も多くなる場所に位置補正し直しても良い。また反射画像200は左右いずれのカメラの画像でも良く、左右両方の画像を合成した画像でも良い。いずれの場合においても座標変換が可能であるものとする。
 次に、図11(c)に示すように、切り出し画像201に映る指の輪郭に対し、距離画像で得た指の距離値が一定になるように画像のサイズを拡大または縮小する。拡大率の計算は、最適な距離値と現在の指の距離値との比率によって決定する。これにより、z軸方向のずれがあっても、指のサイズを一定に保つことができる。このとき、指の部分領域の距離値が一定になるよう、画像を部分的に拡大または縮小することで、指のピッチング角度による距離の不均一性も解消できる。
 そして、図11(d)に示すように、指の節ごとの中心軸152が画像の上方を向くように回転補正する。中心軸152は指の節ごとに傾きが異なる場合があるため、節ごとの中心軸の平均値を求めて、それが画像の上方を向くように回転補正しても良い。
 最後に、図11(e)に示すように、上述で求めた指の断面の楕円161とその長径162が画像のx軸に平行になる向きに2次元平面の座標を投影変換する。ここでは投影変換後のx軸をx’軸と図示するが、以降はこれもx軸と呼称する。これにより、ローリングによって指の2次元画像の見え方が変形しても、指の腹側が正面を向いた投影像に変換されるため、変形のない映像が得られる。
 以上の処理により、指のx、y、z軸の座標と、回転方向の補正が実施できる。なお、ここで示した補正は、後述の特徴抽出処理の後に実施しても同様の効果が得られる。
 最後に、特徴抽出処理(S410)、照合処理(S411)、そして判定処理(S412)について述べる。特徴抽出処理は、赤外反射画像と緑反射画像の2枚についてそれぞれ特徴量を抽出する。赤外反射画像には静脈などの情報が、また緑反射画像には指紋、関節しわ、脂肪紋などが確認されるため、一般的な静脈パターンの抽出処理やテクスチャパターンの抽出処理を実施して、生体特徴を獲得する。特に線パターンを鮮鋭化するために、アンシャープマスク処理を前処理として実施しても良い。なお、映像は左右のカメラの2つがあるが、片方のカメラの映像だけを用いても良く、両方の映像を用いて別途特徴抽出を実施し、最後に得られたパターンを合成しても良く、また合成せずにそれぞれ独立したパターンとして活用しても良い。いずれにしても、両方の映像は視差を持ち、異なった情報として利用できるため複数のカメラの映像を利用することで精度向上が見込まれる。
照合処理に関しては、抽出されたパターンを一般的なテンプレートマッチングあるいは特徴点マッチングの手法により類似度を判定する。そして、得られた類似度が事前に決定した閾値を下回った場合に認証成功となる。なお、赤外画像や緑画像、複数のカメラの映像を用いることで複数の生体特徴が得られるが、すべてを照合したときの平均的な類似度や、類似度の高い複数の結果の平均的な類似度により、認証の判定を実施しても良い。複数の類似度を算出した方がデータの冗長性が高まり、精度向上に寄与する。
 次に、登録時の誘導方法と認証時の誘導方法についての差異について詳述する。登録時においては、できるだけ安定した状態で生体を撮影することが望ましい。そのため、生体の撮影状態が良くなるように、理想的な提示位置まで誘導を続けた上で登録データを作成する。たとえば、撮影する生体ができるだけ中心に映ること、できるだけ広い範囲を撮影すること、指の回転が少なくカメラに正対していること、設定したカメラの被写界深度に含まれること、指が曲がっていないこと、などを満たすように指を誘導する。
 しかしながら、中空で指の位置を厳密に合せることは難しく、利用者によっては理想的な提示位置に静止することができない場合も想定され、利便性が劣化する。そこで、誘導はある一定の余裕を持たせることが必要である。
 また、上述の通り、撮影した画像を幾何学的に補正した場合であっても、実際に手指の位置が変化したときに同様な画質の映像が撮影できるとは限らない。そのため、様々な指の姿勢となる複数枚の登録データを獲得し、照合の際にはすべての登録データとの照合を行って複数の類似度を獲得し、これらに基づいて最終的な認証判定を実施する。この方法は、登録データが様々な指姿勢のバリエーションを有するため、姿勢の変動にロバストな認証を行うために有効である。このとき、登録時の指の誘導の際に、指の誘導の基準が同じであると常に一定の指姿勢の撮影だけ実施されるため、指姿勢にバリエーションが含まれにくくなる。
 そこで、はじめの一枚は、上述の通り最も画質が高まる位置に撮影されるように誘導し、次にカメラからやや近い、拡大率の高い位置で撮影する。最後に、指がカメラから遠ざかった位置で撮影する。この3枚を登録すると、認証時にかざした指が標準位置に対してカメラから近づいたり遠ざかったりする変動が生じても、いずれの1枚がより類似度が高まる。その結果、拡大率の変動にロバストな照合を実現することができる。
 同様に、標準位置に誘導する場合と、標準位置より左に誘導する場合と、標準位置より右に誘導する場合との3通りを撮影するなど、指の姿勢について様々な組合せを取ることができることはいうまでもない。カメラの特性や装置の形状に応じて生体の変動がより大きくなる指姿勢が考えられるため、変動の大きい指の姿勢に誘導するとより効果的である。このような誘導により、指の姿勢変化にロバストな認証を実現できる。
 一方、認証時においては、厳密な位置合わせを要求することで操作時間が長くなったり位置合わせの煩わしさが発生したりすることで利便性が低下する。そのため、登録時よりも誘導ずれの許容量を大きく取り、指の姿勢情報に基づいて補正を行うことでその位置ずれを吸収する。このとき、リアルタイムに画像を撮影して照合が実施できるシステム構成であれば、手をかざしている間のどこかで登録データに近い指の姿勢となれば認証が成功するため、比較的位置ずれを許容しても正しく認証できる。そのため、手指が適切な位置にない場合であっても認証処理は実施し、画面に位置がずれている旨を表示するように処理フローを変更しても良い。
 以上により、登録時は品質の高い生体を撮影でき、認証時は利便性の高い操作で認証処理を実施することが可能となる。
 図12は、指の位置を容易に誘導する認証装置の構成と操作方法の一実施例を示す図である。非接触撮影を実施するにおいては、空中に指をかざすため、カメラがどの辺りを撮影しているかは画面を確認しないと分かりにくく、また適切なカメラからの距離も把握しにくい。そこで、図12(a)に示すように、装置筺体21に指先ガイドマーク220および指根元ガイドマーク221を設置する。ガイドマークは三角形で示されており、三角形の頂点の向きが指先側を示している。これにより、装置と指との向きの関係性を示すことができる。なお、これらの印は指の向きと方向とが示されれば良く、形状は三角形に限定されるものではない。
 図12(b)に示すように、利用者は指先ガイドマーク220に指1の指先を置き、2つの指根元ガイドマーク221の間に入るように指根元を置く。次に図12(c)に示されるように指を装置から遠ざける。このように、最初に指を装置筺体21に接触させ、そこから指を遠ざける操作を行うと、カメラの光軸中心やカメラからの最適距離を通過する可能性が高まり、より品質の高い生体の撮影が実現できる。なお、本実施例ではガイドマークを筺体の中心に配置しているが、カメラの位置や撮影する指本数などに応じて、指が適切な撮影位置に移動しやすいように配置しても良い。また、ガイドマークは装置筺体21に指の形に合せて形成された窪みとし、その場所に指が置かれるようにしても良い。
 装置にガイドマークが配置された非接触認証装置の処理フローの一例を以下に示す。まず、システムが「装置に指を乗せてください」と利用者にガイダンスを行う。そして、光源を点灯し、画像を連続撮影しながら生体の提示を待つ。もし生体が指置き台に置かれると、光源の強い反射光により画像が飽和する。画像が輝度飽和するかどうかは光源と指との距離によって決まるため、指を装置筺体21に載せた時の平均輝度値を事前に調べておき、指が置かれたかどうかを判定する閾値処理を定めて置くことで指の設置を判定することができる。利用者がガイドマークに合せて指を置くと、指の設置判定処理によって指が置かれたと判定される。
 続いてシステムは「指を遠ざけてください」と利用者にガイダンスを行う。これに応じて、図12(c)に示すように利用者が指を装置から遠ざけると、徐々に反射光の強度が小さくなり、指と装置とが離れたことが分かる。そして、上述の距離計測処理を実施し、指が適切な距離にあることが検知できると、その時の画像から生体の特徴量を抽出する。登録処理であればその生体特徴を登録し、認証処理であればその生体特徴を入力として登録データとの照合を行う。
 本実施例によると、指のガイドマークに指を置くことで、指が画角から大きく外れたり、カメラからの適切な撮影距離から大きく外れたりすることなく生体を撮影できるため、利用者が指を空中に静止させず、一連の操作の中で最適な撮影画像を決定できるという効果が得られる。
 なお、上述した登録時の誘導方法の実施例で示した通り、登録データを複数獲得する際の登録試行回数に応じて最適な撮影距離の閾値を変化させ、登録データには距離の異なる複数の登録データが含まれるようにしても良い。これにより、認証時に指の距離が変化しても登録データとの類似性を維持することが可能となる。
 指の位置を容易に誘導する認証装置の別の操作方法として、装置をタッピングする方法がある。上述の指を遠ざける操作は、装置を固定するか一方の手で保持した状態でなければ実施することは難しい。そこで、指を遠ざける操作の代わりに、装置を片手で保持し、同じ手の指先を所定の位置に設置した状態から、一定の距離を遠ざけてまた元に戻すといった、上下方向のタッピングを行う。これにより、片手の操作だけで最適なカメラ距離となる生体画像を撮影できる。
 図13(a)に示すように、まず利用者は装置筺体21を握り、たとえば人差し指240を指先のガイドマークに置く。システムから指をタップする旨の指示が出ると、利用者はタップを開始する。タップ時は指の向きが図13(b)に示されるように斜めの提示となるため、撮影された指画像もピッチングが生じた状態で撮影される。しかし指全体が画像の画角に収まる適切な角度であり、かつ登録データが同様な姿勢で保存されているのであれば認証に利用しても差し支えない。そこで、指を上下する操作を何回か繰り返し、指が画角に収まるタイミングで数枚の撮影を実施する。そしてこれらの画像から生体の特徴データを生成して登録を行う。認証時も同様の操作を行うと、登録時の状態に近い指姿勢となった瞬間に登録データとの類似性が高まって認証が成功する。
 このように、タッピング操作を行うことで、指の提示位置が一定の範囲に収められるため登録データとの再現性が高くなる上に、空中で指の位置合わせを実施することなく容易に空中の指を撮影でき、さらに片手で装置を持ちながら認証を実施することが可能となるため、装置の利便性が向上する。
 図14は、第2の実施の形態である、赤外光を発光する光源とひとつの赤外カメラで構成された反射非接触生体認証装置の一実施例である。
 撮像装置9の周囲に赤外光源31が複数個並べられており、赤外光源31が発光する波長付近のみの光を通過させるバンドパスフィルタ33が撮像装置9のレンズ部に搭載されている。撮像装置9は赤外カメラであり、指1で反射した光を撮影することができる。
 図15は当該実施例における処理フローの一実施例である。これは上述した実施例1の図3に示した処理フローとほぼ同様である。ただし、上述との差異は、2台のカラーカメラではなく1台の赤外カメラを用いる点、ステレオ視による距離計測を実施しない点、複数波長ではなく単一波長の画像を用いる点、である。以下、処理フローの概要を説明する。
 まず、システムが利用者に対して指の提示を促す(S501)。続いて赤外光を照射しながら1台の赤外カメラで撮影を開始する(S502)。このとき外光が強い場合は露光調整も実施する。続いて撮影された映像から被写体の距離・立体形状推定を実施する(S503)。もし認証装置から予め設定した距離の範囲内に被写体が存在するかを判定し(S504)、存在しない場合は生体が提示されていないものとみなし、生体が提示されるまで待つ。一方、所定距離の範囲内に被写体がある場合は生体が提示されたものとみなし、手指の姿勢検知処理を実施する(S505)。次に、姿勢判定結果を用いて指の誘導処理を行う(S506)。このとき指の位置や角度が想定からずれていたり、指が不適切に曲げられていたりする場合は、適切な撮影状態となるよう画面表示やガイドLED、ブザーなどを用いて利用者を誘導し、姿勢判定と誘導を反復して行う。一方、適切な姿勢と判定された場合は(S507)、指の姿勢情報に基づいて指画像の切り出し処理を実施する(S508)。指の姿勢情報には、指先や指の根元の位置が含まれており、認証の対象となる1本ないし複数本の指の位置情報を用いてそれぞれの画像を切り出す。そして、切り出された指画像に対して指の位置や向き、距離に応じて画像の拡大率の補正し、指の姿勢を正規化する(S509)。続いて、姿勢が正規化された指画像から生体特徴を抽出する(S510)。その後、生体特徴を照合し(S511)、登録データとの類似度を算出して、利用者が登録者であるかどうかを判定する(S512)。
 ここで、本実施例である図15と、上述の第一の実施例である図3との差異が存在する処理ブロックについて詳述する。
 まず、赤外光の照射とカメラでの撮影処理(S502)について述べる。生体認証装置を実運用する場面において、撮影装置の周囲には様々な物体が存在する。そのため、赤外反射画像の撮影においては、手指以外の不要な被写体が撮影されることも多い。不要な被写体は手指を正しく検出するためのノイズとなることがあるため、より高精度な認証を行うためには不要な被写体を除去する必要がある。その一方法としては図14で示した通り、光源31の波長のみを透過するバンドパスフィルタ33を搭載する方法がある。一方、環境に同じ波長域の反射光が存在する場合はその成分を除去することはできない。そこで本実施例では、光源の点灯画像と消灯画像との差分により背景除去を行う。
 まず光源31を消灯した画像を撮影する。そしてその直後に光源31を点灯した画像を撮影する。そして、点灯時に撮影した画像から消灯時に撮影した画像を差し引くと、かざした手指の映像は残されたまま、光源31とは無関係に明るく映る不要な被写体の成分を除去することができる。これにより、外光の影響によらず手指の切り出しを正確に実施できる。また、もし指表面に外光成分が照射されている場合は差分の計算によりキャンセルされるため、後述する姿勢検知処理の外光に起因する誤作動も低減することができる。
 また、光源を消灯した画像が極めて明るい場合には、外光が強く照射されていることが分かる。このとき、その明るさに応じて光源を強く照射すると共にカメラの露光時間を短く制御することで、強い外光が照射されている環境においても生体の計測が実現できる。露光を調整する場合は、後述する手指の姿勢検知処理などにおいて処理に必要な最適パラメータが変化するため、各処理においてそれぞれの露光時間に対する最適なパラメータを予め求めておく。
 このように、本実施例では光源の点滅による背景差分により不要な背景を除去し、指の検出精度を向上できる。ただしこの手法は撮影のためのフレームレートが半減するため、フレームレートが十分に高くない場合はバンドパスフィルタ33による不要背景の除去を実施するか、指と背景とが分離済みの赤外反射画像を事前に大量に獲得しておき、Random forestなどの機械学習によって指と背景とを分離する手法を適用することもできる。
 次に、被写体の距離・立体形状の計測(S503)について詳述する。本実施例は、上述の実施例のようにステレオ視による距離計測が実施できないため、1台の赤外カメラで距離計測を実施する必要がある。
 1台の赤外カメラで距離推定を行う方法として、照射した反射光の光強度に関する逆二乗の法則を用いるものがある。光源はカメラの周辺に設置されているため概ね点光源であるとみなせることから、指に向けて放出される光は球体状に広がっていく。球の表面積は球の半径の2乗に比例して大きくなるため、単位面積当たりの光のエネルギーは半径の2乗に反比例する。そのため、被写体の明るさは、被写体の反射率と吸収率、そして被写体とカメラとの距離によって決まる。
 照射する光量をIi、皮膚での反射・吸収係数をμ、被写体までの距離をD、受光する光量をIoとする。また、指表面の反射光はランバート反射であり、反射光が等方的に拡散すると仮定すれば、以下の近似式が成立する。
Figure JPOXMLDOC01-appb-M000004
 ここで、照射光強度Iiや皮膚での平均的な反射強度μは事前に調査できるため、距離Dについて解くことで画像の各画素の距離を把握することができる。ただし、照射光量と受光光量は画像の輝度値として検出するが、直接Iiを輝度値として計測すると一般的には輝度が飽和するため、減衰率が既知となるフィルタで照射光量Iiを物理的に減衰させた状態でその映像を撮影し、減衰させた分だけ光量Iiを増加させるなどのキャリブレーションを実施しておく。もしくは、装置内に照射光Iiを直接反射するミラーなどを搭載し、上述の減衰率が既知となるフィルタを介して照射光Iiを直接観測できるように構成しても良い。この手法により、かざされた手指の輝度値から距離画像を獲得することができる。
 また、距離が正確に測定できるカメラと本実施例の撮像装置とを併設して指を撮影し、距離の正解ラベルを各画素に割り当てた学習データを大量に収集し、たとえばRandom Forestなどの機械学習に基づいて、赤外反射画像から指の距離画像を求めても良い。
 ただし、実際には外光などの影響で想定より明るい映像が撮影される可能性もある。その場合は距離Dの絶対値に誤差が含まれる。そこで、画像の任意の位置にある被写体の距離を1とした、相対的な距離分布を求めることで、被写体の立体構造を把握することも可能である。また、事前に画像の輝度値と距離値の大まかな変換表を作成しておき、前記任意の位置にある被写体の画素における輝度値からこの距離値を読み取り、画像全体の相対距離値にこの距離値を乗算することで、大まかな距離画像を得ることもできる。
 次に、手指の姿勢検知(S505)について、実施例1との差異を述べる。ここでは、上述した距離画像を獲得する方法を用いて実施例1と同様の処理を実施しても良いが、さらに簡便な手法として、赤外反射画像を距離画像に変換せずに手指の姿勢検知を行う実施例を示す。
 まず、赤外反射画像を距離画像とみなし、実施例1の図6で示した手法により関心領域102を獲得しておく。ただし反射画像の輝度値が高いほど距離が近いとみなす。
 まず指のx軸方向の位置検出に関しては、実施例1の図6で示した通り、赤外反射画像を距離画像とみなして関心領域を決定する際に得られるx軸方向の座標より獲得できる。また指のy軸方向の指先の位置検出に関しては、図7で示した同様の方法で獲得できる。またカメラとの距離(z軸の位置検出)に関しては、反射画像の明るさと光源距離との間には逆二乗の法則が成立し、両者には相関があることから、ある光量値を発光させたときの指の平均輝度とカメラ距離との関係を事前に調べておくことで、平均輝度からカメラ距離への変換表を作成することができる。そして入力された指の輪郭検出を実施した際に指内部の平均輝度を求め、前記変換表を用いてこの平均輝度値からカメラ距離を算出する。これにより、輝度値が明るすぎる場合は指がカメラに近づきすぎており、逆に輝度値が暗すぎる場合は指がカメラから離れすぎていることが検知できる。外光の影響でこの値は変化するが、光源消灯時の画像を撮影しておくことで外光による輝度を把握しておけば、その値を差し引くことで外光の影響を緩和できる。
 ヨーイングの検出に関しては、図7で示される上述の手法と同様に、指の中心軸121を求めてこの軸が画像y軸に平行となるように回転補正を施す。
 またピッチングの検出に関しては、図16に検出方法の一実施例を示す。この例では、指先がカメラから遠ざかる方向にピッチング回転を起こしているものとする。まず、赤外反射画像に映る指の切り出し画像300に対しy軸に向けて平均輝度投影分布301を算出する。ここでは座標yの平均輝度投影分布をIave(y)と表記する。指先がカメラから遠いため、Iave(y)は指先付近の値が低い。なお、反射画像は指の細かい凹凸や血管の有無に起因する輝度変化を伴うため、Iave(y)にも細かい起伏が観測される。次に、以下の式7に示される相対距離Dr(y)を計算する。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
ただし、ycは指の切り出し画像300のy軸の画像中心座標、Waは任意の比例係数、Wbは後述のキャリブレーション係数、Sqrt{x}はxの平方根である。また光源から座標yまでの斜め方向に進む距離に比例する値をD'(y)、光源の高さから座標yまでの鉛直方向の距離に比例する値をD(y)とする(図16(b)参照)。そして相対距離Dr(y)は座標ycの鉛直距離をゼロと定義したときの各座標yにおける相対距離である。
 Iave(y) が小さい値となる座標yの距離D(y)あるいはD'は遠いと推定される。ただし図16(b)に示されるように、仮にカメラ前に平面板を水平に置くと、平面板の平均輝度投影分布302より計算されたD(y)はyによらず一定となるはずだが、光源から遠いy座標では輝度値が暗くなるため、D'(y)は変化する。ここではy座標によって距離が変化すると不便であるため、距離D'(y)を式6によって距離D(y)に変換する。式6にはパラメータWbが含まれるが、これは水平な平面板をカメラ前にかざしたときにyによらずD'(y)が一定値となるように事前に決定しておく。
 図16(c)は計算の流れを示している。まず、Iave(y)から式5に示されるようにD'(y)を得る(図に縦軸は記載せず)。次にこれを式6、式7を用いてDr(y)に変換する。そして、得られたDr(y)を最小二乗法により直線近似し、指の推定ピッチ直線303を獲得するする。最後にこの直線の傾きを求める。このときの傾きが推定されたピッチ角となり、この角度が一定値よりも大きい場合にはピッチのずれを警告したり、実施例1で詳述したピッチング補正の方法により赤外反射画像を正規化したりする。
 最後にローリングに関しては、指の関節の向きや輪郭の形状によりローリングの有無やその回転方向を推定する。具体的には、回転角が既知である指の回転画像を大量に収集し、これをたとえば畳み込みニューラルネットによって学習した上で未知画像のローリング角を推定する。その結果を用いて、回転角度が一定値を超える場合に警告を発したり、実施例1で詳述したローリング補正の方法により赤外反射画像を正規化したりする。
 以上の方法により、被写体の距離画像を獲得することなく、指の姿勢を推定し、標準的な姿勢からのずれ量を求めることができ、その結果を利用して利用者にガイダンスを行ったりパターンを補正したりすることが可能となる。
 図17は赤外光源の遮光領域によって被写体の距離が近いことを判定する認証装置構成の一実施例である。入力装置2に搭載されている撮像装置9の上部に、その外周を囲うように遮光板320が配置されている。遮光板320は、円周上に配置されている赤外光源31の内側を隠すように設置され、赤外光の一部を遮光する。このとき、指1が入力装置2に接近すると、図示されるように光が届かない領域321が発生する。このとき画像を観測すると、撮像装置9の中心付近が暗く、その周囲が明るい画像が撮影される。よって、画像中央を中心とした半径の異なる2重の円を定義して、内側の円と、内側の円周と外側の円周とで囲まれる領域との平均輝度を比較する手法などによって、画像の中心が暗くてその周辺が明るい状況を検出する。この状況が検出された場合は指が近すぎると判定でき、利用者に警告を行う。なお、中央の暗い領域の面積あるいは半径を計測することで、指とカメラとの距離を推定することも可能である。
 次に、実施例2における特徴抽出処理(S510)について詳述する。本実施例では赤外波長のみの反射画像が得られるため、上述の実施例で示したような複数波長に対する画像処理を実施することができない。そのため、近赤外の反射画像に映りやすい、静脈パターンや関節しわパターン、指輪郭形状を特徴量として抽出する。まず、静脈を抽出するために、指の長手方向の線をより強く強調し、かつノイズを除去する、アンシャープマスクを適用する。これによって指の長手方向に走行する傾向が強い静脈パターンが強調され、さらにその他の情報がぼかされる。この画像から既存技術として一般的に利用される指静脈パターンの抽出処理を施すことで、赤外反射画像から効率良く、かつ安定した指静脈パターンを抽出できる。次に、関節しわパターンが強調されるように、指の長手方向と直交する方向の線をより強く強調し、かつノイズを除去するアンシャープマスクを適用する。そして同様にパターンを抽出すると、特に関節しわの線パターンが抽出される。その線パターンの形状や、第一と第二関節の間の距離には個人性があるため、認証情報として活用できる。また指輪郭情報は上述の実施例で示した指輪郭検出処理によって同様に獲得できる。この処理により、静脈、関節しわ、指輪郭の複数のモダリティの生体特徴を獲得できる。
 これらの情報を獲得して複数の生体パターンとして登録し、それぞれを独立に照合を行うか、あるいはそれぞれの位置関係に制約を持たせながら照合を行い、最後に各モーダルの照合結果を一般的なマルチモーダル生体認証の技術により融合して最終的な認証結果を得る。これにより、単一波長の画像を用いながらも高精度な認証を実現できる。
 また、被写体の距離計測に関する別の実施例として、被写体を連続的に撮影しながら被写体の立体構造を計測する手法を実施しても良い。まず、撮影を開始する際にシステムが利用者に手指を入力装置に向けていろいろな向きに動かすようにガイダンスを行い、その映像を連続的に撮影する。撮影した映像の中で被写体がどのように移動したかをテンプレートマッチングやSIFTをはじめとする特徴点マッチングにより検出を行うと、その被写体の3次元形状を計測することができる。これは一般的に、Structure from motion (SfM) と呼ばれる技術であり、これにより被写体表面の立体構造を獲得できる。ただし、手指が曲げ伸ばしされた場合には、非剛体に対応した特徴点照合を実施するなどの対応が必要となる。
 このように、生体を移動させる方法は、ある特定の姿勢では観察できない背面の生体特徴であっても、移動によって撮影できるようになるとその移動量と3次元構造の情報より立体的な生体特徴が獲得できるため、生体の移動に強い照合を実現できる。
 図18は、第三の実施の形態である、可視光を発光する光源とひとつのカラーカメラとで構成された反射非接触生体認証装置の一実施例である。
 カラーカメラ340の周囲に可視光源341が複数個並べられており、赤外光を遮断するローパスフィルタ342がカメラのレンズに搭載されている。可視光源341の波長はたとえば青で450nm付近、緑で550nm付近、赤で620nm付近に発光強度のピークを持ち、各波長の発光強度を個別に調整できる。
 認証処理手順は上述の実施例2と同様である。実施例2との差異としては、赤外カメラではなくカラーカメラを用いる点、撮影される画像が単一波長の赤外反射画像ではなく複数波長の可視反射画像を用いる点、である。ここでは、本実施例に特有の処理について詳述する。
 本実施例では、前述の実施例とは異なり、生体をRGBのカラーカメラで撮影することができる。可視光は赤外光とは異なり、生体表面の深部に到達しにくい特性を持つが、一方で複数の波長を取り扱うことができることから、皮膚表面の生体組織の光学特性に応じて多くの生体情報を撮影することが可能となる。
 皮膚組織には、指紋や表皮のしわ、指関節のしわ、メラニン、毛細血管中の血液、動脈、静脈、皮下脂肪などの様々な生体特徴が存在しており、それぞれ光の吸収率や反射率が異なる。そのため、事前に各生体組織の反射特性を調べておき、複数の可視光を照射して同時に観測することで、各生体組織の情報を独立に抽出することができる。その手法としては、RGBの3つの画像に対する独立成分分析によりメラニンと血液とを分離する方法や、マルチレイヤー生体計測技術を用いることができる。また、赤色の画像では静脈が、緑または青では指関節が観測しやすいため、両画像の差分ないしは任意の比率で除算するなどの組み合わせにより赤画像から指関節成分を除去してより純粋な静脈画像だけを獲得できるため、生体特徴をより明確に計測することができる。
 このように、3波長の光源とカラーカメラとを用いた反射非接触計測では、赤外光では観測しにくい生体情報を獲得できるため、認証精度を向上できる効果が得られる。
 なお、可視光のみならず赤外線も撮影できるカメラを利用できる場合には、RGBの光源に加えて赤外光源を追加して撮影することができることは言うまでもない。これにより、生体表面の深部に存在する静脈などの情報を撮影できるようになり、認証に利用できる生体特徴が増加して認証精度を高めることが可能となる。
 また、上述の第二の実施例で示した逆2乗の法則に基づく被写体の距離計測を本実施例でも適用することができる。ただし、本実施例においては光源が3波長存在するため、それぞれの距離を独立に計算することが可能である。たとえば、照射した3つの波長の光について、それぞれ平均的な皮膚の反射特性を事前に求めておき、それぞれの反射光をカラーカメラで同時に撮影する。このとき、各波長において放射した光強度と観測された光強度の関係を、式4で示したように反射による減衰と被写体の距離による減衰との関係で記述する。反射による指表面での光の平均的な減衰は既知であるとすると、被写体の距離のみが未知数となる。これにより、被写体の距離が3つの波長について求められる。外光や計測誤差などの影響により3波長での距離計測の結果は異なるが、基本的には正解値の近辺となることが予想される。その誤差を平準化するために、得られた3つの距離値を平均化して最終結果とする。これにより、上述のような赤外光のみで推定した距離値に比べて誤差の影響が緩和されるため、より正確な距離計測を実現することが可能となる。
 図19は、第四の実施の形態である、スマートフォンあるいはタブレットにおける反射非接触生体認証装置の構成の一実施例である。スマートフォン360は、カラー液晶パネル361の上にインカメラ362と、その裏面にアウトカメラ363とを具備しており、アウトカメラ363の付近にはフラッシュ撮影に用いられるフラッシュ投光用白色光源364が搭載されている。インカメラ362およびアウトカメラ363は可視光を撮影できるカラーカメラであり、内部には赤外光を遮断する光学フィルタが搭載されている。また、フォーカス調整機能や露光調整機能も搭載されている。
 当該実施例における認証処理手順は基本的に上述の実施例2と同様である。実施例2との差異としては、反射光源が利用できない場合がある点と、カメラの感度特性や光源の波長スペクトルが事前に把握できない場合がある点である。ここでは、本実施例に特有の処理について詳述する。
 まず、被写体の撮影処理と距離計測、指の姿勢検知について述べる。被写体の距離計測、姿勢検知と生体特徴の抽出処理に関しては、上述の第三の実施例で示した方法と同様に、カラーカメラを用いて距離計測の精度を高める方法や、皮膚内部の複数の生体特徴を抽出する手法を用いることができる。また、事前に掌側の指の色を個別に登録しておき、その色を指領域の検出に活用することもできる。
 一方、フラッシュ用の白色光源が利用できるアウトカメラ363で生体を撮影する際、白色光源の発光スペクトルが事前に把握できる場合は生体の特徴量の計測におけるキャリブレーションや、距離計測における各波長成分の発光強度を把握することができるため、指領域の検知、距離計測、生体の特徴抽出などの精度を高めることが可能となる。
 またインカメラ362を用いる場合は、かざされる生体に液晶パネル361が向い合わせに位置するため、液晶パネルを生体撮影用の光源として利用しても良い。これにより、上述の実施例3にて示したRGBの可視光源を用いた装置と同様の方法で被写体の距離計測や生体計測が実現できる。また、液晶パネルは面状の発光を制御することが可能であるため、たとえばパネルの上半面のみを点灯して撮影し、次に下半面のみを点灯して撮影する、などの光源位置が任意に設定できる。発光している位置が既知であることから、本発明の構成においてはフォトメトリックステレオの技術によって被写体の立体形状を獲得することも可能となる。
 しかしながら、液晶パネルの光強度はLEDなどの発光素子に比べて一般的に弱く、被写体を十分な強度で照射できない可能性が考えられる。そのため、認証装置の周囲に分布する環境光を利用して撮影を実施する必要が生じる。この場合、環境光は光源の位置を特定することができないため、画像輝度値の強度による距離計測の実施は困難となる。また光のスペクトル分布も環境によって異なるため、色情報を使って静脈やメラニン、脂肪紋などの生体情報を獲得することが難しくなる。そこで、撮影された指画像をRGB各色プレーンの画像に分解し、それぞれの画像に対して平均輝度を求め、所定の閾値よりも暗い場合はその色プレーンの画像は利用せずに破棄し、十分に明るいと判定できる色プレーンの画像に対して、上述した通り静脈の強調フィルタや指関節の強調フィルタなどを施し、複数の生体特徴を獲得することができる。
 また、指の関節が検出できた場合は、その位置はヘモグロビンの色が濃く観測されていることから、指の関節とその周囲との色の差を取ることで、ヘモグロビンの色を抽出できる。このとき、事前に様々な環境光で一般的なヘモグロビンの色を観測しておき、RGB空間やHSV空間などの色空間情報として表現しておく。そして、現在の画像から把握できるヘモグロビンの色空間情報と、事前に用意した様々なヘモグロビンの色空間情報とを比較し、最も類似した色空間情報と紐付けられている環境光が現在の環境光のスペクトルであると推定できる。この手法で環境光を推定し、前述の指領域検出や生体計測に活用しても良い。
 また指の姿勢検知に関しては、上述の第二の実施例ではカメラに近接した位置から反射光が照射されていることを前提としたため指の位置を推定することができたが、本実施例で、特にインカメラ362を用いた撮影を実施する場合においては光源がないためその前提を利用することができない。そこで、指の姿勢検知の一実施例として、画像に映る手指の領域を色情報や画像のエッジ情報を用いて検出する手法を用いる。
 まず、学習データとして、距離情報と指の姿勢情報とが算出できる距離センサなどと共に、当該実施例のスマートフォンのカメラを用いて手指を撮影する。これにより、スマートフォンのカメラで撮影した画像に、距離情報と姿勢情報の正解値がラベル付けされる。このとき、手指の種類数や姿勢の種類数、画像枚数はできるだけ多く獲得しておく。次に、一般的な機械学習を用いて、スマートフォンの画像だけで手指の距離情報や姿勢情報を推定するためのパラメータ学習を実施する。たとえば、ある座標の画素の距離情報や姿勢情報を得るために、その画素値の肌色成分の強さと、近傍の画像エッジ量とを評価値に用いながら、ランダムフォレストに基づいて学習させる。そして、スマートフォンの画像を学習後のランダムフォレストに投入してトラバーサルし、画素ごとに背景領域と手指内部領域のいずれかへ分類し、さらには手指内であればそこが指先であるか、根元であるか、関節部分であるかなどを判定していく。また同時に距離値も推定する。距離値の推定結果はノイズなどの影響によって画素ごとにばらつきが生じるため、空間的に滑らかとなるように処理を施しても良い。
 このように、手の内部領域と背景領域とが分離できると、背景部分を黒塗りすることによって上述の第二の実施例で示したように距離計測を伴わない反射画像の輝度値に基づく指の姿勢検知の手法が適用できるようになる。よって、上述の第三の実施例で示した生体特徴の抽出手法を組合せることで認証処理が実現できる。
 図20は、本実施例におけるアウトカメラで手指を撮影するガイド方法の一実施例である。利用者は、装置を把持する側の手380でスマートフォンを持ち、もう一方の指1を撮影する。このとき、液晶パネル361には指輪郭ガイド381が描かれており、利用者はこのガイドに合せるように指を撮影する。システムは手指の姿勢情報をリアルタイムで計算し、許容範囲に入った時点で撮影を行い、この画像を元に生体特徴量を抽出して認証を行う。このとき、図のように指輪郭ガイド381に指の股の位置を明示すると、カメラと指との大まかな距離が合わせやすくなる。このような表示は本発明の任意の実施例に適用できる。
 もし位置ずれが生じている場合は、上述の実施例で示したように矢印などの視覚的な手段で位置ずれ方向をガイドしたり、あるいはスマートフォンに搭載されているスピーカやバイブレーション素子を利用して、音やバイブ機能により指のずれを知らせたりしても良い。特にカメラと生体の距離に関しては画面でのガイダンスは難しく、位置ずれが大きいほどバイブ機能の振動量を強くする、あるいはスピーカから発するガイド音の音量を大きくするなどしてガイドすると直感的に位置合わせが実施できる。
 図21は、片手操作で実施できるアウトカメラで手指を撮影するガイド方法の一実施例である。利用者は図のように片手でスマートフォンを持ち、まずシステムがアウトカメラ363を指先で塞ぐように指示する。利用者は指1でアウトカメラ363を塞ぐ。認証システムがこれを検知すると、続いて画面に指輪郭ガイド381を表示し、指が遠くで映るように指を反らす旨を指示する。利用者は、図21に示すようにスマートフォン360を握りながらガイダンスに従って指をアウトカメラ363から離して反らす。
 このとき、液晶パネル361に示されるように指1は傾斜した状態で映る。この状態を検知すると、システムは撮影処理、認証処理を実施する。このガイド方法を適用することで、片手でも指の位置合わせが容易に実施でき、スマートフォンでの本発明に記載の生体認証を実現することができる。
 また、指1を反らした状態のまま、スマートフォン360を軽く振ってもらう操作を誘導しても良い。このとき、連続画像を撮影していると、かざした指1はそのまま同じ位置で観測されるが、映像中に映り込む不要な背景400は降る動作に合せて移動する。そのため、移動の有無を画素ごとに判定し、移動しなかった領域を指領域、それ以外を背景領域とみなすことで、指の領域検出を実施することができる。この方法によると、簡単な画像処理によって指領域を正確に検出できるようになり、認証精度を向上することが可能となる。
 図22は、インカメラを利用した場合のガイド方法の一実施例である。インカメラは多くの場合で顔を撮影しやすく設定されていることが多く、液晶パネル付近の指を撮影することは困難である。この場合は指を空中に離してかざすことになるが、液晶画面が指に隠されてしまうため確認しにくい。そこで、指を液晶パネルの所定の位置に置き、その後空中に指を移動するようにガイダンスする。
 まず、認証を開始すると、図22(a)に示されるように画面に指を設置する旨のガイダンス420と指を置くための指位置ガイド421が表示される。本実施例では指を置く向きが左斜め上の方向としているが、利き手に合せて向きを変えても良く、また真横の方向にかざしても良い。続いて利用者はここに指を合せて置く。液晶パネル361はタッチパネルになっているため、指定した位置に指が置かれたことを検知すると、次に図22(b)のように、指を中空に浮かせる旨のガイダンス422が表示される。このとき、指が左斜め上に置かれているため、ガイダンスが見えやすいように指を中空に浮かせる旨のガイダンス422は画面左下に表示する。ただし、画面が手指で覆われている可能性もあることから、音声によるガイダンスを併用しても良い。利用者はこれに合せて手指を中空に移動する。すると、図22(c)のように手指がカメラの画角に入り込む。これをシステムが検知すると撮影が実施される。
 はじめに指を設置するガイド421の位置は、指が画角に入りやすい位置に誘導する効果を持つ。また、複数指を撮影したい場合はこのガイド421を複数指の指輪郭としても良い。このとき、指を適切な角度に開かせるように誘導すると、複数の指を同時に撮影しやすくなる効果が得られる。このようなガイド方法により、インカメラを用いた場合でも上記実施例の認証処理が実現できる。
 その他のガイダンス方法としては、インカメラもしくはインカメラ付近の液晶パネルを指先で軽くタップを繰り返すように誘導し、タッピングをタッチパネルあるいはインカメラの明るさの変動によって検知する。このとき連続フレームで撮影を行い、指の距離が適切であることを指輪郭の幅の計測などに基づく距離計測手段によって検出し、適切な距離に撮影された指画像から、生体の特徴抽出を行って認証を実施することもできる。
 このようなタッピングに基づく誘導方法は、比較的簡単な操作である上に指の位置を容易に誘導できること、中空で手指を静止する必要がないため位置合わせが容易になること、そして、生体とカメラとの距離が常に変化するため撮影に適した距離に生体が到達するタイミングが存在し、適切なフォーカスで生体を撮影できること、などの効果がある。
 なお、本実施例で示したスマートフォンは、現時点で一般的に普及しているインカメラ、アウトカメラが搭載された場合について言及している。もし液晶パネル付近にある指を映すことができるカメラ、赤外カメラ、マルチスペクトルカメラ、距離カメラなどがスマートフォンもしくはタブレットに搭載されているのであれば、それらのカメラを活用して上述の実施例の通りに距離計測、手指の姿勢検出処理、認証処理を実施しても良いことは言うまでもない。また、本実施例はスマートフォンに限定されることなく、タブレットや携帯型ゲーム機であっても同様に実施することができる。
 また、空中での位置合わせが困難な利用者に向けて、カメラから一定の距離を保って指を載置できる指置き台を有し、スマートフォンもしくはタブレットにはめ込むことのできる台座を用いて認証しても良い。たとえば行政サービス窓口あるいは銀行窓口などにおいては、一般利用客が簡単に操作できる端末として据え置き型のタブレットを設置することがある。この場合は特に可搬性は問題とならないことから、前述の台座とタブレットとを組み合わせて設置することにより、専用の認証装置を不要としながらもさらに簡単な操作で認証を実施することが可能となる。
 図23は、上述の第一から第三の実施例で示した認証装置をビデオゲームに応用した実施例を示している。
 図23(a)は、テレビ440の上部にプレイヤーの身体の姿勢を検知してゲームを操作するためのモーションキャプチャ装置441が設置され、この中に認証用の入力装置2が具備されている。これによって利用者の手指1を映し、認証を実施する。利用者はモーションキャプチャ装置441あるいは別途用意されているゲームコントローラなどを用いてゲームを操作するが、その中で入力装置2は利用者の手指を検知し認証を実施する。認証の際はテレビ440にガイダンスを表示しても良く、あるいはスピーカなどを用いて音声ガイドすることも可能である。
 図23(b)はテレビゲームのコントローラ442に入力装置2が搭載されている実施例である。利用者はコントローラ442を握ってゲーム操作を行うが、そこに認証用の入力装置2が組み込まれており、上述のようなゲームコントロールやアイテムへの課金の決済に利用することができる。
 図23(c)は可搬型ゲーム機に搭載した一実施例である。可搬型ゲーム機443の中央部分に認証用の入力装置2が具備されている。認証方法は上述の実施例4で示したスマートフォンへの搭載の例と同様である。
 上述の各ゲーム機においては、次に示す認証アプリケーションを実施することができる。まず、ゲームを実施する際のユーザを識別してセーブデータを自動で読み出したり、ゲーム機あるいはネットワーク上のコンテンツに対するアクセスコントロールを実施したり、ゲームのプレイ時間を管理し制限したりすることが簡単にできるようになる。また、認証の結果に応じてゲームキャラクターの各種パラメータを変化させたり、有料アイテムなどの課金を自動決済したりすることができる。特に、登録データと入力データとの類似度に応じてゲームキャラクターの特性をコントロールする、たとえばキャラクターの移動速度を速くしたり、攻撃力を強くしたりすることも可能であり、ゲームコントロールの一インターフェイスとしても利用できる。
 また、複数の指を登録しておき、認証の際には指を1つだけ提示すると、提示した指の種類に応じて機能を分けることが可能となる。たとえばアクションRPGゲームであれば、人差し指を提示すると打撃系の攻撃、中指を提示すると魔法による攻撃、薬指であれば魔法による体力の回復、などである。現状ではこのような動作の切り替えはメニュー画面で選ばせたり、複数の入力キーを用いて複雑なコマンドを入力したりしていたが、本実施例によりこれらの操作を簡単化することができる。また提示する指の中心軸に沿った指の外周の生体情報を個別に登録しておくと、指を入力装置に提示して指を軸中心にローリングさせることで、それぞれ提示したローリング角度に対応した登録データとマッチングさせることができる。これによると、マッチングした登録データに応じて指のローリング角度が検出できることになるため、この操作をゲームへのインターフェイスとして活用できる。たとえば、レースゲームにおけるエンジンの回転数を指のローリング角度に応じてアナログ的に変化させるなどが実現できる。
 図24は、歩きながら手指をかざすだけで認証が可能なウォークスルーゲートに本発明の認証装置を適用した一実施例である。
 利用者は、認証ゲート460に近づく際に図のように指1を入力装置2に近づける。入力装置2は連続的に映像を撮影し、手指の姿勢を検知しながら認証を高速に実施する。認証が成功すると、フラッパー461が開き、利用者が通行できるようになる。指のガイドは液晶画面462あるいはスピーカ463によって実施できる。液晶画面462には、指のガイドだけではなく、認証結果やゲート時に実施される課金の結果などを表示することもできる。
 登録は、この認証ゲート460で実施してゲート内部にCPUとメモリとを搭載して登録データを保存しておいても良く、また入力装置2が搭載されている登録端末を別の場所に設置し、登録データをネットワーク経由で認証ゲート460に転送しても良い。また登録データは別途設置されるサーバなどに保存しても良い。また、認証は認証ゲート内部で実施しても良く、サーバに画像を転送し、サーバ上で実施しても良い。また、認証ゲート460に無線通信用の機器を搭載し、利用者はゲート通過時に無線ICタグなどを携帯し、無線ICタグ内に保存されている登録データを認証ゲート460に転送した上で認証を実施しても良い。
 本実施例の構成によると、反射非接触の認証装置であるため歩きながらラフにかざしても認証することができ、ゲートのスループットを向上することができる。また、上述の実施例における光源の点滅の差分画像に基づく手法と露光調整機能を適用することで屋外でも撮影が実施でき、装置の適用範囲を広げることができる。
 なお、大規模施設の入場ゲートなど、比較的大きな装置の設置が許容される場合や、重要管理施設などにおいてセキュリティを厳重に管理する場合などは、本発明の反射光方式の認証装置に加え、一般的な透過光方式の装置を組み合わせた、ハイブリッドな認証装置としても良い。
 図25に透過・反射両方式の装置構成の一実施例を示す。図25(a)は、ゲート用認証装置480に透過光源481が垂直に配置されている構成である。利用者が図面右側から指1をかざすと、透過光源481と反射光源482とが同時に光を照射する。透過光源481は赤外光を、反射光源482は緑と赤の可視光を照射する。ここでは緑と赤と赤外の波長をそれぞれ550nm、620nm、850nmとする。撮像装置9は赤外感度のあるRGBカラーカメラであり、透過と反射の光を同時に受光する。このとき、カメラの分光感度特性により、上記3つの波長による輝度成分は以下のように記述できる。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 なお、記号の定義は実施例1の式1~式3に示したものと同じである。この連立方程式を解くことにより、反射光成分のI550とI620、そして透過光成分のI850を獲得でき、それぞれの画像で認証を実施することができる。なお、透過光と反射光とを別途撮影できるようにカメラをそれぞれ1台ずつ搭載しても良く、また時分割で照射する光源を切り替えても良いが、前者はコストが増加し、後者はフレームレートが低下するという課題がある。そのため本実施例で示したように異なる波長の光を1台のカメラで同時に撮影して分離処理を行う方法の方が、低コストかつ高速に撮影できる。またこの実施例では手指をかざす場所が開放的であるため、初めての利用者でも簡単に操作することが可能となる。
 また図25(b)は手指を装置内の空間に提示する方式である。指1を赤外光源481と撮像装置9の間に入れ、上方から透過光を、下方から反射光を照射することで、透過画像と反射画像とを撮影できる。手指は図面右から左に向けて挿入しても良いが、図面下段に示すように装置側面から手指を移動させて入れても良い。このとき装置側面は手指の移動の妨げにならないように開放されている。また、入力する側面側に複数のフォトセンサ483が、お互いが僅かにずれた位置に設置されている。このフォトセンサは手指が真下を通過した際に反応するようになっており、図示する4つのセンサの反応時間のタイミングのずれとセンサ間の距離より、手指の移動速度や指の角度などをセンシングできる。これを受けて、手指がカメラの中央を通過する時間を瞬時に予測し、撮像装置9は撮影に適したタイミングで手指を撮影する。そのとき、手指の移動による画像のぶれが生じないように露光時間を極めて短く取り、また光量もそれに合せて極めて強く短時間で照射する。この手法により、手指を高速に通過させるだけで瞬時に認証させることが可能となる。
 本実施例のいずれの方式においても、透過光と反射光の両方の生体特徴を獲得できるため精度向上と偽造耐性の向上とが期待できる。また、透過光では鮮明な指静脈を、反射光では透過光が照射できない位置に生体がかざされた場合でも安定して認証を実現することができ、利用者が認証装置を更に簡単に利用できるようになる効果も得られる。
 図26は、マウスに本発明の認証装置を適用した一実施例である。マウス500には左ボタン501と右ボタン502が、また中央部にホイール503が搭載されている。そして上述した認証用の入力装置2がホイール503の近辺に、マウス500の中央部に設置されている。マウス500はその形状が手指の形に合せて曲線となっており、指先側からマウス中央部までの傾斜と、マウス中央部から掌側までの傾斜の傾きが逆になっている。マウス500を握っているときは指1と入力装置2との距離が近くなっているが、マウスの傾斜の関係性によって指1を図のように真っ直ぐ伸ばすと撮影に必要なカメラとの撮影距離が容易に得られ、十分な範囲を撮影することが可能となる。なお、図では人差し指を伸ばしているが、中指その他の指を伸ばすことでそれらの指が撮影できることは言うまでもない。また入力装置2はマウスの左ボタン501もしくは右ボタン502に搭載しても良い。
 この指を伸ばす操作はマウスを握ったまま簡単にできるため、PCを操作するときの様々な状況、たとえばPCログイン時の本人確認、ネット決済での本人確認、アプリケーションソフトごとのユーザアクセス権の確認などにおいて、ユーザの利便性を損なうことなく自然なPCの操作の中で実現できる。
 なお、上述したすべての認証装置は手指を例に記載したが、生体の皮膚であればいずれの場所でもよく、たとえば顔、耳、掌、手の甲、手首、腕、首、足など任意の場所に適用することができる。この場合は、それぞれの部位に応じて最適な姿勢検知処理が必要となるが、教師データを大量に収集した上で機械学習を行う手法などによって実現できることは言うまでもない。
1・・・指、2・・・入力装置、3・・・光源、9・・・カメラ、10・・・認証処理部
、11・・・中央処理部、12・・・メモリ、13・・・インターフェイス、14・・・記憶装置、15・・・表示部、16・・・入力部、17・・・スピーカ、18・・・画像入力部、21・・・装置筺体、31・・・赤外光源、32・・・可視光源、33・・・バンドパスフィルタ、61・・・赤外光の反射画像、62・・・指静脈、63・・・緑光の反射画像、64・・・指紋、65・・・関節しわ、66・・・脂肪紋、100・・・距離画像、101・・・投影輝度分布、102・・・指の関心領域、103・・・重み係数、104・・・投影分布の最大値、120・・・指輪郭、121・・・指の中心線、122・・・指先、140・・・法線ベクトル、150・・・関節、151・・・関節の推定位置、152・・・指の節の中心軸、160・・・指の断面、161・・・楕円、162・・・楕円の長径、163・・・注目画素、180・・・指輪郭ガイド、181・・・ガイドメッセージ、182・・・指移動指示矢印、183・・・カメラ距離指示アイコン、184・・・回転指示アイコン、200・・・反射画像、201・・・切り出し画像、220・・・指先ガイドマーク、221・・・指根元ガイドマーク、240・・・人差し指、300・・・指の切り出し画像、301・・・平均輝度投影分布、302・・・平面板の平均輝度投影分布、303・・・指の推定ピッチ直線、320・・・遮光板、321・・・光が届かない領域、340・・・カラーカメラ、341・・・可視光源、342・・・ローパスフィルタ、360・・・スマートフォン、361・・・カラー液晶パネル、362・・・インカメラ、363・・・アウトカメラ、364・・・フラッシュ投光用白色光源、380・・・装置を把持する側の手、381・・・指輪郭ガイド、400・・・不要な背景、420・・・指設置ガイダンス、421・・・指位置ガイド、422・・・指浮かせガイダンス、440・・・テレビ、441・・・モーションキャプチャ装置、442・・・コントローラ、443・・・可搬型ゲーム機、460・・・認証ゲート、461・・・フラッパー、462・・・液晶画面、463・・・スピーカ、480・・・ゲート用認証装置、481・・・透過光源、482・・・反射光源、483・・・フォトセンサ、500・・・マウス、501・・・左ボタン、502・・・右ボタン、503・・・ホイール

Claims (10)

  1.  生体に関する特徴情報を保持する記憶部と、
     前記生体の距離及び/又は前記生体の姿勢の修正を指示する指示部と、
     前記生体に光を照射する光源と、
     前記生体で反射された光を撮影する撮像部と、
     前記撮像部によって撮像された画像から前記生体との距離及び/又は前記生体の姿勢を判断する判断部と、
     前記判断に基づき前記生体との距離及び/又は前記生体の姿勢の修正指示を前記指示部に対して行う状態制御部と、
     前記画像から前記特徴情報を抽出する特徴抽出部と、
     前記抽出された特徴情報と、前記記憶部に格納された特徴情報との類似度を比較する照合部と、
    を備えることを特徴とする認証装置。
  2.  請求項1に記載の認証装置において、
     前記状態制御部は、前記光源が照射する光量と前記撮像部で受光した光量とから、前記生体との距離及び/又は前記生体の姿勢の修正指示を前記指示部に対して行うことを特徴とする認証装置。
  3.  請求項2に記載の認証装置において、
     前記状態制御部は、画像の任意の位置にある距離を1とした相対的な距離分布を求めることで前記生体の姿勢の修正指示を前記指示部に対して行うことを特徴とする認証装置。
  4.  請求項1乃至3のいずれか一項に記載の認証装置において、
     前記画像から不要情報を除去する不要情報除去部を備えることを特徴とする認証装置。
  5.  請求項4に記載の認証装置において、
     前記不要情報除去部は、前記光源を点灯して撮像した画像と消灯して撮像した画像とを比較することで前記不要情報を除去することを特徴とする認証装置。
  6.  請求項4に記載の認証装置において、
     前記光源は複数あり、当該複数の光源はそれぞれ異なる周波数の光を照射し、
     前記不要情報除去部は、それぞれ異なる周波数により撮像された画像とを比較することで前記不要情報を除去することを特徴とする認証装置。
  7.  請求項5又は6に記載の認証装置において、
     前記判断部と、前記状態制御部と、前記特徴抽出部と、前記照合部と、前記不要情報除去部は、1つの処理装置で実行することを特徴とする認証装置。
  8.  請求項7に記載の認証装置において、
     前記指示部は、画像により前記生体の距離及び/又は前記生体の姿勢の修正を指示する表示部又は、音により前記生体の距離及び/又は前記生体の姿勢の修正を指示する音発生部であることを特徴とする認証装置。
  9.  請求項8に記載の認証装置において、
     前記特徴情報は、皮下組織の脂肪、もしくは指紋、もしくは静脈、もしくは指関節、もしくは指輪郭、に関する情報であることを特徴とする認証装置。
  10.  前記生体に光を照射する照射ステップと、
     前記生体で反射された光を撮影する撮像ステップと、
     前記撮像ステップによって撮像された画像から前記生体との距離及び/又は前記生体の姿勢を判断する判断ステップと、
     前記判断に基づき前記生体との距離及び/又は前記生体の姿勢の修正指示を認証装置のユーザに指示するステップと、
     前記画像から特徴情報を抽出する特徴抽出ステップと、
     前記抽出された特徴情報と、予め保持していた特徴情報との類似度を比較する照合ステップと、
    を備えることを特徴とする認証方法。
PCT/JP2016/082252 2015-11-10 2016-10-31 生体情報を用いた認証装置及び認証方法 WO2017082100A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201680051560.7A CN107949863B (zh) 2015-11-10 2016-10-31 使用生物体信息的认证装置以及认证方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-220027 2015-11-10
JP2015220027A JP6523925B2 (ja) 2015-11-10 2015-11-10 生体情報を用いた認証装置及び認証方法

Publications (1)

Publication Number Publication Date
WO2017082100A1 true WO2017082100A1 (ja) 2017-05-18

Family

ID=58695250

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/082252 WO2017082100A1 (ja) 2015-11-10 2016-10-31 生体情報を用いた認証装置及び認証方法

Country Status (3)

Country Link
JP (1) JP6523925B2 (ja)
CN (1) CN107949863B (ja)
WO (1) WO2017082100A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341900A (zh) * 2017-07-04 2017-11-10 广州市银科电子有限公司 一种基于红外油墨标志智能识别的票据防伪鉴别方法
JP2018195267A (ja) * 2017-05-22 2018-12-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN110533010A (zh) * 2019-10-10 2019-12-03 中国计量大学 自适应光源手指静脉图像采集系统
US20210245710A1 (en) * 2018-02-13 2021-08-12 Nanjing Easthouse Electrical Co., Ltd. Infrared biometrics information collection device and door locks having the same
EP3989182A3 (en) * 2020-10-21 2022-08-03 Hitachi, Ltd. Biometric authentication device and biometric authentication method
US11450140B2 (en) 2016-08-12 2022-09-20 3M Innovative Properties Company Independently processing plurality of regions of interest
US20220300593A1 (en) * 2021-03-16 2022-09-22 Silk Id Systems Inc. System and method of biometric identification of a subject
WO2022219929A1 (ja) * 2021-04-13 2022-10-20 ソニーグループ株式会社 認証システム、認証装置、および認証方法
EP4071702A4 (en) * 2019-12-04 2024-01-03 Hitachi Ltd PHOTOGRAPHIC DEVICE AND AUTHENTICATION DEVICE

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109716348B (zh) * 2016-08-12 2024-05-28 3M创新有限公司 独立地处理多个所关注的区域
JP6945391B2 (ja) * 2017-08-25 2021-10-06 株式会社熊平製作所 生体認証装置
KR102459853B1 (ko) * 2017-11-23 2022-10-27 삼성전자주식회사 디스패리티 추정 장치 및 방법
JP6846330B2 (ja) * 2017-11-27 2021-03-24 株式会社日立製作所 生体認証装置および生体認証システム
JP7002348B2 (ja) * 2018-01-22 2022-02-10 株式会社 日立産業制御ソリューションズ 生体認証装置
JP7184538B2 (ja) * 2018-05-24 2022-12-06 株式会社日立製作所 血管画像撮影装置および個人認証システム
WO2019230306A1 (ja) * 2018-05-30 2019-12-05 パナソニックIpマネジメント株式会社 識別装置および識別方法
JP7015216B2 (ja) * 2018-06-25 2022-02-02 株式会社日立製作所 生体認証プログラム、生体認証方法
WO2020047717A1 (zh) * 2018-09-03 2020-03-12 深圳市汇顶科技股份有限公司 多光源指纹图像增强与合成的方法及相关指纹传感器
JP7269711B2 (ja) 2018-10-03 2023-05-09 株式会社日立製作所 生体認証システム、生体認証方法およびプログラム
US10678342B2 (en) * 2018-10-21 2020-06-09 XRSpace CO., LTD. Method of virtual user interface interaction based on gesture recognition and related device
JP2020123068A (ja) * 2019-01-29 2020-08-13 株式会社 日立産業制御ソリューションズ 生体認証装置、生体認証方法およびコンピュータプログラム
JP7079742B2 (ja) * 2019-02-08 2022-06-02 株式会社日立製作所 計算機システム
JP6887167B2 (ja) * 2019-04-01 2021-06-16 株式会社マーケットヴィジョン 画像処理システム
CN112037399B (zh) * 2019-05-17 2023-04-07 杭州海康威视数字技术股份有限公司 一种闸机通行指示的控制方法、闸机设备及系统
CN111723630B (zh) * 2019-05-28 2023-11-14 电装智能科技(上海)有限公司 指静脉认证装置、指静脉认证系统及其认证方法
CN112348899A (zh) * 2019-08-07 2021-02-09 虹软科技股份有限公司 标定参数的获取方法、装置、处理器及电子设备
CN111160253A (zh) * 2019-12-30 2020-05-15 业成科技(成都)有限公司 生物识别模组、可穿戴设备及移动终端
JP7279857B2 (ja) 2020-05-21 2023-05-23 富士通株式会社 認証方法、認証プログラム及び認証装置
CN114468994B (zh) * 2021-02-11 2023-02-28 先阳科技有限公司 组织成分测量方法、装置及可穿戴设备
JP7470069B2 (ja) 2021-02-17 2024-04-17 株式会社日立製作所 指示物体検出装置、指示物体検出方法及び指示物体検出システム
TWI821096B (zh) * 2023-01-03 2023-11-01 大陸商北京集創北方科技股份有限公司 指紋識別方法、指紋識別裝置、以及資訊處理裝置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259817A (ja) * 1999-03-08 2000-09-22 Oki Electric Ind Co Ltd アイリス認識装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2009301333A (ja) * 2008-06-13 2009-12-24 Olympus Corp 撮像装置及び個人認証装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012143977A1 (ja) * 2011-04-22 2012-10-26 株式会社日立製作所 血管画像撮影装置及び生体認証装置
JP2015001843A (ja) * 2013-06-17 2015-01-05 日立オムロンターミナルソリューションズ株式会社 生体認証装置
CN104102913B (zh) * 2014-07-15 2018-10-16 无锡优辰电子信息科技有限公司 腕部静脉认证系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259817A (ja) * 1999-03-08 2000-09-22 Oki Electric Ind Co Ltd アイリス認識装置
WO2007141860A1 (ja) * 2006-06-08 2007-12-13 Fujitsu Limited 誘導装置および方法
JP2009301333A (ja) * 2008-06-13 2009-12-24 Olympus Corp 撮像装置及び個人認証装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11450140B2 (en) 2016-08-12 2022-09-20 3M Innovative Properties Company Independently processing plurality of regions of interest
JP2018195267A (ja) * 2017-05-22 2018-12-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN107341900A (zh) * 2017-07-04 2017-11-10 广州市银科电子有限公司 一种基于红外油墨标志智能识别的票据防伪鉴别方法
US20210245710A1 (en) * 2018-02-13 2021-08-12 Nanjing Easthouse Electrical Co., Ltd. Infrared biometrics information collection device and door locks having the same
US11565657B2 (en) * 2018-02-13 2023-01-31 Nanjing Easthouse Electrical Co., Ltd. Infrared biometrics information collection device and door locks having the same
CN110533010A (zh) * 2019-10-10 2019-12-03 中国计量大学 自适应光源手指静脉图像采集系统
EP4071702A4 (en) * 2019-12-04 2024-01-03 Hitachi Ltd PHOTOGRAPHIC DEVICE AND AUTHENTICATION DEVICE
US11928889B2 (en) 2019-12-04 2024-03-12 Hitachi, Ltd. Photographing apparatus and authentication apparatus
EP3989182A3 (en) * 2020-10-21 2022-08-03 Hitachi, Ltd. Biometric authentication device and biometric authentication method
US11837029B2 (en) 2020-10-21 2023-12-05 Hitachi, Ltd. Biometric authentication device and biometric authentication method
US20220300593A1 (en) * 2021-03-16 2022-09-22 Silk Id Systems Inc. System and method of biometric identification of a subject
WO2022219929A1 (ja) * 2021-04-13 2022-10-20 ソニーグループ株式会社 認証システム、認証装置、および認証方法

Also Published As

Publication number Publication date
JP2017091186A (ja) 2017-05-25
JP6523925B2 (ja) 2019-06-05
CN107949863B (zh) 2022-01-18
CN107949863A (zh) 2018-04-20

Similar Documents

Publication Publication Date Title
WO2017082100A1 (ja) 生体情報を用いた認証装置及び認証方法
US20220165087A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6165540B2 (ja) 血管画像撮影装置及び端末
JP6353927B2 (ja) 血管画像撮影装置および個人認証システム
US8855376B2 (en) Finger vein authentication device
JP6005750B2 (ja) 認証装置、及び認証方法
WO2020108225A1 (zh) 指纹采集方法及相关装置
JP7269711B2 (ja) 生体認証システム、生体認証方法およびプログラム
JPWO2009004916A1 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
GB2598016A (en) Biometric authentication apparatus and biometric authentication method
JP2012248079A (ja) 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム
CN114387629A (zh) 生物体认证装置及生物体认证方法
JP5796523B2 (ja) 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム
JP2009211357A (ja) バイオメトリクス認証情報登録方法および装置ならびにバイオメトリクス認証方法および装置
WO2022180890A1 (ja) 生体認証システム、認証端末、および認証方法
JP2018081469A (ja) 血管画像撮影装置および個人認証システム
JP6759142B2 (ja) 生体認証装置、及び方法
WO2023210081A1 (ja) 生体認証システムおよび認証方法
JP2018101285A (ja) 生体画像処理装置、生体画像処理方法および生体画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16864063

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16864063

Country of ref document: EP

Kind code of ref document: A1