WO2008047935A1 - Procédé d'identification, dispositif d'enregistrement, dispositif et programme de collation de modèles - Google Patents

Procédé d'identification, dispositif d'enregistrement, dispositif et programme de collation de modèles Download PDF

Info

Publication number
WO2008047935A1
WO2008047935A1 PCT/JP2007/070511 JP2007070511W WO2008047935A1 WO 2008047935 A1 WO2008047935 A1 WO 2008047935A1 JP 2007070511 W JP2007070511 W JP 2007070511W WO 2008047935 A1 WO2008047935 A1 WO 2008047935A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
center
distribution
blood vessel
biological
Prior art date
Application number
PCT/JP2007/070511
Other languages
English (en)
French (fr)
Inventor
Hiroshi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US12/445,519 priority Critical patent/US20100008546A1/en
Priority to EP07830245A priority patent/EP2075760A1/en
Publication of WO2008047935A1 publication Critical patent/WO2008047935A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to a pattern identification method, a registration device, a verification device, and a program, and is suitable for application to biometric authentication.
  • blood vessels are one of the targets for biometric authentication.
  • this authentication device registers a blood vessel image of a registrant as registration data, and according to the degree of coincidence between the registration data and the verification data input as a verification target for the registration data, It is designed to determine whether or not you are the registrant.
  • Non-Patent Literature 1 Tsutomu Matsumoto, “Biometric Authentication in Financial Transactions”, [online], 2000 April 15, 2015, FSA ⁇ Study Group on the 9th Counterfeit Cash Card Problem, [2 0 0 Searched on August 2, 1st 6th], Yin Yut-Not ⁇ URL: http ; //www.fsa. Go.jp/singi/singi_fccsg/gaiyou/i-2005 0415-singi_fccsg / 02.pai.
  • the pseudo blood vessel pattern does not match the registrant's blood vessel pattern completely, including the coordinate position, it is determined that the user is the registrant even if the anti-spoofing measures described above are applied. In other words, spoofing is possible, and as a result, authentication accuracy is obtained.
  • the present invention has been made in consideration of the above points, and intends to propose a pattern identification method, a registration device, a verification device, and a program that can improve the accuracy of authentication.
  • the present invention is a pattern identification method, wherein two or more shape values representing a pattern shape are calculated for each biological pattern obtained from a plurality of biological samples, and the two or more shape values are calculated. Calculate the center of the distribution and a value that represents the extent of the spread from the center, and obtain two or more shape values and two or more shape values of the pattern obtained from the matching target to be registered or registered against The distance from the center of the distribution was calculated using a value representing the extent of the spread from the center, and the pattern was discarded when the distance was greater than a predetermined threshold.
  • the pattern obtained from the registration target or the matching target to be registered with the registered data is selected from among the dimension distributions corresponding to a plurality of viewpoints (pattern shape values) for each biological pattern. Or however, it is possible to grasp whether the position belongs to the range from the center of the distribution to the boundary (threshold value) to be a biological pattern.
  • the pattern identification method even if the pattern obtained from the registration target or the verification target to be verified against the registration target is a pattern that is pseudo with respect to the biological pattern, the pattern is the biological pattern. However, the probability of being eliminated in advance without registering or collating is significantly higher.
  • the present invention is a registration device, and for each biological pattern obtained from a plurality of biological samples, a center of a distribution of two or more shape values representing a pattern shape, and a value representing a degree of spread from the center, Means for calculating the distance between the two or more shape values of the pattern obtained from the registration target and the center of the distribution of the two or more shape values stored in the storage means using the values.
  • the registration device for each biological pattern, among the dimensional distributions corresponding to a plurality of viewpoints (pattern shape values), the pattern obtained from the registration target is located and the position of the distribution is It is possible to grasp whether it belongs to the range from the center to the boundary (threshold) that should be a biological pattern.
  • this registration device even if the pattern obtained from the registration target is a pattern that is pseudo with respect to the biological pattern, it is assumed that the pattern is not a biological pattern and is registered in advance without registration. The probability of being eliminated is significantly higher.
  • the present invention is a collation device, and for each biological pattern obtained from a plurality of biological samples, a value indicating the center of the distribution of two or more shape values representing the pattern shape and the extent of spread from the center.
  • Memories that are remembered A calculation means for calculating the distance between the step and two or more shape values of the pattern obtained from the registration target and the center of the distribution of the two or more shape values stored in the storage means, using the value, and the distance
  • the pattern is discarded when the value is larger than a predetermined threshold value, and when the distance is within the threshold value, a verification unit for comparing the registered data registered in the storage medium with the pattern is provided.
  • the pattern obtained from the collation target is located in the dimensional distribution corresponding to a plurality of viewpoints (pattern shape values) for each biological pattern, and the position of the distribution is determined by the distribution pattern. It is possible to grasp whether it belongs to the range from the center to the boundary (threshold) that should be a biological pattern.
  • the pattern obtained from the verification target is a pattern that is pseudo to the biological pattern
  • the pattern is excluded in advance without verification as a pattern that is not a biological pattern. The probability of being able to do so becomes much higher.
  • the present invention is a program, and for each biological pattern obtained from a plurality of biological samples, there are a distribution center of two or more shape values representing a pattern shape and a value representing a degree of spread from the center. For the stored computer evening, use the value to calculate the distance between the two or more shape values of the pattern obtained from the registration target and the center of the distribution of the two or more shape values stored in the storage means.
  • the pattern obtained from the target to be registered or the target to be verified is registered in the dimension distribution corresponding to multiple viewpoints (pattern shape values) for each biological pattern. Or that It is possible to grasp whether the position belongs to the range from the center of the distribution to the boundary (threshold) that should be a biological pattern.
  • the pattern obtained from the verification target to be registered or registered with the registered data is a pattern that is pseudo to the biological pattern, the pattern is not a biological pattern. As a result, the probability of being eliminated in advance without registration or verification is significantly increased.
  • a pattern obtained from a collation target that is collated with a registration target or a registration data is positioned in a dimensional distribution corresponding to a plurality of viewpoints (pattern shape values) for each biological pattern. And whether the position belongs to the range from the center of the distribution to the boundary (threshold value) that should be a biometric pattern. Is not a biometric pattern, the probability that it can be eliminated in advance without registration or verification can be significantly improved, and thus the registration apparatus, verification apparatus, extraction method and The program can be realized.
  • FIG. 1 is a block diagram showing the configuration of the data generator according to this embodiment.
  • FIG. 2 is a functional block diagram showing the processing contents of the image processing in the control unit.
  • FIG. 3 is a schematic diagram showing images before and after pre-processing.
  • Figure 4 is a schematic diagram used to explain the appearance patterns of end points, branch points, and isolated points.
  • FIG. 5 is a schematic diagram for explaining the tracking of a blood vessel line between a branch point and a branch point or an end point.
  • FIG. 6 is a schematic diagram for explaining the tracking of blood vessel pixels.
  • FIG. 7 is a schematic diagram showing the appearance pattern of points on a straight line and bending points.
  • FIG. 8 is a schematic diagram for explaining the detection of the bending point.
  • FIG. 9 is a schematic diagram for explaining the determination of the overlapping ratio of line segment pixels with respect to original blood vessel pixels. '
  • FIG. 10 is a flowchart showing the deletion processing procedure.
  • Figure 11 is a schematic diagram showing the inflection point before and after deletion.
  • FIG. 12 is a schematic diagram for explaining the connection of partial blood vessel lines (three branches).
  • FIG. 13 is a schematic diagram for explaining the connection of partial blood vessel lines' (four branches).
  • Fig. 14 is a schematic diagram showing the feature points obtained by the feature point extraction process.
  • FIG. 15 is a schematic diagram showing a blood vessel pattern and a pseudo blood vessel pattern.
  • Fig. 16 is a schematic diagram for explaining the calculation of the angle between a line segment and the horizontal axis passing through the end point of the line segment. '
  • FIG. 17 is a schematic diagram showing the angular distribution of the blood vessel pattern.
  • FIG. 18 is a schematic diagram showing the angular distribution of the pseudo blood vessel pattern.
  • Fig. 19 is a schematic diagram used to explain the length of a line segment that approximates a straight line.
  • FIG. 20 is a schematic diagram showing the distribution of discrimination indicators.
  • Figure 21 is a schematic diagram showing the distribution of the discrimination index in the 1C plane.
  • Figure 22 is a flowchart of the data generation processing procedure.
  • FIG. 23 is a block diagram showing the configuration of the authentication device according to the present embodiment.
  • FIG. 24 is a schematic diagram showing the discrimination processing procedure (1).
  • FIG. 25 is a schematic diagram showing the discrimination processing procedure (2). BEST MODE FOR CARRYING OUT THE INVENTION
  • the authentication system includes a data generation device and an authentication device. Consists of.
  • This data generation device generates data representing a range to be determined as a blood vessel pattern (hereinafter referred to as blood vessel pattern range data), and writes this into the internal memory of the authentication device.
  • This authentication device is equipped with a function for determining whether or not the pattern of the image obtained as the imaging result of the subject is a pseudo blood vessel pattern based on the blood vessel pattern range data.
  • FIG. 1 shows the configuration of this data generator.
  • This data generation device 1 is connected to the control unit 10 with an operation unit 1 1, an image pickup unit 1 2, a flash memory 1 3, and an interface that exchanges data with the outside (hereinafter referred to as an external interface). It is configured by connecting 1 and 4 via buses 15 respectively.
  • the control unit 10 includes a CPU (Central Processing Unit) that controls the entire data generation device 1, a ROM (Read Only Memory) that stores various programs and setting information, and a work memory of the CPU.
  • a microcomputer including RAM (Random Access Memory).
  • the control unit 10 is provided with an imaging command C O M 1 or a command C O M 2 for generating a blood vessel pattern range data from the operation unit 11 according to a user operation.
  • the control unit 10 determines a mode to be executed based on the execution instructions COM 1 and COM 2, and based on the program corresponding to the determination result, the imaging unit 12, the flash memory 13 and the external interface. By controlling the evening face 14 appropriately, the imaging mode or the data generation mode is executed.
  • control unit 10 when determining the imaging mode as the mode to be executed, changes the operation mode to the imaging mode and controls the imaging unit 12.
  • the drive control unit 1 2 a of the imaging unit 12 is connected to the data generator 1.
  • One or two or more near-infrared light sources LS that irradiate near-infrared light at a predetermined position and an image pickup element ID made up of, for example, a CCD (Charge Coupled Device) are controlled. '
  • the image sensor ID irradiates an object placed at a predetermined position, photoelectrically converts near-infrared light incident through the object, the optical system OP, and the diaphragm DH in order, and outputs the photoelectric conversion result as an image. It is sent to the drive controller 1 2 a as signal S 1.
  • the near-infrared light irradiated to the finger from the near-infrared light source LS is reflected and scattered through the inside of the finger, and passes through the finger.
  • the blood vessel projection light is incident on the imaging element ID as blood vessel projection light for projecting the blood vessel, and the blood vessel projection light is transmitted as an image signal S 1 to the drive control unit 12 a.
  • the drive controller 1 2 a adjusts the lens position of the optical lens in the optical system 0 P so that the subject is focused based on the pixel value of the image signal S 1 and enters the image sensor ID.
  • the aperture value at the aperture DH is adjusted so that the amount of light becomes an adaptive amount, and the image signal S 2 output from the image sensor ID after the adjustment is supplied to the control unit 10.
  • the control unit 10 performs predetermined image processing on the image signal S 2 to extract object pattern features in the image, and extracts the extracted image. 1 is stored in flash memory 1 3. In this way, the control unit 10 can execute the imaging mode.
  • This image processing can be functionally divided into a preprocessing unit 21 and a feature point extraction unit 22 as shown in FIG.
  • the preprocessing unit 21 and the feature point extraction unit 22 will be described in detail.
  • the image signal S 2 supplied from the imaging unit 12 will be described as being obtained as a result of imaging a biological finger.
  • the preprocessing unit 21 performs predetermined contour extraction processing such as A / D (Analog / Digital) conversion processing and single fill processing on the image signal S2 supplied from the imaging unit 12 and Gaussian fill processing.
  • a blood vessel pattern is extracted by sequentially performing predetermined smoothing processing such as processing, binarization processing, and thinning processing.
  • the pre-processing unit 21 outputs the image data (hereinafter referred to as image data) D 21 from which the blood vessel pattern has been extracted in this way to the feature point extraction unit 22.
  • the blood vessel line (blood vessel pattern) included in the image of this image data D 2 1 is converted into white pixels by binarization processing, and its width (thickness) is thinned processing. As a result, “1” is set.
  • a blood vessel line width of “1” means that the line width is one pixel.
  • the feature point extraction unit 22 detects end points, branch points, and bending points among white pixels (hereinafter referred to as blood vessel pixels) constituting the blood vessel pattern included in the input image. Using the branch point as a reference, remove the bending point as appropriate. (B— 1) Detection of end points and branch points
  • the feature point extraction unit 22 detects end points and branch points from the blood vessel line as the first step.
  • the feature point extraction unit 2 2 sets a blood vessel pixel as a pixel of interest in a predetermined order among pixels constituting the input image (image data D 2 1), and surrounds the pixel of interest.
  • the number of blood vessel pixels existing in this pixel (4 pixels in the vertical and horizontal directions and 4 pixels in the diagonal direction in total) is examined.
  • FIG. 4 Shown in FIG. 4, the pixel of interest is knitted, and the blood vessel pixel (white pixel) is black for visual convenience.
  • the line width of the blood vessel is expressed as one pixel, the relationship between the pixel of interest and the “number” of the surrounding blood vessel pixels is unambiguous, and The pattern must be either 3 branches or 4 branches.
  • the feature point extraction unit 22 detects the pixel of interest as an end point.
  • the feature point extraction unit 22 detects the pixel of interest as a branch point.
  • the feature point extraction unit 22 detects the pixel of interest as an isolated point.
  • the feature point extraction unit 22 deletes the isolated points that are not constituent elements of the blood vessel line among the detected end points, branch points, and isolated points.
  • the feature point extraction unit 22 detects end points and branch points from the blood vessel line as the first stage.
  • the feature point extraction unit 22 detects a bending point with reference to the end point and the branch point.
  • the feature point extraction unit 2 2 starts from the branch point DP 1 and other feature points appearing next to the branch point DP 1 as the start point (end point EP 1 Trace the blood vessel line from the start point to the end point (hereinafter referred to as the partial blood vessel line) with the end point EP 2 and the branch point DP 2) as the end point.
  • the feature point extraction unit 2 2 uses the branch point DP 2 as the start point, and other feature points (end point EP 3 and end point EP 4) appearing next to the start point as the end point.
  • the branch points DP 1 and DP 2 are set as the start points, but the end points may be set as the start points.
  • a point is always something that cannot be obtained at either the start point or the end point, but one or both of the start point and the end point always overlap at a branch point.
  • Figure 6 shows a specific tracking method.
  • the feature point extraction unit 2 2 has a blood vessel pixel (horizontal hatching) immediately before the pixel of interest among the blood vessel pixels existing around the current pixel of interest (pixels represented by mesh hatching) from the start point.
  • the blood vessel pixels in the partial blood vessel line are sequentially tracked until the blood vessel pixel existing around the current pixel of interest becomes the end point.
  • Fig. 7 shows the appearance pattern of points on the straight line and bending points.
  • the pixel of interest is knitted, and the blood vessel pixel (white pixel) is black for visual convenience.
  • the feature point extraction unit 22 2 detects the linearity of the blood vessel pixel before the current pixel of interest in the tracking process between the start point and the end point (pixels represented by oblique grid-like hatching). Next, when the blood vessel pixel as the target pixel is damaged, the current target pixel is detected as a bending point (a pixel represented by grid-like hatching).
  • the feature point extraction unit 22 assigns each feature point from the start point to the end point of the partial blood vessel line as a group.
  • the feature point extraction unit 22 is bent for each blood vessel line (partial blood vessel line) from the branch point or the end point to the next branch point or the end point with the end point and the branch point as a reference as the second stage. It is designed to detect points.
  • the feature point extraction unit 2 2 assigns as a group as the third stage.
  • the feature points from the start point to the end point in the partial blood vessel line (hereinafter referred to as a partial blood vessel constituent point sequence) are processed as processing units, and the inflection point in the partial blood vessel line is deleted.
  • FIG. 9 Since the contents of the deletion process for these partial blood vessel constituent point sequences are the same, the contents will be specifically described using FIG. 9 as an example only when one partial blood vessel constituent point sequence is the processing target. .
  • a square represents a pixel constituting the original blood vessel line (hereinafter referred to as an original blood vessel pixel).
  • the end points and the bending points of the original blood vessel pixels are indicated by broken lines.
  • the feature point extraction unit 2 2 selects a feature point selected as a reference from the partial blood vessel constituent point sequence (hereinafter referred to as a reference point) from GP bs to a deletion candidate point GP cd (GP cdl to GP cd 3 ).
  • overlap ratio threshold The overlap ratio of the pixels (hereinafter referred to as line segment pixels) constituting the line segment SG (SG i S Gg) connecting the reference point GP b s and the deletion candidate point GP cd to the original blood vessel pixel of predetermined threshold (hereinafter, this is referred to as overlap ratio threshold) to be smaller than, it will seek while sequentially shifting the point proposed for elimination GP c d to the end point.
  • the line segment pixel (2 pixels) of the line segment overlaps with all the original blood vessel pixels (2 pixels) from the reference point GP bs to the corresponding deletion candidate point GP cd l. 2/2 ”.
  • the line segment SG 2 line segment (7 pixels) corresponds to the reference point GP bs . Since it overlaps with 4 of the original blood vessel pixels (7 pixels) up to the deletion candidate point GP cd 2 , The ratio is “4/7”.
  • the line segment pixel (9 pixels) of line segment SG 3 overlaps with two of the original blood vessel pixels (9 pixels) from the reference point GP bs to the corresponding deletion candidate point GP cd 3, so the overlap ratio is “2/9”.
  • Duplicate proportion of the segment pixels of the segment SG 3 is smaller than the overlap ratio threshold.
  • the feature point extraction unit 2 2 one than that time Japanese Choten selected as the deletion candidate point GP cd 3
  • the feature point GP cdl between the feature point previously selected as the deletion candidate point GP cd 2 and the reference point GP bs is deleted. Then, this feature point G Even when P c d i is deleted, the line segment SG 2 from the remaining feature point GP cd 2 to the reference point GP bs approximates the original blood vessel line.
  • the line segment SG 3 does not approximate the original blood vessel pixel (partial blood vessel line) from the reference point GP bs to the deletion candidate point GP cd 3.
  • the overlap ratio threshold is set large, the feature point GP c d i cannot be deleted.
  • a predetermined threshold hereinafter referred to as the line length threshold
  • the bending point deletion process is executed from the start point in the partial blood vessel constituent point sequence in the procedure shown in the flowchart of FIG. That is, the feature point extraction unit 22 selects the start point of the partial blood vessel constituent point sequence as a reference point, and selects the first feature point from the reference point as a deletion candidate point (step S P 3 1).
  • the feature point extraction unit 2 2 is the case where the duplication ratio is obtained for the first time after the inflection point deletion process is started, or the reference point which is the current selection target Line segment connecting GP j and deletion candidate point GP J + a GP j_ GP J + a immediately preceding line segment GP J + ( ⁇ _ ⁇ — Whether the line length of GP J + structuralis less than the line segment length threshold Determine (Step SP 3 2).
  • Part 2 2 sets the first overlap ratio threshold as the overlap ratio threshold (step SP 3 3), and then the line segment GP j connecting the reference point GP j that is the current selection target and the deletion candidate point GP J + a —
  • the overlap ratio for the original blood vessel pixel is obtained for GP J + a (step SP 34), and it is determined whether this overlap ratio is equal to or greater than the first overlap ratio threshold (step SP 3 5).
  • the number of times the overlap ratio is calculated after starting this inflection point deletion process is the second or later, and the previous line segment GP J + — GP J + a is greater than or equal to the line length threshold
  • the feature point extraction unit 22 connects the reference point GP j that is the current selection target and the deletion candidate point GP J + a .
  • the overlap ratio for the original blood vessel pixel is obtained (step SP 34), and it is determined whether this overlap ratio is greater than or equal to the second overlap ratio threshold (step SP 3 5 ) o
  • the overlap ratio is equal to or greater than the overlap ratio threshold, this means that the line segment GP j — GP J + a that connects the reference point GP j and the deletion candidate point GP J + a that are currently selected is This means that it is similar to or identical to the original blood vessel line from the reference point GPj to the deletion candidate point GP j + exercise.
  • the feature point extraction unit 2 2 determines whether or not the deletion candidate point GP J + a that is the current selection target is the end point of the partial blood vessel constituent point sequence (step SP 3 7), and is not the end point.
  • the feature point extraction unit 2 2 determines whether or not the deletion candidate point GP J + a that is the current selection target is the end point of the partial blood vessel constituent point sequence (step SP 3 7), and is not the end point.
  • the feature point extraction unit 2 2 selects the feature point selected as the deletion candidate point GP J + cartione before the current time and the reference point GP j at the current time. Delete one or more feature points between them (step SP 39).
  • the feature point extraction unit 22 determines whether or not the deletion candidate point GP j + ⁇ that is the current selection target is the end point of the partial blood vessel constituent point sequence (step SP 40).
  • Candidate deletion point GP. J + a is selected as the reference point GP j, and the feature point on the end point side with respect to the reference point GP j is selected as the new deletion candidate point GP j + ⁇
  • step S ⁇ 4 1 the process returns to the above-mentioned process (step S ⁇ 3 2).
  • the feature point extraction unit 22 determines that the deletion candidate point G Pj + ⁇ that is the current selection target is the end point of the partial blood vessel constituent point sequence (step S ⁇ 3 7 ( ⁇ ) or step S SP 40 ( ⁇ )), select one or more feature points between the feature point currently selected as the deletion candidate point GP J + a and the feature point currently selected as the reference point GP j After all deletion (step SP 4 2), the bending point deletion processing is terminated.
  • the feature point extraction unit 22 performs the bending point deletion process according to such a procedure.
  • Figure 11 shows before and after this deletion process.
  • the line segment length threshold in the deletion process is 5 [mm]
  • the first overlap ratio threshold is 0.5 (5 0 [%])
  • the second overlap ratio threshold is 0.7 ( 7 0. [%]).
  • the square represents the original blood vessel pixel
  • the circle represents the pixel constituting the line segment
  • the end points and the inflection points are marked with broken lines among the vascular pixels.
  • the above-described deletion process connects the bending points existing on the partial blood vessel line, the bending point is accurately set so that the connected line approximates the partial blood vessel line. It will be deleted.
  • the feature point extraction unit 2 2 converts two partial blood vessel lines that approximate a straight line out of three or four partial blood vessel lines extending from a branch point on the blood vessel line into one partial blood vessel.
  • the partial vascular line extending from the bifurcation point is always 3 or 4 as described in Fig. 4 for a blood vessel (blood vessel line) with a width of 1 pixel.
  • the point extraction unit 2 2 is the cosine of a pair of partial blood vessel lines among the partial blood vessel lines PBL A , PBL B , PBL C (9 A - B , .0 A — C , B C B _ c)) seek.
  • the cosine threshold a predetermined threshold (hereinafter referred to as the cosine threshold)
  • the feature point extraction unit 2 2 the smallest cosine cos (0 A - B) partial blood vessel forming sequence of the one pair of partial blood vessel lines corresponding to GP A had GP A 2, ising, GP A end and GP B and GP B 2 , «, GP B end , which is the non-overlapping point GPA end , GP B - end is the start point or end point, and the feature points between the start point and end point are assigned as one group fix.
  • the pair of partial blood vessel lines PBL A and PBL B are connected.
  • the partial blood vessel composition point sequence GP AB _firs of the connected partial blood vessel lines PBL AB > ⁇ GP AB 1 .
  • GP AB 1 GP AB 1 ... ⁇ , G P 'AB - the number of e nd is different from the partial blood vessel forming sequence of the one pair of partial blood vessel lines before connecting, making it the partial blood vessel forming sequence of each starting point of said pair of partial blood vessel lines
  • Two branch points GP A Yes GP B t One intermediate point GP AB ! , Will be reduced by 1 point. Since the partial blood vessel line PBL AB is simply a connection of a pair of partial blood vessel lines PBL A and PBL B , there is no change in the shape of the blood vessel line before and after the connection.
  • the feature point extraction unit 22 does not reassign the group, and the branch point to be processed is not processed. If so, the process target is moved to the next branch point, and if there is no unprocessed branch point, this process ends.
  • the feature point extraction unit 2 2 determines that the intersection angle between a pair of partial blood vessel lines among these partial blood vessel lines PBL A , PBL B , PBL C , PBL D 0 A ⁇ , ⁇ A equal ⁇ a one ⁇ , 0 B c, ⁇ B _ D s 6> c - D cosine (cos ( ⁇ a - ⁇ ) , 'cos ( ⁇ a one c;), cos ( ⁇ a _ D), cos ( ⁇ B _ c),. cos ( ⁇ B one D),
  • the feature point extraction unit 2 2 corresponds to the smallest cosine cos (0 B _. D ) 1.
  • Partial blood vessel constituent point sequence GP B 1 , GP B 2 ,. GP B — e nd and GP D , GP D 2 ,..., GP D e nd , the non-overlapping point GP B _ e nd , GP D _ e nd as the start point or end point Reassign the feature points between the end points as a group.
  • a pair of partial blood vessel lines PBL B and PBL D are connected.
  • the partial blood vessel composition point sequence GP BD firs of the connected partial blood vessel lines P BL BD .. GP BD 1 . , GP BD 1 GP BD 12 ,... ⁇
  • the number of GP BD _ end is two compared to the partial vascular composing point sequence of one partial vascular line before connection.
  • branch point GP B 1 and GP D 1 is simply a connection of a pair of partial blood vessel lines PBL B and PBL D , so that there is no change in the shape of the blood vessel line before and after the connection.
  • the feature point extraction unit 22 satisfies the condition that the cosine of the intersection angle of the partial blood vessel line extending from the branch point among the branch points on the blood vessel line is smaller than the second cosine threshold value as the fourth stage.
  • the feature point extraction unit 22 detects the end point, the branch point, and the inflection point (first stage and second stage), and from these points, the group based on the end point and the branch point (partial blood vessel line)
  • the group based on the end point and the branch point partial blood vessel line
  • points that are characteristic of blood vessel lines can be extracted so that when the characteristic points are connected, the connected line approximates the blood vessel line and approximates the straight line (No. 3).
  • Stage and 4th stage ).
  • image data D 2 1 when the image shown in FIG. 3 (B) (image data D 2 1) is input to the feature point extraction unit 22, the image is displayed as shown in FIG.
  • feature points are extracted so that the line connecting the feature points approximates the blood vessel line and approximates a straight line.
  • the feature point extraction unit 22 stores the image data from which the feature points have been extracted in this way (image data D 1) in the flash memory 13.
  • the discrimination index between the blood vessel pattern and the pseudo blood vessel pattern will be explained.
  • the simulated blood vessel pattern is an example of a gummy (gelatin, sugar, syrup made from starch syrup and hardened into a strong shape like rubber) or a radish taken as an imaging target.
  • the distribution of the angle between the line segment connecting each feature point in the pattern and the horizontal axis direction of the image is expressed in terms of the length of the line segment (number of pixels constituting the line segment) as a frequency.
  • the pseudo blood vessel pattern obtained from gummy (Fig. 18 (A)) and the pseudo blood vessel pattern obtained from the radish (Fig. 17) are concentrated in and around 90 [°].
  • Fig. 1 8 (B)) 0 [. :! ⁇ 1 80 [°] sparsely spreads out, with poor regularity. This is due to the fact that the blood vessel pattern does not spread in all directions but tends to be aligned in a certain direction (finger length direction).
  • the blood vessel pattern (Fig. 19 (A)) is a pseudo blood vessel pattern obtained from gummy (Fig. 19 (B)) or a pseudo blood vessel pattern obtained from radish (Fig. 19).
  • the length of the line segment that approximates a straight line tends to be longer, so the number of line segments (partial blood vessel lines) assigned as a group by the above feature point extraction process is reduced. .
  • the first is the spread of the angular distribution
  • the second is the 90 ° [°] in the angular distribution and the distribution intensity in the vicinity
  • the third is the group. The number of line segments that can be assigned.
  • the distribution intensity can be expressed as a ratio of the distribution area in a predetermined angle range centered on 90 [°] to the entire distribution area. That is, if the angle range is lower] ⁇ upper [°] and the distribution area is S, the distribution intensity is
  • the number of line segments assigned as a group is the number of groups assigned after the feature point extraction process described above. That is, as described above, in the feature point extraction unit 22, each feature point (partial blood vessel constituent point sequence) from the start point to the end point in the partial blood vessel line is grouped in the inflection point detection process. Among these groups, the groups that are approximated as straight lines (partial vessel constituent point sequence) are grouped together as one group, so the number of groups (partial blood vessel constituent point sequences) that remain after this group It becomes.
  • FIG. 20 shows the discrimination results between the blood vessel pattern and the pseudo blood vessel pattern obtained from gummy using these three discrimination indices. In Fig.
  • the thinner plot corresponds to the pseudo blood vessel pattern obtained from gummy, and the number of samples was 6 3 5 samples.
  • the darker plot corresponds to the blood vessel pattern that has the longest Mahanobis distance from the center of the distribution of the thinner one of the blood vessel patterns obtained by imaging the finger five times. The number was 1 2 7 samples.
  • R f G in FIG. 20 represents a boundary to be determined as a pseudo blood vessel pattern (hereinafter referred to as a pseudo blood vessel boundary). Specifically, the distribution of the thin plot is The Mahanobis distance from the center of is 2.5.
  • R f F represents a boundary to be determined as a blood vessel pattern (hereinafter referred to as a blood vessel boundary). Specifically, the Mahanobis distance from the center of the distribution of the darker plot “2.1”.
  • FIG. 20 shows the spread of the angular distribution by the standard deviation.
  • the control unit 10 is assigned as three discrimination indices (angular distribution, angular distribution intensity, and group) for each blood vessel pattern of the multiple sample image D 1 i read from the flash memory 13. (Number of line segments) respectively (loop from step SP 1 to step SP 5) Further, when the control unit 10 finishes obtaining the discrimination index for the blood vessel pattern of each sample (step SP 5: YES), the angle Assuming that the distribution is distributed, the intensity of the angular distribution is P, and the number of line segments assigned as a group is C,
  • the blood vessel pattern of each sample is used as a column, and is replaced with a matrix having the discrimination index for that blood vessel pattern as a row (step SP 6).
  • control unit 10 calculates the center of the distribution of the discrimination index in each sample from the discrimination index matrix by the following equation ':
  • step SP 7 the covariance matrix
  • step SP 8 the covariance matrix represents the extent of the distribution (variation) of the distribution of the discrimination index in each sample, and its reciprocal represents the Mahalanobis distance. It is used when seeking.
  • the control unit 10 determines the center of the distribution of the discrimination index obtained in step SP 7, the inverse matrix of the covariance matrix obtained in step SP 8, and a preset blood vessel boundary value (see FIG. 20 as an example).
  • the Mahalanobis distance “2.1”) is generated as blood vessel pattern range data (data representing the range to be determined as a blood vessel pattern) (step SP 9), and this is stored in the internal memory of the authentication device. After memorizing (step SP10), the data generation process is terminated.
  • control unit 10 has a tendency that the blood vessel pattern does not spread in all directions, but tends to be aligned in a certain direction (the finger length direction).
  • a discrimination index between a blood vessel pattern and a pseudo blood vessel pattern the length of the line segment to be approximated tends to be long.
  • Inverse matrix of covariance matrix and blood vessel boundary value Inverse matrix of covariance matrix and blood vessel boundary value.
  • the data generation apparatus 1 includes an operation unit 3 1, an imaging unit 3 2, a flash memory 3 3, an external interface 3 4, and a notification unit 3 5 with respect to the control unit 30. Each is configured by connecting via bus 36.
  • the control unit 30 is a microcomputer including a CPU that controls the authentication device 1 as a whole, a ROM that stores various programs and setting information, and a RAM that serves as a work memory for the CPU.
  • the blood vessel pattern range data generated by the data generator 1 is stored in this R 0 M.
  • an execution instruction COM 1 0 or a registrant of a mode for registering a blood vessel of a user to be registered (hereinafter referred to as a registrant) (hereinafter referred to as a blood vessel registration mode).
  • An execution command COM 2 0 for a mode for determining the presence / absence of the person (hereinafter referred to as an authentication mode) is given from the operation unit 3 1 according to a user operation.
  • the control unit 30 determines a mode to be executed based on the execution instructions COM 10 and COM 20 and, based on the program corresponding to the determination result, the imaging unit 32, the flash memory 33, and the external interface
  • the blood vessel registration mode or authentication mode is executed by appropriately controlling the 3 4 and the notification unit 3 5.
  • the control unit 30 transitions the operation mode to the blood vessel registration mode and controls the imaging unit 32.
  • the imaging unit 3 2 controls the driving of the near-infrared light source LS and the imaging element ID in the same manner as the imaging unit 1 2 (FIG. 1) of the data generation device 1, and
  • the lens position of the optical lens and the aperture value of the aperture DH in the optical system 0 P are adjusted based on the image signal S 1 0 a output from the image sensor ID as the imaging result of the object arranged at the position.
  • the image signal S 2 0 a output from the imaging element ID is supplied to the control unit 30.
  • the control unit 30 sequentially performs the same preprocessing and feature point extraction processing as the preprocessing unit 21 and feature point extraction unit 2 2 (FIG. 2) of the data generation device 1 on the image signal S20a.
  • the object pattern in the image is extracted, and the group (partial blood vessel component point sequence unit) from the start point to the end point in the object pattern is extracted.
  • a process for discriminating the object pattern into a blood vessel pattern or a pseudo blood vessel pattern (hereinafter referred to as a discrimination process) is executed, and the object pattern Is identified as a blood vessel pattern, the feature point of the object pattern is used to identify information for identifying the registrant (hereinafter referred to as registrant identification data). Department) to register by storing in the flash memory 3 3 as D I S.
  • control unit 30 can execute the blood vessel registration mode. It has been made-
  • control unit 30 transitions to the authentication mode and controls the imaging unit 32 in the same manner as in the blood vessel registration mode.
  • the imaging unit 32 controls driving of the near-infrared light source LS and the imaging element ID, and also performs optical control in the optical system 0 P based on the image signal S 1 0 b output from the imaging element ID.
  • the lens position of the lens and the aperture value of the aperture DH are adjusted, and the image signal S 20 b output from the image sensor ID after the adjustment is supplied to the control unit 30.
  • the control unit 30 sequentially performs the same preprocessing and feature point extraction processing as those in the blood vessel registration mode on the image signal S20b, and identifies the registered person registered in the flash memory 33. Read overnight DIS.
  • control unit 30 executes the same discrimination processing in the above-described blood vessel registration mode, and when the object pattern extracted from the image signal S 20 b is discriminated as a blood vessel pattern, the control unit 30 Each feature point extracted from the start point to the end point in the pattern through the inflection point (partial blood vessel composition point sequence) is compared with the feature point of the registrant identification data DIS read from the flash memory 33, It is determined whether or not the user is a registered user (regular user) according to the degree of the match.
  • control unit 30 determines that the user is a registrant
  • the execution command COM for causing the operation processing device (not shown) connected to the external interface 34 to perform a predetermined operation is performed. 30 is generated and transferred to the motion processing device via the external interface 34.
  • the control unit 30 executes an execution command COM for performing a lock operation. 3 Transfer 0 to the door.
  • Other motion processing devices As an example of the embodiment, when a computer in which some of the plurality of operation modes are restricted is adopted, the control unit 30 executes the execution instruction COM 3 for releasing the restricted operation mode. Transfer 0 to the computer.
  • the operation processing device is connected to the external interface file 34.
  • the software or hardware configuration of the operation processing device is connected to the authentication device 1. It may be installed.
  • control unit 30 determines that the user is not a registrant
  • the control unit 30 displays the fact via the display unit 35 a of the notification unit 35 and the voice output unit of the notification unit 35. 3 5 By voice output via b, it is notified visually and auditorily that it is determined that the user is not the registrant.
  • control unit 30 can execute the authentication mode.
  • control unit 30 sequentially performs preprocessing and feature point extraction processing on the image signal S 2 0 a or S 2 0 b input in the blood vessel registration mode or authentication mode, and then performs this discrimination processing procedure.
  • step SP11 for the object pattern extracted from the image signal S20a or S20b, the distribution of the angular distribution, the intensity of the angular distribution, and the line segment assigned as a group Detect the number of each.
  • the control unit 30 determines the discrimination index based on the blood vessel pattern range data (the center of the distribution of the discrimination index, the inverse matrix of the covariance matrix and the blood vessel boundary value) stored in the ROM.
  • the Mahalanobis distance between the center of the 3D distribution and the position of the object pattern is calculated.
  • CT is the center of the distribution of the discrimination index
  • C ov 1 is the inverse of the covariance matrix
  • P is the position of the object pattern
  • step S P 13 the control unit 30 determines whether or not the Mahalanobis distance calculated in step S P 12 is less than or equal to the blood vessel boundary value of the blood vessel pattern range data stored in R OM.
  • This blood vessel boundary value represents the value of the boundary R f F to be determined as a blood vessel pattern from the center of the distribution of the discrimination index as shown in FIG. Therefore, if the Mahalanobis distance is larger than the blood vessel boundary value, this means that the object pattern extracted at this time is a normal blood vessel such as a pattern that is extremely different from the pseudo blood vessel pattern or the blood vessel pattern.
  • a pattern means a pattern that should not be judged.
  • control unit 30 proceeds to step SP 14 and discards the object pattern and its feature point extracted from the image signal S 2 0 a or S 2 Ob, and notifies that it should be imaged again. After the notification via the part 35 (FIG. 23), the discrimination process is terminated.
  • the object pattern extracted at this time is determined to be a normal blood vessel pattern. It means a pattern that should be done.
  • control unit 30 proceeds to step SP 15 and extracts each feature point extracted in units of groups (partial blood vessel constituent point sequences) from the start point to the end point in the object pattern.
  • the blood vessel registration mode it is determined as a registration target.
  • the authentication mode it is determined as a verification target for each feature point that has already been registered as a registrant identification data, and this discrimination process ends. .
  • the control unit 30 has a tendency that the blood vessel pattern does not spread in all directions but tends to be aligned in a certain direction (the finger length direction).
  • the data generation processing device 1 in this authentication system has a shape value representing a pattern shape for each blood vessel pattern obtained from the image signal S 1 input as a plurality of samples (biological fingers). Is calculated. : 'In this embodiment, the blood vessel pattern does not spread in all directions, but tends to be aligned in a certain direction (length direction of the finger), and a line segment similar to a straight line The shape value that represents the pattern shape is selected using the tendency that the length of the line segment is long as an index.
  • the data generation processing device 1 firstly, as a shape value, an angle formed by a line segment connecting each feature point in the blood vessel pattern and a reference axis (a direction axis perpendicular to the blood circulation direction).
  • the data generation processing device 1 calculates the center of the three-dimensional distribution of these shape values (Fig. 20) and the reciprocal of the value (covariance matrix) indicating the extent of the spread from the center, and these are calculated as the authentication device. Store in 2 internal memory.
  • the authentication device 2 in this authentication system calculates the above three shape values for the patterns obtained from the image signals S 20 a and S 20 b that are input as registration targets or verification targets with respect to the registration data. .
  • the authentication device 2 then covariances the Mahalanobis distance between the position on the 3D distribution specified by these three shape values and the center of the 3D distribution (Fig. 20) stored in the internal memory. Calculated using the reciprocal of the matrix and discards the pattern when the Mahalanobis distance is greater than a predetermined threshold (blood vessel boundary value ( Figure 20: “R f f ”)) ( Figure 24).
  • the blood vessel patterns obtained from multiple samples are compared with the registration target or registration data in the 3D spatial distribution (Fig. 20) corresponding to the three indices that are the characteristics of the blood vessel pattern.
  • the pattern obtained from the matching target is located, and the position from the center of the distribution is the boundary that should be a biological pattern (blood vessel boundary value ( Figure 20: “R f f ”)) It can be grasped whether it belongs to the range.
  • the pattern obtained from the image signals S 2 0 a and S 20 b that are input as a target for registration or registration verification is pseudo to the blood vessel pattern. Even if it is a blood vessel pattern ( Figures 19 (B) and (C)), the pseudo blood vessel pattern is not a blood vessel pattern, and the probability that it can be eliminated in advance without registration or verification is greatly improved. be able to.
  • the data generation device 1 and the authentication device 2 are used in the blood vessel pattern.
  • the shape values are calculated after extracting the feature points so that when the feature points are connected, the connected line approximates the blood vessel pattern and approximates a straight line.
  • this authentication system after emphasizing the characteristic of the blood vessel pattern that the line segment length that approximates a straight line tends to be long, it is possible to calculate a shape value that represents the pattern shape. As a result, the shape value can be calculated more accurately, and as a result, the probability that the pseudo blood vessel pattern can be excluded as a non-blood vessel pattern can be further improved.
  • a registration target or a verification target that is matched with registered data in the three-dimensional spatial distribution corresponding to the three indices that are the characteristics of the blood vessel pattern.
  • the input pattern is based on the data representing the distribution of blood vessel patterns obtained from a plurality of biological samples and the data representing the boundary to be a blood vessel pattern in the distribution (threshold).
  • the present invention is not limited to this, and it is determined whether or not the input padder is a blood vessel pattern in consideration of the distribution of the pseudo blood vessel pattern. It may be.
  • the data generator 1 uses the above-described data generation process (FIG. 2 2) to obtain the center of the distribution of the three discrimination indexes in each blood vessel pattern obtained from the biological sample and the inverse matrix of the covariance matrix. And the blood vessel boundary value (corresponding to “R f F ” with a Mahalanobis distance of “2.1” in Fig. 20 as an example) It is stored in the ROM of the authentication device 2 as an overnight event. At this time, for each simulated blood vessel pattern obtained from the non-biological sample, the above-described generation process (FIG.
  • the authentication device 2 attaches the same reference numerals to the parts corresponding to those in FIG. 24.
  • the input pattern imaging target
  • the distance between the position of the target object and the center of the distribution is calculated as the Mahalanobis distance (hereinafter referred to as the biodistribution distance).
  • the position of the input pattern on the distribution of the discrimination index and the Mahalanobis distance at the center of the distribution (hereinafter referred to as the non-biological distribution distance) are also obtained (step SP 2 2).
  • the authentication device 2 determines whether or not the non-biological distribution distance is less than or equal to the pseudo blood vessel boundary value (step SP 23).
  • the distance on the non-biological distribution is less than or equal to the pseudo blood vessel boundary value, this means that, for example, the 6-P plane in the three-dimensional distribution in FIG. This means that the input pattern is located within a range that overlaps the range that should be determined as a non-vascular pattern.
  • the authentication device 2 discards the input pattern (object pattern that has been imaged), etc., even if the distance on the biodistribution is less than or equal to the blood vessel boundary value (step SP 1 4 )
  • the authentication device 2 passes the inflection point from the start point in the object pattern when the biodistribution distance is less than or equal to the blood vessel boundary value and the non-biological distribution distance is greater than the pseudo blood vessel boundary value.
  • Group to end point (partial blood Pipe feature point sequence) Each feature point extracted in units is determined as a registration target or a verification target (step SP 15).
  • the pseudo blood vessel pattern is compared with the case of the above-described embodiment. It is possible to further improve the probability of being excluded.
  • step. SP 2 3 it is determined whether or not the distance on the non-biological distribution is less than or equal to the pseudo blood vessel boundary value (step. SP 2 3). Instead, for example, in this case, it may be determined whether or not the biodistribution distance obtained in step SP22 is greater than the non-biological distribution distance.
  • a blood vessel shape pattern (blood vessel pattern) is applied as the biological pattern
  • the present invention is not limited to this, and the fingerprint, voice print, round pattern, or nerve pattern is applied.
  • Various other types can be applied if the acquisition means is changed to a corresponding one according to the applied biological pattern such as a shape pattern.
  • the blood vessel pattern does not spread in all directions like a blood vessel pattern or a nerve pattern, but it has characteristics that are aligned in a certain direction (finger length direction), and the line segment length that approximates a straight line.
  • the above three discrimination indices can be adopted as the shape value representing the pattern shape, but other than the biological pattern having the characteristic is applied. In some cases, it is necessary to change the shape value according to the characteristics of the applied biological pattern.
  • three discrimination indexes are used as shape values, that is, first, a line segment connecting each feature point in the pattern and a reference axis.
  • the degree of spread of the distribution weighted with the line segment length as the frequency, and secondly, The ratio of the area in the predetermined angle range centered on the angle orthogonal to the reference axis to the area of the entire angle range in the distribution, and thirdly, the number of line segments was adopted.
  • only two of these discrimination indices may be adopted, or 9 0 [° among these three discrimination indices and, for example, the top three peaks in the angular distribution. ]
  • the blood vessel pattern range data stored in the ROM of the authentication device 2 is set to the center of the distribution of the three discrimination indices in each blood vessel pattern obtained from the biological sample, and the covariance.
  • the inverse matrix of the matrix and the blood vessel boundary value (the Mahalanobis distance is “2.1” and corresponds to “R f F ” in the case of FIG. 20) is described.
  • the blood vessel boundary value is set in advance for the authentication device 2, and the inverse of the covariance matrix is calculated when calculating the Mahalanobis distance (Fig. 24 (Fig. 25): Step SP1 2). If so, the center of the distribution of the three discrimination indices and the covariance matrix may be used.
  • the preprocessing unit 2 1 and the feature point extraction unit 2 2 have been described.
  • the present invention is not limited to this, and the processing contents of the preprocessing unit 2 and the feature point extraction unit 2 2 are appropriately changed. May be.
  • a / D conversion processing, contour extraction processing, smoothing processing, binarization processing, and thinning processing are sequentially performed, but some of these processing are omitted or They may be replaced, or new processes may be added to these processes. By the way, about the order of these processes Can be changed as appropriate.
  • the feature point extraction unit 2 2 can be replaced with a point extraction process called “Harris Corner 1”, for example, Japanese Patent Application No. 2 0 0 6— 2 0 7 0 3 3 ([0 0 3 6] to [0 1 6 3) See)) It may be replaced with a known point extraction process.
  • the authentication device 2 having the imaging function, the verification function, and the registration function has been described.
  • the present invention is not limited to this, and a single device is provided for each function. It can be applied in various modes depending on the application. Industrial applicability
  • the present invention can be used in the field of biometric authentication.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

パターン識別方法、 登録装置、 照合装置及びプログラム 技術分野
本発明は、 パターン識別方法、 登録装置、 照合装置及びプログラムに関 し、 バイオメ ト リクス認証に適用して好適なものである。 背景技術
従来、 バイオメ ト リクス認証対象の 1つとして血管がある。 この認証装 置は、 一般に、 登録者の血管画像を登録データとして登録し、 その登録デ 一夕と、 当該登録データに対する照合対象として入力される照合デ一夕と の一致の程度に応じて、 登録者本人であるか否かを判定するようになされ ている。
このような認証装置に対する、 いわゆるなりすまし防止対策が各種提案 されている。 例えば、 入力される照合データが、 その入力時点よりも過去 に入力された照合データとは座標位置も含めて完全に一致することは通常 あり得ないということに着目し、 これら照合デ一夕同士が一致した場合に は、 たとえ、 登録デ一夕と一致した場合であっても、 認証を却下するとい つたものがある (特許文献 1参照) 。 このなりすまし防止対策手法によれ ば、 登録者の血管画像のデ一夕が盗用された場合などに、 有用な対策とな る。
ところで、 指の代わりに例えば大根を撮像した場合、 大根の内部に張り 巡らされている道管、 師管及び維管束等が生体内の血管と似ていることに 起因して、 血管の形状パターン (以下、 これを血管パターンと呼ぶ) と似 たパターン (以下、 これを擬似血管パターンと呼ぶ) が得られ、 当該大根 等によってなりすましが可能であるということが報告されている。 特許文献 1 特開 2 0 0 2— 2 5 9 3 4 5公報。
非特許文献 1 松本 勉、 "金融取引における生体認証について" 、 [ online] 、 2 0 0 5年 4月 1 5日、 金融庁 ·第 9回偽造キヤッシュカー ド問題に関するスタディ グループ、 [ 2 0 0 6年 8月 2 1 日検索]、 ィ ン夕 —不ッ ト < U R L : http;//www.fsa. go.jp/singi/singi_fccsg/gaiyou/i- 2005 0415-singi_fccsg/02.pai 。 この場合、 擬似血管パターンは、 登録者の血管パターンとは座標位置も 含めて完全に一致するパターンとはならないことから、 上述のなりすまし 防止対策手法を適用したとしても、 登録者本人であると判定される、 つま りなりすましが可能となり、' ひいては認証精度がもとる結果となる。
、一 発明の開示
本発明は以上の点を考慮してなされたもので、 認証精度を向上させ得る パターン識別方法、 登録装置、 照合装置及びプログラムを提案しよう とす るものである。
かかる課題を解決するため本発明は、 パターン識別方法であって、 複数 の生体サンプルから得られる生体パターンそれぞれについて、 パターン形- 状を表す 2以上の形状値を算出し、 2以上の形状値の分布の中心と、 その 中心からの広がりの程度を表す値とを算出し、 登録対象又は登録デ一夕と 照合される照合対象から得られるパターンの 2以上の形状値と、 2以上の 形状値の分布の中心との距離を、 その中心からの広がりの程度を表す値を 用いて算出し、 距離が所定の閾値よりも大きい場合に、 パターンを破棄す るようにした。
このパターン識別方法では、 各生体パターンについて複数の観点 (パ夕 —ン形状値) に対応する次元分布のなかで、 登録対象又は登録デ一夕と照 合される照合対象から得られるパターンがいずれに位置しているのか、 ま だその位置が、 当該分布の中心から、 生体パターンとすべき境界 (閾値) までの範囲に属しているのかを把握することができる。
したがつてこのパターン識別'方法では、 登録対象又は登録デ一夕と照合 される照合対象から得られるパターンがたとえ生体パターンに対して擬似 的となるパターンであったとしても、 そのパターンが生体パターンではな いものとして、 登録又は照合することなく事前に排除し得る確率が格段に 高くなる。
また本発明は、 登録装置であって、 複数の生体サンプルから得られる生 体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の分布 の中心と、 その中心からの広がりの程度を表す値とが記憶される記憶手段 と、 登録対象から得られるパターンの 2以上の形状値と、 記憶手段に記憶 された 2以上の形状値の分布の中心との距離を、 値を用いて算出する算出 手段と、 距離が所定の閾値よりも大きい場合にはパターンを破棄し、 距離 が閾値以内の場合にはパターンを記憶媒体に登録する登録手段とを設ける ようにした。
この登録装置では、 各生体パターンについて複数の観点 (パターン形状 値) に対応する次元分布のなかで、 登録対象かち得られるパターンがいず れに位置しているのか、 またその位置が、 当該分布の中心から、 生体パ夕 —ンとすべき境界 (閾値) までの範囲に属しているのかを把握することが できる。
したがつてこの登録装置では、 登録対象から得られるパターンがたとえ 生体パターンに対して擬似的となるパターンであつたとしても、 そのパ夕 —ンが生体パターンではないものとして、 登録することなく事前に排除し 得る確率が格段に高くなる。
' さらに本発明は、 照合装置であって、 複数の生体サンプルから得られる 生体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の分 布の中心と、 その中心からの広がりの程度を表す値とが記憶される記憶手 段と、 登録対象から得られるパターンの 2以上の形状値と、 記憶手段に記 憶された 2以上の形状値の分布の中心との距離を、 値を用いて算出する算 出手段と、 距離が所定の閾値よりも大きい場合にはパターンを破棄し、 距 離が閾値以内の場合には、 記憶媒体に登録された登録データとパターンと を照合する照合手段とを設けるようにした。
この照合装置では、 各生体パターンについて複数の観点 (パターン形状 値) に対応する次元分布のなかで、 照合対象から得られるパターンがいず れに位置しているのか、 またその位置が、 当該分布の中心から、 生体パ夕 —ンとすべき境界 (閾値) までの範囲に属しているのかを把握することが できる。
したがってこの照合装置では、 照合対象から得られるパターンがたとえ 生体パターンに対して擬似的となるパターンであったとしても、 そのパ夕 —ンが生体パターンではないものとして、 照合することなく事前に排除し 得る確率が格段に高くなる。
さらに本発明は、 プログラムであって、 複数の生体サンプルから得られ る生体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の 分布の中心と、 その中心からの広がりの程度を表す値とが記憶されるコン ピュー夕に対して、 登録対象から得られるパターンの 2以上の形状値と、 記憶手段に記憶された 2以上の形状値の分布の中心との距離を、 値を用い て算出する第 1の処理と、 距離が所定の閾値よりも大きい場合にはパター ンを破棄し、 距離が閾値以内の場合にはパターンを記憶媒体に登録する第 2の処理、 又は、 距離が所定の閾値よりも大きい場合にはパターンを破棄 し、 距離が閾値以内の場合には、 記憶媒体に登録された登録データとパ夕 一ンとを照合する第 2の処理とを実行させるようにした。
このプログラムでは、 各生体パターンについて複数の観点 (パターン形 状値) に対応する次元分布のなかで、 登録対象又は登録デ一夕と照合され る照合対象から得られるパ夕 ンがいずれに位置しているのか、 またその 位置が、 当該分布の中心から、 生体パターンとすべき境界 (閾値) までの 範囲に属しているのかを把握することができる。
したがつてこのプログラムでは、 登録対象又は登録データと照合される 照合対象から得られるパターンがたとえ生体パターンに対して擬似的とな るパターンであったとしても、、 そのパターンが生体パターンではないもの として、 登録又は照合することなく事前に排除し得る確率が格段に高くな る。
本発明によれば、 各生体パターンについて複数の観点 (パターン形状 値) に対応する次元分布のなかで、 登録対象又は登録デ一夕と照合される 照合対象から得られるパターンがいずれに位置しているのか、 またその位 置が、 当該分布の中心から、 生体パターンとすべき境界 (閾値) までの範 囲に属しているのかを把握することができるようにしたことによって、 擬 似的なパターンが生体パターンではないものとして、 登録又は照合するこ となく事前に排除し得る確率を格段に向上することができ、 かく して、 認 証精度を向上させ得る登録装置、 照合装置、 抽出方法及びプログラムを実 現できる。 図面の簡単な説明 ,
図 1は、 本実施の形態によるデ一夕生成装置の構成を示すブロック図で ある o
図 2は、 制御部における画像処理の処理内容を示す機能プロック図であ る。
図 3は、 前処理を施す前後の画像を示す略線図である。
図 4は、 端点、 分岐点及び孤立点の出現パターンの説明に供する略線図 である。
図 5は、 分岐点と、 分岐点又は端点との間の血管線の追跡の説明に供す る略線図である。 図 6は、 血管画素の追跡の説明に供する略線図である。
図 7は、 直線上の点及び屈曲点の出現パターンを示す略線図である。 図 8は、 屈曲点の検出の説明に供する略線図である。
図 9は、 ォリジナル血管画素に対する線分画素の重複割合の判定の説明 に供する略線図である。 '
図 1 0は、 削除処理手順を示すフローチャートである。
図 1 1は、 屈曲点の削除前と削除後を示す略線図である。
図 1 2は、 部分血管線の連結 ( 3分岐) の説明に供する略線図である。 図 1 3は、 部分血管線の連結'( 4分岐) の説明に供する略線図である。 図 1 4は、 特徴点抽出処理により得られる特徴点を示す略線図である。 図 1 5は、 血管パターンと、 擬似血管パターンとを示す略線図である。 図 1 6は、 線分と、 その線分の端点を通る横方向の軸との角度の算出の 説明に供する略線図である。 '
図 1 7は、 血管パターンの角度分布を示す略線図である。
図 1 8は、 擬似血管パターンの角度分布を示す略線図である。
図 1 9は、 直線に近似する線分長の説明に供する略線図である。
図 2 0は、 弁別指標の分布を示す略線図である。
図 2 1は、 び一 C平面における弁別指標の分布を示す略線図である。 図 2 2は、 データ生成処理手順を示すフローチヤ一十である。
図 2 3は、 本実施の形態による認証装置の構成を示すプロック図である。 図 2 4は、 弁別処理手順 ( 1 ) を示す略線図である。
図 2 5は、 弁別処理手順 ( 2 ) を示す略線図である。 発明を実施するための最良の形態
以下図面について、 本発明を適用した一実施の形態を詳述する。
( 1 ) 本実施の形態による認証システムの全体構成
本実施の形態による認証システムは、 データ生成装置と、 認証装置とに よって構成される。 このデータ生成装置は、 血管パターンであると判定す べき範囲を表すデータ (以下、 これを血管パターン範囲データと呼ぶ) を 生成し、 これを認証装置の内部メモリに書き込む。
この認証装置には、 この血管パターン範囲データに基づいて、 被写体の 撮像結果として得られる画像デ一夕のパターンが擬似血管パターンである か否かを判定する機能が搭載されている。
( 2 ) データ生成装置の構成
このデータ生成装置の構成を図 1に示す。 このデータ生成装置 1は、 制 御部 1 0に対して、 操作部 1 1 と、 撮像部 1 2と、 フラッシュメモリ 1 3 と、 外部とデータを授受するインターフヱ一ス (以下、 これを外部イ ン夕 一フェースと呼ぶ) 1 4とをそれぞれバス 1 5を介して接続することによ り構成される。
制御部 1 0は、 デ一夕生成装置 1全体の制御を司る C P U (Central Processing Unit)と、 各種プログラム及び設定情報が格納される R O M (Read Only Memory)と、 当該 C P Uのワークメモリ と しての R A M (Random Access Memory)とを含むマイクロコンピュー夕でなってレ、る。
この制御部 1 0には、 撮像命令 C O M 1又は血管パターン範囲デ一夕を 生成すべき命令 C O M 2が、 ユーザ操作に応じて操作部 1 1から与えられ る。 制御部 1 0は、 かかる実行命令 C O M 1、 C O M 2に基づいて実行す べきモードを決定し、 この決定結果に対応するプログラムに基づいて、 撮 像部 1 2、 フラッシュメモリ 1 3及び外部ィン夕一フェース 1 4を適宜制 御することによって、 撮像モード又はデータ生成モードを実行するように なされている。
( 2 - 1 ) 撮像モード
具体的に制御部 1 0は、 実行すべきモードとして撮像モ一ドを決定した 場合、 動作モードを撮像モ一ドに遷移し、 撮像部 1 2を制御する。
この場合、 撮像部 1 2の駆動制御部 1 2 aは、 このデ一夕生成装置 1に おける所定位置に近赤外光を照射する 1又は 2以上の近赤外光光源 L Sと、 例えば C C D (Charge Coupled Device)でなる撮像素子 I Dとを駆動制御 する。 '
撮像素子 I Dは、 所定位置に配置されたオブジェク トに照射され、 該ォ ブジェク ト、 光学系 O P及び絞り D Hを順次介して入射する近赤外光を光 電変換し、 当該光電変換結果を画像信号 S 1 として駆動制御部 1 2 aに送 出する。
ここで、 オブジェク トが生体の指であった場合、 近赤外光光源 L Sから 指に照射された近赤外光は、 当該指の内方を反射及び散乱するようにして 経由し、 指の血管を投影する血管投影光として、 撮像素子 I Dに入射し、 この血管投影光が画像信号 S 1 として駆動制御部 1 2 aに送出されること となる。
駆動制御部 1 2 aは、 画像信号 S 1の画素値に基づいて、 被写体に焦点 が合うように光学系 0 Pにおける光学レンズのレンズ位置を調整するとと もに、 撮像素子 I Dに入射する入射光量が適応量となるように絞り D Hに おける絞り値を調整し、 当該調整後に撮像素子 I Dから出力される画像信 号 S 2を制御部 1 0に供給する。
制御部 1 0は、 この画像信号 S 2に対して所定の画像処理を施すことに よって、 当該画像におけるオブジェク トパターンの特徴を抽出し、 当該抽 出された画像を、.画像デ一夕 D 1 としてフラッシュメモリ 1 3に記憶する。 このようにしてこの制御部 1 0は、 撮像モ一ドを実行することができる ようになされている。
ここで、 かかる画像処理の処理内容について説明する。 この画像処理は、 機能的には、 図 2に示すように、 前処理部 2 1及び特徴点抽出部 2 2にそ れそれ分けることができる。 以下、 これら前処理部 2 1及び特徴点抽出部 2 2について詳細に説明する。 ただし、 便宜上、 撮像部 1 2から供給され る画像信号 S 2は、 生体の指を撮像した結果得られたものとして説明する。 ( 2 - 1 - A ) 前処理
前処理部 2 1は、 撮像部 1 2から供給される画像信号 S 2に対して A / D (Analog/Digital)変換処理、 ソ一べルフィル夕処理等の所定の輪郭抽出 処理、 ガウシアンフィル夕処理等の所定の平滑化処理、 2値化処理及び細 線化処理を順次施すことによって血管パターンを抽出する。
例えば図 3 ( A ) に示す画像 (画像信号 S 2 ) が前処理部 2 1に入力さ れた場合、 該画像は、 この前処理部 2 1での前処理により血管パターンが 強調され、 図 3 ( B ) に示す画像に変換されることとなる。
前処理部 2 1は、 このようにして血管パターンを抽出した画像のデータ (以下、 これを画像データと呼ぶ) D 2 1を、 特徴点抽出部 2 2に出力す るようになされている。
この実施の形態の場合、 この画像デ一夕 D 2 1の画像に含まれる血管線 (血管パターン) は、 2値化処理により、 白画素とされ、 その幅 (太さ) は、 細線化処理により、 「 1」 とされる。 この血管線の幅が 「 1」 とは、 線幅が 1画素ということである。
( 2 _ 1— B ) 特徴点抽出処理
特徴点抽出部 2 2は、 入力される画像に含まれる血管パターンを構成す る白画素 (以下、 これを血管画素と呼ぶ) のうち、 端点、 分岐点及び屈曲 点を検出し、 該端点及び分岐点を基準として、 屈曲点を適宜削除する。 ( B— 1 ) 端点及び分岐点の検出
まず、 特徴点抽出部 2 2は、 第 1段階として、 血管線から端点及び分岐 点を検出する。
具体的には、 特徴点抽出部 2 2は、 入力される画像 (画像デ一夕 D 2 1 ) を構成する各画素のうち、 血管画素を所定の順序で着目画素とし、 該 着目画素の周囲の画素 (上下左右方向における 4画素及び斜め方向におけ る 4画素の計 8画素) に存在する血管画素の画素数を調べる。
ここで、 血管線における端点、 分岐点及び孤立点の出現パターンを図 4 に示す。 この図 4では、 着目画素を編状とし、 血管画素 (白画素) を、 視 覚的便宜を図るため黒色としている。 この図 4からも明らかなように、 血 管の線幅が 1画素として表現されている場合、 着目画素と、 その周囲の血 管画素の 「数」 との関係は一義的となり、 また、 分岐パターンとしては、 必ず、 3分岐又は 4分岐のいずれかとなる。
したがって、 特徴点抽出部 2 2は、 着目画素の周囲に 1つの血管画素が 存在する場合には、 その着目画素を端点として検出する。 一方、 特徴点抽 出部 2 2は、 着目画素の周囲に 3つ又は 4つの血管画素が存在する場合に は、 その着目画素を分岐点として検出する。 他方、 特徴点抽出部 2 2は、 着目画素の周囲に血管画素が存在しない場合には、 その着目画素を孤立点 として検出する。
そして特徴点抽出部 2 2は、 検出した端点、 分岐点及び孤立点のうち、 血管線の構成要素とはならない孤立点を削除する。
このようにしてこの特徴点抽出部 2 2は、 第 1段階として、 血管線から 端点及び分岐点を検出するようになされている。
( B— 2 ) 屈曲点の検出
次に、 特徴点抽出部 2 2は、 第 2段階として、 端点及び分岐点を基準と して、 屈曲点を検出する。
具体的には、 特徴点抽出部 2 2は、 例えば図 5に示す場合、 分岐点 D P 1を始点とし、 該始点とした分岐点 D P 1の次に出現する他の特徴点 (端 点 E P 1、 端点 E P 2、 分岐点 D P 2 ) を終点として、 始点から終点まで の血管線 (以下、 これを部分血管線と呼ぶ) を追跡する。 同様に、 特徴点 抽出部 2 2は、 分岐点 D P 2を始点とし、 該始点とした分岐点 D P 2の次 に出現する他の特徴点 (端点 E P 3、 端点 E P 4 ) を終点として、 部分血 管線を追跡する。
この図 5の例では、 分岐点 D P 1、 D P 2を始点としたが、 端点を始点 とするようにしてもよい。 ちなみに、 この図 5からも明らかなように、 端 点は、 必ず、 始点又は終点のいずれか一方にしかなり得ないものであるが、 分岐点は、 必ず、 始点及び終点の一方又は双方が重複する。
ここで、 具体的な追跡手法を図 6に示す。 この図 6において、 特徴点抽 出部 2 2は、 始点から、 現着目画素 (網状ハッチングで表される画素) の 周囲に存在する血管画素のうち直前に着目画素とした血管画素 (横ハツチ ングで表される画素) を除く血管画素を、 次の着目画素として、 当該現着 目画素の周囲に存在する血管画素が終点となるまで、 部分血管線における 血管画素を順次追跡していく。
この部分血管線における血管画素は、 分岐点又は端点から次の分岐点又 は端点までの血管線であることから、 決して、 分岐が存在しないものとな る。 したがって、 着目画素は、 必ず、 直線上の点又は屈曲点となる。 ちな みに、 図 7において、 直線上の点及び屈曲点の出現パターンを示す。 この 図 7では、 図 4と同様に、 着目画素を編状とし、 血管画素 (白画素) を、 視覚的便宜を図るため黒色としている。
特徴点抽出部 2 2は、 例えば図 8に示すように、 始点及び終点 (斜め格 子状のハッチングで表される画素) の間の追跡過程において、 現着目画素 以前の血管画素の直線性が、 次に着目画素とされる血管画素から損なわれ る場合には、 該現着目画素を屈曲点 (格子状のハッチングで表される画 素) として検出する。
やがて、 終点に到達すると、 特徴点抽出部 2 2は、 この部分血管線にお ける始点から屈曲点を経て終点までの各特徴点を、 グループとして割り当 てる。
このようにしてこの特徴点抽出部 2 2は、 第 2段階として、 端点及び分 岐点を基準として、 分岐点又は端点から次の分岐点又は端点までの血管線 (部分血管線) ごとに屈曲点を検出するようになされている。
( B - 3 ) 屈曲点の削除
次に、 特徴点抽出部 2 2は、 第 3段階として、 グループとして割り当て られた、 部分血管線における始点から屈曲点を経て終点までの各特徴点 (以下、 これを部分血管構成点列と呼ぶ) を処理単位として、 当該部分血 管線における屈曲点を削除する。
これら部分血管構成点列に対する削除処理の内容は同一であるので、 該 内容を、 ある 1つの部分血管構成点列を処理対象とした場合に限って図 9 を例に用いて具体的に説明する。 この図 9において、 正方形はオリジナル 血管線を構成する画素 (以下、 これをオリジナル血管画素と呼ぶ). を表し、 当該ォリジナル血管画素のうち端点及び屈曲点には破線を付している。 特徴点抽出部 2 2は、 部分血管構成点列のうち、 基準として選択した特 徴点 (以下、 これを基準点と呼ぶ) G Pb sから削除候補点 GP c d (G P c d l〜G P c d 3) までのオリジナル血管画素に対する、 当該基準点 G Pb s及び削除候補点 G P c dを結ぶ線分 S G ( S G i S Gg) を構成する画 素 (以下、 これを線分画素と呼ぶ) の重複割合が、 所定の閾値 (以下、 こ れを重複割合閾値と呼ぶ) よりも小さくなるまで、 当該削除候補点 GP c dを終点側に順次ずらしながら求めていく。
この図 9では、 線分 の線分画素 ( 2画素) は、 基準点 GPb sから 対応する削除候補点 GPcd lまでのオリジナル血管画素 ( 2画素) の全て と重複するので、 重複割合は 「 2/2」 である。 また線分 S G2の線分画 素 ( 7画素) は、 基準点 G P b sから対応する.削除候補点 G P c d 2までの オリジナル血管画素 ( 7画素) のうちの 4画素と重複するので、 重複割合 は 「4/7」 である。 線分 S G 3の線分画素 ( 9画素) は、 基準点 GP b s から対応する削除候補点 GPc d 3までのオリジナル血管画素 ( 9画素) の うちの 2画素と.重複するので、 重複割合は 「 2/9」 である。
線分 S G3の線分画素の重複割合が重複割合閾値よりも小さ.いとした場 合、 特徴点抽出部 2 2は、 そのとき削除候補点 GPc d 3として選択した特 徴点よりも 1つ前に削除候補点 GPcd 2として選択した特徴点と、 基準点 G P b sとの間の特徴点 GP c d lを削除する。 そうすると、 この特徴点 G P c d iを削除した場合であっても、 残した特徴点 G P c d 2から基準点 G P b sまでの線分 S G 2はオリジナル血管線と近似することになる。
ここで、 かかる重複割合閾値を小さく設定すると、 線分 S G 3が、 当該 基準点 G P b sから削除候補点 G P c d 3までのォリジナル血管画素 (部分 血管線) と近似しないにもかかわらず、 特徴点 GP cd lを削除するといつ たことが生じ、 これに対して重複割合閾値を大きく設定すると、 特徴点 G P c d iを削除することができないといったことが生じ得る。
そこで、 この実施の形態では、 特徴点抽出部 2 2は、. 線分長に応じて重 複割合閾値を切り換えるようになつている。 具体的には、 基準点を G P j tJ = l、 2、 ······、 M (Mは整数) ) とし、 その基準点からひ番目の削 除候補点を GP J + aとすると、 基準点 GP j及び削除候補点 G P J + aを結 ぶ線分 G P j— G P J + aについてオリジナル血管画素に対する重複割合を 求める場合、 その直前に重複割合を求めた線分 (以下、 これを直前線分と 呼ぶ) G P J + - D — G P j +„の線分長が所定の閾値 (以下、 これを線 分長閾値と呼ぶ) 以上であるときには、 第 1の重複割合閾値を設定し、 こ れに対して線分長閾値未満であるときには、 第 1の重複割合閾値よりも大 きい第 2の重複割合閾値を設定する。
このようにすることで,、 部分血管線上に存在する屈曲点を結んだ場合に その結んだ線が部分血管線に近似するように、 削除対象としての屈曲点を 的確に選択することが可能となる。
具体的に、 この屈曲点の削除処理は、 部分血管構成点列における始点か ら、 図 3 4のフローチャートに示す手順で実行される。 すなわち特徴点抽 出部 2 2は、 部分血管構成点列の始点を基準点として選択するとともに、 該基準点から 1番目の特徴点を、 削除候補点として選択する (ステップ S P 3 1 ) 。
そして特徴点抽出部 2 2は、 この屈曲点の削除処理を開始してから初め て重複割合を求める場合であるか、 又は、 現時点の選択対象である基準点 G P j及び削除候補点 GPJ + aを結ぶ線分 G P j_ GPJ + aの直前線分 G P J + (α_ η — G P J +„の線分長が線分長閾値未満であるかを判定する (ステップ S P 3 2 ) 。
この屈曲点の削除処理を開始してから初めて重複割合を求める場合又は 直前線分 G P J + (α_ n - G P j + αの線分長が線分長閾値未満である場合、 特徴点抽出部 2 2は、 重複割合閾値として第 1の重複割合閾値を設定した 後 (ステップ S P 3 3 ) 、 現時点の選択対象である基準点 G P j及び削除 候補点 GP J + aを結ぶ線分 GP j— GP J + aについてオリジナル血管画素 に対する重複割合を求め (ステップ S P 34 ) 、 この重複割合が第 1の重 複割合閾 ί直以上であるか否かを判定する (ステップ S P 3 5 ) 。
これに対して、 この屈曲点の削除処理を開始してから重複割合を求める 回数が 2回目以降であり、 かつ、 直前線分 GP J + — GP J + aが線 分長閾値以上となる場合、 特徴点抽出部 2 2は、 重複割合閾値として第 2 の重複割合閾値を設定した後 (ステップ S P 3 6 ) 、 現時点の選択対象で ある基準点 G P j及び削除候補点 G P J + aを結ぶ線分 G P j— G P J + aに ついてオリジナル血管画素に対する重複割合を求め (ステップ S P 34 ) 、 この重複割合が第 2の重複割合閾値以上であるか否かを判定する (ステツ プ S P 3 5 ) o
ここで、 重複割合が重複割合閾値以上となる場合、 このことは、 現時点 の選択対象である基準点 G P j及び削除候補点 G P J + aを結ぶ線分 G P j — GPJ + aが、 当該基準点 GPjから削除候補点 G P j +„までのオリジナ ル血管線と近似する又は同一であることを意味する。
この場合、. 特徴点抽出部 2 2は、 現時点の選択対象である削除候補点 G PJ + aが部分血管構成点列の終点であるか否かを判定し (ステップ S P 3 7 ) 、 終点でないときには、 当該削除候補点 GPJ + aとして選択している 特徴点に対して終点側にある特徴点を、 新たな削除候補点 GP J +„として 選択した後 (ステップ S P 3 8 ) 、 上述した処理に戻る (ステップ S P 3 2) o
一方、 重複割合が重複割合閾値未満となる場合、 このことは、 現時点の 選択対象である基準点 GP j及び削除候補点 G P J +„を結ぶ線分 G P j— G P j +„が、 当該基準点 G P jから削除候補点 G P j + αまでのオリジナル 血管線とはかけ離れていることを意味する。
この場合、 特徴点抽出部 2 2は、 現時点よりも 1つ前に削除候補点 GP J +„として選択していた特徴点と、 現時点で基準点 GP jとして選択して いる.特徴点との間における 1又は 2以上の特徴点をすベて削除する (ステ ップ S P 3 9 ) 。
そして特徴点抽出部 2 2は、 現時点の選択対象である削除候補点 GP j + αが部分血管構成点列の終点であるか否かを判定し (ステップ S P 4 0 ) 、 終点でないときには、 現時点の選択対象である削除候補点 GP .j +a を基準点 G P jとして選択するとともに、 その基準点 G P jに対して終点 側にある特徴点を、 新たな削除候補点 G P j + αとして選択した後 (ステツ プ S Ρ 4 1 ) 、 上述の処理に戻る (ステップ S Ρ 3 2 ) 。
他方、 特徴点抽出部 2 2は、 現時点の選択対象である削除候補点 G Pj + αが部分血管構成点列の終点であると判定した場合には (ステップ S Ρ 3 7 ( Υ) 又はステップ S P 40 (Υ) ) 、 現時点で削除候補点 GP J + a として選択している特徴点と、 現時点で基準点 GP jとして選択している 特徴点との間における 1又は 2以上の特徴点をすベて削除した後 (ステツ プ S P 4 2 ) 、 この屈曲点の削除処理を終了する。
特徴点抽出部 2 2は、 このような手順により、 屈曲点の削除処理を実行 するようになされている。 なお、 この削除処理前と削除処理後を図 1 1に 示す。 この図 1 1では、 削除処理における線分長閾値を 5 [mm] とし、 第 1の重複割合閾値を 0. 5 ( 5 0 [%] ) とし、 第 2の重複割合閾値を 0. 7 ( 7 0 .[%] ) とした場合を示している。 また、 図 3 5において、 正方形はオリジナル血管画素を表し、 丸は線分を構成する画素を表し、 ォ リジナル血管画素のうち端点及び屈曲点には破線を付している。 この図 1 1からも明らかなように、 上述の削除処理によって、 部分血管 線上に存在する屈曲点を結んだ場合にその結んだ線が部分血管線に近似す るように、 的確に屈曲点が削除されることとなる。
(B— 4 ) 端点の削除
次に、 特徴点抽出部 2 2は、 第 4段階として、 血管線上の分岐点から伸 びる 3つ又は 4つの部分血管線のうち、 直線として近似する 2つの部分血 管線を、 1つの部分血管線として連結することで、 当該 2つの部分血管線 の端点となっていた始点又は終点の 1つを削除する。 ちなみに、 分岐点か ら伸びる部分血管線は、 1画素幅でなる血管 (血管線) では、 図 4でも述 ベたように、 必ず、 3つ又は 4つとなる。
具体的に、 例えば図 1 2 (A) に示すように、 分岐点 G P ( G P Aい GPBい GPC 1) から 3つの部分血管線 P B L A、 P B LB、 P B L Cが 伸びている場合、 特徴点抽出部 2 2は、 これら部分血管線 P B L A、 P B L B、 P B L Cのうち、 1対の部分血管線同士の交差角度 (9 A-B、 .0 A — C、 B Cの余弦
Figure imgf000018_0001
B _ c )) を求める。
ここで、 最も小さい余弦 cos(6> A— B )が所定の閾値 (以下、 これを余弦 閾値と呼ぶ) よりも小さいとき、 このことは、 部分血管線の交差角度が 1 :8 0度に近いことを意味する。 このとき特徴点抽出部 2 2は、 その最小の 余弦 cos(0 AB)に対応する 1対の部分血管線の部分血管構成点列 G P Aい G PA 2、 ……、 G PA e n d及び G PBい G PB 2、 ……、 G PB e n dの 両端うち、 重複しないほうの点 G P A e n d、 G P B - e n dを始点又は端点 として、 その始点及び端点間の特徴点を 1つのグループとして割り当てし なおす。
この結果、 1対の部分血管線 P B L A、 P B L Bは連結され、 例えば図 1 2 ( B ) に示すように、 該連結された部分血管線 P B L ABの部分血管 構成点列 GPAB_f i r sい ……ヽ GPAB 1。、 GPAB 1い GPAB 1い … 〜、 G P'AB-e ndの個数は、 連結前の 1対の部分血管線の部分血管構成点 列と比べると、 該 1対の部分血管線の部分血管構成点列それぞれの始点と なっていた 2つの分岐点 G P Aい G P B tが 1つの中間点 G P A B! ,とし て置換されたことで、 1点減ることになる。 なお、 部分血管線 P B LAB は、 1対の部分血管線 P B L A、 P B LBを単に連結したものであるので、 連結前後における血管線の形態には変化が生じることはない。
これに対して、 最も小さい余弦 cos(6>A_B)が余弦閾値よりも.大きいと き、 特徴点抽出部 2 2は、 グループの再割り当てをせずに、 未処理対象の 分岐点があれば、 処理対象を次の分岐点にうつし、 未処理対象の分岐点が なければ、 この処理を終了する。
一方、 例えば図 1 3 ( A) に示すように、 分岐点 GP (GPA 1、 GPB い G P Cい GPD 1) から 4つの部分血管線 P B LA、 P B LB、 P B L c、 P B LDが伸びている場合、 特徴点抽出部 2 2は、 これら部分血管線 P B LA、 P B LB、 P B L C、 P B L Dのうち、 1対の部分血管線同士の 交差角度 0 A Β、 Θ A一い Θ AΏ、 0 B c、 Θ B _ D s 6> cDの余弦 ( cos( Θ AΒ)、' cos( θ A一 c;)、 cos( Θ A _ D)、 cos( Θ B _ c) 、. cos( Θ BD)、
" を求める。
ここで、 最も小さい余弦 cos ( B_D)が第 2の余弦閾値よりも小さいと き、 このことは、 部分血管線の交差角度が 1 8 ひ度に近いことを意味する。 この.とき特徴点抽出部 2 2は、 その最小の余弦 cos(0B_.D)に対応する 1. 対の部分血管線の部分血管構成点列 GPB 1、 GPB 2、 ……、 GPBe nd 及び G PDい GPD 2、 ……、 G PD e ndの両端うち、. 重複しないほうの 点 GP B_e nd、 GPD_e ndを始点又は端点として、 その始点及び端点間 の特徴点を 1つのグループとして割り当てしなおす。
この結果、 1対の部分血管線 P B LB、 P B LDは連結され、 例えば図 1 3 (B ) に示すように、 該連結された部分血管線 P B.LBDの部分血管 構成点列 GPBD f i r sい .……、 GPBD 1。、 GPBD 1い GPBD 12、 … ·· G PBD_endの個数は、 連結前の 1 の部分血管線の部分血管構成点 列と比べると、 該 1対の部分血管線の部分血管構成点列それぞれの始点と なつ Tいた 2つの分岐点 G P B 1、 GPD 1が 1つの中間点 GPBD 1 1とし て置換されたことで、 1点減ることになる。 なお、 部分血管線 PB LBD は、 1対の部分血管線 P B L B、 P B L Dを単に連結したものであるので、 連結前後における血管線の形態には変化が生じることはない。
この 4分岐の場合、 1対の部分血管線 P B LB、 PB LDを連結しても、 未連結の部分血管線 P B L A、 PB LCが残るが、 特徴点抽出部 22は、 残りの部分血管線 P B L A、 P B Lc同士の交差角度 — cの余弦 (cos(0 A_c)) が余弦閾値よりも小さいときには、 例えば図 1 3 (C) に示すよ うに、 これら部分血管線 P B L A、 P B L cそれぞれの部分血管構成点列 を、 部分血管線 PBLB、 P B LDの部分血管構成点列と同様に、 1つの 部分血管構成点列. GPAC,— f i r s い ……、 GPAC 1。、 GPAC 1 い GPA C 12、 ······、 GPAC e ndとし、 元の部分血管構成点列の端点となる始点
GPA 1、 G P c iの 1つを削除するようになされている。
これに対して、 最も小さい余弦 cos(( A_B)が余弦閾値よりも大きいと き、 特徴点抽出部 22は、 グループの再割り当てをせずに、 未処理対象の 分岐点があれば、 処理対象を次の分岐点にうつし、 未処理対象の分岐点が なければ、 この処理を終了する。
ちなみに、.図 12及び図 13において一部重なっている点は、 位置 (座 標) 情報としては同一であるが、 グループが異なるため、 便宜上、 分離し て示している。
このようにしてこの特徴点抽出部 22は、 第 4段階として、 血管線上の 分岐点のうち、 該分岐点から伸びる部分血管線の交差角度の余弦が第 2の 余弦閾値よりも小さい条件を満たす 1対の部分血管線における部分血管構 成点列を、 1つの部分血管構成点列とすることによって、 当該 1対の部分 血管構成点列の端点となっていた始点又は終点の 1つを削除するようにな されている。
以上のように特徴点抽出部 2 2は、 端点、 分岐点及び屈曲点をそれぞれ 検出し (第 1段階及び第 2段階) 、 これら点から、 端点及び分岐点を基準 とするグループ (部分血管線点列) 単位で、 血管線の特徴となる点を、 当 該特徴点を結んだ場合にその結んだ線が血管線に近似しかつ直線に近似す るように抽出することができる (第 3段階及び第 4段階) 。
例えば図 3 ( B ) に示した画像 (画像デ一夕 D 2 1 ) が特徴点抽出部 2 2に入力された場合、 該画像は、 図 1 4に示すように、 この特徴点抽出部 2 2での特徴点抽出処理によって、 特徴点を結んだ線が血管線に近似しか つ直線に近似するように、 特徴点が抽出されることとなる。
特徴点抽出部 2 2は、 このようにして特徴点を抽出した画像のデ一夕 (画像デ一夕 D 1 ) を、 フラッシュメモリ 1 3に記憶するようになされて いる。
( 2 - 2 ) データ生成モ一ド
一方、 制御部 1 0は、 実行すべきモードとしてデータ生成モ ドを決定 した場合、 動作モードをデータ生成モ一ドに遷移し、 フラッシュメモリ 1 3に複数の画像デ一夕 D 1 i ( 1 = 1 , 2、 ……、 n ) が記憶されている . か否かを判定する。
そして制御部 1 0は、 フラッシュメモリ 1 3に複数の画像デ一夕 D 1 i ( i = l、 2.、 ……、 n ) が記憶されているときには、 これら画像データ D 2 2 iを用いて、 データ生成処理を実行するようになされている。
ここで、 このデータ生成処理の内容の詳細を説明する前に、 血管パター ンと、 擬似血管パターンとの弁別指標について説明する。 ただし、 擬似血 管パ夕一ンは、 グミ (ゼラチン、 砂糖、 水飴を材料とし、 ゴムのように弹 力のある形に固めた菓子) 又は大根を撮像対象とした場合に得られるもの を例とする。
( 2— 2— A ) 血管パターンと、 擬似血管パターンとの弁別指標 まず、 生体の指から得られる血管パターンと、 グミ及び大根から得られ る擬似血管パターンを図 1 5に示す。 この図 1 5に示すように、 血管パ夕 ーン (図 1 5 ( A) ) と、 擬似血管パターン (図 1 5 (B) 、 (C) ) と は、 概略的には、 同等のパターンにみえる。
ここで、 図 1 6に示すように、 特徴点間を結ぶ線分と、 その線分の端点 をとおる横方向の軸とのなす角度 6>に着目してみる。 すなわち、 パターン における各特徴点間を結ぶ線分と、 画像の横軸方向とのなす角度の分布を、 当該線分の長さ (線分を構成する画素の数) を度数として表してみると、 血管パダーン (図 1 7 ) では、 9 0 [° ] 及びその付近に集中するのに対 し、 グミから得られる擬似血管パターン (図 1 8 (A) ) 及び大根から得 られる擬似血管パターン (図 1 8 (B) ) では、 0 [。 :! 〜 1 80 [° ] にわたつてまばらに広がり、 規則性が乏しい状態となる。 これは、 血管パ ターンが四方八方に広がるのではなく、 一定の方向 (指の長さ方向) に揃 つている傾向にあることに起因している。
また、 図 1 9に示すように、 血管パターン (図 1 9 ( A) ) は、 グミか ら得られる擬似血管パターン (図 1 9 (B) ) 又は大根から得られる擬似 血管パターン (図 1 9 (C) ) に比して、 直線に近似する線分の線分長が 長い傾向にあるため、 上述の特徴点抽出処理によってグループとして割り 当てられる線分 (部分血管線) の数が少なくなる。
したがって、 血管パターンと擬似血管パターンとの弁別指標としては、 第 1に、 角度分布の広がり、 第 2に、 当該角度分布における 9 0 [° ] 及 びその付近の分布強度、 第 3に、 グループとして割り当てられる線分の数 を挙げる.ことができる。
この角度分布の広がりは、 例えば、 当該分布の分散 (又は標準偏差) で 表すことができる。 すなわち、 パターンの特徴として抽出された特徴点間 を結ぶ線分を 1 K (K= l、 2、 ……、 Ν (Νは整数) ) とし、 当該線分 と画像の横軸方向とのなす角度を 6> κとし、 当該線分長を L κとすると、 線分 1 Kの角度 < Kの分布は、 線分長 LKで重み付けされているので、 その 分布の平均は、 次式 '
179
c a V
θ = — = ^≡i——
(1)
∑LK ∑LK となり、 分散は、 次式
σ 2一
二 (2)
Figure imgf000023_0001
となる。
また、 分布強度は、 全体の分布面積に対する、 9 0 [° ] を中心とした 所定の角度範囲における分布面積の割合で表すことができる。 すなわち、 角度範囲を、 lower ] く < upper [° ] とし、 分布面積を S とする と、 分布強度は、 次式
pupper _ 1 ΠΠ v
A lower 一 1リリ八 …… ( 3)
Figure imgf000023_0002
となる。
また、 グループとして割り当てられる線分の数は、 上述の特徴点抽出処 理後に割り当てられているグループの数である。 すなわち、 上述したよう に、 特徴点抽出部 22では、 屈曲点の検出処理のときに、 部分血管線にお ける始点から屈曲点を経て終点までの各特徴点 (部分血管構成点列) がグ ループとして割り当てられ、 これらグループのなかで、 直線として近似す るグループ (部分血管構成点列) 同士が、 1つのグループとしてまとめら れるので、 この後に残ったグループ (部分血管構成点列) の数となる。 ここで、 これら 3つの弁別指標を用いて、 血管パターンと、 グミから得 られる擬似血管パターンとにおける弁別結果を図 2 0に示す。 この図 2 0 では、 薄いほうのプロッ トは、 グミから得られる擬似血管パターンに対応 するものであり、 サンプル数は 6 3 5サンプルとした。 一方、 濃いほうの プロッ トは、 指を 5回撮像し、 当該得られる血管パターンのうち、 薄いほ うのプロッ トの分布の中心からマハノビス距離が最も遠い血管パターンに 対応するものであり、 サンプル数は 1 2 7サンプルとした。
また、 この図 2 0における 「R f G」 は、 擬似血管パターンと判定すベ き境界 (以下、 これを擬似血管境界と呼ぶ) を表し、 具体的には、 薄いほ うのプロッ トの分布の中心から、 マハノビス距離が 「 2 . 5」 である。 一 方、 「R f F」 は、 血管パターンと判定すべき境界 (以下、 これを血管境 界と呼ぶ) を表し、 具体的には、 濃いほうのプロッ トの分布の中心から、 マハノビス距離が 「 2 . 1」 である。 ちなみに、 「眷」 のプロッ トは、 擬 似血管境界 R f G又は血管境界 R f F内に存在するものであるのに対し、 「*」 のプロッ トば、 擬似血管境界 R f G又は血管境界 R f F内に存在し ないものである。
この図 2 0からも明らかように、 血管パターンと擬似血管パターンとは おおよそ弁別でき、 当該図 2 0の 3次元分布のうち 6— C平面に限 όてみ れば、 図 2 1からも明らかなように、 血管パターンと擬似血管パターンと は完全に弁別することができる。 ちなみに、 この図 2 0及び図 2 1は、 角 度分布の広がりを標準偏差により表している。
( 2— 2— Β ) データ生成処理の具体的な処理内容
次に、 デ一夕生成処理の具体的な処理内容について説明する。 このデー 夕生成処理は、 図 2 2に示すフローチヤ一トにしたがって行われる。 すなわち、 制御部 10は、 フラッシュメモリ 1 3から読み出した複数サ ンプルの画像デ一夕 D 1 iの各血管パターンについて、 3つの弁別指標 (角度分布の分散、 角度分布の強度及びグループとして割り当てられる線 分の数) をそれぞれ求める (ステップ S P 1〜ステップ S P 5のループ) また、 制御部 10は、 各サンプルの血管パターンについて弁別指標を求 め終わった場合 (ステヅプ S P 5 : YE S) 、 角度分布の分散をびとし、 角度分布の強度.を Pとし、 グループとして割り当てられる線分の数を Cと すると、 次式
Figure imgf000025_0001
のように、 各サンプルの血管パターンを列とし、 当該血管パターンについ ての弁別指標を行とする行列に置換する (ステップ SP 6) 。
次いで、 制御部 10は、 弁別指標の行列から、 各サンプルにおける弁別 指標の分布の中心を、 次式 ':
Rf = - ∑^ ∑Q ∑¾( ∑^(2) ∑^(3) (5) « ΑΓ=1 =1 ΑΤ=1 Α 1 によ り求めるとともに (ステップ S P 7 ) 、 共分散行列 ( covariance matrix) の逆行列を求める (ステップ S P 8) 。 ちなみに、 共分散行列 は、 各サンプルにおける弁別指標の分布の広がり (ばらつき) の程度を表 すものであり、 その逆数は、 マハラノ ビス距離を求めるときに用いられる ものである。 そして、 制御部 1 0は、 ステップ S P 7で求めた弁別指標の分布の中心 と、 ステップ S P 8で求めた共分散行列の逆行列と、 予め設定された血管 境界値 (図 2 0を例にすればマハラノビス距離が 「 2 . 1」 ) とを、 血管 パターン範囲データ (血管パターンであると判定すべき範囲を表すデー 夕) として生成し (ステップ S P 9 ) 、 これを認証装置の内部メモリに記 憶した後 (ステップ S P 1 0 ) 、 このデ一夕生成処理を終了する。
このようにして制御部 1 0は、 血管パターンが四方八方に広がるのでは なく、 一定の方向 (指の長さ方向) に揃っている傾向にあること、 血管パ ターンの線分のうち直線に近似する線分の線分長が長い傾向にあることを、 血管パターンと擬似血管パターンとの弁別指標として、 血管パターンであ ると判定すべき範囲を表すデ一夕 (弁別指標の分布の中心、 共分散行列の 逆行列及び血管境界値) を生成することができるようになされている。 ( 3 ) 認証装置の構成
次に、 認証装置の構成を図 2 3に示す。 このデータ生成装置 1は、 制御 部 3 0に対して、 操作部 3 1 と、 撮像部 3 2と、 フラッシュメモリ 3 3 と、 外部ィン夕一フェース 3 4.と、 通知部 3 5とをそれぞれバス 3 6を介して 接続することにより構成される。
制御部 3 0は、 認証装置 1全体の制御を司る C P Uと、 各種プログラム 及び設定情報が格納される R O Mと、 当該 C P Uのワークメモリとしての R A Mとを含むマイクロコンピュー夕でなっている。 なお、 'この R 0 Mに は、 デ一夕生成装置 1によって生成された血管パターン範囲デ一夕が記憶 されている。
この制御部 3 0には、 登録対象のユーザ (以下、. これを登録者と呼ぶ) の血管を登録するモード (以下、 これを血管登録モードと呼ぶ) の実行命 令 C O M 1 0又は登録者本人の有無を判定するモード (以下、 これを認証 モ一ドと呼ぶ) の実行命令 C O M 2 0が、 ユーザ操作に応じて操作部 3 1 から与えられる。 制御部 3 0は、 かかる実行命令 C O M 1 0、 C O M 2 0に基づいて実行 すべきモードを決定し、 この決定結果に対応するプログラムに基づいて、 撮像部 3 2、 フラッシュメモリ 3 3、 外部インターフェース 3 4及び通知 部 3 5を適宜制御することによって、 血管登録モード又は認証モードを実 行するようになされている。
( 3 - 1 ) 血管登録モ一ド
具体的に制御部 3 0は、 実行すべきモードとして血管登録モ一ドを決定 した場合、 動作モードを血管登録モードに遷移し、 撮像部 3 2を制御する。 この場合、 撮像部 3 2は、 データ生成装置 1の撮像部 1 2 (図 1 ) と同 様にして、 近赤外光光源 L S及び撮像素子 I Dを駆動制御するとともに、 この認証装置 2の所定位置に配されたォブジヱク トの撮像結果として撮像 素子 I Dから出力される画像信号 S 1 0 aに基づいて光学系 0 Pにおける 光学レンズのレンズ位置及び絞り D Hの絞り値を調整し、 当該調整後に撮 像素子 I Dから出力される画像信号 S 2 0 aを制御部 3 0に供給する。 制御部 3 0は、 この画像信号 S 2 0 aに対して、 データ生成装置 1の前 処理部 2 1及び特徴点抽出部 2 2 (図 2 ) と同一の前処理及び特徴点抽出 処理を順次施すことによって、 当該画像におけるオブジェク トパターンを 抽出するとともに、 そのオブジェク トパターンにおける始点から屈曲点を 経て終点までのグループ (部分血管構成点列 単位で特徴点を抽出する。 そして制御部 3 0は、 R O Mに記憶された血管パターン範囲デ一夕に基 づいて、 オブジェク トパターンを血管パターン又は擬似血管パターンに弁 別する処理 (以下、 これを弁別処理と呼ぶ) を実行し、 当該オブジェク ト パターンを血管パターンとして弁別した場合には、 オブジェク トパターン の特徴点を、 登録者を識別するための情報 (以下、 これを登録者識別デー 夕と呼ぶ) D I Sとしてフラッシュメモリ 3 3に記憶することにより登録 する。
このようにしてこの制御部 3 0は、 血管登録モ一ドを実行することがで きるよう-になされている。
( 3— 2 ) 認証モード .
一方、 制御部 3 0は、 実行すべきモードとして認証モードを決定した場 合には、 認証モードに遷移し、 血管登録モードの場合と同様にして撮像部 3 2を制御する。
この場合、 撮像部 3 2は、 近赤外光光源 L S及び撮像素子 I Dを駆動制 御するとともに、 当該撮像素子 I Dから出力される画像信号 S 1 0 bに基 づいて光学系 0 Pにおける光学レンズのレンズ位置及び絞り D Hの絞り値 を調整し、 当該調整後に撮像素子 I Dから出力される画像信号 S 2 0 bを 制御部 3 0に供給する。
制御部 3 0は、 この画像信号 S 2 0 bに対して、 上述の血管登録モード の場合と同一の前処理及び特徴点抽出処理を順次施すとともに、 フラッシ ュメモリ 3 3に登録された登録者識別デ一夕 D I Sを読み出す。
そして制御部 3 0は、 上述の血管登録モードの場合ど同一の弁別処理を 実行し、 画像信号 S 2 0 bから抽出したオブジェク トパターンを血管パ夕 ニンとして弁別した場合には、 当該オブジェク トパターンにおける始点か ら屈曲点を経て終点までのグループ '(部分血管構成点列) 単位で抽出した 各特徴点と、 フラッシュメモリ 3 3から読み出した登録者識別データ D I Sの特徴点とを照合し、 当該合致の程度に応じて登録者 (正規ユーザ) で あるか否かを判定する。
ここで、 制御部 3 0は、 登録者であると判定したときには、 外部イン夕 一フェース 3 4に接続された動作処理装置 (図示せず) に対して所定の動 作を行わせる実行命令 C O M 3 0を生成し、 これを外部インタ一フェース 3 4を介して動作処理装置に転送する。
この外部ィン夕ーフェース 3 4に接続された動作処理装置の実施態様と して、 例えば閉錠状態にある ドアを採用した場合、 制御部 3 0は、 閧錠動 作を行わせる実行命令 C O M 3 0を ドアに転送する。 また他の動作処理装 置の実施態様例として、 複数の動作モードのうち一部の動作モードを制限 した状態にあるコンピュータを採用した場合、 制御部 3 0は、 その制限さ れた動作モードを開放させる実行命令 C O M 3 0をコンピュータに転送す る。
なお、 実施態様として 2つ例を挙げたが、 これらに限らず、 他の実施態 様も適宜選択することができる。 また、 本実施の形態では、 動作処理装置 を外部ィン夕一フヱ」ス 3 4に接続するようにしたが、 当該動作処理装置 におけるソフ 卜ゥヱァ乃至ハードウェアの構成をこの認証装置 1に搭載す るようにしてもよい。
これに対して、 制御部 3 0は、 登録者ではないと判定したときには、 そ の旨を通知部 3 5の表示部 3 5 aを介して表示するとともに、 当該通知部 3 5の音声出力部 3 5 bを介して音声出力することによって、 当該登録者 ではないと判定されたことを視覚的及び聴覚的に通知する。
このようにしてこの制御部 3 0は、 認証モードを実行することができる ようになされている。
( 3— 3 ) 弁別処理の具体的な処理内容
次に、 制御部 3 0における弁別処理の処理内容について説明する。 この 弁別処理は、 図 2 4に示すフロ一チヤ一トにしたがって行われる。
すなわち、 制御部 3 0は、 血管登録モード又は認証モード時に入力され る画像信号 S 2 0 a又は S 2 0 bに対して前処理及び特徴点抽出処理を順 次施した後、 この弁別処理手順を開始し、 ステップ S P 1 1において、 当 該画像信号 S 2 0 a又は S 2 0 bから抽出したオブジェク トパターンにつ いて、 角度分布の分散、 角度分布の強度及びグループとして割り当てられ る線分の数をそれぞれ検出する。
この検出により、 正規の血管パターンとして採用された複数のサンプル パターンの弁別指標の 3次元空間 (図 2 0 ) において、 このとき撮像対象 となったオブジェク トパターンの位置が特定されることになる。 続いて、 制御部 3 0は、 ステップ S P 1 2において、 R O Mに記憶され た血管パターン範囲データ (弁別指標の分布の中心、 共分散行列の逆行列 及び血管境界値) に基づいて、 弁別指標の 3次元分布の中心と、 当該ォブ ジェク トパターンの位置とのマハラノ ビス距離を算出する。
具体的には、 弁別指標の分布の中心を C Tとし、 共分散行列の逆行列を C o v 1とし、 オブジェク トパターンの位置を Pとすると、 次式
DC = j{P - CT) - Cov ] - (P - CT) …… ( 6 ) により、、 マハラノビス距離 D C Pを算出する。 この算出により、 正規の血 管パダーンとして採用された複数のサンプルパターンの分布 (図 2 0 ) の なかで、 このとき撮像対象となったオブジェク トパターンがどのあたりに 位置しているか特定されることになる。
次に、 制御部 3 0は、 ステップ S P 1 3において、 ステップ S P 1 2で 算出したマハラノビス距離が、 R O Mに記憶された血管パターン範囲デー 夕の血管境界値以下であるか否かを判定する。
この血管境界値は、 図 2 0に示したように、 弁別指標の分布の中心から 血管パターンと判定すべき境界 R f Fの値を表すものである。 したがって、 マハラノビス距離が血管境界値よりも大きかった場合、.このことは、 この とき抽出されたオブジェク トパターンが、 擬似血管パターン又は血管パ夕 —ンとは極端に相違するパターン等、 正規の血管パターンとは判定すべき ではないパターンであることを意味する。
この場合、 制御部 3 0は、 ステップ S P 1 4に進んで、 画像信号 S 2 0 a又は S 2 O bから抽出したォブジェク トパターン及びその特徴点を破棄 するとともに、 再度撮像すべき旨を通知部 3 5 (図 2 3 ) を介して通知し た後、 この弁別処理を終了する。
一方、 マハラノビス距離が血管境界値以下であった場合、 このことは、 このとき抽出されたォブジェク トパターンが、 正規の血管パターンと判定 すべきパターンであることを意味する。
この場合、 制御部 3 0は、 ステップ S P 1 5に進んで、 オブジェク トパ 夕一ンにおける始点から屈曲点を経て終点までのグループ (部分血管構成 点列) 単位で抽出された各特徴点を、 血管登録モードの場合には登録対象 として決定する一方、 認証モードの場合には既に登録者識別デ一夕 D I S として登録された各特徴点との照合対象として決定し、 この弁別処理を終 了する。
このようにして制御部 3 0は、 血管パターンが四方八方に広がるのでは なく、 一定の方向 (指の長さ方向) に揃っている傾向にあること、 血管パ ターンの線分のうち直線に近似する線分の線分長が長い傾向にあることを、 血管パターンと擬似血管パターンとの弁別指標として生成された血管パ夕 ーン範囲データ (弁別指標の分布の中心、 共分散行列の逆行列及び血管境 界値) に基づいて、 擬似血管パターン等を排除することができるようにな されている。
( 4 ) 動作及び効果
以上の構成において、 この認証システムにおけるデ一夕生成処理装置 1 . は、 複数のサンプル (生体の指) として入力される画像信号 S 1から得ら れる血管パターンそれぞれについて、 パターン形状を表す形状値を算出す る。 : ' この実施の形態の場合には、 血管パターンが四方八方に広がるのではな く、 一定の方向 (指の長さ方向) に揃っている傾向にあること、 直線に近 似する線分の線分長が長い傾向にあることを指標として、 パターン形状を 表す形状値が選定されている。
すなわち、 デ一夕生成処理装置 1は、 形状値として、 第 1に、 血管パ夕 ーンにおける各特徴点間を結ぶ線分と、 基準軸 (血行方向と直交する方向 軸) とのなす角度 (図 1 6 ) の分布であって、 当該線分の線分長を度数と して重み付けされた分布 (図 1 7 ) の広がりの程度、 第 2に、 その分布に おける全角度範囲の面積に対する、 血行方向の角度 ( 9 0 [° ] ) を中心 とした所定の角度範囲における面積の割合、 第 3に、 当該線分の数 (図 1 9 (A) ) を算出する (図 2 2 : ステップ S P 1〜ステップ S P 5 ) 。 そしてデータ生成処理装置 1は、 これら形状値の 3次元分布 (図 2 0 ) の中心と、 その中心からの広がりの程度を表す値 (共分散行列) の逆数と を算出し、 これらを認証装置 2の内部メモリに記憶する。
一方、 この認証システムにおける認証装置 2は、 登録対象又は登録デー 夕との照合対象として入力される画像信号 S 20 a、 S 2 0 bから得たパ ターンについて上述の 3つの形状値を算出する。 そして認証装置 2は、 こ れら 3つの形状値によって特定される 3次元分布上での位置と、 内部メモ リに記憶された 3次元分布 (図 20 ) の中心とのマハラノビス距離を、 共 分散行列の逆数を用いて算出し、 このマハラソビス距離が所定の閾値 (血 管境界値 (図 2 0 : 「R f f」 ) ) よりも大きい場合に、 当該パターンを 破棄する (図 24 ) 。
したがってこの認証システムでは、 複数サンプルから得た血管パターン について、 該血管パターンの特質となる 3つの指標に対応する 3次元空間 分布 (図 20 ) のなかで、 登録対象又は登録デ一夕と照合される照合対象 から得たパターンがいずれに位置しているのか、 またその位置が、 当該分 布の中心から、 生体パターンとすべき境界 (血管境界値 (図 2 0 : 「R f f」 ) ) までの範囲に属しているのかを把握することができる。
したがつてこの認証システムでは、 登録対象又は登録データとの照合対 象として入力される画像信号 S 2 0 a、 S 20 bから得たパターンが、 た とえ血管パターンに対して擬似的となる血管パターン (図 1 9 (B ) 、 ( C) ) であったとしても、 その擬似血管パターンが血管パターンではな いものとして、 登録又は照合することなく事前に排除し得る確率を格段に 向上させることができる。
また、 このデータ生成装置 1及び認証装置 2は、 血管パターンにおける 特徴点を、 当該特徴点を結んだ場合にその結んだ線が血管パターンに近似 しかつ直線に近似するように抽出した後に、 形状値を算出している。
したがつてこの認証システムでは、 直線に近似する線分の線分長が長い 傾向にあるという血管パターンの特質を強調した後に、 そのパターン形状 を表す形状値を算出することができるようになるため、 より一段と的確に、 形状値を算出するこどができ、 この結果、 擬似血管パターンが血管パター ンではないものとして、 排除し得る確率をより 段と向上させることがで きる。
• 以上の構成によれば、 複数サンプルから得た血管パターンについて、 該 血管パターンの特質となる 3つの指標に対応する 3次元空間分布のなかで、 登録対象又は登録データと照合される照合対象から得たパターンがいずれ に位置しているのか、 またその位置が、 当該分布の中心から、 生体パター ンとすべき境界までの範囲に属しているのかを把握することができるよう にしたことによって、 擬似血管パターンが生体パターンではないものとし て排除し得る確率を格段に向上することができ、 かく して、 認証精度を向 上させ得る認証システムを実現できる。
( 5 ) 他の実施の形態 :
上述の実施の形態においては、 複数の生体サンプルから得られる血管パ ターンの分布を表すデータと、 その分布のうち血管パターンとすべき境界 を表すデ一夕 (閾値) に基づいて、 入力パターンが血管パターンであるか 否かを判定するようにした場合について述べたが、 本発明はこれに限らず、 擬似血管パターンの分布も加味して入力パダーンが血管パターンであるか 否かを判定するようにしてもよい。
すなわち、 デ一夕生成装置 1は、 上述のデータ生成処理 (図 2 2 ) によ つて、 生体サンプルから得た各血管パターンにおける 3つの弁別指標の分 布の中心と、 共分散行列の逆行列と、 血管境界値 (図 2 0を例にすればマ ハラノ ビス距離が 「 2 . 1」 で 「R f F」 に相当) とを血管パターン範囲 デ一夕として認証装置 2の R O Mに記憶する。 このとき、 非生体サンプル から得た各擬似血管パターンについても、 上述のデ一夕生成処理 (図 2 2 ) によって、 当該擬似血管パターンにおける 3つの弁別指標の分布の中 心と、 共分散行列の逆行列と、 擬似血管境界値 (図 2 0を例にすればマハ ラノビス距離が 「 2 . 5」 で 「R f G」 に相当) とを擬似血管パターン範 囲デ一夕として認証装置 2の R O Mに記憶する。
一方、 認証装置 2は、 図 2 4との対応部分に同一符号を付した図 2 5に 示すように、 この血管パターン範囲データに基づいて、 3つの弁別指標の 分布上における入力パターン (撮像対象となったォブジェク トパ夕一ン) の位置と、 当該分布の中心とのマハラノビス距離 (以下、 これを生体分布 上距離と呼ぶ) を求めるとともに、 擬似血管パターン範囲デ一夕に基づい て、 3つの弁別指標の分布上における入力パターンの位置と、 当該分布の 中心どのマハラノビス距離 (以下、 これを非生体分布上距離と呼ぶ) も求 める (ステップ S P 2 2 ) 。
そして認証装置 2は、 生体分布上距離が血管境界値以下である場合、. 非 生体分布上距離が擬似血管境界値以下であるか否かを判定する (ステツプ S P 2 3 ) 。 ここで、 非生体分布上距離が擬似血管境界値以下である場合、 このことは、 例えば図 2 0の 3次元分布のうち 6— P平面のように、 血管 パターンであると判定すべき範囲と、 非血管パターンであると判定すべき 範囲とが重複している範囲内に、 入力パターンが位置していることを意味 する。
したがってこの場合、 認証装置 2は、 生体分布上距離が血管境界値以下. である場合であっても、 入力パターン (撮像対象となったオブジェク トパ 夕一ン) 等を破棄する (ステップ S P 1 4 ) 。
これに対して認証装置 2は、 生体分布上距離が血管境界値以下であり、 かつ、 非生体分布上距離が擬似血管境界値よりも大きい場合に、 オブジェ ク トパターンにおける始点から屈曲点を経て終点までのグループ (部分血 管構成点列) 単位で抽出された各特徴点を、 登録対象又は照合対象として 決定するようになされている (ステップ S P 1 5 ) 。
このようにして、 擬似血管パターンの分布も加味して入力パターンが血 管パターンであるか否かを判定するようにすれば、 上述実施の形態の場合 に比して、 擬似血管パターンが生体パターンではないものとして排除し得 る確率をより一段と向上することができる。
なお、 生体分布上距離が血管境界値以下であった場合に、 非生体分布上 距離が擬似血管境界値以下であるか否かを判定するようにしたが (ステッ プ. S P 2 3 ) 、 これに代えて、 例えば、 当該場合に、 ステップ S P 2 2で 求めた生体分布上距離が非生体分布上距離よりも大きいか否かを判定する ようにしてもよい。
また、 上述の実施の形態においては、. 生体パターンとして、 血管の形状 パターン (血管パターン) を適用した場合について述べたが、 本発明はこ れに限らず、 指紋、 声紋、 ロ紋又は神経の形状パターン等、 適用される生 体パターンに応じて、 その取得手段について対応するものに変更すれば、 この他種々のものを適用することができる。
ただし、 血管パターンや神経パターン等のように、 血管パターンが四方 八方に広がるのではなく、 一定の方向 (指の長さ方向) に揃っている特質 や、 直線に近似する線分の線分長が長い特質を有する生体パターンを適用 する場合、 そのパターン形状を表す形状値としては、 上述した 3つの弁別 指標を採用することができるが、 当該特質を有する生体パターン以外のも のを、 適用する場合には、 その適用する生体パターンの特質に応じた形状 値に変更する必要がある。 、
なお、 かかる特質を有する生体パターンを適用する場合、 上述の実施の 形態では、 形状値として 3つの弁別指標、 つまり、 第 1に、 パターンにお ける各特徴点間を結ぶ線分と基準軸とのなす角度の分布であって、 当該線 分の線分長を度数として重み付けされた分布の広がりの程度、 第 2に、 当 該分布における全角度範囲の面積に対する、 基準軸に対して直交する角度 を中心とした所定の角度範囲における面積の割合、 第 3に、 線分の数を採 用したが、 本発明はこれに限らず、 これらのうちの 2つの弁別指標だけを 採用するようにしてもよく、 あるいは、 これら 3つの弁別指標と、 例えば、 当該角度分布におけるピークのうち上位 3つのピークのなかに 9 0 [ ° ] があるか否か等といった新たな弁別指標を加えるようにしてもよい。 要は、 弁別指標となるものが 2以上であれば、 当該弁別指標をパターン 状を表 す値として、 採用することができる。
さらに、 上述の実施の形態においては、 認証装置 2の R O Mに記憶され る血管パターン範囲デ一夕を、 生体サンプルから得た各血管パターンにお ける 3つの弁別指標の分布の中心と、 共分散行列の逆行列と、 血管境界値 (図 2 0を例にすればマハラノ ビス距離が 「 2 . 1」 で 「 R f F」 に相 当) とした場合について述べたが、 本発明はこれに限らず、 認証装置 2に 対して血管境界値を予め設定し、 マハラノ ビス距離の算出 (図 2 4 (図 2 5 ) : ステップ S P 1 2 ) の際に、 共分散行列の逆数を計算させるように すれば、 3つの弁別指標の分布の中心、 及び、 共分散行列だけとしてもよ い。
さらに上述の実施の形態においては、 生体パターンにおける特徴点を、 当該特徴点を結んだ場合にその結んだ線が上記生体パターンに近似しかつ 直線に近似するように抽出する手段として、 前処理部 2 1及び特徴点抽出 部 2 2を採用するようにした場合について述べたが、 本発明はこれに限ら ず、 該前処理部 2 及び特徴点抽出部 2 2の処理内容を適宜変更するよう にしてもよい。
例えば、 前処理部 2 1については、 A / D変換処理、 輪郭抽出処理、 平 滑化処理、 2値化処理及び細線化処理を順次施すようにしたが、 これら処 の一部を省略する若しくは入れ替える、 又は、 これら処理に対して新た な処理を加えるようにしてもよい。 ちなみに、 これら処理の順序について も適宜変更することができる。
また、 特徴点抽出部 2 2については、 ハリスコーナ一と呼ばれる点抽出 処理に代替したり、 例えば、 特願 2 0 0 6— 2 0 7 0 3 3 ( 〔 0 0 3 6〕 〜 〔 0 1 6 3〕 参照) 等の既知の点抽出処理に代替するようにしてもよい。 さらに上述の実施の形態においては、 撮像機能、 照合機能及び登録機能 を有する認証装置 2を適用するようにした場合について述べたが、 本発明 はこれに限らず、,当該機能ごとに単体の装置に分けた態様で適用する等、 用途等に応じて種々の態様で適用することができる。 産業上の利用可能性
本発明は、 バイオメ ト リクス認証の分野に利用可能である。

Claims

1 . 複数の生体サンプルから得られる生体パター ンそれぞれについて、 ノ ターン形状を表す 2以上の形状値を算出する第 1のステップと、
上記 2以上の形状値の分布の中心と、 その中心からの広がりの程度を表 す値とを算出する第 2のステップと、
口賓
登録対象又は登録データと照合される照合対象から得られるパターンの 上記 2以上の形状値と、 上記 2以上の形状値の分布の中心との距離を、 上 記値を用いて算出する第 3のステッのプと、
上記距離が所定の閾値よりも大きい場合に、 上記パターンを破棄する第 4のステツプと 囲
を具えることを特徴とするパターン識別方法。
2 . 上記 2以上の形状値は、
パターンにおける各特徴点間を結ぶ線分と基準軸とのなす角度の分布で あって、 当該線分の線分長を度数として重み付けされた分布の広がりの程 度と、
上記分布における全角度範囲の面積に対する、 上記基準軸に対して直交: する角度を中心とした所定の角度範囲における面積の割合と、
上記線分の数と
のうち 2つを少なく とも含む
ことを特徴とする請求項 1に記載のパターン識別方法。
3 . 複数の生体サンプルから得られる生体パターンにおける特徴点を、 当 該特徴点を結んだ場合にその結んだ線が上記生体パターンに近似しかつ直 線に近似するように抽出する抽出ステップ
をさらに具えることを特徴とする請求項 2に記載のパターン識別方法。
4 . 上記第 1のステツプでは、
複数の生体サンプルから得られる生体パターンそれぞれについて、 パ夕 —ン形状を表す 2以上の形状値を算出するとともに、 複数の非生体サンプ ルから得られる非生体パターンそれぞれについて、 上記 2以上の形状値を しヽ
上記第 2のステツプでは、
各上記生体パターンにおける 2以上の形状値の分布の中心、 及び、 その 中心からの広がりの程度を表す値と、 各上記非生体パターンにおける 2以 上の形状値の分布の中心、 及び、 その中心からの広がりの程度を表す値と を算出し、
上記第 3のステップでは、
上記パターンの上記 2以上の形状値と、 各上記生体パターンにおける 2 以上の形状値の分布の中心との第 1の距離を、 当該中心からの広がりの程 度を表す値を用いて算出するとともに、 上記パターンの上記 2以上の形状 値と、 各上記非生体パターンにおける 2以上の形状値の分布の中心との第 2の距離を、 当該中心からの広がりの程度を表す値を用いて算出し、 上記第 4のステップでは、
上記第 1の距離が、 生体パターンと判定すべき第 1の閾値よりも大きい 場合、 かつ、 上記第 1の距離が上記第 1の閾値以内であっても、 上記第.2 の距離が、 非生体パターンと判定すべき第 2の閾値以内である場合に、 上 記パターンを破棄する '
ことを特徴とする請求項 1に記載のパターン識別方法。
5 . 上記生体パターンは、 血管の形状パターンである
ことを特徴とする請求項 1に記載のパターン識別方法。 '
6 . 複数の生体サンプルから得られる生体パターンそれぞれについて、 パ ターン形状を表す 2以上の形状値の分布の中心と、 その中心からの広がり の程度を表す値とが記憶される記憶手段と、
登録対象から得られるパターンの上記 2以上の形状値と、 上記記憶手段 に記憶された 2以上の形状値の分布の中心との距離を、 上記値を用いて算 出する算出手段と、
上記距離が所定の閾値よりも大きい場合には上記パターンを破棄し、 上 記距離が上記閾値以内の場合には上記パターンを記憶媒体に登録する登録 手段と
を具えることを特徴とする登録装置。
7 . 上記 2以上の形状値は、
パターンにおける各特徴点間を結ぶ線分と基準軸とのなす角度の分布で あって、 当該線分の線分長を度数として重み付けされた分布の広がりの程 度と、
上記分布における全角度範囲の面積に対する、 上記基準軸に対して直交 する角度を中心とした所定の角度範囲における面積の割合と、
上記線分の数と
のうち 2つを少なく とも含む
ことを特徴とする請求項 6に記載の登録装置。
8 . 上記パターンにおける特徴点を、 当該特徴点を結んだ場合にその結ん だ線が上記パターンに近似しかつ直線に近似するように抽出する抽出手段 をさらに具え、
上記登録手段は、
上記抽出手段により抽出された上記パターンにおける特徴点を上記記憶 媒体に登録する
ことを特徴とする請求項 6に記載の登録装置。
9 . 上記記憶手段には、
複数の生体サンプルがら得られる生体パターンそれぞれについて、 パ夕 ーン形状を表す 2以上の形状値の分布の中心、 及び、 その中心からの広が りの程度を表す値と、 複数の非生体サンプルから得られる非生体パターン それぞれについて、 上記 2以上の形状値の分布の中心、 及び、 その中心か らの広がりの程度を表す値とが記憶され、 上記算出手段は、
上記パターンの上記 2以上の形状値と、 各上記生体パターンにおける 2 以上の形状値の分布の中心との第 1の距離を、 当該中心からの広がりの程 度を表す値を用いて算出するとともに、 上記パターンの上記 2以上の形状 値と、 各上記非生体パターンにおける 2以上の形状値の分布の中心との第 2の距離を、 当該中心からの広がりの程度を表す値を用いて算出し、 上記登録手段は、
. 上記第 1の距離が、 生体パターンと判定すべき第 1の閾値よりも大きい 場合、 かつ、 上記第 1の距離が上記第 1の閾値以内であっても、 上記第 2 の距離が、 非生体パターンと判定すべき第 2の閾値以内である場合には上 記パターンを破棄する
ことを特徴とする請求項 6に記載の登録装置。
1 0 . 上記生体パターンは、 血管の形状パターンである
ことを特徴とする請求項 6に記載の登録装置。
1 1 . 複数の生体サンプルから得られる生体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の分布の中心と、 その中心からの広が りの程度を表す値とが記憶される記憶手段と、
登録対象から得られるパターンの上記 2以上の形状値と、 上記記憶手段 に記憶された 2以上の形状値の分布の中心との距離を、 上記値を用いて算 出する算出手段と、
上記距離が所定の閾値よりも大きい場合には上記パターンを破棄し、 上 記距離が上記閾値以内の場合には、 記憶媒体に登録された登録データと上 記パターンとを照合する照合手段と
を具えることを特徴とする照合装置。
1 2 . 上記 2以上の形状値は、
パターンにおける各特徴点間を結ぶ線分と基準軸とのなす角度の分布で あって、 当該線分の線分長を度数として重み付けされた分布の広がりの程 度と、
上記分布における全角度範囲の面積に対する、 上記基準軸に対して直交 する角度を中心とした所定の角度範囲における面積の割合と、
上記線分の数と
のうち 2つを少なく とも含む
ことを特徴とする請求項 1 1に記載の照合装置。
1 3 . 上記パターンにおける特徴点を、 当該特徴点を結んだ場合にその結 んだ線が上記パターンに近似しかつ直線に近似するように抽出する抽出手 段- をさらに具え、
上記照合手段は、
上記抽出手段により抽出された上記パターンにおける特徴点と、 上記登 録デ一夕とを照合する
ことを特徴とする請求項 1 1に記載の登録装置。
1 4 . 上記記憶手段には、
複数の生体サンプルから得られる生体パターンそれぞれについて、 パ夕 ーン形状を表す 2以上の形状値の分布の中心、 及び、 その中心からの広が りの程度を表す値と、 複数の非生体サンプルから得られる非生体パターン それぞれについて、 上記 2以上の形状値の分布の中心、 及び、 その中心か らの広がりの程度を表す値とが記憶され、
上記算出手段は、
上記パターンの上記 2以上の形状値と、 各上記生体パターンにおける 2 以上の形状値の分布の中心との第 1の距離を、 当該中心からの広がりの程 度を表す値を用いて算出するとともに、 上記パターンの上記 2以上の形状 値と、 各上記非生体パターンにおける 2以上の形状値の分布の中心との第 2の距離を、 当該中心からの広がりの程度を表す値を用いて算出し、 上記照合手段は、 上記第 1の距離が、 生体パターンと判定すべき第 1の閾値よりも大きい 場合、 かつ、 上記第 1の距離が上記第 1の閾値以内であっても、 上記第 2 の距離が、 非生体パターンと判定すべき第 2の閾値以内である場合には上 記パターンを破棄する
ことを特徴とする請求項 1 1に記載の照合装置。
1 5 . 上記生体パターンは、 血管の形状パターンである
ことを特徴とする請求項 1 1に記載の照合装置。
1 6 . 複数の生体サンプルから得られる生体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の分布の中心と、 その中心からの広が りの程度を表す値とが記憶されるコンピュータに対して、
登録対象から得られるパターンの上記 2以上の形状値と、 上記記憶手段 に記憶された 2以上の形状値の分布の中心との距離を、 上記値を用いて算 出する第 1の処理と、
上記距離が所定の閾値よりも大きい場合には上記パターンを破棄し、 上 記距離が上記閾値以内の場合には上記パターンを記憶媒体に登録する第 2 の処理と
を実行させることを特徴とするプログラム。
1 7 . 複数の生体サンプルから得られる生体パターンそれぞれについて、 パターン形状を表す 2以上の形状値の分布の中心と、 その中心からの広が りの程度を表す値とが記憶されるコンピュー夕に対して、
登録対象から得られるパターンの上記 2以上の形状値と、 上記記憶手段 に記憶された 2以上の形状値の分布の中心との距離を、 上記値を用いて算 出する第 1の処理と、
上記距離が所定の閾値よりも大きい場合には上記パターンを破棄し、 上 記距離が上記閾値以内の場合には、 記憶媒体に登録された登録データと上 記パターンとを照合する第 2の処理と
を実行させることを特徴とするプログラム。
PCT/JP2007/070511 2006-10-19 2007-10-16 Procédé d'identification, dispositif d'enregistrement, dispositif et programme de collation de modèles WO2008047935A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/445,519 US20100008546A1 (en) 2006-10-19 2007-10-16 Pattern identification method, registration device, verification device and program
EP07830245A EP2075760A1 (en) 2006-10-19 2007-10-16 Pattern identifying method, registration device, collating device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006285353A JP2008102780A (ja) 2006-10-19 2006-10-19 パターン識別方法、登録装置、照合装置及びプログラム
JP2006-285353 2006-10-19

Publications (1)

Publication Number Publication Date
WO2008047935A1 true WO2008047935A1 (fr) 2008-04-24

Family

ID=39314143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/070511 WO2008047935A1 (fr) 2006-10-19 2007-10-16 Procédé d'identification, dispositif d'enregistrement, dispositif et programme de collation de modèles

Country Status (6)

Country Link
US (1) US20100008546A1 (ja)
EP (1) EP2075760A1 (ja)
JP (1) JP2008102780A (ja)
KR (1) KR20090067141A (ja)
CN (1) CN101529470A (ja)
WO (1) WO2008047935A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008052701A (ja) * 2006-07-28 2008-03-06 Sony Corp 画像処理方法、画像処理装置及びプログラム
JP2011022785A (ja) * 2009-07-15 2011-02-03 Sony Corp 鍵格納装置、生体認証装置、生体認証システム、鍵管理方法、生体認証方法、及びプログラム
JP5509335B2 (ja) * 2010-09-30 2014-06-04 富士通フロンテック株式会社 登録プログラム、登録装置、および登録方法
JP5634933B2 (ja) * 2011-03-31 2014-12-03 株式会社日立ソリューションズ 擬似指を検知する生体認証システム
JP5854774B2 (ja) * 2011-11-11 2016-02-09 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
KR101288178B1 (ko) * 2011-11-30 2013-07-19 삼성전기주식회사 지문 인식 센서 및 지문 인식 방법
US10469976B2 (en) 2016-05-11 2019-11-05 Htc Corporation Wearable electronic device and virtual reality system
JP6747112B2 (ja) * 2016-07-08 2020-08-26 株式会社リコー 情報処理システム、画像処理装置、情報処理装置、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259345A (ja) 2001-02-27 2002-09-13 Nec Corp 身体的特徴データの不正使用を防止する認証方法、認証装置、及びプログラム
JP2002279426A (ja) * 2001-03-21 2002-09-27 Id Technica:Kk 個人認証システム
JP2003085539A (ja) * 2001-02-26 2003-03-20 Bionics Co Ltd 生体認証装置
JP2004171577A (ja) * 2003-12-01 2004-06-17 Hitachi Ltd 個人認証装置及び方法
JP2005215883A (ja) * 2004-01-28 2005-08-11 Sony Corp 画像照合装置、プログラム、および画像照合方法
JP2006207033A (ja) 2006-04-22 2006-08-10 Jfe Steel Kk 加工性と加工部耐食性に優れた表面処理鋼板

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9306897D0 (en) * 1993-04-01 1993-05-26 British Tech Group Biometric identification of individuals
JP4937607B2 (ja) * 2006-03-14 2012-05-23 富士通株式会社 生体認証方法及び生体認証装置
US20070286462A1 (en) * 2006-04-28 2007-12-13 David Usher System and method for biometric retinal identification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085539A (ja) * 2001-02-26 2003-03-20 Bionics Co Ltd 生体認証装置
JP2002259345A (ja) 2001-02-27 2002-09-13 Nec Corp 身体的特徴データの不正使用を防止する認証方法、認証装置、及びプログラム
JP2002279426A (ja) * 2001-03-21 2002-09-27 Id Technica:Kk 個人認証システム
JP2004171577A (ja) * 2003-12-01 2004-06-17 Hitachi Ltd 個人認証装置及び方法
JP2005215883A (ja) * 2004-01-28 2005-08-11 Sony Corp 画像照合装置、プログラム、および画像照合方法
JP2006207033A (ja) 2006-04-22 2006-08-10 Jfe Steel Kk 加工性と加工部耐食性に優れた表面処理鋼板

Also Published As

Publication number Publication date
US20100008546A1 (en) 2010-01-14
JP2008102780A (ja) 2008-05-01
EP2075760A1 (en) 2009-07-01
KR20090067141A (ko) 2009-06-24
CN101529470A (zh) 2009-09-09

Similar Documents

Publication Publication Date Title
WO2008047935A1 (fr) Procédé d&#39;identification, dispositif d&#39;enregistrement, dispositif et programme de collation de modèles
JP4937607B2 (ja) 生体認証方法及び生体認証装置
TWI435277B (zh) 利用與快速遮罩正規化交互相關匹配之範本的文件驗證
CN101432777B (zh) 登记装置以及认证装置
EP2068270B1 (en) Authentication apparatus and authentication method
US8811681B2 (en) Biometric authentication apparatus and biometric authentication method
JP2008052701A (ja) 画像処理方法、画像処理装置及びプログラム
CN108573137A (zh) 指纹验证方法和设备
JP5003092B2 (ja) 登録装置、照合装置、認証方法及び認証プログラム
JP5050642B2 (ja) 登録装置、照合装置、プログラム及びデータ構造
JP2004118677A (ja) 指紋認証方法/プログラム/装置
WO2009008550A1 (ja) 登録装置、照合装置、データ構造及び記憶媒体
WO2013093953A1 (ja) 生体認証装置、血管画像撮影装置、および方法
JP7315884B2 (ja) 認証方法、認証プログラム、および情報処理装置
JP2007179267A (ja) パターン照合装置
Chopra et al. Finger print and finger vein recognition using repeated line tracking and minutiae
JP4575027B2 (ja) パターン照合装置
JP5914995B2 (ja) 生体識別装置、及び、生体識別方法
JP5048813B2 (ja) パターン照合装置
Ogundepo et al. Development of a real time fingerprint authentication/identification system for students’ record
JP2009245231A (ja) 指の屈伸運動計測を利用した個人認証方法及び個人認証システム
JP6181763B2 (ja) 個人の識別を目的とする静脈網の真偽を検出するための方法、及び、バイオメトリック認証方法
CN116311402A (zh) 掌静脉活体识别方法、识别装置及可读存储介质
WO2008050902A1 (fr) Procédé d&#39;authentification, dispositif d&#39;enregistrement, dispositif de mise en correspondance et programme

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780039019.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07830245

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2007830245

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020097005663

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 12445519

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE