WO2005069221A1 - パターン識別システム、パターン識別方法、及びパターン識別プログラム - Google Patents

パターン識別システム、パターン識別方法、及びパターン識別プログラム Download PDF

Info

Publication number
WO2005069221A1
WO2005069221A1 PCT/JP2005/000272 JP2005000272W WO2005069221A1 WO 2005069221 A1 WO2005069221 A1 WO 2005069221A1 JP 2005000272 W JP2005000272 W JP 2005000272W WO 2005069221 A1 WO2005069221 A1 WO 2005069221A1
Authority
WO
WIPO (PCT)
Prior art keywords
probability
pattern
vector
feature points
component
Prior art date
Application number
PCT/JP2005/000272
Other languages
English (en)
French (fr)
Inventor
Lei Huang
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US10/586,300 priority Critical patent/US7778463B2/en
Priority to EP05703511A priority patent/EP1713032B1/en
Priority to CN2005800084167A priority patent/CN1934588B/zh
Priority to JP2005517049A priority patent/JP4665764B2/ja
Publication of WO2005069221A1 publication Critical patent/WO2005069221A1/ja
Priority to US12/831,711 priority patent/US7983484B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"

Definitions

  • the present invention relates to a pattern identification method, a system therefor, and a program therefor, and more particularly, to a pattern identification method for identifying an individual based on voice data and image data, a system therefor, and a program therefor.
  • the degree of matching (matching degree) between an input fingerprint pattern obtained by a sensor or the like and a registered fingerprint pattern registered in advance is calculated.
  • the degree of collation is compared with a predetermined threshold value, and a force judgment is made that the input fingerprint pattern and the registered fingerprint pattern belong to the same individual.
  • personal identification is performed based on the determination result.
  • the rate at which a person's input fingerprint pattern power is erroneously determined to be the same as the registered fingerprint pattern of another individual is called the “false acceptance rate”.
  • the predetermined threshold is often fixed to a constant value regardless of the finger to be collated.
  • the degree of fingerprint pattern matching varies from person to person (finger). In other words, some people have fingerprints that can obtain a high degree of matching, while others have fingerprints that can obtain only a low degree of matching. Therefore, when the threshold value is set to a higher value, the fingerprint collation apparatus is more likely to refuse authentication by another person but erroneously rejects authentication by himself / herself. Conversely, if the threshold value is set to a lower value, the fingerprint collation device is more likely to erroneously accept authentication by another person instead of easily accepting authentication by the user. These cause a reduction in the identification success rate.
  • the degree of collation between each of a plurality of registered data and other registered data is calculated.
  • a threshold for each registered data is generated based on the matching degree distribution obtained for each registered data.
  • the calculated collation degree and its candidate data The thresholds are compared to determine whether the matching data and the candidate data correspond.
  • a target value of the false acceptance probability is given, and the lowest matching degree satisfying the target value is dynamically calculated as a threshold. That is, the threshold value differs for each registered data.
  • the pattern identification device disclosed in Patent Document 2 calculates a difference between a feature vector of each pattern and an average feature vector of each correct answer category for a certain pattern set. As a result, a set of difference vectors is generated. By using the error distribution corresponding to the difference vector set as the probability density function, the no-turn recognition is performed.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-215313
  • Patent Document 2 JP-A-2002-230551
  • An object of the present invention is to provide a pattern identification system, a pattern identification method, and a no-turn identification program that can improve the calculation accuracy of a false acceptance probability.
  • Still another object of the present invention is to provide a pattern identification system, a pattern identification method, and a pattern identification program that can reduce the learning cost of Noturn identification.
  • the pattern identification system (10, 10a) of the present invention includes a first probability calculation unit (32) and a second probability calculation unit (33) connected to the first probability calculation unit (32).
  • the first probability calculation unit (32) includes a plurality of feature points (si—sn) of the first pattern and a plurality of feature points (f 1 ⁇ f f) of the corresponding feature points (csl—csn, cfl-cfn) indicating the corresponding points in n)
  • the first probability (P) is calculated based on the number (n).
  • the first probability (P) is the corresponding feature point
  • the second probability calculation unit (33) refers to the first probability (P) and
  • the first vector (Di) and the second vector (Ds) are defined as follows. That is, the difference (dl—dn) between each of a plurality of corresponding feature points (csl—csn) of the first pattern and a plurality of corresponding feature points (cfl-cfn) of the second pattern corresponding to the first vector. ) It has a component composed of caramel.
  • the second vector has a component composed of a difference between each of a plurality of corresponding feature points determined by the first pattern and the fourth pattern.
  • the second probability calculation unit (33) determines the probability that the amount based on the second vector (Ds) is smaller than the amount based on the first vector (Di). Calculate the second probability (P) shown. Then, the second probability calculation unit (33) calculates the first probability (P) and the
  • the second probability (P) is the second vector
  • the second probability (P) is obtained by multiplying each component of the second vector (Ds) by each component (dl) of the first vector (Di).
  • the second probability (P) is the second vector (D
  • the second probability (P) is obtained by calculating each component of the second vector (Ds) from the first vector (Di).
  • the probability of OR of the event where each corresponding component (dl-dn) is smaller than the corresponding component of the second vector (Ds) that is smaller than each corresponding component of the third vector (Di ') is shown. May be.
  • the third vector (Di,) has a component in which the combination of the components (dl-dn) of the first vector (Di) is replaced.
  • the distribution relation of the second vector (Ds) is determined.
  • the numbers (p (Ds)) are uniform.
  • the pattern identification system (10, 10a) of the present invention further includes a difference data detection unit (31) connected to the first probability calculation unit (32).
  • the difference data detection unit (31) includes a first feature data (112) indicating a plurality of feature points (si-sn) of the first pattern and a plurality of s of the second pattern.
  • the second feature data (122) indicating the feature point (fl-fn) is received. Also, differential data detection f
  • the unit (31) detects a plurality of corresponding feature points (csl-csn, cfl-cfn) based on the first feature data (112) and the second feature data (122), and calculates difference data (131 ) Is output to the first probability calculation unit (32).
  • the difference data (131) includes the number of feature points of the first pattern (ns), the number of feature points of the second pattern (nf), the number of corresponding feature points (n), And the first vector (Di).
  • the first probability calculator (32) calculates a first probability (PFCR) based on the difference data (131).
  • the second probability calculation unit (33) is connected to the difference data detection unit (31) via the first probability calculation unit (32), whereby the difference data (131) is converted to the second probability calculation unit (31). 33).
  • the pattern identification system (10a) of the present invention further includes an identification determination unit (34) connected to the second probability calculation unit (33).
  • the identification determination unit (34) receives the false acceptance probability data (133) indicating the false acceptance probability) from the second probability calculation unit (33).
  • the logical probability (P) is compared with a predetermined threshold (P), and a comparison result (134) is output.
  • P logical probability
  • P predetermined threshold
  • the identification determination unit (34) If the probability of false acceptance (P) is smaller than the predetermined threshold (P), the identification determination unit (34)
  • the first pattern and the second pattern are, for example, fingerprint patterns. That is, the pattern identification system (10, 10a) of the present invention.
  • the first probability (P) is calculated.
  • the first probability (P) the first pattern and the second pattern are incorrectly paired.
  • the calculating step includes (b-1) a probability that an amount based on the second vector (Ds) is smaller than an amount based on the first vector (Di). Calculating the second probability (P), and (b-2) based on the first probability (P) and the second probability (P)
  • the probability of false acceptance (P) is, for example, the product of the first probability (P) and the second probability (P).
  • the second probability (P) is equal to the magnitude of the second vector (Ds).
  • Second probability (P) The probability that the magnitude becomes smaller than the magnitude of the first vector (Di) may be indicated. Second probability (P)
  • the second probability (P) is the component of the second vector (Ds)
  • the second probability (P) is obtained by calculating each component of the second vector (Ds) by the corresponding component of the first vector (Di).
  • the probability of OR of the event that is smaller than the component (dl—dn) and the event that each component of the second vector (Ds) is smaller than the corresponding component of the third vector (Di ′) may be shown. .
  • the first probability (P) is
  • the pattern identification program provides: (A) a plurality of feature points (si-sn) of the first pattern;
  • the pattern identification program executes (B-1) a second probability (B) indicating a probability that the amount based on the second vector (Ds) is smaller than the amount based on the first vector (Di). P ), And (B-2) misrecognition based on the first probability (P) and the second probability (P)
  • the probability of false acceptance (P) is, for example, the first probability (P) and the second probability (P).
  • the second probability (P) is the second vector (Ds)
  • the second probability (P) is obtained by multiplying the components of the second vector (Ds) by the components (dl-dn) of the first vector (Di).
  • the second probability (P) is the sum of the components of the second vector (Ds).
  • V which may indicate the probability that the minute will be less than each corresponding component (dl-dn) of the first vector (Di).
  • the second probability (P) is obtained by calculating each component of the second vector (Ds)
  • the probability of OR of the event that is smaller than each component (dl-dn) and the event that each component of the second vector (Ds) is smaller than each corresponding component of the third vector (Di ') may be indicated. !,.
  • the first probability (P) is determined by calculating a plurality of the first patterns.
  • the pattern identification program comprises: (C) an erroneous acceptance probability (P) and a predetermined threshold (P)
  • step of determining that the first pattern and the second pattern coincide with each other are further performed by the computer.
  • the pattern identification system According to the pattern identification system, the pattern identification method, and the pattern identification program of the present invention, the calculation accuracy of the false acceptance probability is improved.
  • the learning cost of the no-turn identification is reduced.
  • the pattern identification system compares a pattern to be identified (hereinafter, referred to as an “input pattern”) with a pattern stored in a database (hereinafter, referred to as a “reference pattern”). Evaluate the collation of both patterns.
  • These patterns include, for example, an individual's fingerprint, face, and voiceprint.
  • FIG. 1 is a block diagram showing the configuration of the pattern identification system according to the first embodiment of the present invention.
  • the pattern identification system 10 includes a pattern input unit 1, a reference pattern input unit 2, a data processing unit 3, and an output unit 4.
  • the data processing unit 3 includes a difference data detecting unit 31, an erroneous correspondence probability calculating unit 32, and an erroneous acceptance probability calculating unit 33.
  • the configuration and operation of each unit will be sequentially described.
  • the pattern input unit 1 receives pattern data 111 indicating an input pattern to be identified.
  • the pattern data 111 include personal image data and voice data.
  • the individual places a finger on the fingerprint sensor and inputs fingerprint image data (pattern data 111) indicating his / her fingerprint (input pattern) to the pattern input unit 1.
  • the pattern input unit 1 analyzes the pattern data 111 and extracts a characteristic quantity of the input pattern.
  • characteristic points include characteristic points such as end points and branch points of fingerprint ridges.
  • the no-turn input unit 1 outputs the pattern feature data 112 indicating the information of the feature amount (feature point) to the difference data detection unit 31 of the data processing unit 3.
  • FIG. 5 is a conceptual diagram showing a distribution of a feature amount of a certain input pattern.
  • pattern data 111 such as fingerprint image data is analyzed, and as shown in FIG. 5, its image power is also extracted as four feature points si-s4.
  • the number of feature points of an input pattern is n (n is a natural number). That is, the input pattern has a plurality of feature points si-sn.
  • the data may be directly input to the data force pattern input unit 1 indicating the distribution of the feature amount.
  • the reference pattern input unit 2 receives reference pattern data 121 indicating a reference pattern.
  • This reference pattern data 121 is registered in the database in advance. It is. Then, at the time of personal authentication, for example, when an individual inputs an ID number or the like, the reference pattern data 121 corresponding to the ID number is also supplied to the reference pattern input unit 2 with the database power. Examples of the reference pattern data 121 include personal image data and audio data.
  • the reference pattern input unit 2 analyzes the reference pattern data 121 and extracts a feature amount of the pattern. For example, in the case of fingerprint identification, the feature amount includes a feature point such as an end point or a branch point of a fingerprint line. After that, the reference pattern input unit 2 outputs the reference pattern feature data 122 indicating the information of the feature amount (feature point) to the difference data detection unit 31 of the data processing unit 3.
  • FIG. 6 is a conceptual diagram showing a distribution of a feature amount of a certain reference pattern.
  • the reference pattern data 121 such as the fingerprint image data is analyzed, and as shown in FIG. 6, four feature points fl1 and f4 are extracted from the image.
  • the number of feature points (hereinafter referred to as reference feature points) of a reference pattern is n (n is a natural number). That is, the reference pattern
  • the reference pattern data 121 has a plurality of reference feature points fl-fn.
  • the difference data detection unit 31 receives pattern feature data 112 and reference pattern feature data 122 from the pattern input unit 1 and the reference pattern input unit 2, respectively. Then, the difference data detecting unit 31 compares the pattern feature data 112 with the reference pattern feature data 122, and determines a plurality of feature points si—sn and a plurality of reference features.
  • FIG. 7 shows a state in which FIG. 5 and FIG. 6 described above are superimposed, and conceptually shows a process of associating feature points by the difference data detection unit 31.
  • a circle drawn by a dotted line indicates a predetermined range (reference range) including the reference feature point fl-f4.
  • the difference data detecting unit 31 refers to this reference range, and when a certain feature point is inside a certain reference range, associates the feature point with a reference feature point within the reference range.
  • the feature point s2 corresponds to the reference feature point f2
  • the feature point s3 corresponds to the reference feature point f3.
  • FIG. 8 is a conceptual diagram showing the corresponding feature points determined in FIG.
  • the input pattern has three corresponding feature points csl, cs2, and cs3.
  • the reference pattern has three corresponding feature points cfl, cf2, and cf3.
  • the corresponding feature points csl, cs2, cs3 correspond to the corresponding feature points cfl, cf2, cf3, respectively.
  • the difference data detection unit 31 calculates the difference between the physical quantities at the two corresponding feature points.
  • the difference data detection unit 31 calculates a distance dl between the corresponding feature points csl and cfl, a distance d2 between the corresponding feature points cs2 and cf2, and a distance d3 between the corresponding feature points cs3 and cf3.
  • the number of pairs of corresponding feature points of an input pattern and a reference pattern is n (n is a natural number). That is, it is assumed that the input pattern has a plurality of corresponding feature points csl-csn, and the reference pattern has a plurality of corresponding feature points cfl-cfn.
  • the input difference data Di is data indicating an n-dimensional vector, for example, the difference data detection unit 31 calculates a distance dl-dn between the corresponding feature point c si—csn and the corresponding feature point cfl—cfn. Also, in the case of fingerprint recognition, the difference data detection unit 31 may calculate the difference in the direction of the fingerprint ridge at the two corresponding corresponding feature points.
  • the difference data 131 including the obtained input difference data Di is output to the erroneous correspondence probability calculation unit 32 (see FIG. 1) .
  • the difference data 131 includes the input difference data Di, the number n of corresponding feature points, Includes the number ns of feature points in the input pattern and the number nf of reference feature points.
  • the erroneous correspondence probability calculation unit 32 receives the difference data 131 from the difference data detection unit 31, and calculates the erroneous correspondence probability P.
  • the probability of false correspondence P is
  • the number ns of feature points of the input pattern, the number nf of reference feature points, and the number n of corresponding feature points are difference This is given by the difference data 131 from the minute data detection unit 31.
  • P be the probability that feature points are incorrectly associated between different patterns. This p is obtained in advance by preliminary experiments. At this time, the probability P— of the mis-correspondence between the input pattern and the reference pattern is given by Equation 1 below.
  • the erroneous correspondence probability calculation unit 32 calculates the erroneous correspondence probability indicating the calculated erroneous correspondence probability P.
  • the data 132 and the difference data 131 are output to the false acceptance probability calculation unit 33.
  • the false acceptance probability calculation unit 33 receives the difference data 131 and the false correspondence probability data 132 from the false correspondence probability calculation unit 32.
  • the erroneous reception probability calculation unit 33 calculates a preliminary erroneous reception probability P defined as follows.
  • the input difference data Di (dl, d2,..., Dn) for calculating the corresponding feature point distribution force between the input pattern being identified and the reference pattern being identified is an n-dimensional vector.
  • difference data obtained based on the distribution of n corresponding feature points between the input pattern being identified and some other reference pattern is referred to as candidate difference data Ds.
  • This candidate difference data Ds is also data indicating an n-dimensional vector.
  • the preliminary false acceptance probability P is
  • the norm of the candidate difference data Ds means the probability that it is smaller than the norm of the input difference data Di. This “amount” is determined by a model described later.
  • p (Ds) be the probability density function (distribution function) of the above-mentioned candidate difference data Ds.
  • This p (Ds) is determined in advance by preliminary experiments or is assumed to follow a uniform distribution model.
  • the “amount” is smaller than the “amount” based on the input difference data Di.
  • the set of the complementary difference data Ds is R (Di).
  • the probability P of false pre-reception of the input pattern and the reference pattern is given by the following equation (2).
  • FIG. 9 is a graph conceptually showing a model of the above set R (Di).
  • size (norm)” of the difference data is adopted as the “quantity”. That is, the set R (Di) includes candidate difference data Ds having a norm smaller than the norm of the input difference data Di.
  • the set R (Di) is defined by the hatched circular area in the figure.
  • the probability density function p (Ds) of the candidate difference data Ds is determined by a preliminary experiment. Alternatively, the probability density function p (Ds) is assumed to be uniform. At this time, the preliminary false acceptance probability P
  • PRE is equal to the area of the circular area.
  • FIG. 10 is a graph conceptually showing another model of the above set R (Di).
  • “product of each component” of the difference data is adopted as the “quantity” described above. That is, the product of each component of the candidate difference data Ds included in the set R (Di) is smaller than the product dld2 of each component of the input difference data Di. That is, the set R (Di) is defined by the shaded region in the figure.
  • the probability density function p (Ds) is uniform, and all components of the candidate difference data Ds are within the range [0, 1]. Let P be the preliminary false acceptance probability in this case.
  • the preliminary false acceptance probability P is given by Equation 3 or Equation 4 below.
  • FIG. 11 is a graph conceptually showing still another model of the above set R (Di).
  • “each component” of the difference data is adopted as the above “quantity”. That is, each component of the candidate difference data Ds included in the set R (Di) is smaller than each corresponding component dl, d2 of the input difference data Di. That is, the set R (Di) is defined by a rectangular area indicated by oblique lines in the figure.
  • the probability density function p (Ds) of the candidate difference data Ds is determined by preliminary experiments. Alternatively, the probability density function p (Ds) is assumed to be uniform. At this time, the probability P of misrecognition is equal to the area of the rectangular area.
  • the probability density function p (Ds) is uniform, and all components of the candidate difference data Ds are within the range [0, 1]. Furthermore, when each component dl—dn of the input difference data Di is sorted in order of magnitude, the relation of I dn '
  • the preliminary false acceptance probability P in this case is expressed as P
  • the preliminary false acceptance probability P is given by the following Equation 5.
  • the preliminary false acceptance probability P is given by the following gradual equations 6 to 8.
  • the false acceptance probability calculation unit 33 calculates the preliminary false acceptance probability P.
  • the false acceptance probability P is finally calculated.
  • the erroneous reception probability calculation unit 33 generates an erroneous reception probability P indicating the calculated erroneous reception probability P.
  • the acceptance probability data 133 is output to the output unit 4.
  • output section 4 receives erroneous acceptance probability data 133 from erroneous acceptance probability calculation section 33 and outputs result data 141 indicating erroneous acceptance probability P. This result data
  • 141 indicates the probability of false acceptance of the pattern identification result, and also indicates the security strength of the Noturn identification system 10 and the evaluation value of the pattern.
  • the false acceptance probability calculation unit 33 may be connected to both the difference data detection unit 31 and the false correspondence probability calculation unit 32.
  • the difference data detection unit 31 supplies the difference data 131 to both the erroneous correspondence probability calculation unit 32 and the erroneous reception probability calculation unit 33.
  • the erroneous correspondence probability calculation unit 32 supplies only the erroneous correspondence probability data 132 to the erroneous acceptance probability calculation unit 33.
  • the processing in the data processing unit 3 described above may be executed by a computer. That is, the processes in the difference data detection unit 31, the erroneous correspondence probability calculation unit 32, and the erroneous acceptance probability calculation unit 33 are each described by a computer program and executed by a computer.
  • FIG. 2 is a flowchart summarizing the pattern recognition method according to the first embodiment of the present invention.
  • the pattern data 111 is input to the pattern input unit 1 (step Sl).
  • the difference data detection unit 31 detects the difference data 131 (step S2).
  • the erroneous response probability calculation unit 32 receives the difference data 131, and calculates an erroneous response probability P based on the difference data 131 (step S3).
  • the false acceptance probability calculation unit 33 calculates the difference data 131
  • step S calculates a preliminary false acceptance probability P based on the difference data 131 (step S).
  • the false acceptance probability calculation unit 33 calculates the calculated false correspondence probability P and the calculated preliminary error probability.
  • the false acceptance probability P is calculated using the acceptance probability P (step S5). And wrong acceptance
  • the effects of the pattern identification method, the system and the program according to the present embodiment are as follows.
  • the pattern identification system 10 according to the present invention includes an erroneous correspondence probability calculating unit 32 and an erroneous acceptance probability calculating unit 33, and is based on the erroneous correspondence probability P and the preliminary erroneous acceptance probability P.
  • the false correspondence probability P is calculated from the number n of corresponding feature points.
  • PRE is the probability that the “quantity” based on the candidate difference data Ds will be smaller than the “quantity” based on the input difference data Di.
  • the “amount” includes, for example, the norm of the difference data.
  • the pattern identification system 10 provides not only the preliminary false acceptance probability P but also the false
  • the false acceptance probability P is calculated. In other words, the probability of false acceptance P
  • the model shown in Fig. 12 is effective.
  • the preliminary false acceptance probability P power S is calculated using the data Di ′ obtained by changing the combination of each component of the input difference data Di.
  • each component of the candidate difference data Ds is
  • the probability of being smaller than the corresponding components of the input difference data Di and the corresponding data Di ′ is the preliminary false acceptance probability P
  • the probability density function p (Ds) of the candidate difference data Ds is modeled by a uniform distribution function. Thereby, the learning cost for the pattern identification system 10 is reduced.
  • FIG. 3 is a block diagram showing the configuration of the pattern identification system according to the second embodiment of the present invention. 3, the same components as those shown in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the pattern identification system 10a includes a pattern input unit 1, a reference pattern input unit 2, a data processing unit 3a, an output unit 4a, and an allowable false acceptance probability input unit 5.
  • the data processing unit 3a includes a difference data detecting unit 31, an erroneous correspondence probability calculating unit 32, an erroneous acceptance probability calculating unit 33, and an identification determining unit.
  • the false acceptance probability calculation unit 33 indicates the calculated false acceptance probability P.
  • the false acceptance probability data 133 is output to the identification determination unit 34. Further, the allowable false acceptance probability input unit 5 outputs the allowable false acceptance probability data 151 indicating the allowable false acceptance probability P to the identification determination unit 34.
  • the identification determination unit 34 receives the false acceptance probability data 133 and the allowable false acceptance probability data 151 from the false acceptance probability calculation unit 33 and the allowable false acceptance probability input unit 5, respectively. Then, the identification judging section 34 checks whether or not the false acceptance probability P is smaller than the allowable false acceptance probability P.
  • FAR is the allowable false acceptance probability
  • the identification determination unit 34 determines that the input pattern and the reference pattern are the same.
  • the identification determination unit 34 outputs the determination result data 134 indicating the determination result to the output unit 4a.
  • the output unit 4a receives the determination result data 134 from the identification determination unit 34, and outputs output data 142 based on the above determination result. For example, when the pattern identification system 10a is applied to door control, the door is controlled to open according to the output data 142. If this pattern identification system 10a is implemented in a bank ATM, Is permitted or denied depending on its output data 142.
  • the pattern data 111 input to the pattern input unit includes, for example, image data of a customer's fingerprint, face, iris and the like.
  • the probability of incorrect authentication in the system (hereinafter referred to as security strength). Is 1 in 10,000.
  • PFAR power should be set to 1 / 10,000. In other words, this allowable false acceptance probability P (threshold) is
  • a fixed value may be set in advance!
  • the processing in the data processing unit 3a described above may be executed by a computer. That is, the processes in the difference data detection unit 31, the erroneous correspondence probability calculation unit 32, the erroneous acceptance probability calculation unit 33, and the identification determination unit 34 are each described by a computer program and executed by a computer.
  • FIG. 4 is a flowchart schematically showing a pattern recognition method according to the second embodiment of the present invention.
  • the pattern data 111 is input to the pattern input unit 1 (step Sl).
  • the difference data detection unit 31 detects the difference data 131 based on the feature amounts of the pattern data 111 and the reference pattern data 112 (step S2).
  • the erroneous correspondence probability calculation unit 32 receives the difference data 131, and calculates the erroneous correspondence probability P based on the difference data 131 (step S3).
  • the erroneous acceptance probability calculation unit 33 calculates the difference data.
  • Step S4 the false acceptance probability calculating unit 33 calculates the false correspondence probability P and the calculated false probability.
  • the false acceptance probability P is calculated (step S5). next
  • the identification determination unit 34 compares the allowable false acceptance probability P with the calculated false acceptance probability P,
  • the first embodiment The following effects can be obtained in addition to the effects of the above. That is, in the pattern identification system 10a, the thresholds given to all input patterns are set to be constant. Furthermore, the given threshold value determines the allowable false acceptance probability P, that is, the security strength of the system.
  • the threshold directly corresponds to the security strength from the viewpoint of system operation.
  • the pattern identification systems 10, 10a shown above are applied to voice recognition, fingerprint identification, optical character recognition, signal identification, and the like.
  • the pattern identification system, the pattern identification method, and the pattern identification program according to the present invention can be variously modified without departing from the spirit thereof, regardless of the above-described embodiment.
  • the configuration is such that the pattern data 111 is input to the reference pattern input unit 2 and the reference pattern data 121 is input to the pattern input unit 1. Is also good.
  • FIG. 1 is a block diagram showing a configuration of a pattern identification system according to a first embodiment of the present invention.
  • FIG. 2 is a flowchart showing a pattern recognition method according to the first embodiment of the present invention.
  • FIG. 3 is a block diagram showing a configuration of a pattern identification system according to a second embodiment of the present invention.
  • FIG. 4 is a flowchart showing a pattern recognition method according to a second embodiment of the present invention.
  • FIG. 5 is a conceptual diagram showing a distribution of feature points of an input canoturn.
  • FIG. 6 is a conceptual diagram showing a distribution of feature points of a reference pattern.
  • FIG. 7 is a conceptual diagram showing a feature point associating process performed by a difference data detection unit.
  • FIG. 8 is a conceptual diagram showing a distribution of corresponding feature points.
  • FIG. 9 is a graph showing an example of distribution of candidate difference data.
  • FIG. 10 is a graph showing another example of the distribution of candidate difference data.
  • FIG. 11 is a graph showing still another example of the distribution of candidate difference data.
  • FIG. 12 is a graph showing still another example of the distribution of candidate difference data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 誤受理確率の算出精度を向上させることができ、又、安定したセキュリティ強度を保証することができるパターン識別システム、パターン識別方法、パターン識別プログラムを提供すること。  パターン識別システム10、10aは、第一確率算出部32と、第一確率算出部32に接続された第二確率算出部33とを備える。第一確率算出部32は、第一パターンの複数の特徴点s1~snsと第二パターンの複数の特徴点f1~fnfにおいて対応する複数の点を示す複数の対応特徴点cs1~csn、cf1~cfnの数nに基づき、第一確率PFCRを算出する。この第一確率PFCRは、対応特徴点の数nよりも大きな数の対応特徴点を第一パターンに対して有する第三パターンが存在する確率を示す。第二確率算出部33は、第一確率PFCRを参照して、第一パターンと第二パターンが誤って対応づけられる確率を示す誤受理確率PFARを算出する。

Description

明 細 書
ノヽ。ターン識別システム、パターン識別方法、及びパターン識別プログラム 技術分野
[0001] 本発明は、パターン識別方法、そのシステム及びそのプログラムに関し、特に、音 声データや画像データに基づいて個人を識別するためのパターン識別方法、そのシ ステム及びそのプログラムに関する。
背景技術
[0002] 指紋照合装置で個人を識別する場合、一般的に以下のような手順が実行される。
まず、センサ等で得られる入力指紋パターンと、予め登録された登録指紋パターンと の一致の度合い (照合度)が算出される。次に、その照合度と所定の閾値が比較され 、その入力指紋パターンとその登録指紋パターンが同一の個人のものである力判定 される。そして、その判定結果に基づいて、個人識別が行われる。このような個人識 別プロセスにおいて、ある個人の入力指紋パターン力 誤って他の個人の登録指紋 ノターンと同一であると判定される割合は「誤受理率」と呼ばれる。
[0003] この種の指紋照合装置では、上記所定の閾値は、しばしば、照合する指に関係な く画一的に一定値に固定される。し力しながら、実際上、指紋パターンの照合度は、 個人 (指)ごとにまちまちである。つまり、高い照合度が得られる指紋を有する人もい れば、低い照合度しか得られない指紋を有する人もいる。よって、その閾値が高めの 値に設定された場合、指紋照合装置は、他人による認証を拒否しやすくなる代わりに 、本人による認証も誤って拒否しやすくなる。逆に、その閾値が低めの値に設定され た場合、指紋照合装置は、本人による認証を受理しやすくする代わりに、他人による 認証も誤って受理しやすくなる。これらのことは、識別成功率の低下の原因となる。
[0004] 特許文献 1に開示されたデータ識別方法によれば、複数の登録データの各々と、 その他の登録データとの照合度が算出される。次に、各登録データに対して得られ た照合度分布に基づいて、その各登録データ用の閾値が生成される。また、ある個 人を識別する際には、識別の対象となる照合データと、複数の登録データのうち対応 する候補データとの照合度が算出される。算出された照合度とその候補データ用の 閾値が比較され、その照合データとその候補データが対応するかどうか判定される。 この特許文献 1のデータ識別方法では、まず誤受理確率の目標値が与えられ、その 目標値を満たす最低の照合度が閾値として動的に算出される。つまり、閾値は、各登 録データごとに異なる。
[0005] 特許文献 2に開示されたパターン識別装置は、あるパターン集合について、各バタ ーンの特徴ベクトルと各正解カテゴリの平均特徴ベクトルの差分をとる。これにより、 差分ベクトルの集合が生成される。この差分べ外ル集合に対応する誤差分布を確 率密度関数として用いることによって、ノターン認識が実行される。
特許文献 1:特開 2000— 215313号公報
特許文献 2 :特開 2002— 230551号公報
発明の開示
発明が解決しょうとする課題
[0006] 本発明の目的は、誤受理確率の算出精度を向上させることができるパターン識別 システム、パターン識別方法、ノターン識別プログラムを提供することにある。
[0007] 本発明の他の目的は、安定したセキュリティ強度を保証することができるパターン識 別システム、パターン識別方法、ノターン識別プログラムを提供することにある。
[0008] 本発明の更に他の目的は、ノターン識別の学習コストを低減することができるバタ ーン識別システム、パターン識別方法、パターン識別プログラムを提供することにある 課題を解決するための手段
[0009] 以下に、 [発明を実施するための最良の形態]で使用される番号'符号を用いて、 [ 課題を解決するための手段]を説明する。これらの番号'符号は、 [特許請求の範囲] の記載と [発明を実施するための最良の形態]との対応関係を明らかにするために括 弧付きで付加されたものである。ただし、それらの番号'符号を、 [特許請求の範囲] に記載されている発明の技術的範囲の解釈に用いてはならない。
[0010] 本発明のパターン識別システム(10、 10a)は、第一確率算出部(32)と、第一確率 算出部 (32)に接続された第二確率算出部 (33)とを備える。第一確率算出部 (32) は、第一パターンの複数の特徴点(si— sn )と第二パターンの複数の特徴点 (f 1一 f n)において対応する複数の点を示す複数の対応特徴点(csl— csn、 cfl一 cfn)の f
数 (n)に基づき、第一確率 (P )を算出する。この第一確率 (P )は、対応特徴点
FCR FCR
の数 (n)よりも大きな数の対応特徴点を第一パターンに対して有する第三パターンが 存在する確率を示す。第二確率算出部(33)は、第一確率 (P )を参照して、第一
FCR
パターンと第二パターンが誤って対応づけられる確率を示す誤受理確率 (P )を算
FAR
出する。
[0011] 第一ベクトル (Di)及び第二ベクトル (Ds)を以下のように定義する。すなわち、第一 ベクトルよ は、第一パターンの複数の対応特徴点(csl— csn)と対応する第二パ ターンの複数の対応特徴点(cfl一 cfn)のそれぞれの間の差分 (dl— dn)カゝら構成 される成分を有する。第二ベクトルは、第一パターンと第四パターンとによって決定さ れる複数の対応特徴点のそれぞれの間の差分から構成される成分を有する。この時 、本発明のパターン識別システム(10、 10a)において、第二確率算出部(33)は、第 二ベクトル (Ds)に基づく量が第一ベクトル (Di)に基づく量より小さくなる確率を示す 第二確率 (P )を算出する。そして、第二確率算出部(33)は、第一確率 (P )と第
PRE FCR
二確率 (P )に基づいて誤受理確率 (P )を算出する。例えば、第二確率算出部(
PRE FAR
33)は、第一確率 (P )と第二確率 (P )を掛け合わせることによって、誤受理確率
FCR PRE
(P FAR )を算出する。
[0012] 本発明のパターン識別システム(10、 10a)において、第二確率 (P )は、第二べク
PRE
トル (Ds)の大きさが第一ベクトル (Di)の大きさより小さくなる確率を示してもよ!、。第 二確率 (P )は、第二ベクトル (Ds)の各成分の積が第一ベクトル (Di)の各成分 (dl
PRE
一 dn)の積よりも小さくなる確率を示してもよ!、。第二確率 (P )は、第二ベクトル (D
PRE
s)の各成分が第一ベクトル (Di)の対応する各成分 (dl— dn)より小さくなる確率を示 してもょ 、。第二確率 (P )は、第二ベクトル (Ds)の各成分が第一ベクトル (Di)の
PRE
対応する各成分 (dl— dn)より小さくなる事象と、第二ベクトル (Ds)の各成分が第三 ベクトル (Di' )の対応する各成分より小さくなる事象との論理和の確率を示してもよい 。ここで、この第三ベクトル(Di,)は、第一ベクトル(Di)の各成分(dl— dn)の組み合 わせが入れ換えられた成分を有する。
[0013] 本発明のパターン識別システム(10、 10a)において、第二ベクトル(Ds)の分布関 数 (p (Ds) )は一様である。
[0014] 本発明のパターン識別システム(10、 10a)は、第一確率算出部(32)に接続された 差分データ検出部(31)を更に備える。この差分データ検出部(31)は、第一パター ンの複数の特徴点(si— sn )を示す第一特徴データ(112)と第二パターンの複数の s
特徴点 (fl一 fn)を示す第二特徴データ(122)を受け取る。また、差分データ検出 f
部(31)は、第一特徴データ(112)と第二特徴データ(122)に基づき複数の対応特 徴点(csl— csn、 cfl一 cfn)を検出し、検出結果を示す差分データ(131)を第一確 率算出部(32)に出力する。この差分データ(131)は、第一パターンの複数の特徴 点の数 (ns)と、第二パターンの複数の特徴点の数 (nf)と、複数の対応特徴点の数( n)と、第一ベクトル (Di)とを含む。第一確率算出部(32)は、この差分データ(131) に基づいて第一確率 (PFCR)を算出する。第二確率算出部(33)は、第一確率算出 部(32)を介して、この差分データ検出部(31)に接続され、これにより、差分データ( 131)は、第二確率算出部(33)に供給される。
[0015] 本発明のパターン識別システム(10a)は、第二確率算出部(33)に接続される識別 判定部(34)を更に備える。識別判定部(34)は、第二確率算出部(33)から誤受理 確率 )を示す誤受理確率データ(133)を受け取る。識別判定部(34)は、誤受
FAR
理確率 (P )と所定の閾値 (P )とを比較し、比較結果(134)を出力する。例えば
FAR PFAR
、識別判定部 (34)は、誤受理確率 (P )が所定の閾値 (P )より小さい場合、第
FAR PFAR
一パターンと第二パターンが一致して 、ると判定する。第一パターンと第二パターン がー致していると判定された時、比較結果(134)に応じて、例えば扉が開かれる。
[0016] 本発明のパターン識別システム(10、 10a)において、第一パターン及び第二バタ ーンは、例えば、指紋のパターンである。つまり、本発明のパターン識別システム(10
、 10a)は、指紋認証装置に適用されてもよい。
[0017] 本発明のパターン識別方法は、 (a)第一パターンの複数の特徴点(si— sn )と第 s 二パターンの複数の特徴点 (fl一 fn)において対応する複数の点を示す複数の対 f
応特徴点(csl— csn、 cfl一 cfn)の数 (n)に基づき、第一確率 (P )を算出するス
FCR
テツプと、(b)第一確率 (P )を参照して、第一パターンと第二パターンが誤って対
FCR
応づけられる確率を示す誤受理確率 (P )を算出するステップとを備える。 [0018] 本発明のパターン識別方法において、(b)算出するステップは、(b—l)第二べタト ル (Ds)に基づく量が第一ベクトル (Di)に基づく量より小さくなる確率を示す第二確 率 (P )を算出するステップと、(b— 2)第一確率 (P )と第二確率 (P )に基づい
PRE FCR PRE
て誤受理確率 (P )を算出するステップとを含む。この(b— 2)算出するステップにお
FAR
いて、誤受理確率 (P )は、例えば、第一確率 (P )と第二確率 (P )を掛け合わ
FAR FCR PRE
せることによって算出される。
[0019] 本発明のパターン識別方法において、第二確率 (P )は、第二ベクトル (Ds)の大
PRE
きさが第一ベクトル (Di)の大きさより小さくなる確率を示してもよい。第二確率 (P )
PRE
は、第二ベクトル (Ds)の各成分の積が第一ベクトル (Di)の各成分 (dl— dn)の積よ りも小さくなる確率を示してもょ、。第二確率 (P )は、第二ベクトル (Ds)の各成分
PRE
が第一ベクトル (Di)の対応する各成分 (dl— dn)より小さくなる確率を示してもょ 、。 第二確率 (P )は、第二ベクトル (Ds)の各成分が第一ベクトル (Di)の対応する各
PRE
成分 (dl— dn)より小さくなる事象と、第二ベクトル (Ds)の各成分が第三ベクトル (Di ' )の対応する各成分より小さくなる事象との論理和の確率を示してもょ 、。
[0020] 本発明のパターン識別方法の(a)算出するステップにおいて、第一確率 (P )は、
FCR
第一パターンの複数の特徴点の数 (ns)と、第二パターンの複数の特徴点の数 (nf) と、複数の対応特徴点の数 (n)とに基づいて算出される。
[0021] 本発明のパターン識別方法は、(c)誤受理確率 (P )と所定の閾値 (P )とを比
FAR PFAR
較するステップと、(d)誤受理確率 (P )が所定の閾値 (P )より小さい場合、第一
FAR PFAR
パターンと第二パターンが一致していると判定するステップとを更に備える。
[0022] 本発明のパターン識別プログラムは、(A)第一パターンの複数の特徴点(si— sn )
s と第二パターンの複数の特徴点 (fl一 fn)において対応する複数の点を示す複数の
f
対応特徴点(csl— csn、 cfl一 cfn)の数 (n)に基づき、第一確率 (P )を算出する
FCR
ステップと、(B)第一確率 (P )を参照して、第一パターンと第二パターンが誤って
FCR
対応づけられる確率を示す誤受理確率 (P )を算出するステップとをコンピュータに
FAR
実行させる。
[0023] (B)算出するステップにおいて、パターン識別プログラムは、(B-1)第二ベクトル( Ds)に基づく量が第一ベクトル (Di)に基づく量より小さくなる確率を示す第二確率 (P )を算出するステップと、 (B-2)第一確率 (P )と第二確率 (P )に基づいて誤受
PRE FCR PRE
理確率 (P )を算出するステップとをコンピュータに実行させる。この(B— 2)算出す
FAR
るステップにおいて、誤受理確率 (P )は、例えば、第一確率 (P )と第二確率 (P
FAR FCR
)を掛け合わせることによって算出される。
PRE
[0024] 本発明のパターン識別プログラムにおいて、第二確率 (P )は、第二ベクトル (Ds)
PRE
の大きさが第一ベクトル (Di)の大きさより小さくなる確率を示してもよ!、。第二確率 (P )は、第二ベクトル (Ds)の各成分の積が第一ベクトル(Di)の各成分(dl— dn)の
PRE
積よりも小さくなる確率を示してもょ 、。第二確率 (P )は、第二ベクトル (Ds)の各成
PRE
分が第一ベクトル (Di)の対応する各成分 (dl— dn)より小さくなる確率を示してもよ V、。第二確率 (P )は、第二ベクトル (Ds)の各成分が第一ベクトル (Di)の対応する
PRE
各成分 (dl— dn)より小さくなる事象と、第二ベクトル (Ds)の各成分が第三ベクトル( Di' )の対応する各成分より小さくなる事象との論理和の確率を示してもよ!、。
[0025] また、(A)算出するステップにおいて、第一確率 (P )は、第一パターンの複数の
FCR
特徴点の数 (ns)と、第二パターンの複数の特徴点の数 (nf)と、複数の対応特徴点 の数 (n)とに基づ 、て算出される。
[0026] 本発明のパターン識別プログラムは、(C)誤受理確率 (P )と所定の閾値 (P )
FAR PFAR
とを比較するステップと、(D)誤受理確率 (P )が所定の閾値 (P )より小さい場合
FAR PFAR
、第一パターンと第二パターンが一致して 、ると判定するステップとを更にコンビユー タに実行させる。
発明の効果
[0027] 本発明に係るパターン識別システム、パターン識別方法、パターン識別プログラム によれば、誤受理確率の算出精度が向上する。
[0028] 本発明に係るパターン識別システム、パターン識別方法、パターン識別プログラム によれば、安定したセキュリティ強度が保証される。
[0029] 本発明に係るパターン識別システム、パターン識別方法、パターン識別プログラム によれば、ノターン識別の学習コストが低減される。
発明を実施するための最良の形態
[0030] 添付図面を参照して、本発明によるパターン識別システム、パターン識別方法、及 びパターン識別プログラムを説明する。本発明において、パターン識別システムは、 識別対象となるパターン (以下、「入力パターン」と参照される)とデータベースに格納 されたパターン (以下、「参照パターン」と参照される)を照合し、その両パターンの照 合度を評価する。これらパターンとして、例えば、個人の指紋や顔、声紋などが挙げ られる。
[0031] (第一の実施の形態)
図 1は、本発明の第一の実施の形態に係るパターン識別システムの構成を示すブ ロック図である。図 1において、パターン識別システム 10は、パターン入力部 1、参照 パターン入力部 2、データ処理部 3、及び出力部 4を備える。また、データ処理部 3は 、差分データ検出部 31、誤対応確率算出部 32、及び誤受理確率算出部 33を備え る。以下、それぞれのユニットの構成及び動作について順番に説明が与えられる。
[0032] 図 1に示されるように、パターン入力部 1は、識別対象となる入力パターンを示すパ ターンデータ 111を受け取る。このパターンデータ 111として、個人の画像データや 音声データが例示される。例えば、その個人は、指紋センサに指をのせ、自分の指 紋 (入力パターン)を示す指紋画像データ (パターンデータ 111)をパターン入力部 1 に入力する。パターン入力部 1は、そのパターンデータ 111を分析し、その入力パタ ーンが有する特徴量 (characteristic quantity)を抽出する。例えば、指紋識別の場合 、この特徴量として指紋隆線の端点や分岐点などの特徴点(characteristic point)が 挙げられる。その後、ノターン入力部 1は、その特徴量 (特徴点)の情報を示すバタ ーン特徴データ 112を、データ処理部 3の差分データ検出部 31へ出力する。
[0033] 図 5は、ある入力パターンが有する特徴量の分布を示す概念図である。例えば、指 紋画像データなどのパターンデータ 111が解析され、図 5に示されるように、その画 像力も 4つの特徴点 si— s4が抽出される。一般的に、入力パターンの特徴点の数を nとする(nは自然数)。つまり、入力パターンは、複数の特徴点 si— snを有するとす る。なお、パターンデータ 111の代わりに、この特徴量の分布を示すデータ力 パタ ーン入力部 1に直接入力されてもよい。
[0034] 図 1に示されるように、参照パターン入力部 2は、参照パターンを示す参照パターン データ 121を受け取る。この参照パターンデータ 121は、データベースに予め登録さ れる。そして、個人認証の際、例えば個人が ID番号などを入力すると、その ID番号 に対応する参照パターンデータ 121が、データベース力も参照パターン入力部 2に 供給される。この参照パターンデータ 121として、個人の画像データや音声データが 例示される。参照パターン入力部 2は、その参照パターンデータ 121を分析し、その パターンが有する特徴量を抽出する。例えば、指紋識別の場合、この特徴量として指 紋隆線の端点や分岐点などの特徴点が挙げられる。その後、参照パターン入力部 2 は、その特徴量 (特徴点)の情報を示す参照パターン特徴データ 122を、データ処理 部 3の差分データ検出部 31へ出力する。
[0035] 図 6は、ある参照パターンが有する特徴量の分布を示す概念図である。例えば、指 紋画像データなどの参照パターンデータ 121が解析され、図 6に示されるように、そ の画像から 4つの特徴点 fl一 f4が抽出される。一般的に、参照パターンの特徴点( 以下、参照特徴点と参照される)の数を nとする (nは自然数)。つまり、参照パターン
f f
は、複数の参照特徴点 fl一 fnを有するとする。なお、参照パターンデータ 121の代
f
わりに、この特徴量の分布を示すデータ力 参照パターン入力部 2に直接入力されて ちょい。
[0036] 図 1に示されるように、差分データ検出部 31は、パターン入力部 1及び参照パター ン入力部 2から、それぞれパターン特徴データ 112及び参照パターン特徴データ 12 2を受け取る。そして、差分データ検出部 31は、そのパターン特徴データ 112とその 参照パターン特徴データ 122とを比較し、複数の特徴点 si— snと複数の参照特徴
s
点 f 1一 fnとの対応をチェックする。
f
[0037] 図 7は、前出の図 5と図 6が重ね合わされた状態を示し、差分データ検出部 31によ る特徴点の対応付け処理を概念的に示す。図 7において、点線で描かれた円は、参 照特徴点 fl一 f4を含む所定の範囲 (参照範囲)を示す。差分データ検出部 31は、こ の参照範囲を参照し、ある特徴点がある参照範囲の内側にある時、その特徴点とそ の参照範囲内の参照特徴点とを対応付ける。図 7において、特徴点 siと参照特徴点 fl、特徴点 s2と参照特徴点 f2、及び特徴点 s3と参照特徴点 f3が対応していると判 定される。これら対応付けられた特徴点及び参照特徴点は、以下、「対応特徴点」と 参照される。 [0038] 図 8は、図 7において決定された対応特徴点を示す概念図である。図 8に示される ように、入力パターンは、 3つの対応特徴点 csl、 cs2、 cs3を有する。同様に、参照パ ターンは、 3つの対応特徴点 cfl、 cf2、 cf3を有する。ここで、対応特徴点 csl、 cs2、 cs3は、それぞれ対応特徴点 cfl、 cf2、 cf3に対応している。この時、差分データ検 出部 31は、対応する 2つの対応特徴点における物理量の差分を算出する。例えば、 差分データ検出部 31は、対応特徴点 cslと cflとの距離 dl、対応特徴点 cs2と cf2と の距離 d2、対応特徴点 cs3と cf3との距離 d3を算出する。
[0039] 一般的に、入力パターンと参照パターンの対応特徴点のペアの数を nとする(nは 自然数)。つまり、入力パターンは、複数の対応特徴点 csl— csnを有し、参照パター ンは、複数の対応特徴点 cfl一 cfnを有するとする。この時、差分データ検出部 31は 、対応する 2つの対応特徴点における物理量の差分 dl— dnを算出し、その差分を 示す入力差分データ Di= (dl, (12, · · · , dn)を生成する。この入力差分データ Diは n次元ベクトルを示すデータである。例えば、差分データ検出部 31は、対応特徴点 c si— csnと対応特徴点 cfl一 cfnのそれぞれの距離 dl— dnを算出する。また、指紋 認識の場合、差分データ検出部 31は、対応する 2つの対応特徴点における指紋隆 線の方向の差分を算出してもよい。差分データ検出部 31は、上記のように検出され た入力差分データ Diを含む差分データ 131を、誤対応確率算出部 32に出力する( 図 1参照)。具体的には、差分データ 131は、入力差分データ Di、対応特徴点の数 n 、入力パターンの特徴点の数 ns、及び参照特徴点の数 nfを含む。
[0040] 次に、図 1に示されるように、誤対応確率算出部 32は、差分データ検出部 31からの 差分データ 131を受け取り、誤対応確率 P を算出する。ここで、誤対応確率 P は
FCR FCR
、上記の対応特徴点の数 nよりも大きな数の対応特徴点を入力パターンに対して有 する他の参照パターンが存在する確率である。つまり、識別中の入力パターンと識別 中の参照パターンとの対応特徴点の数が上述の通り nであり、識別中の入力パター ンと他のある参照パターンとの対応特徴点の数が mであるとき、誤対応確率 P は、
FCR
m>nとなる確率を意味する。一般的に、比較する 2つのパターンの対応特徴点の数 が多 、ほど、その 2つのパターンの一致の度合いは高!、。
[0041] 今、入力パターンの特徴点の数 ns、参照特徴点の数 nf、対応特徴点の数 nは、差 分データ検出部 31からの差分データ 131により与えられる。また、異なるパターンの 間で特徴点が誤って対応づけられる確率を Pとする。この pは、予備実験などで事前 に求められる。この時、入力パターンと参照パターンの誤対応確率 P—は、以下の数 式 1で与えられる。
[0042] [数 1]
Figure imgf000012_0001
• · · ( 1 )
[0043] その後、誤対応確率算出部 32は、算出された誤対応確率 P を示す誤対応確率
FCR
データ 132、及び差分データ 131を、誤受理確率算出部 33へ出力する。
[0044] 図 1に示されるように、誤受理確率算出部 33は、誤対応確率算出部 32からの差分 データ 131及び誤対応確率データ 132を受け取る。次に、誤受理確率算出部 33は 、以下のように定義される予備誤受理確率 P を算出する。
PRE
[0045] 今、識別中の入力パターンと識別中の参照パターンとの対応特徴点分布力 算出 される入力差分データ Di= (dl , d2, · · · , dn)は、 n次元のベクトルである。ここで、 識別中の入力パターンと他のある参照パターンとの n個の対応特徴点の分布に基づ いて得られる差分データを、候補差分データ Dsとする。この候補差分データ Dsも、 n 次元のベクトルを示すデータである。この時、予備誤受理確率 P は、候補差分デー
PRE
タ Dsに基づく「量」が、入力差分データ Diの基づく「量」より小さくなる確率である。例 えば、その量として、「大きさ(ノルム)」が挙げられる。この時、予備誤受理確率 P は
PRE
、候補差分データ Dsのノルムカ 入力差分データ Diのノルムより小さくなる確率を意 味する。この「量」は、後述のモデルによって決定される。
[0046] 以下、誤受理確率算出部 33による誤受理確率 P の算出手法について、更に詳
FAR
しく説明する。今、上述の候補差分データ Dsの確率密度関数 (分布関数)を p (Ds)と する。この p (Ds)は、予備実験により事前に決定される、あるいは一様分布モデルに 従うと仮定される。また、入力差分データ Diに基づく「量」よりも小さい「量」を有する候 補差分データ Dsの集合を R(Di)とする。この時、入力パターンと参照パターンの予 備誤受理確率 P は、以下の数式 2で与えられる。
PRE
[0047] [数 2]
Figure imgf000013_0001
[0048] 例えば、図 9は、上述の集合 R(Di)のモデルを概念的に示すグラフである。ここで、 入力差分データ Diは 2次元ベクトルである、すなわち Di= (dl, d2)であるとする。図 9において、上述の「量」として、差分データの「大きさ(ノルム)」が採用される。つまり 、集合 R(Di)は、入力差分データ Diのノルムよりも小さいノルムを有する候補差分デ ータ Dsを含む。すなわち、集合 R(Di)は、図中の斜線で示された円領域により規定 される。候補差分データ Dsの確率密度関数 p (Ds)は、予備実験により決定される。 あるいは、確率密度関数 p (Ds)は一様であると仮定される。この時、予備誤受理確率 P
PREは、その円領域の面積と等しい。
[0049] 図 10は、上述の集合 R(Di)の他のモデルを概念的に示すグラフである。図 10にお いて、上述の「量」として、差分データの「各成分の積」が採用される。つまり、集合 R( Di)に含まれる候補差分データ Dsの各成分の積は、入力差分データ Diの各成分の 積 dld2よりも小さい。すなわち、集合 R(Di)は、図中の斜線で示された領域により規 定される。ここで、確率密度関数 p (Ds)は一様であり、また、候補差分データ Dsの各 成分は全て [0, 1]の範囲内にあると仮定する。この場合の予備誤受理確率 P を P
PRE 1 と表す時、その予備誤受理確率 Pは、以下の数式 3あるいは数式 4で与えられる。
1
[0050] [数 3]
U = ii X2...Xn≤dld2 jn dXdX" - " ( 3 )
[0051] 画 尸バ … ) . . . (4 )
Figure imgf000013_0002
ここで、数式 4中の tは、 t=dl 'd2' . 'dnで与えられる。
[0052] 図 11は、上述の集合 R(Di)の更に他のモデルを概念的に示すグラフである。図 11 において、上述の「量」として、差分データの「各成分」が採用される。つまり、集合 R( Di)に含まれる候補差分データ Dsの各成分は、入力差分データ Diの対応する各成 分 dl、 d2よりも小さい。すなわち、集合 R(Di)は、図中の斜線で示された長方形領 域により規定される。候補差分データ Dsの確率密度関数 p (Ds)は、予備実験により 決定される。あるいは、確率密度関数 p (Ds)は一様であると仮定される。この時、予 備誤受理確率 P は、その長方形領域の面積と等しい。
PRE
[0053] 図 12は、上述の集合 R(Di)の更に他のモデルを概念的に示すグラフである。図 12 において、集合 R(Di)は、図 11で示された集合 R(Di)を含む。更に、入力差分デー タ Diの各成分の組み合わせを変えたデータを Di, = (d2, dl)とする時、集合 R(Di) は、図 11における場合と同様に求められる集合 R (Di' )を含む。つまり、集合 R (Di) に含まれる候補差分データ Dsの各成分は、入力差分データ Diある 、は上記データ Di'の対応する各成分よりも小さい。すなわち、集合 R(Di)は、図中の斜線で示され た領域により規定される。このような集合 R(Di)は、指紋パターンのように特徴点が全 て同等な性質を有する場合に有効である。ここで、確率密度関数 p (Ds)は一様であ り、また、候補差分データ Dsの各成分は全て [0, 1]の範囲内にあると仮定する。更 に、入力差分データ Diの各成分 dl— dnを大きさの順に並べ替えた時、 I dn' | ≤ · ≤ I d2' |≤ I dl' I (ここで n,は自然数)という関係があるとする。この場合の 予備誤受理確率 P を Pと表す時、その予備誤受理確率 Pは、以下の数式 5で与え
PRE 2 2
られる。
[0054] [数 5]
Figure imgf000014_0001
[0055] また、この予備誤受理確率 Pは、以下の漸ィ匕式 6乃至 8で与えられる。
2
[0056] [数 6]
P2 {d1,d2...,dn ) = n! Cn ( 6 ) [0057] [数 7]
Figure imgf000015_0001
[0058] [数 8]
C0 = 1 · · · ( 8 )
[0059] 以上のように予備誤受理確率 P を算出した後、誤受理確率算出部 33は、この予
PRE
備誤受理確率 P と誤対応確率算出部 32からの誤対応確率 P とを統合することに
PRE FCR
よって、最終的に誤受理確率 P を算出する。例えば、誤受理確率算出部 33は、予
FAR
備誤受理確率 P と誤対応確率 P とを掛け合わせることによって、誤受理確率 P
PRE FCR FAR
を算出する。そして、誤受理確率算出部 33は、算出された誤受理確率 P を示す誤
FAR
受理確率データ 133を、出力部 4へ出力する。
[0060] 図 1に示されるように、出力部 4は、誤受理確率算出部 33から誤受理確率データ 1 33を受け取り、誤受理確率 P を示す結果データ 141を出力する。この結果データ
FAR
141は、パターン識別結果の誤受理確率を示すとともに、ノターン識別システム 10 のセキュリティ強度や、パターンの評価値を意味する。
[0061] 誤受理確率算出部 33は、差分データ検出部 31及び誤対応確率算出部 32の両方 に接続されてもよい。この時、差分データ検出部 31は、誤対応確率算出部 32と誤受 理確率算出部 33の両方に差分データ 131を供給する。また、誤対応確率算出部 32 は、誤対応確率データ 132だけを誤受理確率算出部 33に供給する。
[0062] 以上に示されたデータ処理部 3における処理は、コンピュータによって実行されても よい。すなわち、差分データ検出部 31、誤対応確率算出部 32、誤受理確率算出部 33における処理は、それぞれコンピュータプログラムにより記述され、コンピュータに よって実行される。
[0063] 図 2は、本発明の第一の実施の形態に係るパターン認識方法を要約して示すフロ 一チャートである。まず、パターンデータ 111がパターン入力部 1に入力される(ステ ップ Sl)。次に、パターンデータ 111と参照パターンデータ 112のそれぞれの特徴量 に基づき、差分データ検出部 31が差分データ 131を検出する (ステップ S2)。この差 分データ 131は、入力パターンの特徴点の数 ns、参照パターンの特徴点の数 nf、対 応特徴点の数 n、及び入力差分データ Di= (dl, · · · , dn)を含む。次に、誤対応確 率算出部 32は、差分データ 131を受け取り、その差分データ 131に基づき誤対応確 率 P を算出する (ステップ S3)。次に、誤受理確率算出部 33は、差分データ 131を
FCR
受け取り、その差分データ 131に基づき予備誤受理確率 P を算出する (ステップ S
PRE
4)。また、誤受理確率算出部 33は、算出された誤対応確率 P と算出された予備誤
FCR
受理確率 P を用いて、誤受理確率 P を算出する (ステップ S5)。そして、誤受理
PRE FAR
確率 P を示すデータが、出力部 4から出力される (ステップ S6)。
FAR
[0064] 本実施の形態に係るパターン識別方法、そのシステム及びプログラムによる効果は 以下の通りである。本発明に係るパターン識別システム 10は、誤対応確率算出部 32 と誤受理確率算出部 33を備え、誤対応確率 P と予備誤受理確率 P に基づいて
FCR PRE
、誤受理確率 P
FARを算出する。従って、入カノターンと参照パターンに関する誤受理 確率 P の算出精度が向上する。ここで、誤対応確率 P は、対応特徴点の数 nより
FAR FCR
も大きな数の対応特徴点が存在する確率である。また、予備誤受理確率 P
PREは、候 補差分データ Dsに基づく「量」が、入力差分データ Diの基づく「量」より小さくなる確 率である。この「量」として、例えば差分データのノルムが挙げられる。
[0065] また、本発明に係るパターン識別システム 10は、予備誤受理確率 P だけでなく誤
PRE
対応確率 P 〖こも基づいて、誤受理確率 P を算出する。つまり、誤受理確率 P の
FCR FAR FAR
計算の際、対応特徴点の数 nが考慮に入れられる。数式 1と数式 5から明らかなように 、対応特徴点の数 nが大きくなる程、算出される誤受理確率 P が小さくなる。従って
FAR
、システムの信頼度が向上する。
[0066] 更に、指紋を同定する場合や屋外において物体を認識する場合、パターンの特徴 量はほぼ同等な性質を有する。このような場合、図 12に示されたモデルが有効であ る。つまり、入力差分データ Diの各成分の組み合わせを変えたデータ Di'も用いて、 予備誤受理確率 P 力 S算出される。具体的には、候補差分データ Dsの各成分が、
PRE
入力差分データ Di及び上記データ Di'の対応する各成分よりも小さくなる確率として 、予備誤受理確率 P
PREが計算される。これにより、誤受理確率 P
FARは更に正確に算出 される。
[0067] 更に、候補差分データ Dsの確率密度関数 p (Ds)は、一様分布関数によってモデ ル化される。これにより、パターン識別システム 10に対する学習コストが低減される。
[0068] (第二の実施の形態)
図 3は、本発明の第二の実施の形態に係るパターン識別システムの構成を示すブ ロック図である。図 3において、図 1に示された構成と同様の構成には同じ番号が付 与され、その説明は適宜省略される。
[0069] 図 3において、パターン識別システム 10aは、パターン入力部 1、参照パターン入力 部 2、データ処理部 3a、出力部 4a、及び許容誤受理確率入力部 5を備える。また、デ ータ処理部 3aは、差分データ検出部 31、誤対応確率算出部 32、誤受理確率算出 部 33、及び識別判定部 34を備える。
[0070] 本実施の形態において、誤受理確率算出部 33は、算出した誤受理確率 P を示
FAR
す誤受理確率データ 133を、識別判定部 34に出力する。また、許容誤受理確率入 力部 5は、許容誤受理確率 P を示す許容誤受理確率データ 151を識別判定部 34
PFAR
に出力する。この許容誤受理確率 P は、システムとして許容される誤受理確率、す
PFAR
なわちパターン識別に対する閾値である。
[0071] 識別判定部 34は、誤受理確率算出部 33及び許容誤受理確率入力部 5から、それ ぞれ誤受理確率データ 133及び許容誤受理確率データ 151を受け取る。そして、識 別判定部 34は、誤受理確率 P が許容誤受理確率 P より小さいかどうか調べる。
FAR PFAR
誤受理確率 P が許容誤受理確率 P より小さ!、場合、識別判定部 34は、入力パ
FAR PFAR
ターンと参照パターンが同一であると判定する。誤受理確率 P
FARが許容誤受理確率
P より大きい場合、識別判定部 34は、入カノターンと参照パターンが同一である
PFAR
と判定しない。そして、識別判定部 34は、この判定結果を示す判定結果データ 134 を出力部 4aに出力する。
[0072] 出力部 4aは、識別判定部 34から判定結果データ 134を受け取り、上記判定結果 に基づいて出力データ 142を出力する。例えば、このパターン識別システム 10aが扉 の制御に適用された場合、その扉は、その出力データ 142に応じて開くように制御さ れる。また、このパターン識別システム 10aが銀行の ATMに実装された場合、顧客 による ATMの操作は、その出力データ 142に応じて許可あるいは拒否される。パタ ーン入力部に入力されるパターンデータ 111としては、例えば、顧客の指紋や顔や 虹彩などの画像データが挙げられる。
[0073] 例えば、一般的に行われて 、るように、個人の認証に 4桁の暗証番号 (PIN)が使 用される場合、そのシステムにおける誤認証の確率 (以下、セキュリティ強度と参照さ れる)は 1万分の 1である。本発明に係るパターン識別システム 10aにおいて、そのセ キユリティ強度と同じセキュリティ強度を実現するためには、許容誤受理確率 P
PFAR力^ 万分の 1に設定されればよい。つまり、この許容誤受理確率 P (閾値)は、システム
PFAR
のセキュリティ強度を直接意味する。なお、この許容誤受理確率 P は、データ処理
PFAR
部 3aにお 、て一定の値として事前に設定されてもよ!、。
[0074] 以上に示されたデータ処理部 3aにおける処理は、コンピュータによって実行されて もよい。すなわち、差分データ検出部 31、誤対応確率算出部 32、誤受理確率算出 部 33、識別判定部 34における処理は、それぞれコンピュータプログラムにより記述さ れ、コンピュータによって実行される。
[0075] 図 4は、本発明の第二の実施の形態に係るパターン認識方法を要約して示すフロ 一チャートである。まず、パターンデータ 111がパターン入力部 1に入力される(ステ ップ Sl)。次に、パターンデータ 111と参照パターンデータ 112のそれぞれの特徴量 に基づき、差分データ検出部 31が差分データ 131を検出する (ステップ S2)。次に、 誤対応確率算出部 32は、差分データ 131を受け取り、その差分データ 131に基づき 誤対応確率 P を算出する (ステップ S3)。次に、誤受理確率算出部 33は、差分デ
FCR
ータ 131を受け取り、その差分データ 131に基づき予備誤受理確率 P を算出する(
PRE
ステップ S4)。また、誤受理確率算出部 33は、算出された誤対応確率 P と算出さ
FCR
れた予備誤受理確率 P を用いて、誤受理確率 P を算出する (ステップ S5)。次に
PRE FAR
、識別判定部 34は、許容誤受理確率 P と算出された誤受理確率 P を比較し、
PFAR FAR
誤受理確率 P が許容誤受理確率 P より小さいかどうか判定する (ステップ S7)。
FAR PFAR
そして、その判定結果を示す出力データ 142が、出力部 4から出力される (ステップ S 8)。
[0076] 本実施の形態に係るパターン識別システム 10aによれば、第一の実施の形態にお ける効果にカ卩えて、以下の効果が得られる。すなわち、このパターン識別システム 10 aにおいて、全ての入力パターンに対して与えられる閾値は一定に設定される。更に 、その与えられる閾値は、許容誤受理確率 P 、つまりシステムのセキュリティ強度を
PFAR
直接意味する。従って、安定したセキュリティ強度が保証される。このように、閾値が セキュリティ強度に直接対応することは、システムの運用の観点力も望ましい。
[0077] 以上に示されたパターン識別システム 10、 10aは、音声認識、指紋同定、光学的 文字認識、信号識別などに適用される。
[0078] なお、本発明によるパターン識別システム、パターン識別方法、及びパターン識別 プログラムは、上述した実施の形態に関わらず、その趣旨を逸脱しない範囲におい て種々変更が可能である。一例を挙げると、入力パターンと参照パターンの扱いは対 称関係であるので、例えばパターンデータ 111を参照パターン入力部 2に、参照パタ ーンデータ 121をパターン入力部 1に入力するような構成であってもよい。
図面の簡単な説明
[0079] [図 1]本発明の第一の実施の形態に係るパターン識別システムの構成を示すブロック 図である。
[図 2]本発明の第一の実施の形態に係るパターン認識方法を示すフローチャートで ある。
[図 3]本発明の第二の実施の形態に係るパターン識別システムの構成を示すブロック 図である。
[図 4]本発明の第二の実施の形態に係るパターン認識方法を示すフローチャートで ある。
[図 5]入カノターンが有する特徴点の分布を示す概念図である。
[図 6]参照パターンが有する特徴点の分布を示す概念図である。
[図 7]差分データ検出部による特徴点の対応付け処理を示す概念図である。
[図 8]対応特徴点の分布を示す概念図である。
[図 9]候補差分データの分布の例を示すグラフである。
[図 10]候補差分データの分布の他の例を示すグラフである。
[図 11]候補差分データの分布の更に他の例を示すグラフである。 [図 12]候補差分データの分布の更に他の例を示すグラフである 符号の説明
1 パターン入力部
2 参照パターン入力部
3 データ処理部
4 出力部
5 許容誤受理確率入力部
10 パターン識別システム
31 差分データ検出部
32 誤対応確率算出部
33 誤受理確率算出部
34 識別判定部
111 パターンデータ
112 パターン特徴データ
121 参照パターンデータ
122 参照パターン特徴デ、
131 差分データ
132 誤対応確率データ
133 誤受理確率データ
134 判定結果データ
141 結果データ
142 出力データ
151 許容誤受理確率デー

Claims

請求の範囲
[1] 第一確率算出部と、
前記第一確率算出部に接続された第二確率算出部と
を具備し、
前記第一確率算出部は、第一パターンの複数の特徴点と第二パターンの複数の 特徴点において対応する複数の点を示す複数の対応特徴点の数に基づき、第一確 率を算出し、
前記第一確率は、前記対応特徴点の数よりも大きな数の対応特徴点を前記第一パ ターンに対して有する第三パターンが存在する確率を示し、
前記第二確率算出部は、前記第一確率を参照して、前記第一パターンと前記第二 パターンが誤って対応づけられる確率を示す誤受理確率を算出する
ノターン識別システム。
[2] 請求項 1に記載のパターン識別システムにお ヽて、
第一ベクトルは、前記第一パターンの前記複数の対応特徴点と対応する前記第二 パターンの前記複数の対応特徴点のそれぞれの間の差分から構成される成分を有 し、
第二ベクトルは、前記第一パターンと第四ノターンとによって決定される複数の対 応特徴点のそれぞれの間の差分から構成される成分を有し、
前記第二確率算出部は、前記第二ベクトルに基づく量が前記第一ベクトルに基づ く量より小さくなる確率を示す第二確率を算出し、前記第一確率と前記第二確率に 基づいて前記誤受理確率を算出する
ノターン識別システム。
[3] 請求項 2に記載のパターン識別システムにおいて、
前記第二確率算出部は、前記第一確率と前記第二確率を掛け合わせることによつ て、前記誤受理確率を算出する
ノターン識別システム。
[4] 請求項 2又は 3に記載のパターン識別システムにおいて、
前記第二確率は、前記第二ベクトルの大きさが前記第一ベクトルの大きさより小さく なる確率を示す
ノ ターン識別システム。
[5] 請求項 2又は 3に記載のパターン識別システムにおいて、
前記第二確率は、前記第二ベクトルの各成分の積が前記第一ベクトルの各成分の 積よりも小さくなる確率を示す
ノ ターン識別システム。
[6] 請求項 2又は 3に記載のパターン識別システムにおいて、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる確率を示す
ノ ターン識別システム。
[7] 請求項 2又は 3に記載のパターン識別システムにおいて、
第三ベクトルは、前記第一ベクトルの各成分の組み合わせが入れ換えられた成分 を有し、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる事象と、前記第二ベクトルの各成分が前記第三ベクトルの対応する 各成分より小さくなる事象との論理和の確率を示す
ノターン識別システム。
[8] 請求項 2乃至 7のいずれかに記載のパターン識別システムにおいて、
前記第二ベクトルの分布関数は一様である
ノターン識別システム。
[9] 請求項 2乃至 8のいずれかに記載のパターン識別システムにおいて、
前記第一確率算出部に接続された差分データ検出部を更に具備し、 前記差分データ検出部は、前記第一パターンの前記複数の特徴点を示す第一特 徴データと前記第二パターンの前記複数の特徴点を示す第二特徴データを受け取 り、前記第一特徴データと前記第二特徴データに基づき前記複数の対応特徴点を 検出し、前記検出結果を示す差分データを前記第一確率算出部に出力する
ノターン識別システム。
[10] 請求項 9に記載のパターン識別システムにおいて、 前記差分データは、
前記第一パターンの前記複数の特徴点の数と、
前記第二パターンの前記複数の特徴点の数と、
前記複数の対応特徴点の数と、
前記第一ベクトルと
を含み、
前記第一確率算出部は、前記差分データに基づいて前記第一確率を算出する ノターン識別システム。
[11] 請求項 10に記載のパターン識別システムにおいて、
前記第二確率算出部は、前記第一確率算出部を介して前記差分データ検出部に 接続され、
前記差分データは、前記第二確率算出部に供給される
ノ ターン識別システム。
[12] 請求項 1乃至 11のいずれかに記載のパターン識別システムにおいて、
前記第二確率算出部に接続される識別判定部を更に具備し、
前記識別判定部は、前記第二確率算出部から前記誤受理確率を示す誤受理確率 データを受け取り、前記誤受理確率と所定の閾値とを比較し、比較結果を出力する ノターン識別システム。
[13] 請求項 12に記載のパターン識別システムにおいて、
前記識別判定部は、前記誤受理確率が前記所定の閾値より小さい場合、前記第 一パターンと前記第二パターンが一致していると判定する
ノ ターン識別システム。
[14] 請求項 1乃至 13のいずれかに記載のパターン識別システムにおいて、
前記第一パターン及び前記第二パターンは、指紋のパターンである
ノターン識別システム。
[15] (a)第一パターンの複数の特徴点と第二パターンの複数の特徴点において対応す る複数の点を示す複数の対応特徴点の数に基づき、第一確率を算出するステップと (b)前記第一確率を参照して、前記第一パターンと前記第二パターンが誤って対 応づけられる確率を示す誤受理確率を算出するステップと
を具備し、
前記第一確率は、前記対応特徴点の数よりも大きな数の対応特徴点を前記第一パ ターンに対して有する第三パターンが存在する確率を示す
パターン識別方法。
[16] 請求項 15に記載のパターン識別方法において、
第一ベクトルは、前記第一パターンの前記複数の対応特徴点と対応する前記第二 パターンの前記複数の対応特徴点のそれぞれの間の差分から構成される成分を有 し、
第二ベクトルは、前記第一パターンと第四ノターンとによって決定される複数の対 応特徴点のそれぞれの間の差分から構成される成分を有し、
前記 (b)算出するステップは、
(b— 1)前記第二ベクトルに基づく量が前記第一ベクトルに基づく量より小さくなる確 率を示す第二確率を算出するステップと、
(b - 2)前記第一確率と前記第二確率に基づいて前記誤受理確率を算出するステ ップと
を含む
パターン識別方法。
[17] 請求項 16に記載のパターン識別方法において、
前記 (b - 2)算出するステップにおいて、前記誤受理確率は、前記第一確率と前記 第二確率を掛け合わせることによって算出される
パターン識別方法。
[18] 請求項 16又は 17に記載のパターン識別方法において、
前記第二確率は、前記第二ベクトルの大きさが前記第一ベクトルの大きさより小さく なる確率を示す
パターン識別方法。
[19] 請求項 16又は 17に記載のパターン識別方法において、 前記第二確率は、前記第二ベクトルの各成分の積が前記第一ベクトルの各成分の 積よりも小さくなる確率を示す
パターン識別方法。
[20] 請求項 16又は 17に記載のパターン識別方法において、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる確率を示す
パターン識別方法。
[21] 請求項 16又は 17に記載のパターン識別方法において、
第三ベクトルは、前記第一ベクトルの各成分の組み合わせが入れ換えられた成分 を有し、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる事象と、前記第二ベクトルの各成分が前記第三ベクトルの対応する 各成分より小さくなる事象との論理和の確率を示す
パターン識別方法。
[22] 請求項 15乃至 21のいずれかに記載のパターン識別方法において、
前記 (a)算出するステップにお 、て、
前記第一確率は、前記第一パターンの前記複数の特徴点の数と、前記第二パター ンの前記複数の特徴点の数と、前記複数の対応特徴点の数とに基づいて算出され る
パターン識別方法。
[23] 請求項 15乃至 22のいずれかに記載のパターン識別方法において、
(c)前記誤受理確率と所定の閾値とを比較するステップと、
(d)前記誤受理確率が前記所定の閾値より小さい場合、前記第一パターンと前記 第二パターンが一致して 、ると判定するステップと
を更に具備する
パターン識別方法。
[24] (A)第一パターンの複数の特徴点と第二パターンの複数の特徴点において対応 する複数の点を示す複数の対応特徴点の数に基づき、第一確率を算出するステップ と、
前記第一確率は、前記対応特徴点の数よりも大きな数の対応特徴点を前記第一パ ターンに対して有する第三パターンが存在する確率を示し、
(B)前記第一確率を参照して、前記第一パターンと前記第二パターンが誤って対 応づけられる確率を示す誤受理確率を算出するステップと
をコンピュータに実行させる
ノ《ターン識別プログラム。
[25] 請求項 24に記載のパターン識別プログラムにおいて、
第一ベクトルは、前記第一パターンの前記複数の対応特徴点と対応する前記第二 パターンの前記複数の対応特徴点のそれぞれの間の差分から構成される成分を有 し、
第二ベクトルは、前記第一パターンと第四ノターンとによって決定される複数の対 応特徴点のそれぞれの間の差分から構成される成分を有し、
前記 (B)算出するステップは、
(B - 1)前記第二ベクトルに基づく量が前記第一ベクトルに基づく量より小さくなる確 率を示す第二確率を算出するステップと、
(B - 2)前記第一確率と前記第二確率に基づいて前記誤受理確率を算出するステ ップと
を含む
ノ《ターン識別プログラム。
[26] 請求項 25に記載のパターン識別プログラムにおいて、
前記 (B - 2)算出するステップにおいて、前記誤受理確率は、前記第一確率と前記 第二確率を掛け合わせることによって算出される
ノ《ターン識別プログラム。
[27] 請求項 25又は 26に記載のパターン識別プログラムにおいて、
前記第二確率は、前記第二ベクトルの大きさが前記第一ベクトルの大きさより小さく なる確率を示す
ノ《ターン識別プログラム。
[28] 請求項 25又は 26に記載のパターン識別プログラムにおいて、
前記第二確率は、前記第二ベクトルの各成分の積が前記第一ベクトルの各成分の 積よりも小さくなる確率を示す
ノ《ターン識別プログラム。
[29] 請求項 25又は 26に記載のパターン識別プログラムにおいて、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる確率を示す
ノ《ターン識別プログラム。
[30] 請求項 25又は 26に記載のパターン識別プログラムにおいて、
第三ベクトルは、前記第一ベクトルの各成分の組み合わせが入れ換えられた成分 を有し、
前記第二確率は、前記第二ベクトルの各成分が前記第一ベクトルの対応する各成 分より小さくなる事象と、前記第二ベクトルの各成分が前記第三ベクトルの対応する 各成分より小さくなる事象との論理和の確率を示す
ノ《ターン識別プログラム。
[31] 請求項 24乃至 30のいずれかに記載のパターン識別プログラムにおいて、
前記 (A)算出するステップにお 、て、
前記第一確率は、前記第一パターンの前記複数の特徴点の数と、前記第二パター ンの前記複数の特徴点の数と、前記複数の対応特徴点の数とに基づいて算出され る
ノ《ターン識別プログラム。
[32] 請求項 24乃至 31のいずれかに記載のパターン識別プログラムにおいて、
(C)前記誤受理確率と所定の閾値とを比較するステップと、
(D)前記誤受理確率が前記所定の閾値より小さい場合、前記第一パターンと前記 第二パターンが一致して 、ると判定するステップと
を更にコンピュータに実行させる
ノ《ターン識別プログラム。
PCT/JP2005/000272 2004-01-15 2005-01-13 パターン識別システム、パターン識別方法、及びパターン識別プログラム WO2005069221A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US10/586,300 US7778463B2 (en) 2004-01-15 2005-01-13 Pattern recognition system, pattern recognition method, and pattern recognition program
EP05703511A EP1713032B1 (en) 2004-01-15 2005-01-13 Pattern identifying system, pattern identifying method, and pattern identifying program
CN2005800084167A CN1934588B (zh) 2004-01-15 2005-01-13 模式识别系统和模式识别方法
JP2005517049A JP4665764B2 (ja) 2004-01-15 2005-01-13 パターン識別システム、パターン識別方法、及びパターン識別プログラム
US12/831,711 US7983484B2 (en) 2004-01-15 2010-07-07 Pattern recognition system, pattern recognition method, and pattern recognition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-008533 2004-01-15
JP2004008533 2004-01-15

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/586,300 A-371-Of-International US7778463B2 (en) 2004-01-15 2005-01-13 Pattern recognition system, pattern recognition method, and pattern recognition program
US12/831,711 Division US7983484B2 (en) 2004-01-15 2010-07-07 Pattern recognition system, pattern recognition method, and pattern recognition program

Publications (1)

Publication Number Publication Date
WO2005069221A1 true WO2005069221A1 (ja) 2005-07-28

Family

ID=34792235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000272 WO2005069221A1 (ja) 2004-01-15 2005-01-13 パターン識別システム、パターン識別方法、及びパターン識別プログラム

Country Status (6)

Country Link
US (2) US7778463B2 (ja)
EP (1) EP1713032B1 (ja)
JP (1) JP4665764B2 (ja)
KR (1) KR100837002B1 (ja)
CN (1) CN1934588B (ja)
WO (1) WO2005069221A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205043A (ja) * 2009-03-04 2010-09-16 Nec Corp パターン学習方法、装置、およびプログラム
JPWO2009151002A1 (ja) * 2008-06-11 2011-11-17 日本電気株式会社 パターン識別方法、装置およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5304655B2 (ja) * 2007-12-26 2013-10-02 日本電気株式会社 パターン間特徴対応付け装置及びそれに用いるパターン間特徴対応付け方法並びにそのプログラム
WO2010016313A1 (ja) * 2008-08-08 2010-02-11 日本電気株式会社 パターン判定装置、方法、およびプログラム
US20100057560A1 (en) * 2008-09-04 2010-03-04 At&T Labs, Inc. Methods and Apparatus for Individualized Content Delivery
JP5045845B2 (ja) * 2009-03-13 2012-10-10 日本電気株式会社 画像識別子抽出装置
US10020759B2 (en) 2015-08-04 2018-07-10 The Boeing Company Parallel modular converter architecture for efficient ground electric vehicles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124669A (ja) * 1996-10-17 1998-05-15 Chuo Spring Co Ltd 指紋照合装置
JPH11195119A (ja) * 1997-10-20 1999-07-21 Fujitsu Ltd 指紋登録装置、指紋照合装置及び指紋照合方法
JP2000182057A (ja) * 1998-12-18 2000-06-30 Nec Corp 個人識別方法、個人識別装置および記録媒体
JP2000242786A (ja) * 1999-02-19 2000-09-08 Matsushita Electric Works Ltd 本人認証システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
US5613014A (en) 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
JPH0991434A (ja) * 1995-09-28 1997-04-04 Hamamatsu Photonics Kk 人物照合装置
US5978495A (en) * 1996-07-17 1999-11-02 Intelnet Inc. Method and apparatus for accurate determination of the identity of human beings
US6259805B1 (en) * 1996-12-04 2001-07-10 Dew Engineering And Development Limited Biometric security encryption system
US6498861B1 (en) * 1996-12-04 2002-12-24 Activcard Ireland Limited Biometric security encryption system
US6233348B1 (en) * 1997-10-20 2001-05-15 Fujitsu Limited Fingerprint registering apparatus, fingerprint identifying apparatus, and fingerprint identifying method
US6463165B1 (en) * 1998-03-31 2002-10-08 Mitsubishi Denki Kabushiki Kaisha Individuals checking apparatus
JP2000215313A (ja) 1999-01-22 2000-08-04 Mitsubishi Electric Corp デ―タ識別方法およびその装置
US7139592B2 (en) * 1999-06-21 2006-11-21 Arraycomm Llc Null deepening for an adaptive antenna based communication station
US6816605B2 (en) * 1999-10-08 2004-11-09 Lumidigm, Inc. Methods and systems for biometric identification of individuals using linear optical spectroscopy
US6591224B1 (en) 2000-06-01 2003-07-08 Northrop Grumman Corporation Biometric score normalizer
JP4393720B2 (ja) * 2001-01-31 2010-01-06 富士通株式会社 パターン認識装置および方法
US6895104B2 (en) * 2001-02-16 2005-05-17 Sac Technologies, Inc. Image identification system
JP3709803B2 (ja) * 2001-03-28 2005-10-26 日本電気株式会社 パターン照合装置とそのパターン照合方法、及びパターン照合プログラム
US7006673B2 (en) * 2001-07-25 2006-02-28 Activcard Ireland Limited Method of hash string extraction
GB2395781A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7577297B2 (en) * 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124669A (ja) * 1996-10-17 1998-05-15 Chuo Spring Co Ltd 指紋照合装置
JPH11195119A (ja) * 1997-10-20 1999-07-21 Fujitsu Ltd 指紋登録装置、指紋照合装置及び指紋照合方法
JP2000182057A (ja) * 1998-12-18 2000-06-30 Nec Corp 個人識別方法、個人識別装置および記録媒体
JP2000242786A (ja) * 1999-02-19 2000-09-08 Matsushita Electric Works Ltd 本人認証システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2009151002A1 (ja) * 2008-06-11 2011-11-17 日本電気株式会社 パターン識別方法、装置およびプログラム
JP2010205043A (ja) * 2009-03-04 2010-09-16 Nec Corp パターン学習方法、装置、およびプログラム

Also Published As

Publication number Publication date
EP1713032B1 (en) 2012-12-05
JP4665764B2 (ja) 2011-04-06
US20070160259A1 (en) 2007-07-12
KR20070026358A (ko) 2007-03-08
US7983484B2 (en) 2011-07-19
US20100272371A1 (en) 2010-10-28
EP1713032A4 (en) 2008-06-25
CN1934588A (zh) 2007-03-21
CN1934588B (zh) 2012-04-25
KR100837002B1 (ko) 2008-06-10
US7778463B2 (en) 2010-08-17
JPWO2005069221A1 (ja) 2008-04-24
EP1713032A1 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
EP0099476B1 (en) Identity verification system
Nelson et al. Statistical methods for on-line signature verification
US7356168B2 (en) Biometric verification system and method utilizing a data classifier and fusion model
Gonzalez-Rodriguez et al. Bayesian analysis of fingerprint, face and signature evidences with automatic biometric systems
US7788101B2 (en) Adaptation method for inter-person biometrics variability
WO2005069221A1 (ja) パターン識別システム、パターン識別方法、及びパターン識別プログラム
CN1202687A (zh) 和用快速和精细匹配在人群中识别讲话者
JP2006285205A (ja) 対象者の登録受け入れ可否を判定する音声バイオメトリックスシステム、方法及びコンピュータプログラム
KR20070032117A (ko) 다중 생체 인식 시스템 및 그 방법
CN112101542A (zh) 机器学习模型的训练方法、装置、人脸的识别方法和装置
US20220245969A1 (en) Apparatus and method for user authentication based on face recognition and handwritten signature verification
US20060126904A1 (en) Method for multi-model biometric identification and system thereof
KR101972800B1 (ko) 수기 서명 인증 방법 및 장치
Jacob et al. Feature level fusion using multiple fingerprints
JP2006072553A (ja) 生体情報照合装置
US9773150B1 (en) Method and system for evaluating fingerprint templates
Srihari et al. Comparison of ROC and likelihood decision methods in automatic fingerprint verification
JPH10261083A (ja) 個人同定装置及び個人同定方法
KR102144289B1 (ko) 다중 인증 알고리즘을 기반으로 한 수기서명 인증 방법 및 장치
JP7347750B2 (ja) 照合装置、学習装置、方法、及びプログラム
JP2003044858A (ja) 個人認証装置および方法
JP6346359B1 (ja) 署名照合システム
JP3659688B2 (ja) 文字認識装置
Jin et al. Theoretic evidence k-nearest neighbourhood classifiers in a bimodal biometric verification system
Achroufene et al. Multimodal Biometric Authentication Using Face and Signature Based on Dempster-Shafer Theory

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2005517049

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007160259

Country of ref document: US

Ref document number: 1020067014189

Country of ref document: KR

Ref document number: 10586300

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 2005703511

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200580008416.7

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2005703511

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067014189

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10586300

Country of ref document: US