WO2021192249A1 - 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法 - Google Patents

類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法 Download PDF

Info

Publication number
WO2021192249A1
WO2021192249A1 PCT/JP2020/014122 JP2020014122W WO2021192249A1 WO 2021192249 A1 WO2021192249 A1 WO 2021192249A1 JP 2020014122 W JP2020014122 W JP 2020014122W WO 2021192249 A1 WO2021192249 A1 WO 2021192249A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
feature
similarity
calculation
unit
Prior art date
Application number
PCT/JP2020/014122
Other languages
English (en)
French (fr)
Inventor
康佑 秋元
センペイ リュウ
諒 水島
功益 李
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022510351A priority Critical patent/JP7318804B2/ja
Priority to US17/914,546 priority patent/US20230143808A1/en
Priority to PCT/JP2020/014122 priority patent/WO2021192249A1/ja
Publication of WO2021192249A1 publication Critical patent/WO2021192249A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present disclosure relates to a similarity computer, an authentication system, a similarity calculation method, a similarity calculation program, and a method for generating a similarity calculation program.
  • Patent Document 1 discloses, in biometric authentication technology, a technique for performing collation processing based on a feature amount obtained from a living body and a degree of similarity with a collation target.
  • Adversarial Examples that induces misjudgment by adding predetermined noise to input data.
  • noise is calculated so that the feature amount is close to the data to be erroneously determined based on the calculation tendency of the trained model.
  • a method of suppressing the influence of a hostile sample is being studied in the classification of machine learning, but the influence of a hostile sample is applied to a technique for causing a machine-learned model to calculate the extraction of features as described in Patent Document 1. Examination of the technology to suppress it has been delayed.
  • An example of the object of the present disclosure is a similarity computer, an authentication system, a similarity calculation method, and a similarity calculation program that can suppress the occurrence of erroneous determination due to fluctuations caused by learning in order to solve the above-mentioned problems. And to provide a method of generating a similarity calculation program.
  • the similarity calculator uses N feature quantities related to the first data by using N feature quantity functions for obtaining the feature quantities related to the data based on the data. Based on the feature amount calculating means for calculating the N feature amounts related to the second data and the N feature amounts related to the first data and the N feature amounts related to the second data. It is provided with a similarity calculation means for calculating the similarity between the first data and the second data, and the values of N feature quantities obtained when the same data is substituted into the N feature quantity functions are mutually exclusive. different.
  • the authentication system includes a similarity computer according to the above aspect and an authentication device that performs biometric authentication based on the calculation result of the similarity computer.
  • the computer uses N feature quantity functions for obtaining the feature quantity related to the data based on the data, and N related to the first data.
  • the feature quantities and the N feature quantities related to the second data are calculated, and the computer is based on the N feature quantities related to the first data and the N feature quantities related to the second data. Therefore, when the similarity between the first data and the second data is calculated and the same data is substituted into the N feature quantity functions, the values of the N feature quantities obtained are different from each other.
  • the similarity calculation program uses the computer to obtain N feature quantities related to the data based on the data, and N related to the first data. Based on a feature amount calculating means for calculating the number of feature amounts and N feature amounts related to the second data, N feature amounts related to the first data and N feature amounts related to the second data.
  • the value of N feature quantities obtained when the same data is substituted into the N feature quantity functions by functioning as a similarity calculation means for calculating the similarity between the first data and the second data. Are different from each other.
  • the method of generating the similarity calculation program includes the following procedure. That is, the computer uses a training data set in which the data is used as an input sample and a one-hot vector indicating the class to which the data belongs among a plurality of classes is used as an output sample, and the data is generated in response to the input data.
  • the network is trained, and the computer trains the trained N feature quantity calculation models, the calculation results of the N feature quantity calculation models related to the first data, and the N feature quantities related to the second data.
  • a similarity calculation program is generated by combining the first data and a similarity calculation function for obtaining the similarity of the second data based on the calculation result of the calculation model.
  • FIG. 1 is a schematic block diagram showing the configuration of the authentication system 1 according to the first embodiment.
  • the authentication system 1 includes a learning device 10 and an authentication device 20.
  • the learning device 10 learns the parameters of the feature amount extraction model so as to output the feature amount of the biometric data when the biometric data is input. Examples of biometric data include face images, vein images, fingerprint data, voice data and the like.
  • the feature extraction model is represented by a machine learning model such as a neural network.
  • the authentication device 20 authenticates the user based on biometric data by using a feature amount extraction model (learned model) having parameters learned by the learning device 10.
  • the authentication system 1 according to the first embodiment includes, but is not limited to, the learning device 10 and the authentication device 20 as separate devices. For example, in the authentication system 1 according to another embodiment, the authentication device 20 may have the function of the learning device 10.
  • FIG. 2 is a block diagram of the classification model M0 learned by the learning device 10 according to the first embodiment.
  • the learning device 10 includes a classification model storage unit 11, a data set acquisition unit 12, a learning unit 13, a model extraction unit 14, and an output unit 15.
  • the classification model storage unit 11 stores the classification model M0 configured by the neural network.
  • the classification model M0 includes an input unit M01, N feature amount calculation units M02, an averaging unit M03, a classification unit M04, and an output unit M05.
  • the data set acquisition unit 12 acquires a learning data set in which the biometric data which is an input sample and the person label which is an output sample are associated with each other.
  • the person label is represented by a P-dimensional one-hot vector, where P is the number of people in the dataset.
  • the learning unit 13 uses the learning data set acquired by the data set acquisition unit 12 to output a P-dimensional vector indicating the posterior probability of the person corresponding to the biometric data. , The parameters of the classification model M0 are trained.
  • the model extraction unit 14 extracts a partial model including an input unit M01, N feature amount calculation units M02, and an averaging unit M03 from the classification model M0 learned by the learning unit 13 as a feature amount extraction model.
  • the output unit 15 outputs the feature amount extraction model extracted by the model extraction unit 14 to the authentication device 20.
  • the output may be made by communication via a network or the like, or may be made via a portable storage device.
  • the classification model M0 includes an input unit M01, N feature amount calculation units M02, an averaging unit M03, and a classification unit M04.
  • the input unit M01 outputs the input biometric data as a vector to the N feature amount calculation units M02.
  • Each feature amount calculation unit M02 is composed of two or more layers of neural networks.
  • the feature amount calculation unit M02 converts the vector input from the input unit M01 into a low-dimensional feature vector and outputs it to the averaging unit M03.
  • the feature vector is an example of a feature quantity.
  • the feature amount calculation unit M02 is an example of a feature amount function and a feature amount calculation model.
  • the averaging unit M03 calculates the average value of the N feature vectors input from the N feature amount calculation unit M02 and outputs the average value to the classification unit M04.
  • the classification unit M04 is composed of two or more layers of neural networks.
  • the classification unit M04 converts the feature vector input from the averaging unit M03 into a P-dimensional vector indicating the posterior probability of the person represented by the feature vector.
  • FIG. 3 is a flowchart showing a learning method of the feature amount model by the learning device 10 according to the first embodiment.
  • the data set acquisition unit 12 of the learning device 10 acquires a data set prepared in advance from a database (not shown) (step S1).
  • the learning unit 13 uses the acquired data set to learn the parameters of the classification model M0 stored in the classification model storage unit 11 (step S2).
  • the learning unit 13 updates each parameter by the gradient descent method so as to minimize the loss function shown in the following equation (1) by using the calculation result of the classification model M0.
  • the learning unit 13 updates the parameters of the feature amount calculation unit M02 and the classification unit M04 of the classification model M0.
  • LECE which is the first term of the evaluation value L
  • the cross entropy error may include a constant term.
  • the matrix M is an N ⁇ P matrix obtained by arranging N feature vectors.
  • det () is a function indicating a determinant. That is, the second term of the evaluation value L of the loss function according to the first embodiment becomes smaller as the inner product of the N feature amount calculation units M02 is smaller, that is, as the orthogonality is higher. Therefore, by using the loss function according to the equation (1), the parameters can be learned so that the calculation methods of the feature quantities by the N feature quantity calculation units M02 are different from each other.
  • the learning unit 13 ends the learning process when the evaluation value of the loss function falls below a predetermined threshold value or when the learning process is repeated a predetermined number of times.
  • the model extraction unit 14 selects a partial model consisting of the classification model M0 learned by the learning unit 13, the input unit M01, the N feature amount calculation units M02, and the averaging unit M03. , Extract as a feature amount extraction model (step S3). Then, the output unit 15 outputs the extracted feature amount extraction model to the authentication device 20 (step S4).
  • the authentication device 20 includes a user data storage unit 21, a model acquisition unit 22, an extraction model storage unit 23, a biological data acquisition unit 24, a feature amount extraction unit 25, a similarity calculation unit 26, and an authentication unit 27.
  • the user data storage unit 21 stores the user's account data in association with the biometric data of the user.
  • the model acquisition unit 22 acquires the learned feature extraction model from the learning device 10.
  • the extraction model storage unit 23 stores the learned feature amount extraction model acquired by the model acquisition unit 22.
  • the biometric data acquisition unit 24 acquires biometric data to be authenticated from a sensor or the like provided in the authentication device 20.
  • the feature amount extraction unit 25 extracts a feature vector from the biometric data stored in the user data storage unit 21 and the biometric data acquired by the biometric data acquisition unit 24 using the feature amount extraction model stored in the extraction model storage unit 23.
  • the similarity calculation unit 26 calculates the similarity between the two feature vectors. Examples of the similarity scale include L2 distance, cosine similarity, PLDA (Probabilistic Linear Discriminant Analysis), and the like. It can be said that the function constituting the similarity calculation unit 26 in the program for realizing the authentication device 20 is the similarity calculation function.
  • the authentication unit 27 authenticates whether or not the user is a user stored in the user data storage unit 21 based on the similarity calculated by the similarity calculation unit 26. When the authentication unit 27 determines that the user is a user stored in the user data storage unit 21, the authentication unit 27 returns the account data of the user.
  • FIG. 4 is a flowchart showing an authentication method by the authentication device 20 according to the first embodiment. Prior to the execution of the authentication method, it is assumed that the model acquisition unit 22 acquires the learned feature amount extraction model from the learning device 10 and records it in the extraction model storage unit 23.
  • the biometric data acquisition unit 24 of the authentication device 20 acquires biometric data from a sensor or the like connected to the authentication device 20 (step S21).
  • the feature amount extraction unit 25 calculates the feature vector by inputting the biometric data acquired in step S21 into the feature amount extraction model stored in the extraction model storage unit 23 (step S22). That is, the feature amount extraction unit 25 calculates N feature vectors by the N feature amount calculation unit M02, and generates one feature vector from the N feature vectors by the averaging unit M03.
  • the authentication device 20 selects the users to be stored by the user data storage unit 21 one by one (step S23), and executes steps S24 to S25 shown below.
  • the feature amount extraction unit 25 calculates the feature vector by inputting the biometric data associated with the user selected in step S23 into the feature amount extraction model stored in the extraction model storage unit 23 (step S24). ). That is, the feature amount extraction unit 25 calculates N feature vectors by the N feature amount calculation unit M02, and generates one feature vector from the N feature vectors by the averaging unit M03. Next, the similarity calculation unit 26 calculates the similarity between the feature vector calculated in step S22 and the feature vector calculated in step S24 (step S25).
  • step S26 When the authentication unit 27 calculates the similarity with the acquired biometric data for each user stored in the user data storage unit 21, whether or not any of the calculated similarity exceeds a predetermined authentication threshold value. Is determined (step S26). When all the similarities are equal to or less than the authentication threshold value (step S26: NO), the authentication unit 27 determines that the authentication using the biometric data acquired in step S21 has failed (step S27), and ends the process.
  • step S26 when at least one similarity exceeds the authentication threshold value (step S26: YES), the authentication unit 27 identifies the user having the highest similarity (step S28) and outputs the account data of the user (step S28). S29).
  • N feature vectors are calculated by using a neural network having N feature amount calculation units M02, and the N feature vectors are converted into the N feature vectors. Based on this, the degree of similarity between the acquired biometric data and the biometric data stored in the user data storage unit 21 is calculated.
  • N feature amount calculation units M02 it is possible to hide the tendency of the calculation of each output feature amount calculation unit M02. Therefore, due to the benefit of the ensemble learning of the N feature amount calculation units M02, the authentication system 1 can suppress the occurrence of erroneous determination due to the fluctuation caused by the learning.
  • the authentication system according to the second embodiment reduces the amount of calculation related to the learning of the feature amount extraction model as compared with the first embodiment.
  • the authentication system according to the first embodiment learns a feature extraction model using the classification model shown in FIG.
  • the authentication system according to the second embodiment uses the classification model shown in FIG.
  • FIG. 5 is a block diagram of the classification model M0 learned by the learning device 10 according to the second embodiment.
  • the classification model M0 according to the second embodiment includes an input unit M01, a shared feature amount calculation unit M11, N feature amount calculation units M12, an averaging unit M03, and a classification unit M04. .
  • the input unit M01 outputs the input biometric data as a vector to the shared feature amount calculation unit M11.
  • the shared feature amount calculation unit M11 is composed of two or more layers of neural networks.
  • the network structure of the shared feature amount calculation unit M11 has the same structure as the front stage portion when the feature amount calculation unit M02 according to the first embodiment is divided into a front stage portion and a rear stage portion.
  • the calculation results of the shared feature amount calculation unit M11 are output to N feature amount calculation units M12.
  • Each feature amount calculation unit M12 is composed of two or more layers of neural networks.
  • the network structure of the feature amount calculation unit M12 has the same structure as the rear part portion when the feature amount calculation unit M02 according to the first embodiment is divided into a front stage portion and a rear stage portion.
  • the calculation results of the N feature amount calculation units M12 are output to the averaging unit M03, respectively.
  • the averaging unit M03 calculates the average value of the N feature vectors input from the N feature amount calculation unit M12 and outputs the average value to the classification unit M04.
  • the classification unit M04 is composed of two or more layers of neural networks.
  • the classification unit M04 converts the feature vector input from the averaging unit M03 into a P-dimensional vector indicating the posterior probability of the person represented by the feature vector.
  • the number of the shared feature amount calculation unit M11 is smaller than that of the first embodiment, the amount of calculation related to learning can be reduced. Since the feature amount calculation unit M12 has a smaller number of layers than the feature amount calculation unit M02 according to the first embodiment, the learning process can be performed with a smaller calculation amount.
  • the authentication system according to the third embodiment reduces the possibility of causing an erroneous determination as compared with the first embodiment and the second embodiment.
  • FIG. 6 is a schematic block diagram showing the configuration of the authentication system 1 according to the third embodiment.
  • the authentication device 20 according to the third embodiment further includes a detection data storage unit 28 in addition to the configuration according to the first embodiment.
  • the detection data storage unit 28 stores biometric data (hereinafter, also referred to as detection data) used for detecting hostile data that causes an erroneous determination of the authentication device 20.
  • Examples of hostile data include voice data (Master Voice) that has a high degree of similarity to voice data of a plurality of users.
  • Examples of the detection data include biometric data of a person who is not stored in the user data storage unit 21, that is, does not have account data.
  • the detection data may be stored in the user data storage unit 21 instead of the detection data storage unit 28.
  • the user data storage unit 21 stores information indicating that the data is detection data in association with the detection data.
  • FIG. 7 is a flowchart showing an authentication method by the authentication device 20 according to the third embodiment. Prior to the execution of the authentication method, it is assumed that the model acquisition unit 22 acquires the learned feature amount extraction model from the learning device 10 and records it in the extraction model storage unit 23.
  • the biometric data acquisition unit 24 of the authentication device 20 acquires biometric data from a sensor or the like connected to the authentication device 20 (step S41).
  • the feature amount extraction unit 25 calculates the feature vector by inputting the biometric data acquired in step S41 into the feature amount extraction model stored in the extraction model storage unit 23 (step S42).
  • the authentication device 20 selects the detection data to be stored by the detection data storage unit 28 one by one (step S43), and executes steps S44 to S45 shown below.
  • the feature amount extraction unit 25 calculates the feature vector by inputting the biological data related to the hostile sample selected in step S43 into the feature amount extraction model stored in the extraction model storage unit 23 (step S44). ).
  • the similarity calculation unit 26 calculates the similarity between the feature vector calculated in step S42 and the feature vector calculated in step S44 (step S45).
  • step S46 When the authentication unit 27 calculates the similarity with the acquired biometric data for each detection data stored in the detection data storage unit 28, some of the calculated similarity exceeds the first detection threshold value. Whether or not it is determined (step S46). When the similarity with at least one detection data exceeds the first detection threshold value (step S46: YES), the biometric data acquired in step S41 is likely to be hostile data, so the authentication unit 27 authenticates. (Step S52), and the process is terminated. Further, the authentication unit 27 determines whether or not the average value of the similarity calculated in step S45 exceeds the second detection threshold value (step S47).
  • step S47 When the similarity with at least one detection data exceeds the detection threshold (step S47: YES), the biometric data acquired in step S41 is likely to be hostile data, and the authentication unit 27 fails to authenticate. It is determined that the data has been processed (step S52), and the process ends. This is because hostile data such as Master Voice has a characteristic that the degree of similarity with a plurality of biometric data is high.
  • step S46: NO the similarity with all the detection data is equal to or less than the detection threshold value
  • step S47: NO the average value of the similarity is equal to or less than the second detection threshold value
  • the feature amount extraction unit 25 calculates the feature vector by inputting the biometric data associated with the user selected in step S47 into the feature amount extraction model stored in the extraction model storage unit 23 (step S49).
  • the similarity calculation unit 26 calculates the similarity between the feature vector calculated in step S42 and the feature vector calculated in step S49 (step S50).
  • the authentication unit 27 calculates the similarity with the acquired biometric data for each user stored in the user data storage unit 21, whether or not any of the calculated similarity exceeds a predetermined authentication threshold value. Is determined (step S51).
  • the authentication threshold value may be a value different from the detection threshold value.
  • step S52: NO the authentication unit 27 determines that the authentication using the biometric data acquired in step S41 has failed (step S53), and ends the process.
  • step S51 when at least one similarity exceeds the authentication threshold value (step S51: YES), the authentication unit 27 identifies the user having the highest similarity (step S53) and outputs the account data of the user (step S51). S54).
  • the authentication unit 27 determines in steps S46 and S27 in order to determine whether or not the biometric data is hostile data, but the determination is not limited to this.
  • the authentication unit 27 may make only one of the determinations of step S46 and step S27.
  • the authentication system 1 is composed of the learning device 10 and the authentication device 20, but may be composed of a single computer. Alternatively, the learning device 10 and the authentication device 20 may be separately arranged on a plurality of computers, and the plurality of computers may cooperate with each other to function as the learning device 10 and the authentication device 20.
  • the authentication system 1 uses the one shown in the number (1) as the loss function, but is not limited to this.
  • the learning device 10 of the authentication system 1 according to another embodiment may use the number (2) shown below as a loss function.
  • AX (x)) of the hostile sample of the input x as the third term in addition to the number (1). Norm may be provided.
  • the authentication system 1 extracts the feature amount extraction model by removing the classification unit M04 from the classification model M0, but the present invention is not limited to this.
  • the authentication system 1 according to another embodiment may extract only the feature amount calculation unit M02.
  • the authentication device 20 has a function corresponding to the input unit M01 and the averaging unit M03 in advance.
  • the authentication system 1 trains N feature quantity calculation units M02 using the same data set at the time of learning, but is not limited to this.
  • the authentication system according to another embodiment may train the feature amount calculation unit M02 using different data sets.
  • the similarity computer is mounted on the authentication device 20, but the present invention is not limited to this.
  • the similarity calculator may function independently or may be incorporated into other devices.
  • FIG. 8 is a schematic block diagram showing a basic configuration of the similarity computer 30.
  • the configuration shown in FIG. 1 has been described as an embodiment of the similarity computer 30, but the basic configuration of the similarity computer 30 is as shown in FIG. That is, the similarity calculator 30 has a feature amount calculating means 31 and a similarity calculating means 32 as a basic configuration.
  • the feature amount calculation means 31 uses N feature amount functions for obtaining the feature amount related to the data based on the data, and N feature amounts related to the first data and N feature amounts related to the second data. Calculate the feature amount.
  • the similarity calculation means 32 calculates the similarity between the first data and the second data based on the N feature amounts related to the first data and the N feature amounts related to the second data. When the same data is assigned to the N feature functions, the values of the N features obtained are different from each other. As a result, the similarity computer 30 can suppress the occurrence of erroneous determination due to fluctuations caused by learning.
  • FIG. 9 is a schematic block diagram showing a configuration of a computer according to at least one embodiment.
  • the computer 90 includes a processor 91, a main memory 92, a storage 93, and an interface 94.
  • the learning device 10, the authentication device 20, and the similarity computer 30 described above are mounted on the computer 90.
  • the operation of each processing unit described above is stored in the storage 93 in the form of a program.
  • the processor 91 reads a program from the storage 93, expands it into the main memory 92, and executes the above processing according to the program. Further, the processor 91 secures a storage area corresponding to each of the above-mentioned storage units in the main memory 92 according to the program. Examples of the processor 91 include a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), a microprocessor, and the like.
  • the program may be for realizing a part of the functions exerted on the computer 90.
  • the program may exert its function in combination with another program already stored in the storage or in combination with another program mounted on another device.
  • the computer 90 may include a custom LSI (Large Scale Integrated Circuit) such as a PLD (Programmable Logic Device) in addition to or in place of the above configuration.
  • PLDs include PAL (Programmable Array Logic), GAL (Generic Array Logic), CPLD (Complex Programmable Logic Device), and FPGA (Field Programmable Gate Array).
  • PLDs Programmable Logic Device
  • PAL Programmable Array Logic
  • GAL Generic Array Logic
  • CPLD Complex Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • Examples of the storage 93 include HDD (Hard Disk Drive), SSD (Solid State Drive), magnetic disk, optical magnetic disk, CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc Read Only Memory). , Semiconductor memory and the like.
  • the storage 93 may be internal media directly connected to the bus of the computer 90, or external media connected to the computer 90 via the interface 94 or a communication line. When this program is distributed to the computer 90 via a communication line, the distributed computer 90 may expand the program in the main memory 92 and execute the above process.
  • the storage 93 is a non-temporary tangible storage medium.
  • the program may be for realizing a part of the above-mentioned functions. Further, the program may be a so-called difference file (difference program) that realizes the above-mentioned function in combination with another program already stored in the storage 93.
  • difference file difference program
  • a shared feature amount function for obtaining a shared feature amount shared as an input to the N feature amount functions is used to transfer the shared feature amount related to the first data and the second data. It is equipped with a shared feature amount calculation means for calculating the shared feature amount.
  • the N feature functions output the features by inputting the shared features, respectively.
  • the feature amount calculation means calculates the N feature amounts related to the first data by inputting the shared feature amount related to the first data into the N feature amount functions, and relates to the second data.
  • the similarity calculator according to Appendix 1 which calculates the N features related to the second data by inputting the shared features into the N features function.
  • the N feature functions are Using a training dataset that uses data as an input sample and a one-hot vector that indicates the class to which the data belongs among a plurality of classes as an output sample, the ex post facto of the class to which the data belongs corresponding to the input data. It has a first calculation unit having N feature quantity calculation models trained to output a vector indicating a probability, and a second calculation unit having a model for inputting the calculation results of the first calculation unit.
  • the similarity calculator according to Appendix 1 or Appendix 2 which is composed of the N learned feature quantity calculation models in the model network.
  • Appendix 4 The similarity computer according to Appendix 3, wherein the model network is learned so that the inner product of the calculation results of the N feature calculation models when the input sample is input is small.
  • the model network includes the calculation results of the N feature quantity calculation models when the input sample is input and the calculation results of the N feature quantity calculation models when the hostile sample of the input sample is input.
  • the similarity calculator according to Appendix 3 or Appendix 4 which is learned so that the difference between the two is small.
  • Appendix 7 With the similarity calculator described in Appendix 6, An authentication system including an authentication device that performs biometric authentication based on the calculation result of the similarity computer.
  • the similarity calculator calculates the similarity between the input biometric data and the biometric data relating to the person to be authenticated.
  • the similarity calculator further calculates the similarity between the input biometric data and the detection data, which is biometric data relating to a person who is not the subject of authentication.
  • the authentication device determines that the authentication has failed regardless of the similarity with the biometric data of the person to be authenticated when the similarity of the detection data exceeds the second threshold value. Authentication system.
  • the computer uses the N feature functions for obtaining the features related to the data based on the data, and obtains the N features related to the first data and the N features related to the second data. Calculate and The computer calculates the similarity between the first data and the second data based on the N features related to the first data and the N features related to the second data. When the same data is assigned to the N feature functions, the values of the N features obtained are different from each other in the similarity calculation method.
  • the computer uses a training data set in which the data is used as an input sample and a one-hot vector indicating the class to which the data belongs among a plurality of classes is used as an output sample, and the data belongs to the input data. It has a first calculation unit having N feature quantity calculation models and a second calculation unit having a model for inputting the calculation results of the first calculation unit so as to output a vector indicating the posterior probability of the class. Train the model network The computer has trained the N feature quantity calculation models, the calculation results of the N feature quantity calculation models related to the first data, and the calculation results of the N feature quantity calculation models related to the second data. A method of generating a similarity calculation program that generates a similarity calculation program by combining the first data and a similarity calculation function for obtaining the similarity of the second data based on the above.
  • the similarity computer According to at least one of the similarity computer, the authentication system, the similarity calculation method, the similarity calculation program, and the generation method of the similarity calculation program, it is possible to suppress the occurrence of erroneous determination due to fluctuations caused by learning. can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

特徴量算出手段は、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する。類似度算出手段は、第1データに係るN個の特徴量と第2データに係るN個の特徴量とに基づいて、第1データと第2データの類似度を算出する。N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。

Description

類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法
 本開示は、類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法に関する。
 特許文献1には、生体認証技術において、生体から得られる特徴量と、照合対象との類似度に基づいて照合処理を行う技術が開示されている。
国際公開第2017/209228号
 機械学習において、入力データに所定のノイズを加えることで誤判定を誘発させる敵対的サンプル(Adversarial Examples)という攻撃手法が知られている。この手法は、学習済みモデルの演算の傾向に基づいて、誤判定させる対象となるデータと特徴量が近くなるようにノイズが算出される。
 機械学習の分類において敵対的サンプルの影響を抑える手法が検討されているが、特許文献1に記載されたような特徴量の抽出を機械学習されたモデルに計算させる技術について敵対的サンプルの影響を抑える技術については、検討が遅れている。
 本開示の目的の一例は、上述した課題を解決するために、学習に由来する変動に起因する誤判定の発生を抑えることができる類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法を提供することにある。
 本発明の第1の態様によれば、類似度計算機は、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段と、前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段とを備え、前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。
 本発明の第2の態様によれば、認証システムは、上記態様に係る類似度計算機と、前記類似度計算機の計算結果に基づいて生体認証を行う認証装置とを備える。
 本発明の第3の態様によれば、類似度計算方法は、コンピュータが、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出し、前記コンピュータが、前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出し、前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。
 本発明の第4の態様によれば、類似度計算プログラムは、コンピュータを、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段、前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段として機能させ、前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。
 本発明の第5の態様によれば、類似度計算プログラムの生成方法は以下の手順を含む。すなわち、コンピュータが、データを入力サンプルとし、複数のクラスのうち当該データが属するクラスを示すワンホットベクトルを出力サンプルとする学習用データセットを用いて、入力されたデータに対応して当該データが属する前記クラスの事後確率を示すベクトルを出力するように、N個の特徴量計算モデルを有する第1層と、前記第1層の計算結果を入力とするモデルを有する第2層とを有するモデルネットワークを学習させ、前記コンピュータが、学習済みの前記N個の特徴量計算モデルと、第1データに係る前記N個の特徴量計算モデルの計算結果と第2データに係る前記N個の特徴量計算モデルの計算結果とに基づいて前記第1データと前記第2データの類似度を得るための類似度計算関数とを組み合わせることで、類似度計算プログラムを生成する。
 上記態様のうち少なくとも1つの態様によれば、学習に由来する変動に起因する誤判定の発生を抑えることができる。
第1の実施形態に係る認証システムの構成を示す概略ブロック図である。 第1の実施形態に係る学習装置によって学習される分類モデルM0の構成図である。 第1の実施形態に係る学習装置による特徴量モデルの学習方法を示すフローチャートである。 第1の実施形態に係る認証装置による認証方法を示すフローチャートである。 第2の実施形態に係る学習装置によって学習される分類モデルM0の構成図である。 第3の実施形態に係る認証システムの構成を示す概略ブロック図である。 第3の実施形態に係る認証装置による認証方法を示すフローチャートである。 類似度計算機の基本構成を示す概略ブロック図である。 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
〈第1の実施形態〉
《認証システムの構成》
 以下、図面を参照しながら実施形態について詳しく説明する。
 図1は、第1の実施形態に係る認証システム1の構成を示す概略ブロック図である。
 認証システム1は、学習装置10と認証装置20とを備える。
 学習装置10は、生体データが入力されると当該生体データの特徴量を出力するように、特徴量抽出モデルのパラメータを学習させる。生体データの例としては、顔画像、静脈画像、指紋データ、音声データなどが挙げられる。特徴量抽出モデルは、ニューラルネットワークなどの機械学習モデルによって表される。
 認証装置20は、学習装置10によって学習されたパラメータを有する特徴量抽出モデル(学習済みモデル)を用いて、生体データに基づくユーザの認証を行う。
 なお、第1の実施形態に係る認証システム1は、学習装置10と認証装置20とを別個の装置として備えるが、これに限られない。例えば、他の実施形態に係る認証システム1は、認証装置20が学習装置10の機能を有していてもよい。
《学習装置10の構成》
 図2は、第1の実施形態に係る学習装置10によって学習される分類モデルM0の構成図である。
 学習装置10は、分類モデル記憶部11、データセット取得部12、学習部13、モデル抽出部14、出力部15を備える。
 分類モデル記憶部11は、ニューラルネットワークによって構成された分類モデルM0を記憶する。分類モデルM0は、図2に示すように、入力部M01、N個の特徴量算出部M02、平均化部M03、分類部M04、出力部M05を備える。
 データセット取得部12は、入力サンプルである生体データと、出力サンプルである人物ラベルとを関連付けた学習用データセットを取得する。人物ラベルは、データセットにおける人物の数をPとした場合に、P次元のワンホットベクトルによって表される。
 学習部13は、データセット取得部12が取得した学習用データセットを用いて、生体データが入力されると、当該生体データに該当する人物の事後確率を示すP次元のベクトルを出力するように、分類モデルM0のパラメータを学習させる。
 モデル抽出部14は、学習部13によって学習された分類モデルM0から入力部M01、N個の特徴量算出部M02、および平均化部M03からなる部分モデルを、特徴量抽出モデルとして抽出する。
 出力部15は、モデル抽出部14によって抽出された特徴量抽出モデルを認証装置20に出力する。出力は、ネットワーク等を介した通信によってなされてもよいし、可搬性の記憶装置を介してなされてもよい。
《分類モデルM0の構成》
 分類モデルM0は、図2に示すように、入力部M01、N個の特徴量算出部M02、平均化部M03、および分類部M04を備える。
 入力部M01は、入力された生体データをベクトルとしてN個の特徴量算出部M02に出力する。
 各特徴量算出部M02は、2層以上のニューラルネットワークによって構成される。特徴量算出部M02は、入力部M01から入力されたベクトルを、低次元の特徴ベクトルに変換し、平均化部M03に出力する。特徴ベクトルは特徴量の一例である。また特徴量算出部M02は、特徴量関数、特徴量計算モデルの一例である。
 平均化部M03は、N個の特徴量算出部M02から入力されたN個の特徴ベクトルの平均値を算出し、分類部M04に出力する。
 分類部M04は、2層以上のニューラルネットワークによって構成される。分類部M04は、平均化部M03から入力された特徴ベクトルから、当該特徴ベクトルが表す人物の事後確率を示すP次元のベクトルに変換する。
《学習方法》
 図3は、第1の実施形態に係る学習装置10による特徴量モデルの学習方法を示すフローチャートである。
 学習装置10のデータセット取得部12は、図示しないデータベースから予め用意されたデータセットを取得する(ステップS1)。学習部13は、取得したデータセットを用いて、分類モデル記憶部11が記憶する分類モデルM0のパラメータを学習させる(ステップS2)。このとき、学習部13は、分類モデルM0の計算結果を用いて以下の式(1)に示す損失関数を最小化するように、勾配降下法により各パラメータを更新する。なお、学習部13は、分類モデルM0のうち特徴量算出部M02および分類部M04のパラメータを更新する。
Figure JPOXMLDOC01-appb-M000001
 ここで、評価値Lの第1項であるLECEは、分類モデルM0の出力値とデータセットの出力サンプルとのクロスエントロピー誤差である。なお、当該クロスエントロピー誤差には、定数項を含んだものであってもよい。行列Mは、N個の特徴ベクトルを並べて得られるN×Pの行列である。det()は、行列式を示す関数である。
 すなわち、第1の実施形態に係る損失関数の評価値Lの第2項は、N個の特徴量算出部M02の内積が小さいほど、すなわち直交性が高いほど小さくなる。したがって、式(1)に係る損失関数を用いることで、N個の特徴量算出部M02による特徴量の計算方法が互いに異なるように、パラメータを学習させることができる。このように学習されることで、N個の特徴量算出部M02に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。
 学習部13は、損失関数の評価値が所定の閾値を下回った場合、または所定回数だけ学習処理を繰り返した場合に、学習処理を終了する。
 学習部13による学習処理が終了すると、モデル抽出部14は、学習部13によって学習された分類モデルM0から入力部M01、N個の特徴量算出部M02、および平均化部M03からなる部分モデルを、特徴量抽出モデルとして抽出する(ステップS3)。そして、出力部15は、抽出された特徴量抽出モデルを認証装置20に出力する(ステップS4)。
《認証装置20の構成》
 認証装置20は、ユーザデータ記憶部21、モデル取得部22、抽出モデル記憶部23、生体データ取得部24、特徴量抽出部25、類似度算出部26、および認証部27を備える。
 ユーザデータ記憶部21は、ユーザのアカウントデータと、当該ユーザの生体データとを関連付けて記憶する。
 モデル取得部22は、学習装置10から学習済みの特徴量抽出モデルを取得する。
 抽出モデル記憶部23は、モデル取得部22が取得した学習済みの特徴量抽出モデルを記憶する。
 生体データ取得部24は、認証装置20に設けられたセンサ等から認証対象となる生体データを取得する。
 特徴量抽出部25は、抽出モデル記憶部23が記憶する特徴量抽出モデルを用いてユーザデータ記憶部21が記憶する生体データおよび生体データ取得部24が取得した生体データから特徴ベクトルを抽出する。
 類似度算出部26は、2つの特徴ベクトルどうしの類似度を算出する。類似度の尺度の例としては、L2距離、コサイン類似度、PLDA(Probabilistic Linear Discriminant Analysis)などが挙げられる。なお、認証装置20を実現するためのプログラムにおいて類似度算出部26を構成する関数は、類似度計算関数であるといえる。
 認証部27は、類似度算出部26が算出した類似度に基づいて、ユーザデータ記憶部21に記憶されたユーザであるか否かの認証を行う。認証部27は、ユーザデータ記憶部21に記憶されたユーザであると判定した場合、当該ユーザのアカウントデータを返す。
《認証方法》
 図4は、第1の実施形態に係る認証装置20による認証方法を示すフローチャートである。なお、認証方法の実行に先立ってモデル取得部22は、学習装置10から学習済みの特徴量抽出モデルを取得し、抽出モデル記憶部23に記録しているものとする。
 認証装置20の生体データ取得部24は、認証装置20に接続されたセンサ等から生体データを取得する(ステップS21)。特徴量抽出部25は、ステップS21で取得した生体データを、抽出モデル記憶部23が記憶する特徴量抽出モデルに入力することで、特徴ベクトルを算出する(ステップS22)。すなわち、特徴量抽出部25は、N個の特徴量算出部M02によりN個の特徴ベクトルを算出し、平均化部M03によって当該N個の特徴ベクトルから1つの特徴ベクトルを生成する。次に、認証装置20は、ユーザデータ記憶部21が記憶するユーザを1つずつ選択し(ステップS23)、以下に示すステップS24からステップS25を実行する。
 まず、特徴量抽出部25は、ステップS23で選択されたユーザに関連付けられた生体データを、抽出モデル記憶部23が記憶する特徴量抽出モデルに入力することで、特徴ベクトルを算出する(ステップS24)。すなわち、特徴量抽出部25は、N個の特徴量算出部M02によりN個の特徴ベクトルを算出し、平均化部M03によって当該N個の特徴ベクトルから1つの特徴ベクトルを生成する。次に、類似度算出部26は、ステップS22で算出した特徴ベクトルと、ステップS24で算出した特徴ベクトルとの類似度を算出する(ステップS25)。
 認証部27は、ユーザデータ記憶部21が記憶する各ユーザについて、取得された生体データとの類似度を算出すると、算出された類似度のうち、所定の認証閾値を超えるものがあるか否かを判定する(ステップS26)。すべての類似度が認証閾値以下である場合(ステップS26:NO)、認証部27は、ステップS21で取得した生体データによる認証に失敗したと判定し(ステップS27)、処理を終了する。
 他方、少なくとも1つの類似度が認証閾値を超える場合(ステップS26:YES)、認証部27は、最も高い類似度に係るユーザを特定し(ステップS28)、当該ユーザのアカウントデータを出力する(ステップS29)。
《作用・効果》
 このように、第1の実施形態に係る認証システム1によれば、N個の特徴量算出部M02を有するニューラルネットワークを用いて、N個の特徴ベクトルを算出し、当該N個の特徴ベクトルに基づいて、取得された生体データとユーザデータ記憶部21が記憶する生体データとの類似度を算出する。N個の特徴量算出部M02を用いることで、出力される1つ1つの特徴量算出部M02の演算の傾向を隠蔽することができる。したがって、N個の特徴量算出部M02のアンサンブル学習の恩恵により、認証システム1は、学習に由来する変動に起因する誤判定の発生を抑えることができる。
〈第2の実施形態〉
 第2の実施形態に係る認証システムは、第1の実施形態と比較して特徴量抽出モデルの学習に係る計算量を低減する。
 第1の実施形態に係る認証システムは、図2に示す分類モデルを用いて特徴量抽出モデルの学習を行う。これに対し、第2の実施形態に係る認証システムは、図5に示す分類モデルを用いる。
 図5は、第2の実施形態に係る学習装置10によって学習される分類モデルM0の構成図である。
 第2の実施形態に係る分類モデルM0は、図5に示すように、入力部M01、共有特徴量算出部M11、N個の特徴量算出部M12、平均化部M03、および分類部M04を備える。
 入力部M01は、入力された生体データをベクトルとして共有特徴量算出部M11に出力する。
 共有特徴量算出部M11は、2層以上のニューラルネットワークによって構成される。共有特徴量算出部M11のネットワーク構造は、第1の実施形態に係る特徴量算出部M02を前段部分と後段部分とに切り分けたときの前段部分と同様の構造となる。共有特徴量算出部M11の計算結果は、N個の特徴量算出部M12に出力される。
 各特徴量算出部M12は、2層以上のニューラルネットワークによって構成される。特徴量算出部M12のネットワーク構造は、第1の実施形態に係る特徴量算出部M02を前段部分と後段部分とに切り分けたときの後段部分と同様の構造となる。N個の特徴量算出部M12の計算結果は、それぞれ平均化部M03に出力される。
 平均化部M03は、N個の特徴量算出部M12から入力されたN個の特徴ベクトルの平均値を算出し、分類部M04に出力する。
 分類部M04は、2層以上のニューラルネットワークによって構成される。分類部M04は、平均化部M03から入力された特徴ベクトルから、当該特徴ベクトルが表す人物の事後確率を示すP次元のベクトルに変換する。
 このように、第2の実施形態によれば、第1の実施形態と比較して、共有特徴量算出部M11の数が少ないために、学習に係る計算量を低減することができる。なお、特徴量算出部M12は、第1の実施形態に係る特徴量算出部M02と比較して層の数が小さいため、少ない計算量で学習処理を行うことができる。
〈第3の実施形態〉
 第3の実施形態に係る認証システムは、第1の実施形態および第2の実施形態と比較して、誤判定を生じる可能性を低減する。
《認証装置20の構成》
 図6は、第3の実施形態に係る認証システム1の構成を示す概略ブロック図である。
 第3の実施形態に係る認証装置20は、第1の実施形態に係る構成に加え、さらに検知用データ記憶部28を備える。
 検知用データ記憶部28は、認証装置20の誤判定を生じさせる敵対的データを検知するために用いる生体データ(以下、検知用データともいう)を記憶する。敵対的データの例としては、複数のユーザの音声データとの類似度が高くなるような音声データ(Master Voice)などが挙げられる。検知用データの例としては、ユーザデータ記憶部21に記憶されていない、すなわちアカウントデータを有しない人物の生体データが挙げられる。
 なお、他の実施形態においては、検知用データが検知用データ記憶部28に代えてユーザデータ記憶部21に記憶されていてもよい。この場合、ユーザデータ記憶部21は、検知用データに関連付けて、当該データが検知用データであることを示す情報を記憶する。
《認証方法》
 図7は、第3の実施形態に係る認証装置20による認証方法を示すフローチャートである。なお、認証方法の実行に先立ってモデル取得部22は、学習装置10から学習済みの特徴量抽出モデルを取得し、抽出モデル記憶部23に記録しているものとする。
 認証装置20の生体データ取得部24は、認証装置20に接続されたセンサ等から生体データを取得する(ステップS41)。特徴量抽出部25は、ステップS41で取得した生体データを、抽出モデル記憶部23が記憶する特徴量抽出モデルに入力することで、特徴ベクトルを算出する(ステップS42)。
 次に、認証装置20は、検知用データ記憶部28が記憶する検知用データを1つずつ選択し(ステップS43)、以下に示すステップS44からステップS45を実行する。
 まず、特徴量抽出部25は、ステップS43で選択された敵対的サンプルに係る生体データを、抽出モデル記憶部23が記憶する特徴量抽出モデルに入力することで、特徴ベクトルを算出する(ステップS44)。次に、類似度算出部26は、ステップS42で算出した特徴ベクトルと、ステップS44で算出した特徴ベクトルとの類似度を算出する(ステップS45)。
 認証部27は、検知用データ記憶部28が記憶する各検知用データについて、取得された生体データとの類似度を算出すると、算出された類似度のうち、第1検出閾値を超えるものがあるか否かを判定する(ステップS46)。少なくとも1つの検知用データとの類似度が第1検出閾値を超える場合(ステップS46:YES)、ステップS41で取得した生体データが敵対的データである可能性が高いため、認証部27は、認証に失敗したと判定し(ステップS52)、処理を終了する。
 また、認証部27は、ステップS45で算出された類似度の平均値が第2検出閾値を超えるものがあるか否かを判定する(ステップS47)。少なくとも1つの検知用データとの類似度が検出閾値を超える場合(ステップS47:YES)、ステップS41で取得した生体データが敵対的データである可能性が高いため、認証部27は、認証に失敗したと判定し(ステップS52)、処理を終了する。これは、Master Voiceなどの敵対的データが、複数の生体データとの類似度が高くなる特徴を有するためである。
 他方、すべての検知用データとの類似度が検出閾値以下であり(ステップS46:NO)、かつ類似度の平均値が第2検出閾値以下である場合(ステップS47:NO)、認証装置20は、ユーザデータ記憶部21が記憶するユーザを1つずつ選択し(ステップS48)、以下に示すステップS49からステップS50を実行する。
 まず、特徴量抽出部25は、ステップS47で選択されたユーザに関連付けられた生体データを、抽出モデル記憶部23が記憶する特徴量抽出モデルに入力することで、特徴ベクトルを算出する(ステップS49)。次に、類似度算出部26は、ステップS42で算出した特徴ベクトルと、ステップS49で算出した特徴ベクトルとの類似度を算出する(ステップS50)。
 認証部27は、ユーザデータ記憶部21が記憶する各ユーザについて、取得された生体データとの類似度を算出すると、算出された類似度のうち、所定の認証閾値を超えるものがあるか否かを判定する(ステップS51)。なお認証閾値は、検出閾値と異なる値であってもよい。すべての類似度が認証閾値以下である場合(ステップS52:NO)、認証部27は、ステップS41で取得した生体データによる認証に失敗したと判定し(ステップS53)、処理を終了する。
 他方、少なくとも1つの類似度が認証閾値を超える場合(ステップS51:YES)、認証部27は、最も高い類似度に係るユーザを特定し(ステップS53)、当該ユーザのアカウントデータを出力する(ステップS54)。
《作用・効果》
 このように、第3の実施形態に係る認証システム1によれば、取得した生体データが未知の生体データと類似する場合に、ユーザの生体データとの比較を行わずに認証処理を終了する。これにより、認証システム1は、敵対的データによって誤判定を生じる可能性を低減することができる。
 なお、第3の実施形態において、認証部27は、生体データが敵対的データであるか否かを判定するために、ステップS46およびステップS27の判定を行うが、これに限られない。例えば、他の実施形態に係る認証部27は、ステップS46およびステップS27の何れか一方の判定のみを行ってもよい。
 以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。すなわち、他の実施形態においては、上述の処理の順序が適宜変更されてもよい。また、一部の処理が並列に実行されてもよい。
 上述した実施形態に係る認証システム1は、学習装置10および認証装置20によって構成されるが、単独のコンピュータによって構成されるものであってもよい。または、学習装置10および認証装置20がそれぞれ複数のコンピュータに分けて配置し、複数のコンピュータが互いに協働することで学習装置10および認証装置20として機能するものであってもよい。
 上述した実施形態に係る認証システム1は、損失関数として数(1)に示すものを用いるが、これに限られない。例えば、他の実施形態に係る認証システム1の学習装置10は、以下に示す数(2)を損失関数としてもよい。
Figure JPOXMLDOC01-appb-M000002
 すなわち、数(1)に、さらに第3項として、入力xの事後確率ベクトルp(k|x)と、入力xの敵対的サンプルの事後確率ベクトルp(k|AX(x))との差分のノルムを設けてもよい。
 また、上述の実施形態に係る認証システム1は、分類モデルM0から分類部M04を除くことで特徴量抽出モデルを抽出するが、これに限られない。例えば、他の実施形態に係る認証システム1は、特徴量算出部M02のみを抽出してもよい。この場合、認証装置20は、予め入力部M01および平均化部M03に相当する機能を有する。
 また、上述の実施形態に係る認証システム1は、学習時にN個の特徴量算出部M02を同じデータセットを用いて学習させるが、これに限られない。例えば、他の実施形態に係る認証システムは、特徴量算出部M02を異なるデータセットを用いて学習させてもよい。
 また、上述の実施形態においては、類似度計算機を認証装置20に実装させるが、これに限られない。他の実施形態においては、類似度計算機が単独に機能してもよいし、他の装置に組み込まれてもよい。
〈基本構成〉
 図8は、類似度計算機30の基本構成を示す概略ブロック図である。
 上述した実施形態では、類似度計算機30の一実施形態として図1に示す構成について説明したが、類似度計算機30の基本構成は、図8に示すとおりである。
 すなわち、類似度計算機30は、特徴量算出手段31および類似度算出手段32を基本構成とする。
 特徴量算出手段31は、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する。
 類似度算出手段32は、第1データに係るN個の特徴量と第2データに係るN個の特徴量とに基づいて、第1データと第2データの類似度を算出する。
 N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる。
 これにより、類似度計算機30は、学習に由来する変動に起因する誤判定の発生を抑えることができる。
〈コンピュータ構成〉
 図9は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
 コンピュータ90は、プロセッサ91、メインメモリ92、ストレージ93、インタフェース94を備える。
 上述の学習装置10、認証装置20、類似度計算機30は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。プロセッサ91は、プログラ
ムをストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。プロセッサ91の例としては、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサなどが挙げられる。
 プログラムは、コンピュータ90に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータ90は、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサ91によって実現される機能の一部または全部が当該集積回路によって実現されてよい。このような集積回路も、プロセッサの一例に含まれる。
 ストレージ93の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。
 また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能をストレージ93に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
〈付記〉
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段と、
 前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段と
 を備え、
 前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
 類似度計算機。
 (付記2)
 データを入力することで前記N個の特徴量関数への入力として共有される共有特徴量を得るための共有特徴量関数を用いて、前記第1データに係る共有特徴量と前記第2データに係る共有特徴量とを算出する共有特徴量算出手段を備え、
 前記N個の特徴量関数は、それぞれ前記共有特徴量を入力することで前記特徴量を出力し、
 前記特徴量算出手段は、前記第1データに係る共有特徴量を前記N個の特徴量関数に入力することで前記第1データに係るN個の特徴量を算出し、前記第2データに係る共有特徴量を前記N個の特徴量関数に入力することで前記第2データに係るN個の特徴量を算出する
 付記1に記載の類似度計算機。
 (付記3)
 前記N個の特徴量関数は、
 データを入力サンプルとし、複数のクラスのうち当該データが属するクラスを示すワンホットベクトルを出力サンプルとする学習用データセットを用いて、入力されたデータに対応して当該データが属する前記クラスの事後確率を示すベクトルを出力するように学習された、N個の特徴量計算モデルを有する第1計算部と、前記第1計算部の計算結果を入力とするモデルを有する第2計算部とを有するモデルネットワークのうちの、学習済みの前記N個の特徴量計算モデルによって構成される
 付記1または付記2に記載の類似度計算機。
 (付記4)
 前記モデルネットワークは、前記入力サンプルを入力したときの前記N個の特徴量計算モデルの計算結果の内積が小さくなるように学習される
 付記3に記載の類似度計算機。
 (付記5)
 前記モデルネットワークは、前記入力サンプルを入力したときの前記N個の特徴量計算モデルの計算結果と、前記入力サンプルの敵対的サンプルを入力したときの前記N個の特徴量計算モデルの計算結果との差が小さくなるように学習される
 付記3または付記4に記載の類似度計算機。
 (付記6)
 前記データは生体情報を表すデータである
 付記1から付記5の何れかに記載の類似度計算機。
 (付記7)
 付記6に記載の類似度計算機と、
 前記類似度計算機の計算結果に基づいて生体認証を行う認証装置と
 を備える認証システム。
 (付記8)
 前記類似度計算機は、入力された生体データと、認証対象の人物に係る生体データとの類似度を計算し、
 前記認証装置は、前記類似度が第1閾値を超える場合に、認証に成功したと判定する
 付記7に記載の認証システム。
 (付記9)
 前記類似度計算機は、入力された生体データと、認証対象でない人物に係る生体データである検知用データとの類似度をさらに計算し、
 前記認証装置は、前記検知用データに係る類似度が第2閾値を超える場合に、認証対象の人物に係る生体データとの類似度に関わらず前記認証に失敗したと判定する
 付記8に記載の認証システム。
 (付記10)
 コンピュータが、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出し、
 前記コンピュータが、前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出し、
 前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
 類似度計算方法。
 (付記11)
 コンピュータを、
 データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段、
 前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段
 として機能させ、
 前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
 類似度計算プログラム。
 (付記12)
 コンピュータが、データを入力サンプルとし、複数のクラスのうち当該データが属するクラスを示すワンホットベクトルを出力サンプルとする学習用データセットを用いて、入力されたデータに対応して当該データが属する前記クラスの事後確率を示すベクトルを出力するように、N個の特徴量計算モデルを有する第1計算部と、前記第1計算部の計算結果を入力とするモデルを有する第2計算部とを有するモデルネットワークを学習させ、
 前記コンピュータが、学習済みの前記N個の特徴量計算モデルと、第1データに係る前記N個の特徴量計算モデルの計算結果と第2データに係る前記N個の特徴量計算モデルの計算結果とに基づいて前記第1データと前記第2データの類似度を得るための類似度計算関数とを組み合わせることで、類似度計算プログラムを生成する
 類似度計算プログラムの生成方法。
 上記類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法のうち少なくとも1つによれば、学習に由来する変動に起因する誤判定の発生を抑えることができる。
1 認証システム
10 学習装置
11 分類モデル記憶部
12 データセット取得部
13 学習部
14 モデル抽出部
15 出力部
20 認証装置
21 ユーザデータ記憶部
22 モデル取得部
23 抽出モデル記憶部
24 生体データ取得部
25 特徴量抽出部
26 類似度算出部
27 認証部

Claims (10)

  1.  データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段と、
     前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段と
     を備え、
     前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
     類似度計算機。
  2.  データを入力することで前記N個の特徴量関数への入力として共有される共有特徴量を得るための共有特徴量関数を用いて、前記第1データに係る共有特徴量と前記第2データに係る共有特徴量とを算出する共有特徴量算出手段を備え、
     前記N個の特徴量関数は、それぞれ前記共有特徴量を入力することで前記特徴量を出力し、
     前記特徴量算出手段は、前記第1データに係る共有特徴量を前記N個の特徴量関数に入力することで前記第1データに係るN個の特徴量を算出し、前記第2データに係る共有特徴量を前記N個の特徴量関数に入力することで前記第2データに係るN個の特徴量を算出する
     請求項1に記載の類似度計算機。
  3.  前記N個の特徴量関数は、
     データを入力サンプルとし、複数のクラスのうち当該データが属するクラスを示すワンホットベクトルを出力サンプルとする学習用データセットを用いて、入力されたデータに対応して当該データが属する前記クラスの事後確率を示すベクトルを出力するように学習された、N個の特徴量計算モデルを有する第1計算部と、前記第1計算部の計算結果を入力とするモデルを有する第2計算部とを有するモデルネットワークのうちの、学習済みの前記N個の特徴量計算モデルによって構成される
     請求項1または請求項2に記載の類似度計算機。
  4.  前記モデルネットワークは、前記入力サンプルを入力したときの前記N個の特徴量計算モデルの計算結果の内積が小さくなるように学習される
     請求項3に記載の類似度計算機。
  5.  前記モデルネットワークは、前記入力サンプルを入力したときの前記N個の特徴量計算モデルの計算結果と、前記入力サンプルの敵対的サンプルを入力したときの前記N個の特徴量計算モデルの計算結果との差が小さくなるように学習される
     請求項3または請求項4に記載の類似度計算機。
  6.  前記データは生体情報を表すデータである
     請求項1から請求項5の何れか1項に記載の類似度計算機。
  7.  請求項6に記載の類似度計算機と、
     前記類似度計算機の計算結果に基づいて生体認証を行う認証装置と
     を備える認証システム。
  8.  コンピュータが、データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出し、
     前記コンピュータが、前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出し、
     前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
     類似度計算方法。
  9.  コンピュータを、
     データに基づいて当該データに係る特徴量を得るためのN個の特徴量関数を用いて、第1データに係るN個の特徴量と第2データに係るN個の特徴量とを算出する特徴量算出手段、
     前記第1データに係るN個の特徴量と前記第2データに係るN個の特徴量とに基づいて、前記第1データと前記第2データの類似度を算出する類似度算出手段
     として機能させ、
     前記N個の特徴量関数に同じデータが代入された場合に得られるN個の特徴量の値は、互いに異なる
     類似度計算プログラム。
  10.  コンピュータが、データを入力サンプルとし、複数のクラスのうち当該データが属するクラスを示すワンホットベクトルを出力サンプルとする学習用データセットを用いて、入力されたデータに対応して当該データが属する前記クラスの事後確率を示すベクトルを出力するように、N個の特徴量計算モデルを有する第1計算部と、前記第1計算部の計算結果を入力とするモデルを有する第2計算部とを有するモデルネットワークを学習させ、
     前記コンピュータが、学習済みの前記N個の特徴量計算モデルと、第1データに係る前記N個の特徴量計算モデルの計算結果と第2データに係る前記N個の特徴量計算モデルの計算結果とに基づいて前記第1データと前記第2データの類似度を得るための類似度計算関数とを組み合わせることで、類似度計算プログラムを生成する
     類似度計算プログラムの生成方法。
PCT/JP2020/014122 2020-03-27 2020-03-27 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法 WO2021192249A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022510351A JP7318804B2 (ja) 2020-03-27 2020-03-27 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法
US17/914,546 US20230143808A1 (en) 2020-03-27 2020-03-27 Similarity degree calculator, authorization system, similarity degree calculation method, similarity degree calculation program, and method for generating similarity degree calculation program
PCT/JP2020/014122 WO2021192249A1 (ja) 2020-03-27 2020-03-27 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014122 WO2021192249A1 (ja) 2020-03-27 2020-03-27 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法

Publications (1)

Publication Number Publication Date
WO2021192249A1 true WO2021192249A1 (ja) 2021-09-30

Family

ID=77891638

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014122 WO2021192249A1 (ja) 2020-03-27 2020-03-27 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法

Country Status (3)

Country Link
US (1) US20230143808A1 (ja)
JP (1) JP7318804B2 (ja)
WO (1) WO2021192249A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059408A (ja) * 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd 顔画像照合装置、それを用いた顔認証システムおよび静脈画像照合装置
JP2019067299A (ja) * 2017-10-04 2019-04-25 株式会社豊田中央研究所 ラベル推定装置及びラベル推定プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853081B2 (en) * 2007-04-02 2010-12-14 British Telecommunications Public Limited Company Identifying data patterns
EP2923292B1 (en) * 2012-11-26 2022-04-13 Koninklijke Philips N.V. Diagnostic genetic analysis using variant-disease association with patient-specific relevance assessment
US11182433B1 (en) * 2014-07-25 2021-11-23 Searchable AI Corp Neural network-based semantic information retrieval
US10380498B1 (en) * 2015-05-22 2019-08-13 Amazon Technologies, Inc. Platform services to enable one-click execution of the end-to-end sequence of modeling steps
US11024424B2 (en) * 2017-10-27 2021-06-01 Nuance Communications, Inc. Computer assisted coding systems and methods
US20190147357A1 (en) * 2017-11-16 2019-05-16 Red Hat, Inc. Automatic detection of learning model drift
US11710033B2 (en) * 2018-06-12 2023-07-25 Bank Of America Corporation Unsupervised machine learning system to automate functions on a graph structure
US10593336B2 (en) * 2018-07-26 2020-03-17 Accenture Global Solutions Limited Machine learning for authenticating voice
US20200125928A1 (en) * 2018-10-22 2020-04-23 Ca, Inc. Real-time supervised machine learning by models configured to classify offensiveness of computer-generated natural-language text
CN109902708B (zh) * 2018-12-29 2022-05-10 华为技术有限公司 一种推荐模型训练方法及相关装置
US11676049B2 (en) * 2019-09-13 2023-06-13 Oracle International Corporation Enhanced model updating using vector space transformations for model mapping
CN115605862A (zh) * 2020-03-04 2023-01-13 西门子工业软件有限公司(Us) 训练用于3d模型数据库查询的可微分渲染器和神经网络
WO2021245945A1 (ja) * 2020-06-05 2021-12-09 日本電気株式会社 敵対的サンプル検知装置、敵対的サンプル検知方法、およびプログラム
JP7484054B2 (ja) * 2020-07-06 2024-05-16 日本電気株式会社 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム、及び類似度計算プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059408A (ja) * 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd 顔画像照合装置、それを用いた顔認証システムおよび静脈画像照合装置
JP2019067299A (ja) * 2017-10-04 2019-04-25 株式会社豊田中央研究所 ラベル推定装置及びラベル推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HAYASHI, EISEI ET AL.: "Detection of adversarial examples using output of multiple models", LECTURE PROCEEDINGS (2) OF THE 81ST (2019) NATIONAL CONVENTION OF IPSJ, ARTIFICIAL INTELLIGENCE AND COGNITIVE SCIENCE, vol. 81, no. 2, 28 February 2019 (2019-02-28), pages 2 - 317 *

Also Published As

Publication number Publication date
JPWO2021192249A1 (ja) 2021-09-30
US20230143808A1 (en) 2023-05-11
JP7318804B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
Poh et al. A multimodal biometric test bed for quality-dependent, cost-sensitive and client-specific score-level fusion algorithms
JP5418991B2 (ja) 個人認証システム、個人認証方法
JP5144123B2 (ja) 情報処理方法、情報処理装置
AU2019200711B2 (en) Biometric verification
Malarvizhi et al. Adaptive fuzzy genetic algorithm for multi biometric authentication
CN111291817B (zh) 图像识别方法、装置、电子设备和计算机可读介质
JP2011154415A (ja) 生体認証システム
L Fernandes et al. A novel decision support for composite sketch matching using fusion of probabilistic neural network and dictionary matching
JP3998628B2 (ja) パターン認識装置及びその方法
TWI325568B (en) A method for face varification
Gona et al. Convolutional neural network with improved feature ranking for robust multi-modal biometric system
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
WO2021192249A1 (ja) 類似度計算機、認証システム、類似度計算方法、類似度計算プログラムおよび類似度計算プログラムの生成方法
WO2022009258A1 (ja) 学習装置、特徴量計算プログラム生成方法、類似度計算機、類似度計算方法、学習プログラム記録媒体、及び類似度計算プログラム記録媒体
US20230222782A1 (en) Adversarial example detection device, adversarial example detection method, and program
KR20190129417A (ko) 바이오매트릭스와 Fuzzy Vault를 이용하여 암호학적 키를 생성하는 방법 및 시스템
Jamdar et al. Implementation of unimodal to multimodal biometrie feature level fusion of combining face iris and ear in multi-modal biometric system
KR102432854B1 (ko) 잠재 벡터를 이용하여 군집화를 수행하는 방법 및 장치
Thakare et al. A Novel End-To-End Approach For Offline Signature Verification System
JP7327776B2 (ja) 表情推定装置、感情判定装置、表情推定方法及びプログラム
JP5284530B2 (ja) 情報処理方法、情報処理装置
Thanganayagam et al. Hybrid model with fusion approach to enhance the efficiency of keystroke dynamics authentication
WO2022249246A1 (ja) 学習装置、学習済みモデルの生成方法、演算装置、演算方法およびプログラム
Dhiman et al. An introduction to deep learning applications in biometric recognition
Meenakshi et al. A comprehensive survey on iris presentation attacks and detection based on generative adversarial network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20927232

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022510351

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20927232

Country of ref document: EP

Kind code of ref document: A1