WO2023067666A1 - 算出装置、算出方法及び算出プログラム - Google Patents

算出装置、算出方法及び算出プログラム Download PDF

Info

Publication number
WO2023067666A1
WO2023067666A1 PCT/JP2021/038500 JP2021038500W WO2023067666A1 WO 2023067666 A1 WO2023067666 A1 WO 2023067666A1 JP 2021038500 W JP2021038500 W JP 2021038500W WO 2023067666 A1 WO2023067666 A1 WO 2023067666A1
Authority
WO
WIPO (PCT)
Prior art keywords
data set
bayesian
learning
data
unit
Prior art date
Application number
PCT/JP2021/038500
Other languages
English (en)
French (fr)
Inventor
俊樹 芝原
尭之 三浦
真昇 紀伊
敦謙 市川
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/038500 priority Critical patent/WO2023067666A1/ja
Publication of WO2023067666A1 publication Critical patent/WO2023067666A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Definitions

  • the present invention relates to a calculation device, a calculation method, and a calculation program.
  • DNN Deep Neural Network
  • Non-Patent Document 1 Non-Patent Document 1
  • Non-Patent Document 1 Non-Patent Document 1
  • the conventional technology has the problem that it is difficult to calculate the privacy risk of the Bayesian NN.
  • Non-Patent Document 1 and Non-Patent Document 2 are intended for models using a deterministic NN that outputs one predicted value for an input.
  • Bayesian NN outputs the posterior distribution of predicted values or values sampled from the posterior distribution, so conventional methods cannot be applied.
  • the calculation device includes a creation unit that creates a second data set adjacent to the first data set based on the first data set; A learning unit for learning a Bayesian NN (neural network) using either the first data set or the second data set as teacher data, and the output of the Bayesian NN trained by the learning unit a determination unit that determines whether the teacher data used for learning the Bayesian NN is the first data set or the second data set; and a privacy risk based on the determination result of the determination unit and a calculating unit for calculating
  • the privacy risk of Bayesian NN can be calculated.
  • FIG. 1 is a diagram explaining a method of calculating a privacy risk.
  • FIG. 2 is a diagram illustrating a configuration example of a calculation device according to the first embodiment;
  • FIG. 3 is a diagram for explaining a data set determination method.
  • FIG. 4 is a flow chart showing the flow of processing of the calculation device according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a computer that executes a calculation program;
  • Bayesian NN is a machine learning technology based on NN.
  • Parameters such as weights and biases in Bayesian NN are treated as following probability distributions. Then, the posterior distribution of each parameter is obtained by Bayesian estimation.
  • FIG. 1 is a diagram explaining a method of calculating a privacy risk.
  • the calculation device first creates an adjacent data set D' from the data set D (step S1).
  • the calculation device adds the data (x', y') to the data set D so that the data Create set D'.
  • the computing device randomly selects either data set D or data set D' (step S2).
  • the calculation device uses the selected data set as teacher data to learn the model (step S3).
  • the model is a Bayesian NN.
  • the calculation device determines whether data set D or data set D' was used as teacher data based on the output of the learned model (step S4).
  • the calculation device calculates the privacy risk based on the determination result (step S5). For example, it can be said that the higher the determination accuracy in step S4, the more likely the attack will succeed, and the greater the privacy risk.
  • the calculation device selects a dataset multiple times in step S2, and executes learning in step S3 and determination in step S4 each time a dataset is selected.
  • the trained Bayesian NN is not necessarily the same.
  • FIG. 2 is a diagram illustrating a configuration example of a calculation device according to the first embodiment.
  • the computing device 10 receives an input of a data set and computes the privacy risk associated with the Bayesian NN.
  • the calculation device 10 has a communication unit 11, an input unit 12, an output unit 13, a storage unit 14, and a control unit 15.
  • the communication unit 11 performs data communication with other devices via the network.
  • the communication unit 11 is a NIC (Network Interface Card).
  • the input unit 12 accepts data input from the user.
  • the input unit 12 is, for example, an input device such as a mouse or keyboard, or an interface connected to the input device.
  • the output unit 13 outputs data by displaying a screen or the like.
  • the output unit 13 is, for example, an output device such as a display and a speaker, or an interface connected to the output device.
  • the storage unit 14 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disc, or the like.
  • the storage unit 14 may be a rewritable semiconductor memory such as RAM (Random Access Memory), flash memory, NVSRAM (Non Volatile Static Random Access Memory).
  • the storage unit 14 stores an OS (Operating System) and various programs executed by the computing device 10 .
  • the storage unit 14 stores model information 141 and learning data 142 .
  • the model information 141 is, for example, hyperparameters (number of layers, number of units, activation function, etc.) of a model using Bayesian NN. More specifically, the model information 141 may be parameters such as mean, variance, etc. for specifying the probability distributions followed by the weights and biases.
  • the learning data 142 is data for learning the Bayesian NN.
  • the learning data 142 is data set D.
  • data set D may have as elements data that is a combination of labels and feature amounts.
  • the control unit 15 controls the calculation device 10 as a whole.
  • the control unit 15 includes, for example, electronic circuits such as CPU (Central Processing Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), etc. It is an integrated circuit.
  • the control unit 15 also has an internal memory for storing programs defining various processing procedures and control data, and executes each process using the internal memory.
  • the control unit 15 functions as various processing units by running various programs.
  • the control unit 15 has a creation unit 151 , a learning unit 152 , a determination unit 153 and a calculation unit 154 .
  • the creation unit 151 Based on the data set D, the creation unit 151 creates a data set D' adjacent to the data set D.
  • Data set D is an example of a first data set.
  • Data set D' is an example of a second data set.
  • the creation unit 151 creates the data set D' by adding the data (x', y') to the data set D.
  • data set D and data set D' can be said to be two data sets that differ by only one element.
  • data (x', y') is selected from data included in data set D.
  • the data (x', y') may be randomly selected.
  • the data (x', y') may be data that has a greater influence when the data set D' is used as teacher data.
  • the magnitude of the influence increases as the loss of the model when learning is performed using the data set D' as teacher data.
  • the data (x', y') may be selected according to the privacy risk to be calculated.
  • the creation unit 151 may create the data set D' by adding noise to the data (x', y') and then adding it to the data set D.
  • the learning unit 152 uses either data set D or data set D' as teacher data to learn a Bayesian NN (neural network).
  • the learning unit 152 randomly selects either data set D or data set D', and uses the selected data set as teacher data to perform model learning.
  • the model is an unlearned Bayesian NN constructed from the model information 141.
  • the learning unit 152 can construct a model from the model information 141 and perform learning each time a data set is selected.
  • the learning unit 152 can learn using a known machine learning method. Further, the learning unit 152 may perform learning using a privacy-preserving machine learning method (for example, a learning method that guarantees differential privacy).
  • a privacy-preserving machine learning method for example, a learning method that guarantees differential privacy
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is dataset D or dataset D'. For example, the determination unit 153 outputs an output obtained by inputting one sample to the Bayesian NN once or multiple times, or an output obtained by inputting each of a plurality of samples to the Bayesian NN once or multiple times. Judgment is made based on
  • the determination unit 153 performs determination using the output when the data (x', y') is input to the learned Bayesian NN. Further, the determination unit 153 may perform determination using an output when noise is added to the data (x', y') and the data is input to the learned Bayesian NN.
  • the determination unit 153 inputs one sample a plurality of times to the Bayesian NN trained by the learning unit 152, or inputs each of the plurality of samples to the Bayesian NN one or more times. It is possible to determine whether the teacher data used for the learning of the Bayesian NN is data set D or data set D' based on the information obtained by integrating the outputs of . Note that the determination unit 153 may perform determination based on one output obtained by inputting one sample to the Bayesian NN only once.
  • the determination unit 153 determines whether the teacher data is data set D or data set D' for each output obtained by inputting a plurality of samples to a learned Bayesian NN. Thereby, the determination unit 153 can obtain a plurality of determination results.
  • the determination unit 153 when all the determination results among the plurality of determination results indicate that the teacher data is data set D', the determination unit 153 finally determines that the teacher data is data set D'. .
  • the determination unit 153 when one or more determination results among a plurality of determination results indicate that the teacher data is the data set D′, the determination unit 153 finally determines that the teacher data is the data set D′. Determine that there is.
  • the determination unit 153 determines that the number of determination results indicating that the teacher data is data set D′ among the plurality of determination results indicates that the teacher data is data set D. If the number is greater than the number of results, it is finally determined that the teacher data is data set D'.
  • the output of the Bayesian NN is determined according to a predetermined posterior distribution.
  • a Bayesian NN can output statistics such as the mean of the posterior distribution.
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is the data set D or the data set D′ based on the statistical value. do.
  • the Bayesian NN may output multiple predicted values sampled from the posterior distribution.
  • the determination unit 153 determines that data set D is the teacher data used for learning the Bayesian NN based on the statistical values of the plurality of predicted values. or data set D'.
  • the number of types of statistical values may be one or multiple.
  • the types of statistical values are, for example, average, maximum value, minimum value, i-th smallest value among predicted values (where i is an integer from 1 to the number of samples), and the like.
  • FIG. 3 is a diagram for explaining a data set determination method.
  • Information 1f and information 2f each correspond to a predetermined type of statistical value.
  • the information 1f may be the average and the information 2f may be the maximum value.
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is the data set D or the data set D' depending on whether the statistical value is equal to or greater than the threshold.
  • the determination unit 153 determines that the teacher data is the data set D' when the statistical values of all types are equal to or greater than the threshold. This determination method corresponds to type A in FIG.
  • the area determined as data set D' in the type A determination method is the overlapping portion of the area where the information 1f is greater than or equal to the threshold and the area where the information 2f is greater than or equal to the threshold.
  • the determination unit 153 determines that the teacher data is the data set D' when the statistical value of any type is equal to or greater than the threshold. This determination method corresponds to type B in FIG.
  • the area determined as data set D' in the type B determination method is both the area where the information 1f is greater than or equal to the threshold and the area where the information 2f is greater than or equal to the threshold.
  • the determination unit 153 can determine that the teacher data is the data set D'.
  • the information used for determination by the threshold is a value that tends to increase when the teacher data is data set D'.
  • Statistics such as averages, maximum values, and minimum values tend to do that.
  • the determination unit 153 can use the reciprocal of the standard deviation or a value obtained by inverting the sign of the standard deviation as information for determination.
  • the determination unit 153 makes a determination using the statistical value.
  • the determination unit 153 cannot make determinations using statistical values other than the average and standard deviation.
  • the calculation unit 154 calculates the privacy risk based on the determination result of the determination unit 153.
  • FPR false positive rate
  • the rate at which the determination unit 153 determines that the training data is data set D when the actual training data is data set D' is defined as the false negative rate (FNR).
  • the calculation unit 154 can calculate the privacy risk using formula (1).
  • is a sufficiently small constant (eg, 10 ⁇ 5 ).
  • the determination unit 153 may use a threshold that increases the privacy risk calculated from equation (1). Also, the calculation unit 154 may calculate the privacy risk in consideration of the confidence interval.
  • calculation unit 154 may calculate the privacy risk by a method based on a probability ratio and a method using a predetermined test method, in addition to the method using Equation (1).
  • the calculation device 10 can compare the privacy risks of the definitive NN and the Bayesian NN by, for example, the following method. This makes it possible to evaluate the degree of increase in privacy risk when a Bayesian NN is introduced.
  • the computing device 10 uses a CNN (Convolutional Neural Network) to which Dropout is applied as the NN.
  • the calculation device 10 performs CNN learning by DP (Differentially Private)-SGD (Stochastic Gradient Descent).
  • the calculation device 10 calculates the privacy risk of the Bayesian NN obtained by applying MC dropout to the CNN by the method of the embodiment.
  • the calculation device 10 calculates the privacy risk of the CNN as a definitive NN by a conventional method (for example, the method described in Non-Patent Document 1 or Non-Patent Document 2).
  • the computing device 10 compares the privacy risk of the Bayesian NN and the privacy risk of the CNN as a deterministic NN.
  • FIG. 4 is a flow chart showing the flow of processing of the calculation device according to the first embodiment.
  • the calculation device 10 first creates a data set D' adjacent to the learning data set D (step S101). For example, the computing device 10 creates a data set D' by adding data (x', y') to the data set D.
  • the computing device 10 randomly selects either data set D or data set D' (step S102). Computing device 10 makes the selection multiple times.
  • the calculation device 10 performs model learning using the selected data set (step S103).
  • the computing device 10 may perform learning using a privacy-preserving machine learning technique.
  • the calculation device 10 determines which of the data set D and the data set D' was used for learning from the learning result (step S104). For example, the computing device 10 makes the determination using statistics about the output of the model.
  • step S105, No the calculation device 10 repeats steps S102 to S104.
  • the end condition is that steps S102 to S104 have been repeated a certain number of times.
  • step S105 if the termination condition is satisfied (step S105, Yes), the computing device 10 proceeds to step S106.
  • the calculation device 10 calculates the privacy risk based on the determination result (step S106). For example, the calculation device 10 can calculate the privacy risk from the FPR and FNR when determining that the teacher data is the data set D' is positive.
  • the creation unit 151 creates a second data set adjacent to the first data set based on the first data set.
  • the learning unit 152 performs Bayesian NN (neural network) learning using either the first data set or the second data set as teacher data.
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is the first data set or the second data set. judge.
  • the calculator 154 calculates the privacy risk based on the determination result of the determiner 153 .
  • the calculation device 10 determines the data set of teacher data based on the output of the Bayesian NN, and calculates the privacy risk from the determination result.
  • the privacy risk of the Bayesian NN can be calculated.
  • the determination unit 153 inputs one sample a plurality of times to the Bayesian NN trained by the learning unit 152, or inputs each of the plurality of samples to the Bayesian NN one or more times. It is determined whether the teacher data used for learning the Bayesian NN is the first data set or the second data set based on the information obtained by integrating the outputs of . In this way, the calculation device 10 can make statistical determinations using, for example, FPR and FNR by using a plurality of outputs.
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is the first data set or the second data set based on the statistical value. determine whether In this way, the calculation device 10 can easily make a determination using the output of the Bayesian NN.
  • the determination unit 153 determines that the teacher data used for learning the Bayesian NN is the first data set based on the statistical values of the plurality of predicted values. or the second data set. In this way, the calculation device 10 can use the output of the Bayesian NN to perform determination using arbitrary statistical values.
  • the determination unit 153 determines whether the teacher data used for learning the Bayesian NN is the first data set or the second data set, depending on whether the statistical value is equal to or greater than the threshold. In this way, the calculation device 10 can easily make a determination using a threshold.
  • each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed or Can be integrated and configured.
  • all or any part of each processing function performed by each device is realized by a CPU (Central Processing Unit) and a program analyzed and executed by the CPU, or hardware by wired logic can be realized as Note that the program may be executed not only by the CPU but also by other processors such as a GPU.
  • CPU Central Processing Unit
  • the calculation device 10 can be implemented by installing a calculation program for executing the above calculation processing as package software or online software in a desired computer.
  • the information processing apparatus can function as the calculation apparatus 10 by causing the information processing apparatus to execute the above calculation program.
  • the information processing apparatus referred to here includes a desktop or notebook personal computer.
  • information processing devices include mobile communication terminals such as smartphones, mobile phones and PHS (Personal Handyphone Systems), and slate terminals such as PDAs (Personal Digital Assistants).
  • the calculation device 10 can be implemented as a calculation server device that uses a terminal device used by a user as a client and provides the client with a service related to the above calculation processing.
  • the calculation server device is implemented as a server device that provides a calculation service that takes a data set as an input and outputs the privacy risk of a Bayesian NN.
  • the calculation server device may be implemented as a Web server, or may be implemented as a cloud that provides services related to the above calculation processing by outsourcing.
  • FIG. 5 is a diagram showing an example of a computer that executes a calculation program.
  • the computer 1000 has a memory 1010 and a CPU 1020, for example.
  • Computer 1000 also has hard disk drive interface 1030 , disk drive interface 1040 , serial port interface 1050 , video adapter 1060 and network interface 1070 . These units are connected by a bus 1080 .
  • the memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012 .
  • the ROM 1011 stores a boot program such as BIOS (Basic Input Output System).
  • BIOS Basic Input Output System
  • Hard disk drive interface 1030 is connected to hard disk drive 1090 .
  • a disk drive interface 1040 is connected to the disk drive 1100 .
  • a removable storage medium such as a magnetic disk or optical disk is inserted into the disk drive 1100 .
  • Serial port interface 1050 is connected to mouse 1110 and keyboard 1120, for example.
  • Video adapter 1060 is connected to display 1130, for example.
  • the hard disk drive 1090 stores, for example, an OS 1091, application programs 1092, program modules 1093, and program data 1094. That is, a program that defines each process of the computing device 10 is implemented as a program module 1093 in which computer-executable code is described. Program modules 1093 are stored, for example, on hard disk drive 1090 . For example, a program module 1093 for executing processing similar to the functional configuration of the computing device 10 is stored in the hard disk drive 1090 .
  • the hard disk drive 1090 may be replaced by an SSD (Solid State Drive).
  • the setting data used in the processing of the above-described embodiment is stored as program data 1094 in the memory 1010 or the hard disk drive 1090, for example. Then, the CPU 1020 reads the program modules 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes the processes of the above-described embodiments.
  • the program modules 1093 and program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in a removable storage medium, for example, and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program modules 1093 and program data 1094 may be stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.). Program modules 1093 and program data 1094 may then be read by CPU 1020 through network interface 1070 from other computers.
  • LAN Local Area Network
  • WAN Wide Area Network
  • calculation device 11 communication unit 12 input unit 13 output unit 14 storage unit 15 control unit 141 model information 142 learning data 151 creation unit 152 learning unit 153 determination unit 154 calculation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

実施形態の算出装置は、作成部、学習部、判定部及び算出部を有する。作成部は、第1のデータセットを基に、第1のデータセットに隣接する第2のデータセットを作成する。学習部は、第1のデータセット及び第2のデータセットのいずれかを教師データとして用いて、ベイジアンNN(neural network)の学習を行う。判定部は、学習部によって学習が行われたベイジアンNNの出力を基に、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。算出部は、判定部による判定結果を基にプライバシーリスクを算出する。

Description

算出装置、算出方法及び算出プログラム
 本発明は、算出装置、算出方法及び算出プログラムに関する。
 Deep neural network(DNN)に代表される機械学習技術には、プライバシーリスクがあることが指摘されている。これは、学習済みのモデルが、教師データを記憶しやすい特性を持つためである。
 具体的には、特定のデータが教師データに含まれていたかを、学習済みモデルの出力から推定できることが示されている。特に医療データやウェブの閲覧履歴等、ユーザが他人に知られたくないデータを扱う場合はプライバシーリスクへの配慮が必要である。
 これに対し、あるデータがデータセットに含まれているかどうかを特定する攻撃がどの程度成功するかに基づいて、プライバシーリスクを算出する手法が知られている(例えば、非特許文献1及び非特許文献2を参照)。
Jagielski, M. et al.: Auditing differentially private machine learning: How private is private sgd?, arXiv preprint arXiv:2006.07709 (2020). Nasr, M. et al.: Adversary instantiation: Lower bounds for differentially private machine learning, arXiv preprint arXiv:2101.04535 (2021).
 しかしながら、従来の技術には、ベイジアンNNのプライバシーリスクを算出することが困難であるという問題がある。
 非特許文献1及び非特許文献2に記載された手法は、入力に対して1つの予測値を出力する決定的なNNを用いたモデルを対象とするものである。
 一方で、ベイジアンNNは、予測値の事後分布又は事後分布からサンプリングされた値を出力するものであるため、従来の手法を適用することができない。
 上述した課題を解決し、目的を達成するために、算出装置は、第1のデータセットを基に、前記第1のデータセットに隣接する第2のデータセットを作成する作成部と、前記第1のデータセット及び前記第2のデータセットのいずれかを教師データとして用いて、ベイジアンNN(neural network)の学習を行う学習部と、前記学習部によって学習が行われたベイジアンNNの出力を基に、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定する判定部と、前記判定部による判定結果を基にプライバシーリスクを算出する算出部と、を有することを特徴とする。
 本発明によれば、ベイジアンNNのプライバシーリスクを算出することができる。
図1は、プライバシーリスクの算出方法を説明する図である。 図2は、第1の実施形態に係る算出装置の構成例を示す図である。 図3は、データセットの判定方法を説明する図である。 図4は、第1の実施形態に係る算出装置の処理の流れを示すフローチャートである。 図5は、算出プログラムを実行するコンピュータの一例を示す図である。
 以下に、本願に係る算出装置、算出方法及び算出プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
 第1の実施形態では、特にベイジアンNN(neural network)に関するプライバシーリスクが算出される。
 ここで、ベイジアンNNは、NNを基にした機械学習技術である。ベイジアンNNにおける重み及びバイアス等のパラメータは、確率分布に従うものとして扱われる。そして、各パラメータの事後分布は、ベイズ推定により求められる。
 図1を用いて、第1の実施形態における算出装置によるプライバシーリスク算出方法を説明する。図1は、プライバシーリスクの算出方法を説明する図である。
 図1に示すように、まず、算出装置は、データセットDから隣接するデータセットD´を作成する(ステップS1)。
 例えば、データセットDがそれぞれを(x,y)のような形式で表せる複数のデータを要素として含む場合、算出装置は、データセットDにデータ(x´,y´)を追加することでデータセットD´を作成する。
 そして、算出装置は、データセットD及びデータセットD´のいずれかをランダムに選択する(ステップS2)。
 次に、算出装置は、選択したデータセットを教師データとして用いてモデルの学習を行う(ステップS3)。例えば、モデルはベイジアンNNである。
 ここで、算出装置は、学習済みのモデルの出力を基に、教師データとして用いられたのがデータセットDであるかデータセットD´であるかを判定する(ステップS4)。
 さらに、算出装置は、判定結果を基にプライバシーリスクを算出する(ステップS5)。例えば、ステップS4における判定精度が高いほど攻撃が成功しやすく、プライバシーリスクは大きいということができる。
 例えば、判定精度が高いことは、どのデータセットが学習に用いられたかが出力から容易に推測されること、さらには(x´,y´)というデータが学習に使用されていたことが特定されやすいことを意味する。
 なお、算出装置は、ステップS2においてデータセットの選択を複数回行い、データセットを選択するたびにステップS3の学習及びステップS4の判定を実行する。
 その際、選択されたデータセットが同じであっても、学習済みのベイジアンNNが同じものになるとは限らない。
 以下、実施形態における算出装置の構成とともに、図1で説明した各処理の詳細を説明する。
[第1の実施形態の構成]
 図2を用いて、第1の実施形態に係る算出装置の構成について説明する。図2は、第1の実施形態に係る算出装置の構成例を示す図である。算出装置10は、データセットの入力を受け付け、ベイジアンNNに関するプライバシーリスクを算出する。
 図2に示すように、算出装置10は、通信部11、入力部12、出力部13、記憶部14及び制御部15を有する。
 通信部11は、ネットワークを介して、他の装置との間でデータ通信を行う。例えば、通信部11はNIC(Network Interface Card)である。
 入力部12は、ユーザからのデータの入力を受け付ける。入力部12は、例えば、マウスやキーボード等の入力装置、又は入力装置と接続されるインタフェースである。
 出力部13は、画面の表示等により、データを出力する。出力部13は、例えば、ディスプレイ及びスピーカ等の出力装置、又は出力装置と接続されるインタフェースである。
 記憶部14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部14は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。
 記憶部14は、算出装置10で実行されるOS(Operating System)や各種プログラムを記憶する。記憶部14は、モデル情報141及び学習用データ142を記憶する。
 モデル情報141は、例えばベイジアンNNを用いたモデルのハイパーパラメータ(層の数、ユニット数、活性化関数等)である。さらに具体的には、モデル情報141は、重み及びバイアスが従う確率分布を特定するための平均、分散等のパラメータであってもよい。
 また、学習用データ142は、ベイジアンNNの学習を行うためのデータである。例えば、学習用データ142はデータセットDである。
 例えば、データセットDは、ラベルと特徴量とを組み合わせたデータを要素として持つものであってもよい。
 制御部15は、算出装置10全体を制御する。制御部15は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。
 また、制御部15は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。
 制御部15は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部15は、作成部151、学習部152、判定部153及び算出部154を有する。
 作成部151は、データセットDを基に、データセットDに隣接するデータセットD´を作成する。データセットDは、第1のデータセットの一例である。また、データセットD´は、第2のデータセットの一例である。
 図1で説明したように、作成部151は、データセットDにデータ(x´,y´)を追加することによりデータセットD´を作成する。
 この場合、データセットDとデータセットD´は、要素が1つだけ異なる2つのデータセットということができる。
 例えば、データ(x´,y´)は、データセットDに含まれるデータの中から選択される。データ(x´,y´)はランダムに選択されたものであってもよい。
 また、例えば、データ(x´,y´)は、データセットD´が教師データとして用いられたときに影響が大きくなるようなデータであってもよい。影響の大きさは、データセットD´を教師データとして用いて学習を行った際のモデルの損失が大きいほど大きくなる。
 また、データ(x´,y´)は、算出したいプライバシーリスクがどのようなものであるかに応じて選択されるものであってもよい。
 また、作成部151は、データ(x´,y´)にノイズを加えた上でデータセットDに追加することによりデータセットD´を作成してもよい。
 学習部152は、データセットD及びデータセットD´のいずれかを教師データとして用いて、ベイジアンNN(neural network)の学習を行う。
 例えば、学習部152は、データセットD及びデータセットD´のいずれかをランダムに選択し、選択したデータセットを教師データして用いてモデルの学習を行う。
 例えば、モデルは、モデル情報141から構築される未学習状態のベイジアンNNである。学習部152は、データセットを選択するたびにモデル情報141からモデルを構築し、学習を行うことができる。
 学習部152は、既知の機械学習手法により学習を行うことができる。また、学習部152は、プライバシー保護機械学習の手法(例えば、差分プライバシーを保証した学習手法)により学習を行ってもよい。
 判定部153は、学習部152によって学習が行われたベイジアンNNの出力を基に、ベイジアンNNの学習に用いられた教師データがデータセットDであるかデータセットD´であるかを判定する。例えば、判定部153は、ベイジアンNNに1つのサンプルを1回又は複数回入力して得られた出力、又は、ベイジアンNNに複数のサンプルのそれぞれを1回又は複数回入力して得られた出力を基に判定を行う。
 例えば、判定部153は、データ(x´,y´)を学習済みのベイジアンNNに入力したときの出力を用いて判定を行う。また、判定部153は、データ(x´,y´)にノイズを加えた上で学習済みのベイジアンNNに入力したときの出力を用いて判定を行ってもよい。
 判定部153は、学習部152によって学習が行われたベイジアンNNに1つのサンプルを複数回入力すること、又は、ベイジアンNNに複数のサンプルのそれぞれを1回以上入力すること、によって得られた複数の出力を統合した情報を基に、ベイジアンNNの学習に用いられた教師データがデータセットDであるかデータセットD´であるかを判定することができる。なお、判定部153は、ベイジアンNNに1つのサンプルを1回だけ入力して得られた1つの出力を基に判定を行ってもよい。
 例えば、判定部153は、複数のサンプルを学習済みのベイジアンNNに入力して得られた出力のそれぞれについて教師データがデータセットDであるかデータセットD´であるかを判定する。これにより、判定部153は、複数の判定結果を得ることができる。
 例えば、判定部153は、複数の判定結果のうち、全ての判定結果が教師データがデータセットD´であることを示している場合、最終的に教師データがデータセットD´であると判定する。
 また、例えば、判定部153は、複数の判定結果のうち、1つ以上の判定結果が教師データがデータセットD´であることを示している場合、最終的に教師データがデータセットD´であると判定する。
 また、例えば、判定部153は、複数の判定結果のうち、教師データがデータセットD´であることを示している判定結果の数が、教師データがデータセットDであることを示している判定結果の数よりも多い場合、最終的に教師データがデータセットD´であると判定する。
 ここで、ベイジアンNNの出力は所定の事後分布に従って決定される。ベイジアンNNは、事後分布の平均等の統計値を出力することができる。
 ベイジアンNNが事後分布の統計値を出力する場合、判定部153は、統計値を基に、ベイジアンNNの学習に用いられた教師データがデータセットDであるかデータセットD´であるかを判定する。
 また、ベイジアンNNは、事後分布からサンプリングされた複数の予測値を出力する場合がある。
 ベイジアンNNが事後分布からサンプリングされた複数の予測値を出力する場合、判定部153は、複数の予測値に関する統計値を基に、ベイジアンNNの学習に用いられた教師データがデータセットDであるかデータセットD´であるかを判定する。
 いずれの場合においても、統計値の種類は1つであってもよいし、複数であってもよい。統計値の種類は、例えば平均、最大値、最小値、予測値のうちi番目(ただし、iは1からサンプル数までの整数)に小さい値等である。
 図3を用いて、判定部153による統計値を用いたデータセットの判定方法を説明する。図3は、データセットの判定方法を説明する図である。
 なお、情報1f及び情報2fは、それぞれ所定の種類の統計値に相当する。例えば、情報1fが平均であり、情報2fが最大値であってもよい。
 判定部153は、統計値が閾値以上であるか否かによって、ベイジアンNNの学習に用いられた教師データがデータセットDであるかデータセットD´であるかを判定する。
 例えば、判定部153は、全ての種類の統計値が閾値以上である場合に、教師データがデータセットD´であると判定する。この判定方法は図3のタイプAに相当する。
 図3に示すように、タイプAの判定方法においてデータセットD´と判定される領域は、情報1fが閾値以上である領域と情報2fが閾値以上である領域の重複部分である。
 また、例えば、判定部153は、いずれかの種類の統計値が閾値以上である場合に、教師データがデータセットD´であると判定する。この判定方法は図3のタイプBに相当する。
 図3に示すように、タイプBの判定方法においてデータセットD´と判定される領域は、情報1fが閾値以上である領域と情報2fが閾値以上である領域の両方である。
 また、タイプA及びタイプBにおける領域に限られず、図3のような平面(情報が3つ以上の場合は空間)におけるあらかじめ指定された領域に、各情報から決定される点が存在する場合に、判定部153は教師データがデータセットD´であると判定することができる。
 閾値による判定に用いられる情報は、教師データがデータセットD´であるときに大きくなる傾向がある値であることが望ましい。平均、最大値、最小値といった統計値にはそのような傾向がある。
 一方で、標準偏差には、教師データがデータセットD´であるときに小さくなる傾向がある。このため、判定部153は、標準偏差そのものの代わりに、標準偏差の逆数又は標準偏差の符号を反転させた値を判定のための情報として用いることができる。
 なお、ベイジアンNNが複数の予測値を出力することなく、所定の統計値を出力するものである場合、判定部153は、当該統計値を用いて判定を行う。
 例えば、ベイジアンNNが平均と標準偏差のみを出力する場合、判定部153は、平均と標準偏差以外の統計値を用いて判定を行うことはできない。
 これにより、ベイジアンNNの出力がどのように公開されるかによって、プライバシーリスクがどのように変化するかを評価することが可能になる。
 算出部154は、判定部153による判定結果を基にプライバシーリスクを算出する。
 ここで、学習部152による学習及び判定部153による判定は、複数回行われるものとする。
 実際の教師データがデータセットDであるときに、判定部153が教師データがデータセットD´であると判定した割合を誤検知率(FPR:false positive rate)とする。
 一方、実際の教師データがデータセットD´であるときに、判定部153が教師データがデータセットDであると判定した割合を見逃し率(FNR:false negative rate)とする。
 このとき、算出部154は、(1)式によりプライバシーリスクを計算することができる。
Figure JPOXMLDOC01-appb-M000001
 δは十分小さな定数(例えば、10-5)である。判定部153は、(1)式から計算されるプライバシーリスクが大きくなるような閾値を用いるようにしてもよい。また、算出部154は、信頼区間を考慮してプライバシーリスクを算出してもよい。
 なお、算出部154は、(1)式を用いた方法以外にも、確率の比率に基づく方法、及び所定の検定手法を用いた方法によってプライバシーリスクを算出してもよい。
(実施例)
 算出装置10は、例えば下記の方法により決定的なNNとベイジアンNNとのプライバシーリスクの比較を行うことができる。これにより、ベイジアンNNを導入した場合のプライバシーリスクの増加の度合いを評価することが可能になる。
 まず、算出装置10は、NNとしてDropoutを適用したCNN(Convolutional Neural Network)を用いる。また、算出装置10は、DP(Differentially Private)-SGD(Stochastic Gradient Descent)によりCNNの学習を行う。
 そして、算出装置10は、CNNにMC dropoutを適用して得られるベイジアンNNのプライバシーリスクを実施形態の方法により算出する。
 次に、算出装置10は、CNNの決定的なNNとしてのプライバシーリスクを従来の方法(例えば、非特許文献1又は非特許文献2に記載の方法)により算出する。
 算出装置10は、ベイジアンNNのプライバシーリスクと、CNNの決定的なNNとしてのプライバシーリスクとを比較する。
[第1の実施形態の処理]
 図4を用いて、算出装置10の処理の流れを説明する。図4は、第1の実施形態に係る算出装置の処理の流れを示すフローチャートである。
 図4に示すように、まず、算出装置10は、学習用のデータセットDに隣接するデータセットD´を作成する(ステップS101)。例えば、算出装置10は、データセットDにデータ(x´,y´)を追加することによりデータセットD´を作成する。
 次に、算出装置10は、データセットD又はデータセットD´のいずれかをランダムに選択する(ステップS102)。算出装置10は、複数回にわたって選択を行う。
 算出装置10は、選択したデータセットを用いてモデルの学習を行う(ステップS103)。算出装置10は、プライバシー保護機械学習の手法による学習を行ってもよい。
 算出装置10は、学習結果からデータセットDとデータセットD´のどちらが学習に用いられたかを判定する(ステップS104)。例えば、算出装置10は、モデルの出力に関する統計値を用いて判定を行う。
 終了条件が充足されるまで(ステップS105、No)、算出装置10はステップS102からステップS104を繰り返す。例えば、終了条件は、ステップS102からステップS104が一定回数だけ繰り返されたことである。
 一方、終了条件が充足された場合(ステップS105、Yes)、算出装置10はステップS106に進む。
 算出装置10は、判定結果を基にプライバシーリスクを算出する(ステップS106)。例えば、算出装置10は、教師データがデータセットD´であると判定することを陽性(positive)とした場合のFPR及びFNRから、プライバシーリスクを算出することができる。
[第1の実施形態の効果]
 これまで説明してきたように、作成部151は、第1のデータセットを基に、第1のデータセットに隣接する第2のデータセットを作成する。学習部152は、第1のデータセット及び第2のデータセットのいずれかを教師データとして用いて、ベイジアンNN(neural network)の学習を行う。判定部153は、学習部152によって学習が行われたベイジアンNNの出力を基に、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。算出部154は、判定部153による判定結果を基にプライバシーリスクを算出する。
 このように、算出装置10は、ベイジアンNNの出力を基に教師データのデータセットを判定し、その判定結果からプライバシーリスクを算出する。その結果、本実施形態によれば、ベイジアンNNのプライバシーリスクを算出することができる。
 判定部153は、学習部152によって学習が行われたベイジアンNNに1つのサンプルを複数回入力すること、又は、ベイジアンNNに複数のサンプルのそれぞれを1回以上入力すること、によって得られた複数の出力を統合した情報を基に、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。このように、算出装置10は、複数の出力を利用することで、例えばFPR及びFNRを用いて統計的な判定を行うことができる。
 ベイジアンNNが事後分布の統計値を出力する場合、判定部153は、統計値を基に、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。このように、算出装置10は、ベイジアンNNの出力を利用して容易に判定を行うことができる。
 ベイジアンNNが事後分布からサンプリングされた複数の予測値を出力する場合、判定部153は、複数の予測値に関する統計値を基に、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。このように、算出装置10は、ベイジアンNNの出力を利用して任意の統計値を用いて判定を行うことができる。
 判定部153は、統計値が閾値以上であるか否かによって、ベイジアンNNの学習に用いられた教師データが第1のデータセットであるか第2のデータセットであるかを判定する。このように、算出装置10は、閾値により容易に判定を行うことができる。
[システム構成等]
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。なお、プログラムは、CPUだけでなく、GPU等の他のプロセッサによって実行されてもよい。
 また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
 一実施形態として、算出装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の算出処理を実行する算出プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の算出プログラムを情報処理装置に実行させることにより、情報処理装置を算出装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
 また、算出装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の算出処理に関するサービスを提供する算出サーバ装置として実装することもできる。例えば、算出サーバ装置は、データセットを入力とし、ベイジアンNNのプライバシーリスクを出力とする算出サービスを提供するサーバ装置として実装される。この場合、算出サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の算出処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
 図5は、算出プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011及びRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
 ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、算出装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、算出装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
 また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
 なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 10 算出装置
 11 通信部
 12 入力部
 13 出力部
 14 記憶部
 15 制御部
 141 モデル情報
 142 学習用データ
 151 作成部
 152 学習部
 153 判定部
 154 算出部

Claims (7)

  1.  第1のデータセットを基に、前記第1のデータセットに隣接する第2のデータセットを作成する作成部と、
     前記第1のデータセット及び前記第2のデータセットのいずれかを教師データとして用いて、ベイジアンNN(neural network)の学習を行う学習部と、
     前記学習部によって学習が行われたベイジアンNNの出力を基に、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定する判定部と、
     前記判定部による判定結果を基にプライバシーリスクを算出する算出部と、
     を有することを特徴とする算出装置。
  2.  前記判定部は、前記学習部によって学習が行われたベイジアンNNに1つのサンプルを複数回入力すること、又は、前記ベイジアンNNに複数のサンプルのそれぞれを1回以上入力すること、によって得られた複数の出力を統合した情報を基に、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定することを特徴とする請求項1に記載の算出装置。
  3.  ベイジアンNNが事後分布の統計値を出力する場合、前記判定部は、前記統計値を基に、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定することを特徴とする請求項1又は2に記載の算出装置。
  4.  ベイジアンNNが事後分布からサンプリングされた複数の予測値を出力する場合、前記判定部は、前記複数の予測値に関する統計値を基に、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定することを特徴とする請求項1又は2に記載の算出装置。
  5.  前記判定部は、前記統計値が閾値以上であるか否かによって、前記ベイジアンNNの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定することを特徴とする請求項3又は4に記載の算出装置。
  6.  算出装置によって実行される算出方法であって、
     第1のデータセットを基に、前記第1のデータセットに隣接する第2のデータセットを作成する作成工程と、
     前記第1のデータセット及び前記第2のデータセットのいずれかを教師データとして用いてモデルの学習を行う学習工程と、
     前記学習工程において学習が行われたモデルの出力を基に、前記モデルの学習に用いられた教師データが前記第1のデータセットであるか前記第2のデータセットであるかを判定する判定工程と、
     前記判定工程における判定結果を基にプライバシーリスクを算出する算出工程と、
     を含むことを特徴とする算出方法。
  7.  コンピュータを、請求項1から5のいずれか1項に記載の算出装置として機能させるための算出プログラム。
PCT/JP2021/038500 2021-10-18 2021-10-18 算出装置、算出方法及び算出プログラム WO2023067666A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/038500 WO2023067666A1 (ja) 2021-10-18 2021-10-18 算出装置、算出方法及び算出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/038500 WO2023067666A1 (ja) 2021-10-18 2021-10-18 算出装置、算出方法及び算出プログラム

Publications (1)

Publication Number Publication Date
WO2023067666A1 true WO2023067666A1 (ja) 2023-04-27

Family

ID=86058893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038500 WO2023067666A1 (ja) 2021-10-18 2021-10-18 算出装置、算出方法及び算出プログラム

Country Status (1)

Country Link
WO (1) WO2023067666A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090821A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 解析装置、機械学習装置、解析システム、解析方法および記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090821A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 解析装置、機械学習装置、解析システム、解析方法および記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MILAD NASR; SHUANG SONG; ABHRADEEP THAKURTA; NICOLAS PAPERNOT; NICHOLAS CARLINI: "Adversary Instantiation: Lower Bounds for Differentially Private Machine Learning", ARXIV.ORG, 11 January 2021 (2021-01-11), XP081857606 *

Similar Documents

Publication Publication Date Title
US11481617B2 (en) Generating trained neural networks with increased robustness against adversarial attacks
Solus et al. Consistency guarantees for greedy permutation-based causal inference algorithms
Dwork et al. Outcome indistinguishability
CN109460793B (zh) 一种节点分类的方法、模型训练的方法及装置
Hernández-González et al. Learning Bayesian network classifiers from label proportions
US11146580B2 (en) Script and command line exploitation detection
JP6870508B2 (ja) 学習プログラム、学習方法及び学習装置
KR101850993B1 (ko) 클러스터 기반 키워드 산출 방법 및 장치
US11343325B2 (en) Systems and methods for estimating typed graphlets in large data
US20230021338A1 (en) Conditionally independent data generation for training machine learning systems
Chen et al. A bootstrap method for goodness of fit and model selection with a single observed network
Murray et al. Flexible Bayesian survival modeling with semiparametric time-dependent and shape-restricted covariate effects
US11941867B2 (en) Neural network training using the soft nearest neighbor loss
JP6767312B2 (ja) 検知システム、検知方法及び検知プログラム
CN115798602A (zh) 基因调控网络构建方法、装置、设备及存储介质
CN116915442A (zh) 漏洞测试方法、装置、设备和介质
Tembine Mean field stochastic games: Convergence, Q/H-learning and optimality
Goyal et al. Framework for converting mechanistic network models to probabilistic models
WO2023067666A1 (ja) 算出装置、算出方法及び算出プログラム
Aliakbary et al. Noise-tolerant model selection and parameter estimation for complex networks
CN105245380B (zh) 一种消息的传播方式识别方法及装置
WO2024079795A1 (ja) リスク算出装置、リスク算出方法、および、リスク算出プログラム
WO2021075009A1 (ja) 学習装置、推定装置、学習方法及び学習プログラム
CN115221663A (zh) 数据处理方法、装置、设备及计算机可读存储介质
He et al. MIDASim: a fast and simple simulator for realistic microbiome data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21961319

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023553918

Country of ref document: JP

Kind code of ref document: A