WO2016203752A1 - 情報処理装置、情報処理方法、及び、記憶媒体 - Google Patents

情報処理装置、情報処理方法、及び、記憶媒体 Download PDF

Info

Publication number
WO2016203752A1
WO2016203752A1 PCT/JP2016/002838 JP2016002838W WO2016203752A1 WO 2016203752 A1 WO2016203752 A1 WO 2016203752A1 JP 2016002838 W JP2016002838 W JP 2016002838W WO 2016203752 A1 WO2016203752 A1 WO 2016203752A1
Authority
WO
WIPO (PCT)
Prior art keywords
privacy
strength
remaining
information processing
privacy strength
Prior art date
Application number
PCT/JP2016/002838
Other languages
English (en)
French (fr)
Inventor
翼 高橋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017524605A priority Critical patent/JP6747438B2/ja
Publication of WO2016203752A1 publication Critical patent/WO2016203752A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C1/00Apparatus or methods whereby a given sequence of signs, e.g. an intelligible text, is transformed into an unintelligible sequence of signs by transposing the signs or groups of signs or by replacing them by others according to a predetermined system

Definitions

  • the present invention relates to information processing, and in particular, relates to an information processing apparatus, information processing method, and recording medium that handle information related to individuals (personal information, personal information, or privacy information).
  • Such privacy information includes data (information) related to health care (health management).
  • the data relating to health management is, for example, health management data, medical history, or a receipt (medical fee description).
  • the privacy information includes information on a position related to an individual or a device owned by the individual (for example, a terminal or a passenger car).
  • the position information is, for example, a movement history or a usage history of a device whose position is specified such as a wireless access point.
  • information (attributes) constituting the receipt which is privacy information, includes the year of birth, gender, injury / disease name, and drug name. Therefore, for example, the receipt is configured as information (record) including data related to the attribute.
  • the information processing apparatus accumulates privacy information (for example, a receipt) as a data set (collection) composed of records.
  • privacy information is disclosed or used in a state where the contents of the original information (original information) can be discriminated, there is a concern that privacy infringement may occur for individuals related to the privacy information.
  • disclosure or use of privacy information in a state where the contents of original information (original information) can be determined is not preferable.
  • secondary utilization refers to, for example, providing privacy information to an operator (third party) different from the service operator that generates or accumulates the privacy information, and the third Is to make privacy information available to the service of the user.
  • secondary utilization is providing privacy information to a third party and requesting the third party to analyze the privacy information (outsourcing).
  • a pharmaceutical company is assumed as a third party as described above.
  • a pharmaceutical company can analyze the co-occurrence or correlation of drugs based on medical information. That is, the pharmaceutical company can know how the medicine is used using the medical information. Furthermore, the pharmaceutical company can analyze the usage state of the medicine.
  • the privacy information is provided to a third party after a process for protecting privacy is performed.
  • query response type data publishing is a method of providing data that provides data with noise added to the original data or aggregated data obtained by aggregating the original data in response to an inquiry (query) from the user of the data. is there.
  • query response type data publication is a data providing method that provides data that hides the details of the original data.
  • An information processing apparatus that processes query response type data publishing conceals small changes in data using random noise addition that satisfies a predetermined property in order to guarantee protection of differential privacy (Non-patent Document 1). And 2).
  • an information processing apparatus that processes such query response type data publishing has almost the same probability that an output can be obtained regardless of the presence or absence of any one record, that is, the privacy information of any one individual. Guarantee that there is no.
  • the output in the above is an output (output value) in which noise is added to the original data or the total data, for example.
  • “probability hardly changes” means a change (difference or ratio) between the generation probability of the output value when there is any one record described above and the generation probability of the output value of the same value when there is no record. Is limited to a predetermined value or less (or within a predetermined range).
  • ⁇ ⁇ -Differential Privacy is a typical model that guarantees the protection of differential privacy.
  • ⁇ in ⁇ -difference privacy is a parameter that defines the upper bound of the absolute value of the change in probability described above.
  • the information processing apparatus that processes ⁇ -difference privacy limits the inference ability of the output data user for the original data or the aggregated data based on the parameter ( ⁇ ).
  • Equation 1 shown below.
  • Formula 1 is a formula representing that the difference in the probability of output (output value) is limited based on differential privacy.
  • D and D ′ indicate databases.
  • the database D is a privacy information database.
  • the database D ′ is a database in which one record is different from the database D.
  • the function q ( ⁇ ) is a function representing a response to a query to the database.
  • the function M (•) corresponds to a mechanism for randomizing (disturbing) or disturbing the value of the response (q (•)).
  • x is a value (data) output by the function M (•).
  • the function Pr (•) represents the probability that the output value of the function M (•) is “x”.
  • Equation 1 The function exp ( ⁇ ) is an exponential function with the base (e) of the natural logarithm as the base and the argument as the exponent.
  • Formula 1 shows that the ratio of the probability that the result of the query response to the database D is “x” and the probability that the result of the query response to the database D ′ is “x” is exp ( [epsilon] represents that it is guaranteed to be equal to or less.
  • FIG. 6 is a diagram illustrating an example of an information processing apparatus that processes general query response type data publication using ⁇ -difference privacy.
  • the data requester operates an inquiry device (not shown) to transmit a data query (inquiry (q)) to the information processing apparatus 90 that holds the data.
  • the inquiry (q) is data processing such as analysis or a request for such data processing.
  • the “inquiry by the data requester operating the inquiry device” is simply referred to as “inquiry from the requester”.
  • the information processing apparatus 90 includes a personal data storage unit 91 that stores personal data and a differential privacy processing unit 92.
  • the personal data storage unit 91 stores personal data as a database (for example, “D” or “D ′” described above).
  • the differential privacy processing unit 92 processes (randomizes or disturbs) the personal data so as to satisfy a predetermined differential privacy.
  • the information processing apparatus 90 operates as follows using the above configuration.
  • the information processing apparatus 90 extracts personal data corresponding to the inquiry (q) from the database (D) in the personal data storage unit 91.
  • the extracted personal data is referred to as “q (D)”.
  • the differential privacy processing unit 92 processes the extracted personal data (q (D)) so as to satisfy a predetermined differential privacy (for example, ⁇ equation 1 indicating differential privacy) (for example, randomization or disturbance). )
  • a predetermined differential privacy for example, ⁇ equation 1 indicating differential privacy
  • q * (D) is secret information processed so that the client cannot easily guess the original data.
  • the information processing apparatus 90 transmits data (q * (D)) processed into secret information that is difficult to guess to the client.
  • FIG. 7 is a diagram for explaining query response type data publication that does not guarantee differential privacy. That is, FIG. 7 corresponds to the operation of the information processing apparatus 90 that does not include the differential privacy processing unit 92.
  • the personal data storage unit 91 stores annual income data of five persons (Ana, Bob, Cris, David, Elsa) as a database (D).
  • the personal data storage unit 91 stores a database (D ′) in which data related to Elsa is deleted (changed) from the state of the database (D). Then, it is assumed that the requester requests an average annual income as an inquiry (q).
  • the client based on the difference between q (D) and q (D '), the client knows that the annual income of the transferee is $ 200,000 (can be estimated). Therefore, when the client knows that the person who has moved is Elsa, the client can estimate Elsa's annual income.
  • FIG. 8 is a diagram for explaining query response type data publication that guarantees differential privacy. That is, FIG. 8 corresponds to the operation of the information processing apparatus 90. Note that the disturbance (M) shown in FIG. 8 corresponds to the operation of the differential privacy processing unit 92. In FIG. 8, the same variables as in FIG. 7 such as the inquiry (q) indicate similar operations and functions.
  • FIG. 8 shows, as an example, a case where the values of q * (D) and q * (D ′) are the same when the difference is the smallest.
  • the difference privacy processing unit 92 calculates a value according to Equation 1 as an output.
  • FIG. 9 is a diagram illustrating an example of a probability used for calculation for ensuring differential privacy.
  • the difference privacy processing unit 92 generates an output value such that the value after the disturbance becomes a predetermined difference or ratio based on the probability according to the Laplace distribution. That is, the value output from the information processing apparatus 90 is included in a predetermined difference or ratio range.
  • the requester cannot estimate privacy information (for example, annual income) using the difference between the values output by the information processing apparatus 90. That is, even if the client can know the transferee (for example, knows the presence and absence of Elsa), the requester cannot estimate the privacy information (eg, annual income) of the transferee.
  • privacy information for example, annual income
  • an information processing apparatus that processes query response type data publication that guarantees ⁇ -differential privacy needs to design the sum of privacy strengths for all inquiries and each privacy strength ( ⁇ i ) in advance.
  • the total privacy strength for all inquiries is “ ⁇ T ”
  • each privacy strength is “ ⁇ i ”.
  • the information processing apparatus that processes the query response type data publication that guarantees ⁇ -differential privacy needs to design the total privacy strength and each privacy strength so as to satisfy “ ⁇ T ⁇ ⁇ i ”.
  • FIG. 10 is a diagram illustrating an example of privacy strength ( ⁇ i ) set to ensure a predetermined privacy strength ( ⁇ T ) for a plurality (n) of inquiries.
  • Non-Patent Documents 1 and 2 have a problem in that they cannot respond to inquiries exceeding the preset number of inquiries.
  • An object of the present invention is to solve the above-mentioned problems and to provide an information processing apparatus, an information processing method, and a storage medium that can process query response data publication that guarantees ⁇ -differential privacy without setting the number of inquiries in advance. It is to provide.
  • An information processing apparatus provides a total privacy strength that is satisfied as a total in query response data publishing that guarantees ⁇ -differential privacy, and a privacy strength that remains after setting a privacy strength determined in response to a query.
  • the parameter storage means for storing the remaining privacy ratio which is the rate of change in the remaining privacy intensity
  • the remaining privacy intensity storing means for storing the remaining privacy intensity and the remaining privacy ratio and the remaining privacy intensity.
  • a data processing method includes a total privacy strength that is satisfied as a total in query response data publishing that guarantees ⁇ -differential privacy, and a total privacy strength that remains after setting a privacy strength determined in response to a query.
  • the remaining privacy ratio which is the rate of change of the remaining privacy intensity, is stored, the remaining privacy intensity is stored, and the privacy intensity for the inquiry is determined based on the remaining privacy ratio and the remaining privacy intensity.
  • the storage medium includes a total privacy strength that is satisfied as a total in query response data publication that guarantees ⁇ -differential privacy, and a total privacy strength that remains after setting the privacy strength determined in response to the query.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an example of an operation for initially setting the remaining privacy strength in the information processing apparatus according to the first embodiment.
  • FIG. 3 is a flowchart illustrating an example of an operation for determining the privacy strength in the information processing apparatus according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of privacy strength determined by the information processing apparatus according to the first embodiment.
  • FIG. 5 is a block diagram illustrating an example of another configuration of the information processing apparatus according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of an information processing apparatus that processes query response type data publication using general ⁇ -differential privacy.
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an example of an operation for initially setting the remaining privacy strength in the information processing apparatus according to
  • FIG. 7 is a diagram for explaining query response type data publication that does not guarantee differential privacy.
  • FIG. 8 is a diagram for explaining query response type data publication that guarantees differential privacy.
  • FIG. 9 is a diagram illustrating an example of probabilities used for calculation for ensuring differential privacy.
  • FIG. 10 is a diagram illustrating an example of privacy strength designed to ensure a predetermined privacy strength for a plurality of inquiries.
  • the privacy strength ( ⁇ T ) is a privacy strength that satisfies the total in the ⁇ -differential privacy (total). Therefore, hereinafter, the privacy strength ( ⁇ T ) is also referred to as a total privacy strength.
  • the inquiry (q i ) is the i-th inquiry (query).
  • the privacy strength ( ⁇ i ) is the privacy strength determined for the i-th query (q i ).
  • the remaining privacy strength ( ⁇ * ) is the sum of settable privacy strengths remaining after setting the privacy strength (eg, ⁇ i ) determined for the query (eg, q i ). That is, the remaining privacy strength ( ⁇ * ) is determined from the total privacy strength ( ⁇ T ) to the privacy strength ( ⁇ 1 , ⁇ ) determined for the query (q 1 , q 2 ,..., Q i ) up to that point. 2 ,..., ⁇ i ), the remaining privacy strength.
  • the remaining privacy strength ( ⁇ * i ) is the remaining privacy strength after setting the privacy strength ( ⁇ i ) for the i-th inquiry (q i ). That is, the relationship between the remaining privacy strength ( ⁇ * ) and the privacy strength ( ⁇ ) is as shown in Equation 2 below.
  • ⁇ * i ⁇ * i- 1 - ⁇ i
  • the remaining privacy ratio ( ⁇ ) is a ratio of a change in the remaining privacy intensity ( ⁇ * ) after setting the privacy intensity ( ⁇ i ) for each inquiry (q i ).
  • the value of the remaining privacy ratio ( ⁇ ) is a positive real number less than 1 (0 ⁇ ⁇ 1).
  • Equation 3 the relationship between the remaining privacy strength ( ⁇ * i ) and the previous remaining privacy strength ( ⁇ * i ⁇ 1 ) is expressed by the following Equation 3.
  • ⁇ * i ⁇ ⁇ ⁇ * i-1
  • Equation 4 the relationship between the remaining privacy strength ( ⁇ * i ⁇ 1 ) and the privacy strength ( ⁇ i ) is as shown in Equation 4 below.
  • ⁇ i (1 ⁇ ) ⁇ ⁇ * i ⁇ 1 That is, the privacy strength ( ⁇ i ) is calculated based on the remaining privacy ratio ( ⁇ ) and the remaining privacy strength ( ⁇ * i ⁇ 1 ).
  • FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 10 according to the first embodiment of the present invention.
  • the information processing apparatus 10 includes a privacy strength determination unit 11, a remaining privacy strength storage unit 12, and a parameter storage unit 13.
  • the information processing apparatus 10 creates a response based on the determined privacy strength ( ⁇ i ).
  • the information processing apparatus 10 may use a process for guaranteeing general ⁇ -difference privacy as a method for creating a response. More specifically, the information processing apparatus 10 responds to an inquiry (q i ) with a disturbance based on differential private using the privacy strength ( ⁇ i ) in order to respond with an output in which ⁇ -differential privacy is guaranteed. Random selection may be used.
  • a method of disturbance or random selection for example, a Laplace mechanism or an Exponential mechanism is known. The information processing apparatus 10 may use these methods.
  • the information processing apparatus 10 is not limited to these methods, and may select an appropriate mechanism according to the inquiry (q i ) as a mechanism of disturbance or randomization (random selection). Therefore, description of the configuration and operation for generating a response that guarantees ⁇ -differential privacy is omitted.
  • each part of the information processing apparatus 10 is as follows. The operation of each part will be described in detail later.
  • the privacy strength determination unit 11 makes an inquiry (based on the remaining privacy strength ( ⁇ * i ⁇ 1 ) recorded in the remaining privacy strength storage unit 12 and the remaining privacy ratio ( ⁇ ) recorded in the parameter storage unit 13). to determine the privacy strength ( ⁇ i) with respect to q i). Then, the privacy strength determination unit 11 updates the remaining privacy strength ( ⁇ * ) using the determined privacy strength ( ⁇ i ). That is, the privacy strength determination unit 11 calculates the privacy strength ( ⁇ i ) and the remaining privacy strength ( ⁇ * i ).
  • the remaining privacy strength storage unit 12 records the calculated remaining privacy strength ( ⁇ * i ).
  • the remaining privacy strength storage unit 12 does not need to store the previous remaining privacy strength ( ⁇ * i ⁇ 1 ). That is, the remaining privacy strength storage unit 12 may update the recorded remaining privacy strength ( ⁇ * i ⁇ 1 ) with the calculated remaining privacy strength ( ⁇ * i ).
  • the remaining privacy strength ( ⁇ * ) is described with a sign, but the information processing apparatus 10 performs the remaining processing as one variable as an actual process. Privacy strength ( ⁇ * ) may be processed.
  • the parameter storage unit 13 stores parameters.
  • the parameters are the total (total) privacy strength ( ⁇ T ) and the remaining privacy ratio ( ⁇ ) already described.
  • the parameter storage unit 13 may include other values as parameters.
  • the information processing apparatus 10 In response to the inquiry (q i ), the information processing apparatus 10 according to the present embodiment outputs a privacy strength ( ⁇ i ) that guarantees ⁇ -differential privacy. Therefore, the information processing apparatus 10 determines (calculates) the privacy strength ( ⁇ i ) for the inquiry (q i ) based on the remaining privacy strength ( ⁇ * ) and the remaining privacy ratio ( ⁇ ). However, as will be described later, the information processing apparatus 10 determines the privacy strength ( ⁇ i ) so that the number of inquiries is not limited.
  • FIG. 2 is a flowchart illustrating an example of an operation for initially setting the remaining privacy strength ( ⁇ * ) in the information processing apparatus 10 according to the first embodiment.
  • the information processing apparatus 10 stores, as initial settings, the total privacy strength ( ⁇ T ) and the remaining privacy ratio ( ⁇ ), which are parameters, in the parameter storage unit 13 before the process described below (step S110). .
  • the method by which the information processing apparatus 10 stores parameters is not particularly limited.
  • an administrator of the information processing apparatus 10 may operate the information processing apparatus 10 and set parameters in the parameter storage unit 13.
  • the information processing apparatus 10 may receive parameters from an external device (not shown) and store the parameters in the parameter storage unit 13.
  • the privacy strength determination unit 11 of the information processing apparatus 10 initializes the remaining privacy strength ( ⁇ * ) stored in the remaining privacy strength storage unit 12 based on the parameters (step S120). Specifically, as already described, the privacy strength determination unit 11 stores the initial value ( ⁇ * 0 ) of the remaining privacy strength ( ⁇ * ) stored in the remaining privacy strength storage unit 12 in the parameter storage unit 13. Set the total privacy strength ( ⁇ T ) value.
  • the information processing apparatus 10 ends the initial setting operation of the remaining privacy strength ( ⁇ * ).
  • FIG. 3 is a flowchart illustrating an example of an operation of determining (calculating) the privacy strength ( ⁇ i ) of the information processing apparatus 10 according to the first embodiment.
  • Privacy intensity determination unit 11 of the information processing apparatus 10 receives the query (q i), based on the remaining privacy strength (epsilon *) and residual Privacy proportion (alpha), privacy strength to the query (q i) ( ⁇ i ) Is determined (step S210).
  • the remaining privacy strength ( ⁇ * ) at this time is the remaining privacy strength ( ⁇ * i ⁇ 1 ).
  • the privacy strength determination unit 11 then updates the updated residual privacy strength ( ⁇ * ) based on the determined privacy strength ( ⁇ i ) or residual privacy strength ( ⁇ * i-1 ) and the remaining privacy ratio ( ⁇ ) . i ) is calculated (step S220).
  • the privacy strength determination unit 11 updates the remaining privacy strength ( ⁇ * ) stored in the remaining privacy strength storage unit 12 (step S230). More specifically, the privacy strength determination unit 11 updates the remaining privacy strength ( ⁇ * i ⁇ 1 ) stored in the remaining privacy strength storage unit 12 with the calculated remaining privacy strength ( ⁇ * i ).
  • the information processing apparatus 10 ends the operation for determining the privacy strength.
  • steps S210 and S220 will be described in detail.
  • the privacy strength determination unit 11 of the information processing apparatus 10 calculates the privacy strength ( ⁇ i ) corresponding to the inquiry (q i ) using the mathematical formula 4 described above.
  • the initial values of the privacy strength ( ⁇ i ) and the remaining privacy strength ( ⁇ * i ) are specifically as follows.
  • Equation 6 the initial value ( ⁇ * 0 ) of the remaining privacy strength ( ⁇ * ) is as shown in Equation 6 below.
  • Equation 8 can also be shown from the definition of the remaining privacy ratio ( ⁇ ).
  • Equation 9 The privacy strength ( ⁇ 2 ) for the next query (q 2 ) is as shown in Equation 9 below.
  • Equation 11 The privacy strength ( ⁇ 3 ) for the next query (q 3 ) is as shown in Equation 11 below.
  • Equation 15 the sum (S n ) of the privacy strengths ( ⁇ i ) in the n times of inquiries is as shown in Equation 15 below.
  • the remaining privacy ratio ( ⁇ ) is a positive real number less than 1 (0 ⁇ ⁇ 1). Therefore, the sum (S n ) of the privacy strength ( ⁇ i ) is smaller than the privacy strength ( ⁇ T ) as in the following Expression 16.
  • the privacy strength determination unit 11 of the information processing apparatus 10 determines the privacy strength ( ⁇ i ) for the inquiry (q i ).
  • the information processing apparatus 10 can determine (calculate) the privacy strength ( ⁇ i ) without limitation on the number of inquiries (q i ). Alternatively, the information processing apparatus 10 can determine the remaining privacy strength ( ⁇ * ) without limitation on the number of inquiries (q i ). Alternatively, the information processing apparatus 10 can always accept an inquiry (q i + 1 ) following the inquiry for any inquiry (q i ). That is, the information processing apparatus 10 can guarantee ⁇ -difference privacy for all inquiries (q 1 , q 2 ,..., Q i ,...) Without limitation on the number of times.
  • FIG. 4 is a diagram illustrating an example of the privacy strength ( ⁇ i ) determined by the information processing apparatus 10 according to the first embodiment.
  • the privacy strength determination unit 11 of the information processing apparatus 10 determines the privacy strength ( ⁇ i ) shown in Equation 13 and the residual privacy strength ( ⁇ * i ) shown in Equation 14 based on Equation 4. Thus, ⁇ -differential privacy is guaranteed.
  • the inquiry (q i) Privacy intensity (epsilon i) is set for in accordance with overlaying the number of queries (q i), attenuated according to the value of the remaining privacy proportion (alpha). That is, in the information processing apparatus 10 according to the first embodiment, the accuracy of output in which ⁇ -differential privacy is guaranteed attenuates according to the value of the remaining privacy ratio ( ⁇ ). For example, the accuracy of the output of the i-th query (q i ) is attenuated to “ ⁇ i-1 ” with respect to the first query (q 1 ). Therefore, the information processing apparatus 10 can control the degree of attenuation of output accuracy based on the remaining privacy ratio ( ⁇ ).
  • the information processing apparatus 10 has the effect of realizing query response data publishing that guarantees ⁇ -differential privacy without setting the number of inquiries.
  • the privacy strength determination unit 11 of the information processing apparatus 10 determines the privacy strength ( ⁇ i ) based on the remaining privacy strength ( ⁇ * ) and the remaining privacy ratio ( ⁇ ). Furthermore, the information processing apparatus 10 determines the privacy strength ( ⁇ i ) as a geometric sequence having the remaining privacy ratio ( ⁇ ) as a common ratio.
  • the privacy strength determination unit 11 can determine the privacy strength ( ⁇ i ) without being limited by the number of inquiries.
  • the information processing apparatus 10 can control the degree of attenuation of output accuracy based on the remaining privacy ratio ( ⁇ ).
  • the reason is that the information processing apparatus 10 determines the privacy strength ( ⁇ i ) using a geometric example with the remaining privacy ratio ( ⁇ ) as a common ratio.
  • each component of the information processing apparatus 10 may be configured with a hardware circuit.
  • the information processing apparatus 10 may be configured using a plurality of apparatuses in which each component is connected via a network.
  • the information processing apparatus 10 may be configured with a plurality of components by a single piece of hardware.
  • the information processing apparatus 10 may be realized as a computer device including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory).
  • the information processing apparatus 10 may be realized as a computer apparatus including an input / output connection circuit (IOC: Input / ⁇ ⁇ Output Circuit) and a network interface circuit (NIC: Network Interface Circuit) in addition to the above configuration.
  • IOC Input / ⁇ ⁇ Output Circuit
  • NIC Network Interface Circuit
  • FIG. 5 is a block diagram showing an example of the configuration of the information processing apparatus 600 according to this modification.
  • the information processing apparatus 600 includes a CPU 610, a ROM 620, a RAM 630, an internal storage device 640, an IOC 650, and a NIC 680, and is configured as a computer device.
  • the CPU 610 reads a program from ROM 620.
  • the CPU 610 controls the RAM 630, the internal storage device 640, the IOC 650, and the NIC 680 based on the read program.
  • the computer including the CPU 610 controls these configurations and implements the functions as the privacy strength determination unit 11, the remaining privacy strength storage unit 12, and the parameter storage unit 13 illustrated in FIG.
  • the CPU 610 may use the RAM 630 or the internal storage device 640 as a temporary storage of a program when realizing each function.
  • the CPU 610 may read a program included in the storage medium 700 storing the program so as to be readable by a computer by using a storage medium reading device (not shown). Alternatively, the CPU 610 may receive a program from an external device (not shown) via the NIC 680, store the program in the RAM 630, and operate based on the stored program.
  • ROM 620 stores programs executed by CPU 610 and fixed data.
  • the ROM 620 is, for example, a P-ROM (Programmable-ROM) or a flash ROM.
  • the RAM 630 temporarily stores programs executed by the CPU 610 and data.
  • the RAM 630 is, for example, a D-RAM (Dynamic-RAM).
  • the internal storage device 640 stores data and programs stored in the information processing device 600 for a long period of time.
  • the internal storage device 640 operates as the remaining privacy strength storage unit 12 and the parameter storage unit 13. Further, the internal storage device 640 may operate as a temporary storage device for the CPU 610.
  • the internal storage device 640 is, for example, a hard disk device, a magneto-optical disk device, an SSD (Solid State Drive), or a disk array device.
  • the ROM 620 and the internal storage device 640 are non-transitory storage media.
  • the RAM 630 is a volatile storage medium.
  • the CPU 610 can operate based on a program stored in the ROM 620, the internal storage device 640, or the RAM 630. That is, the CPU 610 can operate using a nonvolatile storage medium or a volatile storage medium.
  • the IOC 650 mediates data between the CPU 610, the input device 660, and the display device 670.
  • the IOC 650 is, for example, an IO interface card or a USB (Universal Serial Bus) card.
  • the input device 660 is a device that receives an input instruction from an operator of the information processing apparatus 600.
  • the input device 660 is, for example, a keyboard, a mouse, or a touch panel.
  • the display device 670 is a device that displays information to the operator of the information processing apparatus 600.
  • the display device 670 is a liquid crystal display, for example.
  • the NIC 680 relays data exchange with an external device (not shown) via the network.
  • the NIC 680 is, for example, a LAN (Local Area Network) card.
  • the information processing apparatus 600 configured in this way can obtain the same effects as the information processing apparatus 10.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

問い合わせの回数を設定せずにε-差分プライバシーを保証するクエリ応答データ出版を実現するため、本発明の情報処理装置は、ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶するパラメータ記憶手段と、残プライバシー強度を記憶する残プライバシー強度記憶手段と、残プライバシー割合と残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定するプライバシー強度決定手段とを含む。

Description

情報処理装置、情報処理方法、及び、記憶媒体
 本発明は、情報処理に関し、特に、個人に関する情報(個人情報、パーソナル情報、又は、プライバシー情報)を扱う情報処理装置、情報処理方法、及び記録媒体に関する。
 近年、様々なサービスにおいて、個人に関する情報(個人情報、パーソナルデータ、又は、プライバシー情報)が、情報処理装置に蓄積されるようになっている。
 このようなプライバシー情報としては、ヘルスケア(健康管理)に関するデータ(情報)が、挙げられる。ここで、健康管理に関するデータとは、例えば、健康管理データ、診療履歴、又は、レセプト(診療報酬明細書)である。
 あるいは、プライバシー情報としては、個人又は個人が所有する装置(例えば、端末又は乗用車)に関する位置の情報が、挙げられる。ここで、位置の情報とは、例えば、移動の履歴、又は、無線アクセスポイント等のような位置が特定される装置の利用履歴である。
 さらに、プライバシー情報であるレセプトを構成する情報(属性)には、生年、性別、傷病名、及び、薬剤名等がある。そのため、例えば、レセプトは、上記の属性に関するデータを含む情報(レコード)として構成される。そして、情報処理装置は、レコードから構成されたデータセット(集合)として、プライバシー情報(例えば、レセプト)を蓄積する。
 プライバシー情報が、オリジナルな情報(元の情報)の内容が判別できる状態で公開又は利用されると、そのプライバシー情報に関連する個人に対するプライバシー侵害の発生が、懸念される。つまり、プライバシー保護の観点からは、オリジナルな情報(元の情報)の内容が判別できる状態でのプライバシー情報の公開、又は、利用は、好ましくない。
 一方、プライバシー情報は、プライバシー侵害の懸念がなければ、有益性の高い二次活用をもたらす。ここで、二次活用(二次利用)とは、例えば、プライバシー情報を、そのプライバシー情報を生成又は蓄積しているサービス事業者とは異なる事業者(第三者)に提供し、その第三者のサービスに、プライバシー情報を利用させることである。あるいは、二次活用とは、第三者に対してプライバシー情報を提供し、第三者にプライバシー情報の分析などを依頼(アウトソーシング)することである。
 プライバシー情報の二次活用は、プライバシー情報の分析又は研究を促進する。そして、二次活用に基づく分析結果又は研究結果は、プライバシー情報を用いたサービスの強化に用いることができる。このように、第三者は、二次活用を基に、プライバシー情報の持つ高い有益性を享受できる。
 例えば、上記のような第三者として、製薬会社が、想定される。製薬会社は、診療情報を基に、薬品の共起関係又は相関関係を分析できる。つまり、製薬会社は、診療情報を用いて、薬品がどのように利用されているのかを知ることができる。さらに、製薬会社は、薬品の利用状態を分析することができる。
 しかしながら、プライバシー情報を含むデータセット(例えば、診療情報)は、プライバシー侵害の懸念から、そのまま状態では、二次活用することが難しい。そこで、プライバシー情報は、プライバシーを保護する処理を施されてから、第三者に提供される。
 プライバシーを保護した第三者へのプライバシー情報の提供を実現するデータの提供方法として、「クエリ(query)応答型データ出版」がある。クエリ応答型データ出版とは、データの利用者からの問い合わせ(クエリ)に対して、オリジナルのデータ又はオリジナルのデータを集計した集計データに対してノイズを付加したデータを提供するデータの提供方法である。つまり、クエリ応答型データ出版とは、オリジナルのデータの詳細を隠ぺいしたデータを提供するデータの提供方法である。
 ただし、プライバシー情報への攻撃者として、異なる状態又は時間におけるデータの変化(例えば、差分又は比率)を基に、プライバシーを侵害しようとする者がいる。以下、異なる状態又は時間におけるプライバシー情報のデータの変化を基に特定されるプライバシーをまとめて、「差分プライバシー(DP:Differential Privacy)」と呼ぶ。
 クエリ応答型データ出版を処理する情報処理装置は、差分プライバシーの保護を保証するために、所定の性質を満たすランダムなノイズの付加を用いて、データの細かな変化を隠ぺいする(非特許文献1及び2を参照)。例えば、このようなクエリ応答型データ出版を処理する情報処理装置は、任意の1レコード、つまり、任意の1個人のプライバシー情報の存在及び不在の変化にかかわらず、出力が得られる確率がほとんど変わらないことを保証する。
 ここで、上記における出力とは、例えば、オリジナルデータ又は集計データにノイズが付加された出力(出力値)である。また、「確率がほとんど変わらない」とは、上記の任意の1レコードが存在するときにおける出力値の生成確率と、不在の時における同じ値の出力値の生成確率との変化(差分又は比率)が、所定の値以下(又は、所定の範囲内)に制限されることである。
 差分プライバシーの保護を保証する代表的なモデルとして、ε-差分プライバシー(ε-Differential Privacy)がある。ここで、ε-差分プライバシーにおけるεとは、上述の確率の変化の絶対値の上界を規定するパラメータである。そして、ε-差分プライバシーを処理する情報処理装置は、パラメータ(ε)を基に、出力データの利用者におけるオリジナルデータ又は集計データに対する推論能力を制限する。具体的には、ε-差分プライバシーを処理する情報処理装置は、次に示す数式1を用いる。
 [数式1]
Figure JPOXMLDOC01-appb-I000001
 数式1は、差分プライバシーに基づいて、出力(出力値)の確率の差異が制限されることを表す数式である。数式1において、D及びD’は、データベースを示す。データベースDは、プライバシー情報のデータベースである。また、データベースD’は、データベースDに対し、1レコードが異なるデータベースである。関数q(・)は、データベースへの問い合わせ(クエリ)に対する応答を表す関数である。関数M(・)は、応答(q(・))の値をランダム化(乱択)又は攪乱するメカニズムに対応する関数である。xは、関数M(・)が出力する値(データ)である。関数Pr(・)は、関数M(・)の出力値が「x」となる確率を表す。関数exp(・)は、自然対数の底(e)を底とし、引き数をべき指数とする指数関数である。つまり、数式1は、データベースDに対するクエリの応答を攪乱した結果が「x」となる確率と、データベースD’に対するクエリの応答を攪乱した結果が「x」となる確率との比が、exp(ε)以下となることを保証することを表す。
 図6は、一般的な、ε-差分プライバシーを用いたクエリ応答型データ出版を処理する情報処理装置の一例を示す図である。図6に示すように、データの依頼者は、図示しない問い合わせ機器を操作して、データを保有する情報処理装置90にデータのクエリ(問い合わせ(q))を送信する。ここで、問い合わせ(q)は、分析などのデータ処理、又は、そのようなデータ処理の依頼などである。また、以下、「データの依頼者が、問い合わせ機器を操作しての問い合わせ」を、単に、「依頼者からの問い合わせ」と呼ぶ。
 図6に示すように、情報処理装置90は、パーソナルデータを保存するパーソナルデータ記憶部91と、差分プライバシー処理部92とを含む。
 パーソナルデータ記憶部91は、パーソナルデータを、データベース(例えば、上記の「D」又は「D’」)として保存する。
 差分プライバシー処理部92は、所定の差分プライバシーを満足するように、パーソナルデータを処理(ランダム化又は攪乱)する。
 情報処理装置90は、上記の構成を用いて、次のように動作する。
 情報処理装置90は、パーソナルデータ記憶部91のデータベース(D)から、問い合わせ(q)に対応したパーソナルデータを抽出する。以下、抽出されたパーソナルデータを、「q(D)」とする。
 そして、差分プライバシー処理部92は、抽出されたパーソナルデータ(q(D))を所定の差分プライバシー(例えば、ε-差分プライバシーを示す数式1)を満足するように処理(例えば、ランダム化又は攪乱)する。この処理結果を、q(D)とする。q(D)は、依頼者が元のデータを推測困難なように加工された秘密情報である。
 そして、情報処理装置90は、推測困難な秘密情報に加工されたデータ(q(D))を依頼者に送信する。
 図7は、差分プライバシーを保証しないクエリ応答型データ出版を説明するための図である。つまり、図7は、差分プライバシー処理部92を含まない情報処理装置90の動作に相当する。
 図7に示すように、ある時点において、パーソナルデータ記憶部91は、データベース(D)として、5人(Ana、Bob、Cris、David、Elsa)の年収データを保存している。また、別のある時点において、パーソナルデータ記憶部91は、上記のデータベース(D)の状態からElsaに関するデータが削除(異動)されたデータベース(D’)を保存している。そして、依頼者は、問い合わせ(q)として、平均年収を依頼したとする。
 この問い合わせ(q)に対し、図7に示すように、差分プライバシーを保証しないクエリ応答型データ出版は、Aliceが異動前のデータベース(D)の時には、平均年収として8万ドル(q(D)=8万ドル)とのデータを出力(出版)する。また、差分プライバシーを保証しないクエリ応答型データ出版は、Aliceが異動後のデータベース(D’)の時には、平均年収として5万ドル(q(D’)=5万ドル)とのデータを出力(出版)する。
 この場合、依頼者は、q(D)とq(D’)との差を基に、異動者の年収が20万ドルであることが分かる(推定可能である)。そのため、依頼者が、異動した者がElsaであることを知ると、依頼者は、Elsaの年収を推定できる。
 図8は、差分プライバシーを保証するクエリ応答型データ出版を説明するための図である。つまり、図8は、情報処理装置90の動作に相当する。なお、図8に示されている攪乱(M)は、差分プライバシー処理部92の動作に相当する。また、図8において、問い合わせ(q)など図7の同様の変数は、同様の動作及び機能を示す。
 図8において、パーソナルデータ記憶部91がデータベース(D)を保存している場合、情報処理装置90の差分プライバシー処理部92は、応答(q(D))を攪乱した値(q(D)=62,050ドル)を算出する。そして、情報処理装置90は、攪乱した値(q(D)=62,050ドル)を依頼者に送信する。
 同様に、パーソナルデータ記憶部91がデータベース(D’)を保存している場合、差分プライバシー処理部92は、応答(q(D’))を攪乱した値(q(D’)=62,050ドル)を算出する。そして、情報処理装置90は、攪乱した値(q(D’)=62,050ドル)を依頼者に送信する。
 なお、図8は、一例として、最も差異が小さい場合である、q(D)とq(D’)との値が同じである場合を示している。
 図8に示すように、依頼者は、撹乱された値を受信するため、異動した者がElsaと分かっても、Elsaの年収を推定できない。
 なお、上記の動作において、差分プライバシー処理部92は、出力として、数式1に沿った値を算出する。
 図9は、差分プライバシーを確保するための算出に用いる確率の一例を示す図である。差分プライバシー処理部92は、図9に示すように、ラプラス分布に従う確率を基に、攪乱した後の値が、所定の差又は比率となるような出力値を生成する。つまり、情報処理装置90が出力する値は、所定の差又は比率の範囲に含まれる。
 このように、依頼者は、情報処理装置90が出力した値の差分を用いて、プライバシー情報(例えば、年収)を推定できない。つまり、依頼者は、異動者を知ることができても(例えば、Elsaの存在及び不在を知っていても)、その異動者のプライバシー情報(例えば、年収)を推定できない。
Cynthia Dwork, "Differential privacy", ICALP'06 Proceedings of the 33rd international conference on Automata, Languages and Programming - Volume Part II, p.p. 1-12, July 10, 2006 (Publisher: Springer-Verlag Berlin, Heidelberg) Frank D. McSherry, "Privacy integrated queries: an extensible platform for privacy preserving data analysis", SIGMOD '09 Proceedings of the 2009 ACM SIGMOD International Conference on Management of data, pp. 19-30, June 29, 2009 (Publisher: ACM New York, NY, USA)
 問い合わせの回数の増加は、ε-差分プライバシーを保証するクエリ応答型データ出版に対する、プライバシー情報の推定能力を向上させる(例えば、非特許文献2の構成可能性(composability)を参照)。
 例えば、ε-差分プライバシーを保証するクエリ応答型データ出版を処理する情報処理装置が、n(nは任意の自然数)回の各問い合わせに対してε-差分プライバシー(ε)を保証する場合、差分プライバシーの総計は、「n×ε」となる。
 あるいは、ε-差分プライバシーを保証するクエリ応答型データ出版を処理する情報処理装置が、n回の問い合わせの総計としてε-差分プライバシー強度(ε)を保証する場合、プライバシー強度(ε)は、例えば、次のようになる。すなわち、各問い合わせ(q)に対するプライバシー強度(ε)は、「ε=ε/n」となる。
 つまり、ε-差分プライバシーを保証するクエリ応答型データ出版を処理する情報処理装置は、全ての問い合わせに対するプライバシー強度の合計と、各プライバシー強度(ε)とを、予め設計する必要がある。例えば、全ての問い合わせに対するプライバシー強度の合計を「ε」とし、各プライバシー強度を「ε」とする。この場合、ε-差分プライバシーを保証するクエリ応答型データ出版を処理する情報処理装置は、「ε≧Σε」を満足するように、プライバシー強度の合計及び各プライバシー強度を設計する必要がある。
 図10は、複数(n個)の問い合わせに対して所定のプライバシー強度(ε)を確保するように設定されたプライバシー強度(ε)の一例を示す図である。図10において、個別のプライバシー強度(ε)は、その合計が所定のプライバシー強度(ε)となる(ε=Σε)ように、設計されている。
 このように、複数回の問い合わせに対して所定のプライバシー強度(ε)を確保するためには、予め、各問い合わせにおけるプライバシー強度(ε)を設計することが必要である。そして、個別のプライバシー強度(ε)を設計するためには、事前に、最大の問い合わせ回数(n)を設定することが必要である。
 つまり、非特許文献1及び2に記載の技術は、予め設定した問い合わせ回数を超えた問い合わせに応答できないという問題点があった。
 本発明の目的は、上記問題点を解決し、予め問い合わせの回数を設定しなくてもε-差分プライバシーを保証するクエリ応答データ出版を処理できる情報処理装置、情報処理方法、及び、記憶媒体を提供することにある。
 本発明の一形態における情報処理装置は、ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶するパラメータ記憶手段と、残プライバシー強度を記憶する残プライバシー強度記憶手段と、残プライバシー割合と残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定するプライバシー強度決定手段とを含む。
 本発明の一形態におけるデータ処理方法は、ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶し、残プライバシー強度を記憶し、残プライバシー割合と残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定する。
 本発明の一形態における記憶媒体は、ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶する処理と、残プライバシー強度を記憶する処理と、残プライバシー割合と残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定する処理とをコンピュータに実行させるプログラムを記憶する。
 本発明に基づけば、予め、問い合わせの回数を設定しなくても、ε-差分プライバシーを保証するクエリ応答データ出版を実現するとの効果を奏することができる。
図1は、本発明における第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 図2は、第1の実施形態に係る情報処理装置における残プライバシー強度を初期設定する動作の一例を示すフローチャートである。 図3は、第1の実施形態に係る情報処理装置におけるプライバシー強度を決定する動作の一例を示すフローチャートである。 図4は、第1の実施形態に係る情報処理装置が決定するプライバシー強度の一例を示す図である。 図5は、第1の実施形態に係る情報処理装置の別の構成の一例を示すブロック図である。 図6は、一般的なε-差分プライバシーを用いたクエリ応答型データ出版を処理する情報処理装置の一例を示す図である。 図7は、差分プライバシーを保証しないクエリ応答型データ出版を説明するための図である。 図8は、差分プライバシーを保証するクエリ応答型データ出版を説明するための図である。 図9は、差分プライバシーを確保するための算出に用いられる確率の一例を示す図である。 図10は、複数の問い合わせに対して所定のプライバシー強度を確保するように設計されたプライバシー強度の一例を示す図である。
 以下、本発明の実施の形態について、図面を参照して詳細に説明する。
 なお、各図面は、本発明の実施形態を説明するものである。ただし、本発明は、各図面の記載に限られるわけではない。また、各図面の同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。
 また、以下の説明に用いる図面において、本発明の説明に関係しない部分の構成については、記載を省略し、図示しない場合もある。
 なお、説明に先立ち、以下の説明に用いる変数をまとめておく。
 プライバシー強度(ε)は、ε-差分プライバシーにおける総計(トータル)として満足するプライバシー強度である。そのため、以下、プライバシー強度(ε)を、総計プライバシー強度とも呼ぶ。
 問い合わせ(q)は、i番目の問い合わせ(クエリ)である。
 プライバシー強度(ε)は、i番目の問い合わせ(q)に対して決定されるプライバシー強度である。
 残プライバシー強度(ε)は、問い合わせ(例えば、q)に対して決定されたプライバシー強度(例えば、ε)を設定した後に残る設定可能なプライバシー強度の合計である。つまり、残プライバシー強度(ε)は、トータルのプライバシー強度(ε)から、その時点までの問い合わせ(q、q、…、q)に対して決定したプライバシー強度(ε、ε、…、ε)を除いた、残りのプライバシー強度である。
 なお、問い合わせ(q)の回数との関係を明確にする場合、残プライバシー強度(ε)にも、符号を付す。つまり、残プライバシー強度(ε )は、i番目の問い合わせ(q)に対してプライバシー強度(ε)を設定後の残プライバシー強度である。つまり、残プライバシー強度(ε)とプライバシー強度(ε)との関係は、次の数式2の通りである。
 [数式2]
ε =ε i-1-ε
 なお、最初の問い合わせ(q)を受ける前の残プライバシー強度、つまり、残プライバシー強度(ε)の初期値を、残プライバシー強度(ε )とする。残プライバシー強度(ε )は、トータルのプライバシー強度(ε)である(ε =ε)。
 残プライバシー割合(α)は、各問い合わせ(q)に対するプライバシー強度(ε)を設定後の残プライバシー強度(ε)の変化の割合である。残プライバシー割合(α)の値は、1未満の正の実数である(0<α<1)。
 つまり、残プライバシー強度(ε )と、そのひとつ前の残プライバシー強度(ε i-1)との関係は、次の数式3のようになる。
 [数式3]
ε =α×ε i-1
 ここで、最初の残プライバシー強度(ε )は、プライバシー強度(ε)である。そのため、最初の残プライバシー強度(ε )を除くと、残プライバシー強度(ε (i=1、2、…))の値は、ゼロより大きく、プライバシー強度(ε)未満の実数である(0<ε <ε、i=1、2、…)。
 また、数式2に数式3を代入して変形すると、残プライバシー強度(ε i-1)とプライバシー強度(ε)との関係は、次の数式4のようになる。
 [数式4]
ε=(1-α)×ε i-1
 つまり、プライバシー強度(ε)は、残プライバシー割合(α)と残プライバシー強度(ε i-1)とを基に算出される。
 なお、以下、「1-α」を「β」とする。つまり、残プライバシー強度(ε i-1)とプライバシー強度(ε)との関係は、次の数式5ようにも表される。
 [数式5]
ε=β×ε i-1
 <第1の実施形態>
 以下、図面を参照して、本発明における第1の実施形態に係る情報処理装置10を説明する。
 [構成の説明]
 まず、第1の実施形態に係る情報処理装置10の構成について説明する。
 図1は、本発明における第1の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。
 図1に示すように、情報処理装置10は、プライバシー強度決定部11と、残プライバシー強度記憶部12と、パラメータ記憶部13とを含む。
 なお、情報処理装置10は、決定したプライバシー強度(ε)を基に、応答を作成する。ただし、情報処理装置10は、応答を作成する手法として、一般的なε-差分プライバシーを保証する処理を用いればよい。より具体的には、情報処理装置10は、問い合わせ(q)に対して、ε-差分プライバシーを保証した出力を応答するために、プライバシー強度(ε)を利用した差分プライベートに基づく攪乱又は乱択を用いればよい。ここで、攪乱又は乱択の手法としては、例えば、ラプラスメカニズム(Laplace Mechanism)、又は、指数メカニズム(Exponential Mechanism)が知られている。情報処理装置10は、これらの手法を用いればよい。ただし、情報処理装置10は、これらの手法に限らず、攪乱又はランダム化(乱択)のメカニズムとして、問い合わせ(q)に応じて適切なものを選択してよい。そのため、ε-差分プライバシーを保証する応答を生成する構成及び動作の説明を省略する。
 次に、情報処理装置10の各部は、次のとおりである。なお、各部の動作については、後ほど詳細に説明する。
 プライバシー強度決定部11は、残プライバシー強度記憶部12に記録された残プライバシー強度(ε i-1)と、パラメータ記憶部13に記録された残プライバシー割合(α)とに基づいて、問い合わせ(q)に対するプライバシー強度(ε)を決定する。そして、プライバシー強度決定部11は、決定したプライバシー強度(ε)を用いて、残プライバシー強度(ε)を更新する。つまり、プライバシー強度決定部11は、プライバシー強度(ε)と残プライバシー強度(ε )とを算出する。
 残プライバシー強度記憶部12は、算出された残プライバシー強度(ε )を記録する。ここで、残プライバシー強度記憶部12は、前の残プライバシー強度(ε i-1)を保存する必要はない。つまり、残プライバシー強度記憶部12は、算出された残プライバシー強度(ε )で、記録している残プライバシー強度(ε i-1)を更新してもよい。
 つまり、本実施形態では、説明の便宜のため、残プライバシー強度(ε)に符号を付して説明しているが、情報処理装置10は、実際の処理としては、1つの変数として、残プライバシー強度(ε)を処理してもよい。
 パラメータ記憶部13は、パラメータを記憶する。パラメータは、既に説明した、総計(トータル)プライバシー強度(ε)、及び、残プライバシー割合(α)である。ただし、パラメータ記憶部13は、パラメータとして、他の値を含めてもよい。
 [動作の説明]
 次の、図面を参照して、情報処理装置10の動作について説明する。
 本実施形態に係る情報処理装置10は、問い合わせ(q)に対して、ε-差分プライバシーを保証したプライバシー強度(ε)を出力する。そのため、情報処理装置10は、残プライバシー強度(ε)及び残プライバシー割合(α)を基に、問い合わせ(q)に対するプライバシー強度(ε)を決定(算出)する。ただし、後ほど説明するとおり、情報処理装置10は、問い合わせの回数に制限のないようにプライバシー強度(ε)を決定する。
 まず、情報処理装置10における残プライバシー強度(ε)の初期設定について説明する。
 図2は、第1の実施形態に係る情報処理装置10における残プライバシー強度(ε)を初期設定する動作の一例を示すフローチャートである。
 まず、情報処理装置10は、以下で説明する処理の前に、初期設定として、パラメータである総計プライバシー強度(ε)及び残プライバシー割合(α)をパラメータ記憶部13に記憶する(ステップS110)。情報処理装置10は、パラメータとして、β(=1-α)を含めて記憶してもよい。βを記憶すると、情報処理装置10は、以下で説明する処理において、引き算処理の処理回数を削減できる。
 なお、情報処理装置10がパラメータを記憶する手法は、特に制限はない。例えば、情報処理装置10の管理者が、情報処理装置10を操作して、パラメータ記憶部13に、パラメータを設定してもよい。あるいは、情報処理装置10が、図示しない外部の装置からパラメータを受信し、パラメータ記憶部13に記憶させてもよい。
 続いて、情報処理装置10のプライバシー強度決定部11は、パラメータを基に、残プライバシー強度記憶部12が記憶する残プライバシー強度(ε)を初期設定する(ステップS120)。具体的には、既に説明した通り、プライバシー強度決定部11は、残プライバシー強度記憶部12が記憶する残プライバシー強度(ε)の初期値(ε )として、パラメータ記憶部13に記憶したトータルのプライバシー強度(ε)の値を設定する。
 そして、情報処理装置10は、残プライバシー強度(ε)の初期設定の動作を終了する。
 次の、情報処理装置10における残プライバシー強度(ε)を更新について説明する。
 図3は、第1の実施形態に係る情報処理装置10のプライバシー強度(ε)を決定(算出)する動作の一例を示すフローチャートである。
 情報処理装置10のプライバシー強度決定部11は、問い合わせ(q)を受け取ると、残プライバシー強度(ε)及び残プライバシー割合(α)に基づいて、問い合わせ(q)に対するプライバシー強度(ε)を決定する(ステップS210)。なお、詳細に説明すると、この時の残プライバシー強度(ε)は、残プライバシー強度(ε i-1)である。
 そして、プライバシー強度決定部11は、決定したプライバシー強度(ε)又は残プライバシー強度(ε i-1)、及び、残プライバシー割合(α)を基に、更新後の残プライバシー強度(ε )を算出する(ステップS220)。
 そして、プライバシー強度決定部11は、残プライバシー強度記憶部12が記憶する残プライバシー強度(ε)を更新する(ステップS230)。より詳細には、プライバシー強度決定部11は、算出した残プライバシー強度(ε )で、残プライバシー強度記憶部12が記憶している残プライバシー強度(ε i-1)を更新する。
 そして、情報処理装置10は、プライバシー強度を決定する動作を終了する。
 次に、ステップS210及びS220の動作を詳細に説明する。
 情報処理装置10のプライバシー強度決定部11は、既に説明した数式4を用いて、問い合わせ(q)に対応したプライバシー強度(ε)を算出する。
 このとき、プライバシー強度(ε)及び残プライバシー強度(ε )の最初の値は、具体的には、次のようになる。
 まず、残プライバシー強度(ε)の初期値(ε )は、次の数式6の通りである。
 [数式6]
ε =ε
 そのため、最初の問い合わせ(q)に対するプライバシー強度(ε)は、次の数式7のようになる。
 [数式7]
ε=(1-α)×ε =(1-α)×ε=β×ε
 その結果、残プライバシー強度(ε )は、次の数式8のとおりである。
 [数式8]
ε =ε (=ε)-ε=ε-(1-α)×ε=α×ε(=α×ε
 なお、数式8は、残プライバシー割合(α)の定義からも示すことができる。
 次の問い合わせ(q)に対するプライバシー強度(ε)は、次の数式9のようになる。
 [数式9]
ε=(1-α)×ε =(1-α)×α×ε=α×β×ε=α×ε
 このときの残プライバシー強度(ε )は、次の数式10のとおりである。
 [数式10]
ε =ε -ε=α×ε-α×β×ε=α×(1-β)×ε=α×ε
 次の問い合わせ(q)に対するプライバシー強度(ε)は、次の数式11のようになる。
 [数式11]
ε=(1-α)×ε =(1-α)×α×ε=β×α×ε=α×ε
 このときの残プライバシー強度(ε )は、次の数式12のとおりである。
 [数式12]
ε =ε -ε=α×ε-β×α×ε=α×(1-β)×ε=α×ε
 また、ここで、残プライバシー強度(ε i-1)は「ε i-1=αi-1×ε」なので、「ε」及び「ε 」は、それぞれ、次の数式13及び数式14のようになる。
 [数式13]
ε=(1-α)×ε i-1=αi-1×β×ε=αi-1×ε
 [数式14]
ε =ε i-1-ε=αi-1×ε-β×αi-1×ε
  =αi-1×(1-β)×ε=α×ε=αi-1×ε
 つまり、プライバシー強度(ε)は、ε(=β×ε)を初項、及び、公比を残プライバシー割合(α)とする等比数列である。
 そのため、n回の問い合わせにおけるプライバシー強度(ε)の和(S)は、次の数式15のようになる。
 [数式15]
Figure JPOXMLDOC01-appb-I000002
 ここで、残プライバシー割合(α)は、1未満の正の実数である(0<α<1)。そのため、プライバシー強度(ε)の和(S)は、次の数式16のように、プライバシー強度(ε)より小さい。
 [数式16]
=(1-α)×ε<ε
 つまり、プライバシー強度(ε)の和(S)は、プライバシー強度(ε)を超えることはない。
 さらに、プライバシー強度(ε)の無限級数和(つまり、和(S)の極限)は、次の数式17のように「ε」となる。
 [数式17]
Figure JPOXMLDOC01-appb-I000003
 情報処理装置10のプライバシー強度決定部11は、上記のように、問い合わせ(q)に対してプライバシー強度(ε)を決定する。
 そのため、情報処理装置10は、問い合わせ(q)の回数に制限なく、プライバシー強度(ε)を決定(算出)できる。あるいは、情報処理装置10は、問い合わせ(q)の回数に制限なく、残プライバシー強度(ε)決定できる。あるいは、情報処理装置10は、いずれの問い合わせ(q)についても、その問い合わせに続く問い合わせ(qi+1)を必ず受け付けることができる。すなわち、情報処理装置10は、回数に制限なく、全ての問い合わせ(q、q、…、q、…)に対して、ε-差分プライバシーを保証することができる。
 図4は、第1の実施形態に係る情報処理装置10が決定するプライバシー強度(ε)の一例を示す図である。
 図4に示すように、情報処理装置10のプライバシー強度決定部11は、数式4を基に、数式13に示すプライバシー強度(ε)及び数式14に示す残プライバシー強度(ε )を決定して、ε-差分プライバシーを保証する。
 なお、問い合わせ(q)に対して設定されるプライバシー強度(ε)は、問い合わせ(q)の回数を重ねるにしたがって、残プライバシー割合(α)の値に応じて減衰する。つまり、第1の実施形態に係る情報処理装置10において、ε-差分プライバシーが保証された出力の精度は、残プライバシー割合(α)の値に応じて減衰する。例えば、i回目の問い合わせ(q)の出力の精度は、最初の問い合わせ(q)に対して「αi-1」に減衰される。そのため、情報処理装置10は、残プライバシー割合(α)に基に、出力の精度の減衰度合いを制御できる。
 [効果の説明]
 次に、本実施形態の効果について説明する。
 本実施形態に係る情報処理装置10は、問い合わせの回数を設定しなくても、ε-差分プライバシーを保証するクエリ応答データ出版を実現するとの効果を奏する。
 その理由は、次のとおりである。
 情報処理装置10のプライバシー強度決定部11は、残プライバシー強度(ε)と残プライバシー割合(α)とを基に、プライバシー強度(ε)を決定する。さらに、情報処理装置10は、プライバシー強度(ε)を、残プライバシー割合(α)を公比とする等比数列として決定する。
 そのため、プライバシー強度決定部11は、問い合わせの回数に制限されずに、プライバシー強度(ε)を決定できるためである。
 また、本実施形態に係る情報処理装置10は、残プライバシー割合(α)に基に、出力の精度の減衰度合いを制御できる。
 その理由は、情報処理装置10が、残プライバシー割合(α)を公比とする等比数例を用いて、プライバシー強度(ε)を決定するためである。
 [変形例]
 以上の説明した情報処理装置10は、次のように構成される。
 例えば、情報処理装置10の各構成部は、ハードウェア回路で構成されてもよい。
 また、情報処理装置10は、各構成部が、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。
 また、情報処理装置10は、複数の構成部を1つのハードウェアで構成されてもよい。
 また、情報処理装置10は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含むコンピュータ装置として実現されてもよい。情報処理装置10は、上記構成に加え、さらに、入出力接続回路(IOC:Input / Output Circuit)と、ネットワークインターフェース回路(NIC:Network Interface Circuit)とを含むコンピュータ装置として実現されてもよい。
 図5は、本変形例に係る情報処理装置600の構成の一例を示すブロック図である。
 情報処理装置600は、CPU610と、ROM620と、RAM630と、内部記憶装置640と、IOC650と、NIC680とを含み、コンピュータ装置として構成されている。
 CPU610は、ROM620からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、内部記憶装置640と、IOC650と、NIC680とを制御する。そして、CPU610を含むコンピュータは、これらの構成を制御し、図1に示す、プライバシー強度決定部11と、残プライバシー強度記憶部12と、パラメータ記憶部13としての各機能を実現する。
 CPU610は、各機能を実現する際に、RAM630又は内部記憶装置640を、プログラムの一時記憶として使用してもよい。
 また、CPU610は、コンピュータで読み取り可能にプログラムを記憶した記憶媒体700が含むプログラムを、図示しない記憶媒体読み取り装置を用いて読み込んでもよい。あるいは、CPU610は、NIC680を介して、図示しない外部の装置からプログラムを受け取り、RAM630に保存して、保存したプログラムを基に動作してもよい。
 ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、P-ROM(Programmable-ROM)又はフラッシュROMである。
 RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、D-RAM(Dynamic-RAM)である。
 内部記憶装置640は、情報処理装置600が長期的に保存するデータ及びプログラムを記憶する。内部記憶装置640は、残プライバシー強度記憶部12及びパラメータ記憶部13として動作する。また、内部記憶装置640は、CPU610の一時記憶装置として動作してもよい。内部記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)、又はディスクアレイ装置である。
 ここで、ROM620と内部記憶装置640とは、不揮発性(non-transitory)の記憶媒体である。一方、RAM630は、揮発性(transitory)の記憶媒体である。そして、CPU610は、ROM620、内部記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記憶媒体又は揮発性記憶媒体を用いて動作可能である。
 IOC650は、CPU610と、入力機器660及び表示機器670とのデータを仲介する。IOC650は、例えば、IOインターフェースカード又はUSB(Universal Serial Bus)カードである。
 入力機器660は、情報処理装置600の操作者からの入力指示を受け取る機器である。入力機器660は、例えば、キーボード、マウス、又はタッチパネルである。
 表示機器670は、情報処理装置600の操作者に情報を表示する機器である。表示機器670は、例えば、液晶ディスプレイである。
 NIC680は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC680は、例えば、LAN(Local Area Network)カードである。
 このように構成された情報処理装置600は、情報処理装置10と同様の効果を得ることができる。
 その理由は、情報処理装置600のCPU610が、プログラムに基づいて情報処理装置10と同様の機能を実現できるためである。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2015年 6月15日に出願された日本出願特願2015-120047を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 10 情報処理装置
 11 プライバシー強度決定部
 12 残プライバシー強度記憶部
 13 パラメータ記憶部
 90 情報処理装置
 91 パーソナルデータ記憶部
 92 差分プライバシー処理部
 600 情報処理装置
 610 CPU
 620 ROM
 630 RAM
 640 内部記憶装置
 650 IOC
 660 入力機器
 670 表示機器
 680 NIC
 700 記憶媒体

Claims (9)

  1.  ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶するパラメータ記憶手段と、
     前記残プライバシー強度を記憶する残プライバシー強度記憶手段と、
     前記残プライバシー割合と前記残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定するプライバシー強度決定手段と
     を含む情報処理装置。
  2.  前記プライバシー強度決定手段が、
     決定した前記プライバシー強度を基に、前記残プライバシー強度を更新する
     請求項1に記載の情報処理装置。
  3.  前記プライバシー強度決定手段が、
     前記残プライバシー割合を公比とする等比級列を用いて前記プライバシー強度を決定する
     請求項1又は2に記載の情報処理装置。
  4.  前記プライバシー強度決定手段が、
     前記残プライバシー割合をα、i-1番目の問い合わせ後の前記残プライバシー強度をε i-1、及び、i番目の問い合わせに対するプライバシー強度をεとしたとき、前記プライバシー強度εを次の数式1
     [数式1]
    ε=(1-α)×ε i-1
    を用いて算出する
     請求項1ないし3のいずれか1項に記載の情報処理装置。
  5.  前記プライバシー強度決定手段が、
     前記残プライバシー割合をα、i-1番目の問い合わせ後の前記残プライバシー強度をε i-1、及び、i番目の前記残プライバシー強度をε としたとき、i番目の前記残プライバシー強度ε を次の数式2
     [数式2]
    ε =α×ε i-1
    を用いて算出する
     請求項1ないし4のいずれか1項に記載の情報処理装置。
  6.  前記プライバシー強度決定手段が、
     問い合わせを受ける前の前記残プライバシー強度を前記総計プライバシー強度とする
     請求項1ないし5のいずれか1項に記載の情報処理装置。
  7.  前記プライバシー強度決定手段が、
     1回以上の問い合わせを受けた後の前記残プライバシー強度を前記総計プライバシー強度とする
     請求項1ないし5のいずれか1項に記載の情報処理装置。
  8.  ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶し、
     前記残プライバシー強度を記憶し、
     前記残プライバシー割合と前記残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定する
     情報処理方法。
  9.  ε-差分プライバシーを保証するクエリ応答データ出版において総計として満足する総計プライバシー強度と、問い合わせに対応して決定されたプライバシー強度を設定後に残るプライバシー強度の合計である残プライバシー強度の変化の割合である残プライバシー割合とを記憶する処理と、
     前記残プライバシー強度を記憶する処理と、
     前記残プライバシー割合と前記残プライバシー強度とを基に、問い合わせに対するプライバシー強度を決定する処理と
     をコンピュータに実行させるプログラムを記憶するコンピュータ読み取り可能な記憶媒体。
PCT/JP2016/002838 2015-06-15 2016-06-13 情報処理装置、情報処理方法、及び、記憶媒体 WO2016203752A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017524605A JP6747438B2 (ja) 2015-06-15 2016-06-13 情報処理装置、情報処理方法、及び、プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015120047 2015-06-15
JP2015-120047 2015-06-15

Publications (1)

Publication Number Publication Date
WO2016203752A1 true WO2016203752A1 (ja) 2016-12-22

Family

ID=57545085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/002838 WO2016203752A1 (ja) 2015-06-15 2016-06-13 情報処理装置、情報処理方法、及び、記憶媒体

Country Status (2)

Country Link
JP (1) JP6747438B2 (ja)
WO (1) WO2016203752A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102057723B1 (ko) * 2017-12-22 2019-12-19 고려대학교 산학협력단 데이터베이스 기반 프라이빗 공간 분해 수행 방법 및 장치
WO2020130082A1 (ja) * 2018-12-20 2020-06-25 日本電信電話株式会社 分析クエリ応答システム、分析クエリ実行装置、分析クエリ検証装置、分析クエリ応答方法及びプログラム
JP7493087B1 (ja) 2023-11-30 2024-05-30 Kddi株式会社 情報処理装置及び情報処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070143289A1 (en) * 2005-12-16 2007-06-21 Microsoft Corporation Differential data privacy
JP2012133320A (ja) * 2010-12-03 2012-07-12 Mitsubishi Electric Research Laboratories Inc 複数データベースのための差分プライバシー集合分類器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070143289A1 (en) * 2005-12-16 2007-06-21 Microsoft Corporation Differential data privacy
JP2012133320A (ja) * 2010-12-03 2012-07-12 Mitsubishi Electric Research Laboratories Inc 複数データベースのための差分プライバシー集合分類器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DAI IKARASHI: "Differential Privacy no Suriteki Kaiseki", COMPUTER SECURITY SYMPOSIUM 2010 RONBUNSHU, vol. 2010, no. 9, 12 October 2010 (2010-10-12), pages 807 - 812 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102057723B1 (ko) * 2017-12-22 2019-12-19 고려대학교 산학협력단 데이터베이스 기반 프라이빗 공간 분해 수행 방법 및 장치
WO2020130082A1 (ja) * 2018-12-20 2020-06-25 日本電信電話株式会社 分析クエリ応答システム、分析クエリ実行装置、分析クエリ検証装置、分析クエリ応答方法及びプログラム
CN113228022A (zh) * 2018-12-20 2021-08-06 日本电信电话株式会社 分析查询应答系统、分析查询执行装置、分析查询验证装置、分析查询应答方法以及程序
JPWO2020130082A1 (ja) * 2018-12-20 2021-10-14 日本電信電話株式会社 分析クエリ応答システム、分析クエリ実行装置、分析クエリ検証装置、分析クエリ応答方法及びプログラム
AU2019407410B2 (en) * 2018-12-20 2022-09-01 Nippon Telegraph And Telephone Corporation Analysis query response system, analysis query execution apparatus, analysis query verification apparatus, analysis query response method, and program
JP7364595B2 (ja) 2018-12-20 2023-10-18 日本電信電話株式会社 分析クエリ応答システム、分析クエリ実行装置、分析クエリ検証装置、分析クエリ応答方法及びプログラム
CN113228022B (zh) * 2018-12-20 2024-01-26 日本电信电话株式会社 分析查询应答系统、分析查询应答方法以及记录介质
JP7493087B1 (ja) 2023-11-30 2024-05-30 Kddi株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JP6747438B2 (ja) 2020-08-26
JPWO2016203752A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
Jakob et al. Design and evaluation of a data anonymization pipeline to promote Open Science on COVID-19
Brunelli et al. Estimation using all available covariate information versus a fixed look‐back window for dichotomous covariates
Hwang et al. Estimating lifetime medical costs from censored claims data
EP1950684A1 (en) Anonymity measuring device
JP2015088195A (ja) クラウドベース医療データベースを管理する方法及びそのシステム
US20200098458A1 (en) Medical cannabis platform with physician and patient portals
US20130232582A1 (en) Need-to-know information access using quantified risk
US20210303729A1 (en) Computer system of computer servers and dedicated computer clients specially programmed to generate synthetic non-reversible electronic data records based on real-time electronic querying and methods of use thereof
WO2016203752A1 (ja) 情報処理装置、情報処理方法、及び、記憶媒体
Goldhaber-Fiebert et al. Some health states are better than others: using health state rank order to improve probabilistic analyses
Gutman et al. Estimation of causal effects of binary treatments in unconfounded studies with one continuous covariate
Nassiri et al. Iterative multiple imputation: A framework to determine the number of imputed datasets
JP2017228255A (ja) 評価装置、評価方法及びプログラム
De Neve et al. A Mann–Whitney type effect measure of interaction for factorial designs
JP2020523718A (ja) 一意識別可能なデータを開示せずに、見解を支持する推論を発信する方法、及びそのためのシステム
WO2020000804A1 (zh) 医疗信息的获取方法、系统及服务器
US10678771B1 (en) Filtering mapped datasets
JP2020095518A (ja) 情報処理装置、情報処理方法及びプログラム
US20180032683A1 (en) Systems and Methods of Generating Patient Notes with Inherited Preferences
Park et al. A class of two-sample nonparametric tests for panel count data
Zwick et al. Representing tuberculosis transmission with complex contagion: an agent-based simulation modeling approach
WO2016092830A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
US10733177B1 (en) Mapped dataset error tolerance
D’Souza et al. Ethics in Managing Big Data: Ensuring Privacy and Data Security while Using ChatGPT in Healthcare
US20140288963A1 (en) Method, apparatus and computer program product for updating electronic medical records

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16811227

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017524605

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16811227

Country of ref document: EP

Kind code of ref document: A1