WO2022201256A1 - Information processing device, information processing system, information processing method, and program - Google Patents

Information processing device, information processing system, information processing method, and program Download PDF

Info

Publication number
WO2022201256A1
WO2022201256A1 PCT/JP2021/011772 JP2021011772W WO2022201256A1 WO 2022201256 A1 WO2022201256 A1 WO 2022201256A1 JP 2021011772 W JP2021011772 W JP 2021011772W WO 2022201256 A1 WO2022201256 A1 WO 2022201256A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
model
information
information processing
generative
Prior art date
Application number
PCT/JP2021/011772
Other languages
French (fr)
Japanese (ja)
Inventor
智之 吉山
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2023508176A priority Critical patent/JPWO2022201256A1/ja
Priority to PCT/JP2021/011772 priority patent/WO2022201256A1/en
Publication of WO2022201256A1 publication Critical patent/WO2022201256A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to an information processing device, an information processing system, an information processing method, and a program.
  • Non-Patent Document 1 A technology is known that uses machine learning to generate a data generation model that generates data.
  • a data generation model that generates data is trained against both a prediction model that predicts the class of data and a discriminant model that discriminates the truth of data.
  • a technique for generating is described. Data generated by such a data generation model is used, for example, as learning data for an inference model.
  • Non-Patent Document 1 there is room for improvement in the diversity of data generated by the data generation model. For example, if learning data can be acquired from another information processing apparatus when there is a shortage of learning data, it may be possible to improve the learning efficiency of the data generation model. However, even in such a case, in practice, it may be difficult to acquire learning data held by other information processing apparatuses, for example, in consideration of privacy.
  • One aspect of the present invention has been made in view of the above problem, and an example of its purpose is to improve diversity even in situations where it is difficult to acquire learning data held by other information processing apparatuses.
  • An information processing apparatus includes learning data acquisition means for acquiring learning data; and first generative model information relating to a first data generative model, a generative model information acquiring means for acquiring first generative model information reflecting second generative model information relating to a different second data generative model; Data generation model learning means for learning the first data generation model using the learning data.
  • An information processing apparatus includes seed data acquisition means for acquiring seed data and data generation means for generating data using the seed data, wherein the data generation means generates first data First generative model information about a generative model that reflects second generative model information about a second data generative model that is different from the first data generative model with reference to the first generative model information Data generation is performed using the defined first data generation model.
  • An information processing apparatus includes first generative model information about a first data generative model and second generative model information about a second data generative model different from the first data generative model. and generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information.
  • An information processing system is an information processing system including a first information processing device and a server, wherein the first information processing device includes learning data acquisition means for acquiring learning data. and first generation model information relating to the first data generation model, which reflects second generation model information relating to a second data generation model different from the first data generation model a generative model information acquiring means for acquiring model information from the server; and a learning data acquiring means for acquiring the first data generating model defined by referring to the first generative model information.
  • data generation model learning means for learning using data
  • transmission means for transmitting third generation model information related to the first data generation model learned by the data generation model learning means
  • Generative model information updating means for generating updated generative model information by referring to the generative model information of 4
  • transmitting means for transmitting the updated generative model information to the first information processing device.
  • An information processing method includes obtaining learning data, obtaining first generative model information related to a first data generative model, wherein the second data generative model differs from the first data generative model. Acquiring first generative model information reflecting second generative model information relating to a data generation model, and obtaining the first data generation model defined by referring to the first generative model information, It includes learning using the learning data.
  • An information processing method includes obtaining seed data and generating data using the seed data, wherein the step of generating data includes: First generative model information, defined by referring to first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Data generation is performed using the first data generation model.
  • An information processing method includes first generative model information about a first data generative model, and second generative model information about a second data generative model different from the first data generative model. and referring to the first generative model information and the second generative model information to generate updated generative model information.
  • a program according to one aspect of the present invention is a program for causing a computer to function as an information processing apparatus, the computer comprising: learning data acquisition means for acquiring learning data; Generative model information acquisition means for acquiring first generative model information, which is one piece of generative model information and reflects second generative model information related to a second data generation model different from the first data generation model. and data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data.
  • a program according to one aspect of the present invention is a program for causing a computer to function as an information processing device, the computer comprising seed data acquisition means for acquiring seed data and generating data using the seed data.
  • the data generating means is first generative model information relating to a first data generating model, and second generative model information relating to a second data generating model different from the first data generating model is reflected. It functions as data generation means for generating data using a first data generation model defined by referring to the first generation model information.
  • a program according to one aspect of the present invention is a program for causing a computer to function as an information processing apparatus, the computer being configured to generate first generative model information relating to a first data generative model and the first data generative model.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to Exemplary Embodiment 1;
  • FIG. FIG. 3 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 1;
  • FIG. 9 is a block diagram showing the configuration of an information processing apparatus according to Exemplary Embodiment 2;
  • FIG. 10 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 2;
  • FIG. 12 is a block diagram showing the configuration of an information processing apparatus according to exemplary embodiment 3;
  • FIG. 11 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 3;
  • FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 4;
  • FIG. 12 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 4;
  • FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 5;
  • FIG. 12 is a flow diagram illustrating the flow of an information processing method according to exemplary embodiment 5;
  • FIG. 12 is a flow diagram illustrating the flow of another information processing method according to exemplary embodiment 5;
  • FIG. 13 is a schematic diagram illustrating a specific example of a data generation model in exemplary embodiment 5;
  • FIG. 21 is a schematic diagram illustrating another specific example of the data generation model in exemplary embodiment 5;
  • FIG. 21 is a schematic diagram illustrating still another specific example of the data generation model in exemplary embodiment 5;
  • FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 6;
  • FIG. 11 is a flow diagram illustrating the flow of an information processing method according to exemplary embodiment 6;
  • FIG. 12 is a block diagram showing the configuration of an information processing system according to exemplary embodiment 7;
  • FIG. 22 is a block diagram showing the configuration of an information processing system according to exemplary embodiment 8;
  • FIG. 22 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 9;
  • FIG. 22 is a diagram showing the configuration of a learning data acquisition unit in exemplary embodiment 10;
  • 1 is a block diagram showing an example of hardware configuration of an information processing device and a server in each exemplary embodiment of the present invention;
  • the information processing apparatus 10 uses learning data (hereinafter also referred to as generative model learning data) to learn a data generation model, and can also be referred to as a data generation model learning apparatus. It is.
  • learning data hereinafter also referred to as generative model learning data
  • a data generation model learning apparatus can also be referred to as a data generation model learning apparatus.
  • how the data generated by the data generation model according to this exemplary embodiment is used after generation does not limit this exemplary embodiment, but as an example, the data is It can be used to train an inference model.
  • the information processing device 10 can be used as a device that generates inference model learning data for learning the inference model.
  • the information processing apparatus 10 is configured so that the data generation model can be efficiently learned while keeping consideration for privacy even in such a situation.
  • the information processing device 10 will be described in more detail below.
  • FIG. 1 is a block diagram showing the configuration of an information processing device 10.
  • the information processing apparatus 10 includes a learning data acquisition unit 101 , a generative model information acquisition unit 102 , and a data generation model learning unit 103 .
  • the learning data acquisition unit 101 is an example of the learning data acquisition means according to this exemplary embodiment.
  • the generative model information acquisition unit 102 is an example of a generative model information acquisition unit according to this exemplary embodiment.
  • the data generation model learning unit 103 is an example of the data generation model learning means according to this exemplary embodiment.
  • the learning data acquisition unit 101 acquires learning data (generative model learning data).
  • the generative model learning data is data for learning a first data generative model, which will be described later.
  • the generative model information acquisition unit 102 acquires first generative model information regarding a first data generative model, which will be described later.
  • a first data generation model is a model that generates data.
  • the first data generation model inputs seed data and outputs data.
  • the data generated by the first data generation model is used, for example, as the inference model learning data described above.
  • the use of data generated by the first data generation model is not limited to this.
  • the first generative model information includes, for example, various parameters that define the first data generative model.
  • the first generative model information reflects second generative model information relating to a second data generative model different from the first data generative model. This makes it possible to indirectly refer to other generative model learning data without directly acquiring generative model learning data possessed by another information processing apparatus, which will be described later.
  • the data generation model learning unit 103 when the data generation model learning unit 103, which will be described later, is configured to sequentially learn the first data generation model, the first generation model acquired by the generative model information acquisition unit 102 at a certain point in time
  • the information includes first generative model information that defined the first generative model information in the past before the certain point in time, and second generative model information that defined the second generative model information in the past than the certain point in time. It includes information obtained by referring to the generative model information of
  • the second data generation model is a model different from the first data generation model, and is a model that generates data according to input data.
  • the second generative model is learned using other generative model learning data in an information processing apparatus different from the information processing apparatus 10 that generates the first generative model.
  • the other information processing device may be, for example, a device configured similarly to the information processing device 10 .
  • the second data generation model may be configured to be learned sequentially.
  • the second generative model information includes, for example, various parameters that define the first data generative model.
  • first generative model information may reflect other generative model information relating to another data generation model that is different from either the first data generation model or the second data generation model. Further, it may be configured to reflect other generative model information.
  • the data generation model learning unit 103 learns the first data generation model defined by referring to the first model information acquired by the generative model information acquisition unit 102, using the generative model learning data as teacher data. .
  • the first generative model as an example, a generative model constructed using a neural network, such as an autoencoder or a generative adversarial network, can be used, but this limits this exemplary embodiment. Generative models with other configurations can also be used.
  • the first model information that defines the first data generation model after learning by the data generation model learning unit 103 is, for example, a second data generation model that defines a second data generation model that is different from the first data generation model. is used to generate updated model information by being combined with the model information of .
  • FIG. 2 is a flow diagram showing the flow of the information processing method S10. As shown in FIG. 2, the information processing method S10 includes steps S101 to S103.
  • Step S101 the learning data acquisition unit 101 acquires generative model learning data.
  • Step S102 the generative model information acquisition unit 102 acquires first generative model information.
  • step S103 the data generation model learning unit 103 creates a first data generation model defined by referring to the first model information acquired by the generative model information acquisition unit 102, using the data for generative model learning as teacher data. learn by using
  • the information processing device 10 may sequentially learn the first generative model by sequentially executing the information processing method S10 described above.
  • the first generative model information acquired by the generative model information acquiring unit 102 in step S102 of the information processing method S10 executed for the n-th time includes (i) step S103 before the n-1th time and (ii) the second generative model that defined the second generative model information before the n-1 time.
  • Information obtained by taking a weighted average with information is included.
  • ⁇ Effects of this exemplary embodiment> As described above, in the information processing device 10 according to this exemplary embodiment, ⁇ Acquire learning data (generative model learning data) of the first data generation model, A first generative model that is first generative model information about a first data generative model and that reflects second generative model information about a second data generative model that is different from the first data generative model get information, ⁇ Learning a first data generation model defined by referring to the acquired first generative model information using learning data (generative model learning data); configuration is adopted.
  • the other generative model learning data is indirectly acquired.
  • data with diversity is generated in the same way as when training is performed by directly using both the data for generative model learning acquired by the own device and the data for generative model learning acquired by another information processing device.
  • a possible first data generation model can be generated.
  • the first can generate a data generation model of
  • the diversity of the inference model learning data can be increased, and more accurate and diverse data can be obtained. It is possible to obtain an inference model that can correspond to
  • the learning performed by the information processing apparatus 10 according to this exemplary embodiment is also called associative learning as an example, but this exemplary embodiment is not limited by this wording.
  • the information processing device 20 is a device that generates data using the first data generation model generated by the information processing device 10 according to the first exemplary embodiment.
  • the data generated by the information processing device 20 may be data to be used as teacher data in learning an inference model.
  • the use of the data generated by the information processing device 20 is not limited to this.
  • the information processing device 20 will be described in more detail below.
  • FIG. 3 is a block diagram showing the configuration of the information processing device 20.
  • the information processing device 20 includes a seed data acquisition section 201 and a data generation section 202 .
  • the seed data acquisition unit 201 is an example of seed data acquisition means according to this exemplary embodiment.
  • the data generator 202 is an example of a data generator according to this exemplary embodiment.
  • the seed data acquisition unit 201 acquires seed data.
  • Seed data is data to be input to the first data generation model.
  • the seed data acquisition unit 201 may acquire by generating seed data, or generated by another functional block (not shown) included in the device or another device (not shown) Seed data may be obtained.
  • a specific example of seed data is random noise data, which is not a limitation of this exemplary embodiment.
  • the name seed data does not limit this exemplary embodiment in any way.
  • the data generation unit 202 generates data using seed data and the first data generation model. Specifically, the data generation unit 202 generates data by inputting seed data into the first data generation model.
  • the first data generation model is defined with reference to the first generation model information.
  • the first generative model information reflects second generative model information relating to a second data generative model different from the first data generative model. Details of the first data generation model, the first generative model information, the second data generation model, and the second generative model information are as described in the first exemplary embodiment.
  • FIG. 4 is a flow diagram showing the flow of the information processing method S20. As shown in FIG. 4, the information processing method S20 includes steps S201 to S203.
  • step S201 the seed data acquisition unit 201 acquires seed data.
  • the seed data acquisition unit 201 may acquire randomly generated data as seed data.
  • Step S202 the data generation unit 202 generates data by inputting seed data into the first data generation model.
  • the memory (not shown) of the information processing apparatus 20 stores first generative model information regarding the first data generative model generated by the information processing apparatus 10 according to the first exemplary embodiment.
  • the data generation unit 202 generates data using a first data generation model defined by referring to the first generation model information.
  • ⁇ Effects of this exemplary embodiment> As described above, in the information processing device 20 according to this exemplary embodiment, ⁇ Obtain seed data, - Generate data using the acquired seed data and the first data generation model. - the first data generative model is defined by the first generative model information; configuration is adopted. here, - The first generative model information is information relating to the first data generative model, and is information reflecting a second data generative model different from the first data generative model.
  • the other generative model learning used for learning the second generative model It is possible to generate diverse data corresponding to both the generative model training data used for training the first generative model and the second generative model without directly referring to the data for the generative model. can. Further, as an example, when the data generated in this exemplary embodiment is used for learning an inference model, the diversity of data for learning an inference model can be increased, and an inference capable of handling a variety of data with higher accuracy can be obtained. model can be obtained.
  • the information processing device 30 is a device that refers to generative model information that respectively defines a plurality of data generative models and generates updated generative model information.
  • the information processing device 30 will be described in more detail below.
  • FIG. 5 is a block diagram showing the configuration of the information processing device 30.
  • the information processing device 30 includes a generative model information acquisition unit 301 and a generative model information update unit 302 .
  • the generative model information acquisition unit 301 is an example of the generative model information acquisition means according to this exemplary embodiment.
  • the generative model information updating unit 302 is an example of the generative model information updating means according to this exemplary embodiment.
  • the generative model information acquisition unit 301 acquires first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model.
  • a first data generation model is a model that generates data according to input data.
  • the first data generation model is learned in an information processing device different from the information processing device 30 using the data for generative model learning.
  • the second data generation model is a model different from the first data generation model, and is a model that generates data according to input data.
  • the second data generation model is learned using the generative model learning data in an information processing device different from the information processing device 30 and the information processing device that learns the first data generation model.
  • the generative model learning data used for learning the first data generation model and the generative model learning data used for learning the second data generation model are, for example, acquired independently by each information processing device. data and can differ from each other.
  • the first generative model information is information relating to the first data generative model, and includes, for example, various parameters defining the first data generative model.
  • the second generative model information is information relating to the first data generative model, and includes, for example, various parameters defining the second data generative model.
  • first generative model information in this exemplary embodiment does not necessarily reflect the second generative model information, unlike the first generative model information in exemplary embodiments 1 and 2. .
  • the generative model information updating unit 302 refers to the first generative model information and the second generative model information to generate updated generative model information.
  • the first generative model information and the second generative model information are reflected in the updated generative model information.
  • the first data generation model and the second data generation model may be newly defined with reference to updated generation model information.
  • FIG. 6 is a flow diagram showing the flow of the information processing method S30. As shown in FIG. 6, the information processing method S30 includes steps S301 to S203.
  • Step S301 the generative model information acquisition unit 301 acquires first generative model information and second generative model information.
  • the generative model information acquisition unit 301 acquires first generative model information from an information processing apparatus that has learned the first data generative model.
  • the generative model information acquisition unit 301 acquires second generative model information from the information processing apparatus that has learned the second data generative model.
  • the generative model information update unit 302 refers to the first generative model information and the second generative model information to generate post-update generative model information.
  • the generative model information updating unit 302 may include information obtained by taking a weighted average of the first generative model information and the second generative model information in the updated generative model information.
  • the data generation model defined by referring to the updated generative model information includes (i) generative model learning data used for learning the first data generation model, and (ii) It functions as a data generation model learned by indirectly using the generative model learning data used for learning the second data generation model.
  • data generation model can be generated.
  • the diversity of the data for training the inference model can be increased, resulting in more accurate and diverse data. It is possible to obtain a corresponding inference model.
  • the information processing apparatus 30 functions as a server in federated learning as an example, but this exemplary embodiment is not limited by the wording.
  • FIG. 7 is a block diagram showing the configuration of the information processing system 1a.
  • the information processing system 1a includes a first information processing device 10a and a server 30a.
  • the first information processing device 10a and the server 30a are connected via a network N.
  • FIG. Specific examples of the network N include a wireless LAN (Local Area Network), a wired LAN, a WAN, a public line network, a mobile data communication network, or a combination of these networks.
  • the configuration of network N is not limited to this.
  • the first information processing device 10 a includes a learning data acquisition unit 101 , a generative model information acquisition unit 102 , a data generation model learning unit 103 and a transmission unit 110 .
  • the learning data acquisition unit 101 and the data generation model learning unit 103 are configured in the same manner as in the first exemplary embodiment.
  • the generative model information acquisition unit 102 is configured in substantially the same manner as in the first exemplary embodiment. However, this exemplary embodiment differs in that the first generative model information is obtained by receiving it from the server 30a.
  • the transmission unit 110 transmits third generative model information related to the first data generation model learned by the data generation model learning unit 103 to the server 30a.
  • the third generative model information is information about the learned first data generation model, and includes, for example, parameters that define the learned first data generation model.
  • the fourth generative model information is information about the second data generation model after learning, and includes, for example, parameters that define the second data generation model after learning.
  • the server 30 a includes a generative model information acquisition unit 301 , a generative model information update unit 302 and a transmission unit 310 .
  • the generative model information acquisition unit 301 is configured in substantially the same manner as in the third exemplary embodiment. However, the present exemplary embodiment differs in that third generative model information and fourth generative model information are obtained instead of the first generative model information and the second generative model information.
  • the generative model information update unit 302 is configured almost similarly to the third exemplary embodiment. However, in this exemplary embodiment, the generative model information updater 302 refers to the third generative model information and the fourth generative model instead of referring to the first generative model information and the second generative model information. Generate updated generative model information by referring to the information.
  • the transmission unit 310 transmits the updated generative model information to the first information processing device 10a.
  • FIG. 8 is a flowchart showing the flow of the information processing method S1a.
  • the information processing method S1a includes S101a to S104a executed by the first information processing apparatus 10a and S301a to S303a executed by the server 30a.
  • the information processing system 1a sequentially executes the information processing method S1a.
  • Step S101a the learning data acquisition unit 101 acquires generative model learning data.
  • Step S102a the generative model information acquisition unit 102 acquires the first generative model information by receiving it from the server 30a.
  • the first generative model information received from the server 30a does not necessarily have to reflect the second generative model information.
  • the generative model information acquisition unit 102 acquires the The “updated generative model information” is acquired as the first generative model information.
  • the acquired first generative model information (that is, the previous updated generative model information) is information that reflects the second generative model information (that is, the previous fourth generative model information). .
  • Step S103a the data generation model learning unit 103 creates a first data generation model defined by referring to the first generative model information acquired by the generative model information acquisition unit 102, and converts the data for generative model learning into teacher data. used as a learning method.
  • the data generation model learning unit 103 uses the data for generative model learning to execute update processing for updating the parameter group defining the first data generation model.
  • the data generation model learning unit 103 repeats the update process until the learning converges or until the specified number of times is reached. Thereby, the first data generation model is learned.
  • Step S104a the transmission unit 110 transmits the third generative model information regarding the learned first data generative model to the server 30a.
  • Step S301a the generative model information acquisition unit 301 of the server 30a acquires the third generative model information by receiving it from the first information processing apparatus 10a. Further, the generative model information acquisition unit 301 acquires the fourth generative model information by receiving it from another information processing apparatus that sequentially learns the second data generative model. Other information processing devices are devices different from the first information processing device 10a and the server 30a.
  • Step S302a the generative model information update unit 302 refers to the third generative model information and the fourth generative model information to generate post-update generative model information.
  • the generative model information updating unit 302 may include information obtained by taking a weighted average of the third generative model information and the fourth generative model information in the updated generative model information.
  • Step S303a the transmission unit 310 transmits the updated generative model information to the first information processing apparatus 10a.
  • the "updated generative model information" transmitted in this step is received by the first information processing apparatus 10a as "first generative model information" in step S102a in the next (n+1)th information processing method S1a. .
  • the first information processing device 10a ⁇ Acquire learning data (generative model learning data) of the first data generation model, - first generative model information that is updated generative model information received from the server 30a and reflects second generative model information related to a second data generative model different from the first data generative model; , obtained as first generative model information about the first data generative model, ⁇ Learning a first data generation model defined by referring to the acquired first generative model information using learning data (generative model learning data), - Sending the third generative model information about the learned first data generative model to the server 30a; configuration is adopted.
  • the server 30a Acquiring third generative model information and fourth generative model information related to the second data generative model after learning, - Generate updated generative model information by referring to the third generative model information and the fourth generative model information; - Transmitting the updated generative model information to the first information processing device 10a; configuration is adopted.
  • the first information processing device 10a can acquire the first data generation model defined by referring to the updated generation model information received from the server 30a as a learning target. can.
  • the first information processing device 10a does not directly acquire the other generative model learning data used by the other information processing device that generated the second generative model.
  • the learning data can be used indirectly to generate a first data generation model capable of generating more diverse data.
  • the first information processing device 10a learns by directly using both the generative model learning data acquired by the first information processing device and the generative model learning data acquired by another information processing device.
  • a first data generation model can be generated that can similarly generate diverse data.
  • the diversity of the inference model learning data can be increased, and more accurate and diverse data can be obtained. It is possible to obtain an inference model that can correspond to
  • FIG. 9 is a block diagram showing the configuration of the information processing system 1b.
  • the information processing system 1b is a system that eliminates the imbalance in the data group for inference model learning and trains the inference model using the resolved data group.
  • the information processing system 1b generates a data generation model for generating data to be added to the data group by federated learning in order to eliminate the imbalance.
  • the information processing system 1b includes a first information processing device 10b-1, a second information processing device 10b-2, and a server 30b.
  • the first information processing device 10b-1, the second information processing device 10b-2, and the server 30b are connected via a network N.
  • FIG. 9 the information processing system 1b includes a first information processing device 10b-1, a second information processing device 10b-2, and a server 30b.
  • the first information processing device 10b-1, the second information processing device 10b-2, and the server 30b are connected via a network N.
  • the inference model is a model that infers the label species of the data.
  • the inference model outputs information indicating one of a plurality of label types when data is input.
  • the first information processing device 10b-1 uses the learning data acquired by the device to learn the first inference model.
  • the second information processing device 10b-2 uses the learning data acquired by the device to learn the second inference model.
  • the first inference model and the second inference model are different from each other. Note that the configurations of the plurality of label types that can be indicated by the data output by the first inference model and the data output by the second inference model do not necessarily have to be the same.
  • the first inference model outputs data indicating any of the labels L1, L3, L4, . You may output the data shown.
  • inference model when there is no need to distinguish between the first inference model and the second inference model, they will simply be referred to as "inference model”.
  • Learning data is a piece of data acquired for use in learning an inference model, and is any of a plurality of pieces of data included in a data group.
  • Each data piece included in the data group is labeled with one of a plurality of label types, and the percentage of data pieces labeled with a certain label type is less than or equal to a predetermined percentage.
  • a data group is also referred to as an "unbalanced data group”
  • a certain label species is also referred to as a “minority label species”.
  • the imbalanced data group includes a plurality of learning data (data pieces) each labeled with one of a plurality of label types, and at least one of the plurality of label types satisfies the minority label type condition.
  • the condition for the minority label type may be, as described above, that the ratio of data pieces to which the label type is attached is equal to or less than a predetermined ratio, or that the data pieces to which the label type is attached may be less than the number of other label types.
  • the conditions for minority label types are not limited to those described above.
  • the first imbalance data group acquired by the first information processing device 10b-1 and the second imbalance data group used by the second information processing device 10b-2 are at least partially different from each other.
  • the minority label species in the first imbalanced data group and the minority label species in the second imbalanced data group may or may not be the same.
  • imbalance data group when there is no need to specifically distinguish between the first imbalance data group and the second imbalance data group, they will also simply be referred to as "imbalance data group".
  • a specific example when the minority label species in the first imbalanced data group and the second imbalanced data group are not the same will be described.
  • a specific example of a data piece included in such an unbalanced data group is a product image.
  • the first imbalance data group and the second imbalance data group are sets of product images obtained at different production plants. Each product image is labeled with one of "normal product”, "defective product pattern A", and "defective product pattern B".
  • the percentage of product images labeled "Defective Pattern A" is less than or equal to a predetermined percentage.
  • the number of product images labeled with "defective product pattern A” is less than the number of product images labeled with "normal product", and the label with “defective product pattern B” is attached less than the number of product images shown.
  • the minority label type in the first imbalance data group is "defective product pattern A.”
  • the percentage of product images labeled with "defective product pattern B” is less than or equal to the predetermined percentage.
  • the number of product images labeled with "defective product pattern B" is less than the number of product images labeled with "normal product”, and the label with "defective product pattern A” is attached less than the number of product images shown.
  • the minority label type in the second imbalance data group is "defective product pattern B".
  • a specific example of a piece of data included in such an imbalanced data group is a piece of communication data in a financial system or communication system.
  • the first imbalanced data set and the second imbalanced data set are sets of pieces of communication data obtained by different systems.
  • each piece of communication data is labeled as "normal” or "abnormal”, with "abnormal” being a minority label type.
  • Another specific example of the data piece is a medical image.
  • the first unbalanced data group and the second unbalanced data group are sets of medical images obtained at different medical institutions. Each medical image is labeled as "without lesion" or "with lesion”, with "with lesion” being a minority label type.
  • specific examples of data pieces and minority label types are not limited to those described above.
  • the equilibrium data group includes a plurality of learning data (data pieces) each labeled with one of a plurality of label types, and none of the label types satisfies the minority label type condition.
  • the ratio of learning data with each label type is greater than or equal to the processing ratio, or the number of learning data with each label type is equal.
  • the first balanced data group generated by the first information processing device 10b-1 and the second balanced data group generated by the second information processing device 10b-2 are at least partially different from each other. However, if there is no need to specifically distinguish between the first equilibrium data group and the second equilibrium data group, they will simply be referred to as the "equilibrium data group".
  • the data generation model generates data to be used as inference model learning data.
  • the first information processing device 10b-1 generates a first data generation model and the second information processing device 10b-2 generates a second data generation model, they will be described separately. If it is not necessary, it will also be simply described as "data generation model”.
  • the data generation model is learned to generate learning data that can be teacher data for at least a few label types.
  • the generative model learning data is data for learning the data generative model. Part or all of the imbalance data group is used as generative model learning data.
  • the inference model learning data is data for learning the inference model.
  • a balanced data group in which the imbalance in the imbalanced data group is eliminated is used as inference model training data.
  • First information processing device 10b-1 includes control unit 150-1 and communication unit 160-1.
  • the control unit 150-1 includes a learning data acquisition unit 101-1, a generative model information acquisition unit 102-1, a data generation model learning unit 103-1, a seed data acquisition unit 201-1, and a data generation unit 202. -1, an inference model learning unit 203-1, an inference unit 204-1, and a communication unit 160-1.
  • the learning data acquisition unit 101-1 acquires a first imbalance data group.
  • the details of the first imbalance data group are as described above.
  • the generative model information acquisition unit 102-1 is configured similarly to the generative model information acquisition unit 102 in the first exemplary embodiment.
  • Data generation model learning section 103-1 learns the first data generation model using at least part of the first imbalance data group.
  • the data generation model learning unit 103-1 may learn at least one of an autoencoder including the first data generation model and a generative adversarial network including the first data generation model. Details of the first data generation model will be described later.
  • the seed data acquisition unit 201-1 acquires seed data to be input to the first data generation model.
  • the seed data acquisition unit 201-1 may acquire by generating seed data, or may be generated by another functional block (not shown) included in the device or another device (not shown). You may obtain seed data that has been
  • the data generator 202-1 generates data using seed data. Specifically, the data generation unit 202-1 generates learning data that can be teacher data for a small number of labels by inputting seed data into the first data generation model. For example, the data generation unit 202-1 inputs seed data and conditions for identifying minority label types into the first data generation model to generate learning data that can be teacher data for minority label types. good too. The data generator 202-1 also adds the generated learning data to the first imbalance data group to generate the first equilibrium data group.
  • the inference model learning unit 203-1 refers to the data generated by the data generation unit 202-1 to learn the first inference model. Specifically, inference model learning section 203-1 uses the first equilibrium data group as inference model learning data.
  • the inference unit 204-1 makes an inference using the inference model generated by the inference unit 204-1.
  • the communication unit 160-1 transmits to the server 30b third generative model information regarding the first data generative model learned by the data generative model learning unit 103-1.
  • Second information processing device 10b-2 includes control unit 150-2 and communication unit 160-2.
  • Control unit 150-2 includes learning data acquisition unit 101-2, generation model information acquisition unit 102-2, data generation model learning unit 103-2, seed data acquisition unit 201-2, and data generation unit 202.
  • -2 an inference model learning unit 203-2, and an inference unit 204-2.
  • the (Server configuration) Server 30 b includes a control unit 350 and a communication unit 360 .
  • the control unit 350 includes a generative model information acquisition unit 301 , a generative model information update unit 302 and a communication unit 360 .
  • the generative model information acquisition unit 301 is configured similarly to the generative model information acquisition unit 301 in the fourth exemplary embodiment.
  • the generative model information update unit 302 is configured similarly to the generative model information update unit 302 in the fourth exemplary embodiment. Specifically, in this exemplary embodiment, the generative model information updater 302 generates updated generative model information by averaging the third generative model information and the fourth generative model information.
  • the communication unit 360 distributes the updated generative model information to the first information processing device 10b-1 and the second information processing device 10b-2.
  • FIG. 10 is a flowchart for explaining the flow of the information processing method S1b.
  • the information processing system 1b generates a data generation model by sequentially executing the information processing method S1b.
  • the reference numerals including (n) at the end indicate the steps of the information processing method S1b to be executed for the nth time, and the reference numerals including (n+1) at the end are the information processing to be executed for the n+1th time. 4 shows the steps of method S1b.
  • Step S101-1 In the n-th step S101-1, the learning data acquisition unit 101-1 of the first information processing device 10b-1 acquires the first imbalance data group.
  • Step S360 In the n-th step S360, the communication unit 360 of the server 30b distributes the generative model information to the first information processing device 10b-1 and the second information processing device 10b-2.
  • n ⁇ 2 the “updated generative model information” updated in step S302 for the n ⁇ 1 time is applied as the generative model information to be distributed. Step S302 will be described later.
  • Step S102-1 In the n-th step S102-1, the generative model information acquisition unit 102-1 of the first information processing device 10b-1 acquires the generative model information delivered from the server 30b as first generative model information.
  • Step S103-1 In the n-th step S103-1, the data generation model learning unit 103-1 of the first information processing device 10b-1 refers to the first generative model information acquired by the generative model information acquisition unit 102-1. A defined first data generation model is trained. For learning, part or all of the learning data included in the first imbalance data group is used as teacher data. Specifically, the data generation model learning unit 103-1 uses the learning data included in the first imbalance data group to determine whether the first data generation model can be training data of at least a minority label type. The update process for updating the parameter group so as to output the data is repeated until learning converges or until a specified number of times is reached.
  • Step S160-1 In the n-th step S160-1, the communication unit 160-1 of the first information processing device 10b-1 transmits the third generative model information regarding the learned first data generative model to the server 30b.
  • Steps S101-2 to S160-2) The second information processing device 10b-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the n-th time. Details of these steps are described in the descriptions of steps S101-1, S102-1, S103-1, and S160-1 executed by the first information processing device 10b-1. The same description is given by replacing “2" with each other, “first” and “second” with each other, and “third” and “fourth” with each other.
  • Step S301 In step S301 of the n+1 time, the generative model information acquisition unit 301 of the server 30b acquires the third generative model information by receiving it from the first information processing device 10b-1. Further, the generative model information acquisition unit 301 acquires the fourth generative model information by receiving it from the second information processing device 10b-2.
  • the generative model information updating unit 302 refers to the third generative model information and the fourth generative model information to generate post-update generative model information.
  • the generative model information update unit 302 includes information obtained by taking a weighted average of the third generative model information and the fourth generative model information in the updated generative model information.
  • Step S360 In the n+1-th step S360, the communication unit 360 distributes the updated generative model information to the first information processing device 10b-1 and the second information processing device 10b-2.
  • the first information processing device 10b-1 executes steps S101-1, S102-1, S103-1, and S160-1 for the n+1th time.
  • the second information processing device 10b-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the (n+1)th time. The details are as described in each n-th step.
  • the first information processing device 10b-1 directly acquires the learning data acquired by the second information processing device 10b-2.
  • the first information processing device 10b-1 can generate a first data generation model capable of generating more diverse data.
  • the second information processing device 10b-2 can indirectly use the learning data acquired by the first information processing device 10b-1 without directly acquiring it.
  • the second information processing device 10b-2 can generate a second data generation model capable of generating more diverse data.
  • FIG. 11 is a flowchart for explaining the flow of the information processing method S20b.
  • the first information processing device 10b-1 generates a first inference model by executing the information processing method S20b.
  • the second information processing device 10b-2 generates a second inference model by executing the information processing method S20b.
  • An example in which the first information processing device 10b-1 executes the information processing method S20b will be described below.
  • the second information processing device 10b-2 executes the information processing method S20b
  • the suffixes “1” and “2” of each reference numeral are replaced with each other, and “first” and “second 2” are interchanged with each other.
  • the information processing method S20b includes steps S201 to S203.
  • step S201 the seed data acquisition unit 201-1 acquires seed data. Specifically, the seed data acquisition unit 201-1 acquires at least as many pieces of seed data as can eliminate the imbalance in the first imbalance data group. When obtaining a plurality of seed data, it is desirable that these seed data are different from each other.
  • the number of imbalances that can be resolved is, for example, the number of learning data with a minority label in the first imbalance data group, and a predetermined percentage in the first equilibrium data group after the imbalance is resolved. is the difference between the number of For example, the number of learning data to which minority labels are attached in the first imbalanced data group is 20, the number of learning data contained in the first imbalanced data group is 100, and the predetermined ratio is 0.3.
  • the possible number to resolve the imbalance is fifteen.
  • the number of imbalances that can be resolved is, for example, the number of learning data with minority label types and the number of learning data with other label types in the first imbalance data group. is the difference between For example, assume that there are two kinds of label types, the number of learning data to which minority label types are attached is 20, and the number of learning data to which other label types are attached is 40. In this case, the possible number to resolve the imbalance is twenty. Note that the number of imbalances that can be resolved is not limited to the example described above.
  • Step S202 the data generation unit 202-1 inputs the seed data generated in step S201 to the first data generation model, thereby generating learning data that can be teacher data for a minority label type. Further, the data generator 202-1 adds the generated learning data to the first imbalance data group. As a result, a first balanced data group in which the imbalance in the first imbalanced data group is eliminated is generated.
  • Step S203 the inference model learning unit 203-1 learns the first inference model. For learning, each learning data included in the first equilibrium data group is used as inference model learning data.
  • FIG. 12 is a schematic diagram illustrating specific example 1 of the data generation model.
  • the variational autoencoder trained by the data generation model learning unit 103 includes an encoder EN1 and a decoder DE1.
  • Encoder EN1 outputs latent variable Z when data X is input.
  • Decoder DE1 outputs data X' when latent variable Z is input.
  • the data generation model learning unit 103 inputs the data X to which the minority label type is attached among the learning data X acquired by the learning data acquisition unit 101 to the encoder EN1, and the data X′ and the data X output by the decoder DE1. Learning is performed so that the difference between Specifically, the data generation model learning unit 103 uses the learning data X to which the minority label seed is attached to set a parameter group that defines the encoder EN1 and the decoder DE1 so that the difference between X and X' becomes smaller. Execute the update process to update. In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times.
  • the decoder DE1 after learning becomes a data generation model that generates learning data that can be teacher data for a minority label type.
  • the seed data acquisition unit 201 generates seed data S to be input to the decoder DE1 after learning. Specifically, the seed data acquisition unit 201 generates, as the seed data S, the data in the range indicated by the latent variable Z that is output from the learning data X to which the minority label seed is attached. For example, the seed data acquisition unit 201 may generate the seed data S by randomly sampling data in the range indicated by the latent variable Z. FIG.
  • the data generation unit 202 By inputting the seed data S to the decoder DE2, the data generation unit 202 generates learning data that can be teacher data for a small number of labels.
  • FIG. 13 is a schematic diagram illustrating a specific example 2 of the data generation model.
  • the conditional variational autoencoder trained by the data generation model learning unit 103 includes an encoder EN2 and a decoder DE2.
  • Encoder EN2 outputs latent variable Z when data X and condition Y are input.
  • Decoder DE1 outputs data X' when latent variable Z and condition Y are input.
  • condition Y information specifying the label type is used.
  • the data generation model learning unit 103 inputs the learning data X acquired by the learning data acquisition unit 101 to the encoder EN2, and sends the condition Y specifying the label type attached to the learning data to the encoder EN2 and the decoder DE2. input. Further, the data generation model learning unit 103 performs learning so that the difference between the data X' output by the decoder DE2 and the data X becomes smaller. Specifically, the data generation model learning unit 103 uses the learning data X acquired by the learning data acquisition unit 101 to reduce the difference between X and X′ by using parameters that define the encoder EN2 and the decoder DE2. Execute update processing to update the group.
  • the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times.
  • the decoder DE2 after learning becomes a data generation model that generates learning data that can be teacher data of the label type specified by the condition Y. FIG.
  • the seed data acquisition unit 201 generates seed data S to be input to the post-learning decoder DE2. Specifically, the seed data acquisition unit 201 refers to the latent variable Z output by inputting the learning data and the condition Y for identifying the minority label type to the encoder EN, and determines the range indicated by the latent variable Z. data is generated as seed data S; For example, the seed data acquisition unit 201 may generate the seed data S by randomly sampling data in the range indicated by the latent variable Z. FIG.
  • the data generation unit 202 generates learning data that can be teacher data for minority label types by inputting seed data S and a condition Y for specifying minority label types to the decoder DE2.
  • FIG. 14 is a schematic diagram illustrating a specific example 3 of the data generation model.
  • the generative adversarial network trained by the data generation model learning unit 103 includes a generator GEN and a discriminator DIS.
  • the generator GEN outputs data GD when noise ND is input.
  • the discriminator DIS determines whether the data GD is the true data X when the data GD and the true data X are inputted.
  • the data generation model learning unit 103 inputs the noise ND to the generator GEN, and inputs the data X to which the minority label type is attached among the learning data X acquired by the learning data acquisition unit 101 to the discriminator DIS. . Also, the data generation model learning unit 103 performs learning so that the data GD generated by the generator GEN is determined to be true. Specifically, the data generation model learning unit 103 uses the learning data X to which the minority label seed is attached, and sets the parameter group that defines the generator GEN and the discriminator DIS so that the data GD is determined to be true. Execute the update process to update the . In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times. The generator GEN after learning becomes a data generation model that generates learning data that can be teacher data for minority label types.
  • the seed data acquisition unit 201 generates seed data S to be input to the post-learning generator GEN. Specifically, the seed data acquisition unit 201 may generate randomly generated noise as the seed data S. FIG.
  • the data generation unit 202 generates learning data that can be teacher data for a small number of labels by inputting the seed data S to the post-learning generator GEN.
  • Another example is implementing the data generation model as a generator included in a conditional generative adversarial network.
  • the condition Y is further input to the generator GEN and discriminator DIS shown in FIG.
  • the generator GEN outputs data GD when condition Y and noise ND are input.
  • the discriminator DIS determines whether or not the data GD is the true data X when the condition Y, the data GD and the true data X are input.
  • the data generation model learning unit 103 inputs any of the learning data X acquired by the learning data acquiring unit 101 and the condition Y specifying the label type attached to the data X to the discriminator DIS. . Further, the data generation model learning unit 103 inputs the condition Y specifying the label type and the noise ND to the generator GEN. Also, the data generation model learning unit 103 performs learning so that the data GD generated by the generator GEN is determined to be true. Specifically, the data generation model learning unit 103 uses the learning data X acquired by the learning data acquisition unit 101 to define the generator GEN and the discriminator DIS so that the data GD is determined to be true. Execute update processing to update the parameter group.
  • the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times.
  • the generator GEN after learning becomes a data generation model that generates learning data that can be teacher data of the label type specified by the condition Y.
  • the seed data acquisition unit 201 generates seed data S to be input to the post-learning generator GEN.
  • the data generation unit 202 generates learning data that can be teacher data for minority label types by inputting seed data S and conditions Y for specifying minority label types to the decoder DE2.
  • Each of the first information processing device 10b-1 and the second information processing device 10b-2 acquires an imbalanced data group, and performs associative learning using the acquired imbalanced data group to perform minority-labeled teacher training. Generating a data generation model for generating training data that can be data, configuration is adopted.
  • FIG. 15 is a block diagram showing the configuration of the information processing system 1c.
  • the information processing system 1c is a modification of the information processing system 1c according to exemplary embodiment 5 so as to generate an inference model by federated learning. That is, the information processing system 1c generates the inference model itself by federated learning in addition to generating the data generation model for eliminating the imbalance in the imbalanced data group used for learning the inference model by federated learning.
  • the information processing system 1c includes a first information processing device 10c-1, a second information processing device 10c-2, and a server 30c.
  • the first information processing device 10c-1, the second information processing device 10c-2, and the server 30c are connected via a network N.
  • the first information processing device 10c-1 includes an inference model information acquisition unit 205-1 in addition to the same configuration as the first information processing device 10b-1 according to the fifth exemplary embodiment. Also, in this exemplary embodiment, the configurations of the inference model learning unit 203-1 and the communication unit 160-1 are slightly different from those in the fifth exemplary embodiment. Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
  • the inference model information acquisition unit 205-1 acquires first inference model information regarding the first inference model.
  • the first inference model information includes, for example, various parameters that define the first inference model.
  • the first inference model information reflects second inference model information about a second inference model that is different from the first inference model.
  • the inference model learning unit 203-1 learns the first inference model defined by referring to the first inference model information using the data generated by the data generation unit 202-1. Specifically, the inference model learning unit 203-1 adds the data generated by the data generation unit 202-1 to the first balanced data group in which the imbalance in the first imbalanced data group is eliminated. is used for training the first inference model.
  • the communication unit 160-1 in addition to being configured in the same manner as in exemplary embodiment 5, transmits the third inference model information to the server 30c.
  • the third inference model information is information about the first inference model after learning, and includes, for example, parameters that define the first inference model after learning.
  • the fourth inference model information is information about the second inference model after learning, and includes, for example, parameters that define the second inference model after learning.
  • the second information processing device 10c-2 includes an inference model information acquisition unit 205-2 in addition to the same configuration as the second information processing device 10b-2 according to the fifth exemplary embodiment.
  • the configuration of the second information processing device 10c-2 in the description of the configuration of the first information processing device 10c-1, "1" and “2" at the end of each reference numeral are replaced with each other, 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
  • the server 30c includes an inference model information acquisition unit 303 and an inference model information update unit 304 in addition to the same configuration as the server 30b according to the fifth exemplary embodiment. Also, the configuration of the communication unit 360 is slightly different from that of the fifth exemplary embodiment. Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
  • the inference model information acquisition unit 303 acquires third inference model information regarding the first inference model and fourth inference model information regarding the second inference model.
  • the inference model information update unit 304 generates updated inference model information by referring to the third inference model information and the fourth inference model information.
  • the updated inference model information reflects the third generative model information and the fourth generative model information.
  • the communication unit 360 transmits updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2. To deliver.
  • the information processing system 1c configured as described above sequentially executes the information processing method S1b shown in FIG. Generate a data generation model for
  • FIG. 16 is a flowchart for explaining the flow of the information processing method S1c.
  • the information processing system 1c generates an inference model by sequentially executing the information processing method S1c.
  • reference symbols including (n) at the end indicate steps of the information processing method S1c to be executed for the nth time
  • reference symbols including (n+1) at the end are information processing to be performed for the n+1th time.
  • 4 shows the steps of method S1c.
  • Step S201-1 In the n-th step S201-1, the seed data acquisition unit 201-1 of the first information processing device 10c-1 acquires seed data by the number capable of resolving the imbalance in the first imbalance data group. .
  • Step S202-1 In the n-th step S202-1, the data generation unit 202-1 of the first information processing device 10c-1 inputs each seed data to the first data generation model, thereby becoming teacher data of a few label types. Generate training data to obtain. As a result, the number of learning data that can eliminate the imbalance is generated. Further, the data generator 202-1 adds the generated learning data to the first imbalance data group. This produces a first set of balanced data.
  • Step S370 In the n-th step S370, the communication unit 360 of the server 30c distributes the updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2.
  • n ⁇ 2 the “updated inference model information” updated in step S304 for the (n ⁇ 1)th time is applied as the inference model information to be distributed. Step S304 will be described later.
  • Step S205-1 In the n-th step S205-1, the inference model information acquisition unit 205-1 of the first information processing device 10c-1 acquires the inference model information delivered from the server 30c as the first inference model information.
  • Step S203-1 In the n-th step S203-1, the inference model learning unit 203-1 of the first information processing device 10c-1 refers to the first inference model information acquired by the inference model information acquisition unit 205-1 to define A first inference model is trained.
  • the first equilibrium data group generated in step S202-1 is used for learning.
  • the data generation model learning unit 103-1 performs update processing for updating the parameter group of the first inference model using the learning data included in the first equilibrium data group until learning converges. , or repeat until a specified number of times is reached.
  • Step S170-1 In the n-th step S170-1, the communication unit 160-1 of the first information processing device 10c-1 transmits the third inference model information regarding the learned first inference model to the server 30c.
  • the second information processing device 10c-2 executes steps S201-2, S202-2, S205-2, S203-2, and S170-2 for the n-th time. Details of these steps are described in the description of steps S201-1, S202-1, S205-1, S203-1, and S170-1 executed by the first information processing device 10c-1. The same description is given by replacing “1" and “2" with each other, “first" and “second” with each other, and “third” and “fourth” with each other.
  • Step S303 In step S303 of the (n+1)th time, the inference model information acquisition unit 303 of the server 30c acquires the third inference model information by receiving it from the first information processing device 10c-1. Also, the inference model information acquisition unit 303 acquires the fourth inference model information by receiving it from the second information processing device 10c-2.
  • the inference model information updating unit 304 refers to the third inference model information and the fourth inference model information to generate updated inference model information. Specifically, the inference model information updating unit 304 includes information obtained by taking a weighted average of the third inference model information and the fourth inference model information in the updated inference model information.
  • Step S370 In the n+1-th step S370, the communication unit 360 distributes the updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2.
  • the first information processing device 10c-1 executes steps S201-1, S202-1, S205-1, S203-1, and S170-1 for the (n+1)th time.
  • the second information processing device 10c-2 executes steps S201-2, S202-2, S205-2, S203-2, and S170-2 for the (n+1)th time. The details are as described in each n-th step.
  • the first information processing device 10c-1 directly acquires or generates learning data obtained by the second information processing device 10c-2. It can be used indirectly without obtaining it, and the first inference model can be generated accurately and efficiently. Further, the second information processing device 10c-2 can indirectly use the learning data acquired or generated by the first information processing device 10c-1 without directly acquiring it, and the second inference model can be generated more accurately and efficiently.
  • Each of the first information processing device 10c-1 and the second information processing device 10c-2 generates an inference model using a balanced data group in which imbalance is eliminated using a data generation model generated by federated learning. Let them learn associatively.
  • the balanced data group generated by the other information processing device can be used indirectly.
  • inference models can be generated efficiently due to the increased amount of learning data that can be referenced indirectly. be able to.
  • FIG. 17 is a block diagram showing the configuration of the information processing system 1d.
  • the information processing system 1d is a modification of the information processing system 1c according to the sixth exemplary embodiment so as not to include the server 30c. That is, the information processing system 1d performs federated learning of the data generation model and the inference model without using the server.
  • the information processing system 1d includes a first information processing device 10d-1 and a second information processing device 10d-2.
  • a first information processing device 10d-1 and a second information processing device 10d-2 are connected via a network N.
  • the first information processing device 10d-1 includes a model information updating unit 260-1 in addition to the same configuration as the first information processing device 10c-1 according to the sixth exemplary embodiment. Further, in this exemplary embodiment, the configurations of the generative model information acquisition unit 102-1, the data generation model learning unit 103-1, the inference model information acquisition unit 205-1, and the inference model learning unit 203-1 are It is slightly different from the sixth embodiment. Other functional blocks are the same as those in the sixth exemplary embodiment, so detailed description will not be repeated.
  • the generative model information acquisition unit 102-1 acquires fourth generative model information from the second information processing device 10d-2.
  • the fourth generative model information is information about the second data generative model after learning which is learned by the second information processing device 10d-2.
  • the inference model information acquisition unit 205-1 acquires fourth inference model information from the second information processing device 10d-2.
  • the fourth inference model information is information about the second inference model after learning which is learned by the second information processing device 10d-2.
  • the model information updating unit 206-1 generates updated generative model information by referring to the third generative model information and the fourth generative model information.
  • the third generative model information is information about the learned first data generative model learned by the data generative model learning unit 103-1.
  • the model information update unit 206 generates updated inference model information by referring to the third inference model information and the fourth inference model information.
  • the third inference model information is information about the first inference model after learning which the inference model learning unit 203-1 has made to learn.
  • the data generation model learning unit 103-1 learns the first data generation model defined by the updated generation model information generated by the model information update unit 206-1 using the first imbalance data group. .
  • the inference model learning unit 203-1 uses the first equilibrium data group to learn the first inference model defined by the updated inference model information generated by the model information update unit 206-1.
  • the communication unit 160-1 transmits the third generative model information and the third inference model information to the second information processing device 10d-2.
  • the second information processing device 10d-2 includes a model information updating unit 260-2 in addition to the same configuration as the second information processing device 10c-2 according to the sixth exemplary embodiment.
  • the suffixes “1” and “2” of each reference numeral are replaced with each other, and “second 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
  • the information processing system 1d configured as described above modifies and sequentially executes the information processing method S1b shown in FIG. 10 to generate a first data generation model and a second data generation model. do. Specifically, the information processing method S1b is modified such that step S302 that was executed by the server 30b is executed by the first information processing device 10d-1 and the second information processing device 10d-2 instead. be. As an example, the first information processing apparatus 10d-1 executes step S302-1 between steps S102-1 and S103-1. The modified information processing method S1b will be described below.
  • Step S101-1 The n-th step S101-1 is the same as in the fifth exemplary embodiment.
  • Step S102-1) The n-th step S102-1 is executed when n ⁇ 2.
  • the generative model information acquisition unit 102-1 of the first information processing device 10d-1 acquires fourth generative model information from the second information processing device 10d-2.
  • Step S302-1 the model information updating unit 206-1 of the first information processing device 10d-1 refers to the third generative model information and the fourth generative model information, and updates the Generate generative model information for .
  • the third generative model information is information about the first data generative model after learning in the previous (n ⁇ 1)th step S103-1.
  • the model information updating unit 206-1 generates predetermined information as updated generative model information.
  • Step S103-1 In the n-th step S103-1, the data generation model learning unit 103-1 of the first information processing device 10d-1 converts the first data generation model defined by the updated generative model information into the first Learn using an imbalanced data group.
  • Step S160-1 In the n-th step S160-1, the communication unit 160-1 of the first information processing device 10d-1 transmits new third generative model information regarding the learned first data generative model to the second information. It is transmitted to the processing device 10d-2.
  • Steps S101-2, S102-2, S302-2, S103-2, S160-2) The second information processing device 10d-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the n-th time. Details of these steps are described in the description of steps S101-1, S102-1, S302-1, S103-1, and S160-1 executed by the first information processing device 10d-1. The same description is given by replacing “1" and “2" with each other, “first" and “second” with each other, and “third” and "fourth” with each other.
  • the information processing system 1d transforms the information processing method S1c shown in FIG. 16 and sequentially executes it to generate a first inference model and a second inference model.
  • the information processing method S1c is modified such that step S304, which was executed by the server 30c, is executed by the first information processing device 10d-1 and the second information processing device 10d-2 instead.
  • the first information processing apparatus 10d-1 executes step S304-1 between steps S205-1 and S203-1.
  • the modified information processing method S1c will be described below.
  • Steps S201-1 to S202-1 The nth steps S201-1 to S202-1 are the same as in the sixth exemplary embodiment.
  • Step S205-1 The n-th step S205-1 is executed when n ⁇ 2.
  • the inference model information acquisition unit 205-1 of the first information processing device 10d-1 acquires the fourth inference model information from the second information processing device 10d-2.
  • Step S203-1 In the n-th step S203-1, the inference model learning unit 203-1 of the first information processing device 10d-1 converts the first inference model defined by the updated inference model information to the first equilibrium data. Learn using a group.
  • Step S170-1 In the n-th step S170-1, the communication unit 160-1 of the first information processing device 10d-1 transmits new third inference model information regarding the learned first inference model to the second information processing unit. Send to device 10d-2.
  • the second information processing device 10d-2 executes steps S201-2, S202-2, S205-2, S304-2, S203-2, and S170-2 for the n-th time.
  • the same explanation can be made by replacing the suffixes "1" and "2" with each other, “first" and “second” with each other, and with “third” and "fourth” with each other.
  • ⁇ Effects of this exemplary embodiment> As described above, in the first information processing device 10d-1 of this exemplary embodiment, receiving fourth generative model information about the second data generative model after learning from another information processing device; generating updated generative model information by referring to the third generative model information and the fourth generative model information regarding the learned first data generative model in the own device; transmitting the third generative model information to another information processing device; configuration is adopted.
  • this exemplary embodiment acquires the fourth generative model information and the fourth inference model information from another information processing device. For this reason, the exemplary embodiment is suitable in situations where sharing of information possessed by multiple information processing devices is less problematic.
  • FIG. 18 is a block diagram showing the configuration of the information processing system 1e.
  • the information processing system 1e is a mode in which the functions of the server 30c in exemplary embodiment 6 are distributed and realized.
  • the information processing system 1e includes a first information processing device 10e-1, a second information processing device 10e-2, a first server 30e, and a second server 40e.
  • a first information processing device 10e-1, a second information processing device 10e-2, a first server 30e, and a second server 40e are connected via a network N.
  • the first information processing device 10e-1 is configured substantially similarly to the first information processing device 10c-1 according to the sixth exemplary embodiment.
  • the configurations of the generative model information acquisition unit 102-1, the inference model information acquisition unit 205-1, and the communication unit 160-1 are slightly different from those in the sixth exemplary embodiment.
  • Other functional blocks are the same as those in the sixth exemplary embodiment, so detailed description will not be repeated.
  • the generative model information acquisition unit 102-1 is configured substantially in the same manner as in the sixth exemplary embodiment, but differs in that the first generative model information to be acquired is distributed by the first server 30e.
  • the inference model information acquisition unit 205-1 is configured substantially in the same manner as in the sixth exemplary embodiment, but differs in that the first inference model information to be acquired is distributed by the second server 40e.
  • the communication unit 160-1 is configured in substantially the same manner as in the sixth exemplary embodiment, except that the destination of the third generative model information is the first server 30e. Another difference is that the destination of the third inference model information is the second server 40e.
  • the second information processing device 10e-2 is configured substantially similarly to the second information processing device 10c-2 according to the sixth exemplary embodiment.
  • the configuration of the second information processing device 10e-2 in the description of the configuration of the first information processing device 10e-1, "1” and “2" at the end of each reference numeral are replaced with each other, 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
  • first server” and “second server” are not read interchangeably.
  • the first server 30e functions as a server in federated learning of data generation models.
  • the first server 30e has a generative model information acquisition unit 301, a generative model information update unit 302, and a communication unit 360 among the functional blocks included in the server 30c according to the sixth exemplary embodiment.
  • the details of each of these functional blocks are the same as in the sixth exemplary embodiment.
  • the second server 40e functions as a server in federated learning of inference models.
  • the second server 40e is a device different from the first server 30e.
  • the second server 40e has an inference model information acquisition unit 303, an inference model information update unit 304, and a communication unit 460 among the functional blocks included in the server 30c according to the sixth exemplary embodiment. The details of each of these functional blocks are the same as in the sixth exemplary embodiment.
  • the information processing system 1e configured as described above sequentially executes the information processing method S1b shown in FIG. Generate a data generation model for However, in this exemplary embodiment, the steps performed by the server 30b in the information processing method S1b are performed by the first server 30e.
  • the information processing system 1e configured as described above sequentially executes the information processing method S1c shown in FIG. Generate an inference model. However, in this exemplary embodiment, the steps performed by the server 30c in the information processing method S1c are performed by the second server 40e.
  • a device suitable for each load can be applied as each server.
  • a plurality of information processing devices including a first information processing device 10e-1 and a second information processing device 10e-2 may participate in federated learning of data generation models and federated learning of inference models. be done.
  • the number of information processing devices participating in the federated learning of the data generation model and the number of information processing devices participating in the federated learning of the inference model are significantly different.
  • the loads on the first server 30e and the second server 40e are significantly different.
  • devices suitable for respective loads can be applied as the first server 30e and the second server 40e.
  • FIG. 19 is a block diagram showing the configuration of the information processing system 1f.
  • the information processing system 1f is a mode in which the functions of the server 30b in the information processing system 1b according to the fifth exemplary embodiment are implemented in a distributed manner.
  • each other information processing device obtains and generates
  • This is an example of a form that takes into consideration situations in which direct reference to information should be avoided.
  • the exemplary embodiment realizes an example of a form that further considers the situation in which the server should avoid directly referring to the information acquired and generated by each client in federated learning.
  • the information processing system 1f includes a first information processing device 10f-1, a second information processing device 10f-2, a first server 30f-1, a second server 30f-2, and It includes a third server 30f-3.
  • the first information processing device 10f-1, the second information processing device 10f-2, the first server 30f-1, the second server 30f-2, and the third server 30f-3 are connected via network N;
  • federated learning clients (first information processing device 10f-1 and second information processing device 10f-2) and servers (first server 30f-1 and second server 30f) -2, and the third server 30f-3), it transmits and receives a piece of data generated from the generative model information.
  • the data piece A, the data piece B, and the data piece C are information different from each other, and are information for generating generative model information.
  • Data piece A, data piece B, and data piece C cannot restore the generative model information by referring to either one or two of them, but they are information that can generate generative model information by referring to all of them. be.
  • the data pieces A to C may be data pieces in which the generative model information is randomly divided into three so that the total sum does not change.
  • Each client generates data pieces A to C from the generative model information related to the generative model learned by its own device, and distributes and transmits them to each server. Since each server does not receive all of data piece A, data piece B, and data piece C from one client, it cannot directly refer to the original generative model information.
  • Each server integrates data piece A (or data piece B, data piece C) received from each client to generate integrated data piece A (or data piece B, data piece C).
  • Each client can acquire all of the integrated data piece A, the integrated data piece B, and the integrated data piece C from two or more servers.
  • Each client can refer to the post-integration data piece A, the post-integration data piece B, and the post-integration data piece C to restore the updated generative model information.
  • the first information processing device 10f-1 is configured almost similarly to the first information processing device 10b-1 according to the fifth exemplary embodiment.
  • the configurations of the generative model information acquisition unit 102-1 and the communication unit 160-1 are slightly different from those in the fifth exemplary embodiment.
  • Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
  • Communication unit 160-1 generates third data pieces A to C from the third generative model information regarding the updated first data generative model. Also, the communication unit 160-1 transmits the third data pieces A and B to the first server 30f-1. Also, the communication unit 160-1 transmits the third data pieces B and C to the second server 30f-2. Also, the communication unit 160-1 transmits the third data pieces C and A to the third server 30f-3. The third data pieces A to C are applied as "first data pieces A to C" in each server.
  • the generative model information acquisition unit 102-1 transfers the integrated data piece A, the integrated data piece B, and the integrated data piece C to the first server 30f-1, the second server 30f-2, and the Obtained by receiving from at least two of the third servers 30f-3.
  • the generative model information acquisition unit 102-1 refers to the data piece A after integration, the data piece B after integration, and the data piece C after integration, and obtains the first generative model information after update. to generate
  • the data piece A after integration is the sum of the first data piece A and the second data piece A.
  • FIG. Also, the data piece B after integration is the sum of the first data piece B and the second data piece B.
  • the data piece C after integration is the sum of the first data piece C and the second data piece C.
  • the generative model information acquisition unit 102-1 divides the total sum of the integrated data piece A, the integrated data piece B, and the integrated data piece C by the total number of the information processing devices 10 (here, 2). obtains the average of the sum of the first data pieces A to C (ie, the first generative model information) and the sum of the second data pieces A to C (ie, the second generative model information). Further, the generative model information acquiring unit 102-1 uses the average of these as the updated first generative model information.
  • the second data pieces A to C that is, the second generative model information
  • the second information processing device 10f-2 is configured almost similarly to the second information processing device 10b-2 according to the fifth exemplary embodiment.
  • the suffixes “1” and “2” of each reference numeral are replaced with each other, and “first” and A similar description will be made by replacing “second” with each other and “third” and “fourth” with each other.
  • first server “second server” and “third server” are not interchangeable.
  • the first server 30f-1 functions as one of a plurality of distributed servers in federated learning of data generation models.
  • First server 30f-1 includes control unit 350-1 and communication unit 360-1.
  • Control unit 350-1 includes a generative model information acquisition unit 301-1 and a generative model information update unit 302-1.
  • the generative model information acquisition unit 301-1 receives the first data pieces A and B from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-1 receives the second data pieces A and B from the second information processing device 10f-2.
  • the generative model information updating unit 302-1 integrates the first data piece A and the second data piece A to generate the data piece A after integration. Further, the generative model information updating unit 302-1 integrates the first data piece B and the second data piece B to generate the data piece B after integration. As described above, here, as the data piece A (or data piece B) after integration, the first data piece A (or data piece B) and the second data piece A (or data piece B ).
  • the communication unit 360-1 receives a request for the integrated data piece A and the integrated data piece B from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
  • the second server 30f-2 functions as one of a plurality of distributed servers in federated learning of data generation models.
  • the second server 30f-2 includes a control section 350-2 and a communication section 360-2.
  • Control unit 350-2 includes a generative model information acquisition unit 301-2 and a generative model information update unit 302-2.
  • the generative model information acquisition unit 301-2 receives the first data pieces B and C from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-2 receives the second data pieces B and C from the second information processing device 10f-2.
  • the generative model information updating unit 302-2 integrates the first data piece B and the second data piece B to generate the data piece B after integration. Further, the generative model information updating unit 302-2 integrates the first data piece C and the second data piece C to generate the data piece C after integration. As described above, here, as the data piece B (or data piece C) after integration, the first data piece B (or data piece C) and the second data piece B (or data piece C ).
  • the communication unit 360-2 receives a request for the integrated data piece B and the integrated data piece C from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
  • the third server 30f-3 functions as one of a plurality of distributed servers in federated learning of data generation models.
  • the third server 30f-3 includes a control section 350-3 and a communication section 360-3.
  • Control unit 350-3 includes a generative model information acquisition unit 301-3 and a generative model information update unit 302-3.
  • the generative model information acquisition unit 301-3 receives the first data pieces C and A from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-3 receives the second data pieces C and A from the second information processing device 10f-2.
  • the generative model information updating unit 302-3 refers to the first data piece C and the second data piece C to generate the data piece C after integration. Further, the generative model information update unit 302-3 integrates the first data piece A and the second data piece A to generate the data piece A after integration. As described above, here, as the data piece C (or data piece A) after integration, the first data piece C (or data piece A) and the second data piece C (or data piece A ).
  • the communication unit 360-3 receives a request for the integrated data piece C and the integrated data piece A from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
  • the information processing system 1f configured as described above modifies the information processing method S1b shown in FIG. 10 and sequentially executes it to generate a first data generation model and a second data generation model. do.
  • the information processing method S1b causes the first server 30f-1, the second server 30f-2, and the third server 30f-3 to execute steps S301, S302, and S360, respectively. Transformed.
  • the operations of the first server 30f-1, the second server 30f-2, and the third server 30f-3 in these steps are described in the description of steps S301, S302, and S360 in FIG. 3 generative model information” should be read as “first data piece”, “fourth generative model information” should be read as “second data piece”, and “updated generative model information” should be read as “data after integration The same explanation is given by reading "piece”.
  • step S102-1 is modified so as to generate the first generative model information by referring to the data pieces A to C after integration.
  • the operation of step S160-1 is to transfer two each of the third data pieces A to C generated from the third generative model information to different servers (first server 30f-1, second server 30f). -2, and modified to send to a third server 30f-3).
  • the operation of step S160-2 is to send two each of the fourth data pieces A to C generated from the fourth generative model information to different servers (first server 30f-1, second server 30f). -2, and modified to send to a third server 30f-3).
  • the first server 30f-1, the second server 30f-2, and the third server 30f-3 provide information about the first generative model after learning and the second generative model after learning. There is no direct acquisition of information about the generative model of
  • the first information processing device 10f-1 and the second information processing device 10f-2 the information about the first generative model after learning and the information about the second generative model after learning are reflected.
  • the updated generative model information can be generated by referring to the information received from each server. Therefore, an effect similar to that of exemplary embodiment 5 can be obtained.
  • the functions of the server 30b in exemplary embodiment 5 are implemented by distributing them to three servers.
  • the functions of the server 30b are not limited to this, and may be implemented by being distributed to four or more servers.
  • the first information processing device 10f-1 and the second information processing device 10f-2 refer to the generative model information about the data generative model after learning, respectively, to obtain four or more data pieces A, B, C, .
  • the method of dividing and restoring the generative model information performed by the information processing system 1f according to this exemplary embodiment is also called multi-party computation as an example, but this exemplary embodiment is limited by this wording. not to be
  • This exemplary embodiment includes a first information processing device (10b-1, 10c-1, 10d-1, 10e-1, 10f-1) according to any of exemplary embodiments 5-9, and a second 10b-2, 10c-2, 10d-2, 10e-2, 10f-2) in which the learning data acquisition units 101-1 and 101-2 are modified.
  • first information processing device 10b-1, 10c-1, 10d-1, 10e-1, 10f-1
  • second 10b-2, 10c-2, 10d-2, 10e-2, 10f-2 in which the learning data acquisition units 101-1 and 101-2 are modified.
  • FIG. 20 is a diagram showing the configuration of the learning data acquisition unit 101.
  • Other configurations and the flow of the information processing method are the same as those described in each exemplary embodiment, so detailed description thereof will be omitted.
  • the learning data acquisition section 101 includes a learning data selection section 111 .
  • the learning data selection unit 111 is an example of selection means according to this exemplary embodiment.
  • the learning data selection unit 111 selects an imbalanced data group from a plurality of data group candidates.
  • the learning data selection unit 111 may select data that satisfies the condition of being an imbalanced data group among the data set A, the data set B, the data set C, . . . stored in the storage unit SR. good.
  • a condition may be the minority label type condition described above.
  • the storage unit SR may be included in the information processing apparatuses 10b, 10c, 10d, 10e, and 10f, or may be included in an external device.
  • each information processing device selects its own data set so that the imbalance is eliminated as a whole, so that the data generation model can be learned more stably.
  • each exemplary embodiment described above has been described as including one or two information processing devices. Without limitation, each exemplary embodiment can be modified to include more than two information processors. Thereby, each information processing device can generate a data generation model by indirectly using learning data used in a larger number of other information processing devices without directly acquiring the data.
  • the functional blocks included in each of the two information processing devices are dispersed and included in a plurality of devices.
  • the functional blocks included in the first information processing device are: (i) functional blocks related to data generation model learning (learning data acquisition unit, generation model information acquisition unit, and data generation model learning unit); (ii) a device including functional blocks related to data generation (seed data acquisition unit and data generation unit); and (iii) functional blocks related to inference model learning (inference model information acquisition unit and inference model learning unit) and (iv) an apparatus including a function block (inference unit) related to inference.
  • Information processing apparatus 10, 10a, 10b-1, 10b-2, 10c-1, 10c-2, 10d-1, 10d-2, 10e-1, 10e-2, 10f-1, 10f-2, 20, server 30, 30a, 30b, 30c, 30d, 30e, 30f, 40e, 50f (hereinafter referred to as each information processing device 10 to 20 and each server 30 to 50) are partially or entirely functionally integrated circuits (IC It may be implemented by hardware such as a chip), or may be implemented by software.
  • each of the information processing devices 10 to 20 and each of the servers 30 to 50 described above is implemented by, for example, a computer that executes program instructions that are software that implements each function.
  • An example of such a computer (hereinafter referred to as computer C) is shown in FIG.
  • Computer C comprises at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as each of the information processing apparatuses 10 to 20 and each of the servers 30 to 50 is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby implementing the functions of the information processing devices 10-20 and the servers 30-50.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • the first data generation model is obtained by indirectly using the other learning data used to generate the second data generation model in the other information processing apparatus without directly obtaining the data. to learn As a result, it is possible to generate a first data generation model capable of generating more diverse data even in a situation where acquisition of other learning data used in other information processing devices should be avoided. can be done.
  • the third data generation model information regarding the first data generation model after learning can be provided to other devices.
  • the learning data used for learning the first data generation model can be indirectly used for learning without being directly acquired by another device.
  • the generative model information acquisition means includes: Acquiring fourth generative model information about the second data generative model after learning,
  • the information processing device is third generative model information about the first data generative model learned by the data generative model learning means;
  • the fourth generative model information by referring to the fourth generative model information, it is possible to indirectly use other learning data used to generate the second data generative model in another information processing apparatus. . As a result, it is possible to generate a first data generation model capable of generating more diverse data even in a situation where acquisition of other learning data used in other information processing devices should be avoided. can be done.
  • the learning data acquisition means is A data group containing a plurality of data pieces, each data piece labeled with one of a plurality of label types, and included in the data group in which the ratio of data pieces labeled with a certain label type is equal to or less than a predetermined ratio 4.
  • the information processing apparatus according to any one of appendices 1 to 3, wherein a piece of data is acquired as the learning data.
  • the first data generation model is trained using an imbalanced data group with an imbalanced number of labeled data pieces as learning data.
  • the first data generation model can be used to generate data for resolving imbalances in such data sets.
  • the learning data acquisition means is The information processing apparatus according to appendix 4, further comprising selection means for selecting the data group from a plurality of data group candidates.
  • the data generation model learning means is an autoencoder including the first data generation model; and 6.
  • the information processing apparatus according to any one of appendices 1 to 5, wherein at least one of generative adversarial networks including the first data generation model is learned.
  • the autoencoder is 7.
  • Appendix 8 data generation means for generating data using the first data generation model; 8.
  • the information processing apparatus according to any one of appendices 1 to 7, further comprising inference model learning means for learning the first inference model with reference to the data generated by the data generation means. .
  • the data generated by the first data generation model having the above-described effect is referred to, so the first inference model can be learned with high accuracy.
  • (Appendix 9) Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device described.
  • the first inference model is learned by indirectly using the other learning data used to generate the second inference model in the other information processing device without directly obtaining the data. Let As a result, the first inference model can be learned with high accuracy even in a situation where acquisition of other learning data used in another information processing apparatus should be avoided.
  • the data generation means is First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model
  • An information processing apparatus characterized by generating data using a first data generation model defined with reference to.
  • appendix 11 11.
  • the data generated by the first data generation model having the above-described effect is referred to, so the first inference model can be learned with high accuracy.
  • (Appendix 12) Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device described.
  • the first inference model is learned by indirectly using the other learning data used to generate the second inference model in the other information processing device without directly obtaining the data. Let As a result, the first inference model can be learned with high accuracy even in a situation where acquisition of other learning data used in another information processing apparatus should be avoided.
  • Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model;
  • Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information;
  • the learning data used for learning the first data generation model and (ii) the learning data used for learning the second data generation model are indirectly can generate a data generation model trained using As a result, even in a situation where acquisition of at least one of (i) and (ii) data for learning should be avoided, the data generation model can be trained to generate more diverse data. .
  • Appendix 14 transmitting means for transmitting the updated generative model information to a first information processing device implementing the first data generation model and a second information processing device implementing the second data generation model; 14.
  • a data generation model learned by indirectly using learning data can be provided to the first information processing device and the second information processing device.
  • the generative model information updating means includes: 15. The information processing apparatus according to appendix 13 or 14, wherein the updated generative model information is generated by averaging the first generative model information and the second generative model information.
  • learning is realized by indirectly using the learning data used for learning the first data generation model and the learning data used for learning the second data generation model.
  • An information processing system including a first information processing device and a server,
  • the first information processing device is learning data acquisition means for acquiring learning data; First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model a generative model information acquisition means for acquiring from the server; data generation model learning means for learning the first data generation model defined by referring to the first generation model information using learning data acquired by the learning data acquisition means; transmitting means for transmitting third generative model information related to the first data generative model learned by the data generative model learning means;
  • the server is the third generative model information; and a generative model information acquiring means for acquiring fourth generative model information about the second data generative model after learning; Generative model information updating means for generating updated generative model information by referring to the third generative model information and the fourth generative model information; and transmitting means for transmitting the updated generative model information to the first information processing apparatus.
  • (Appendix 17) obtaining training data; First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model and An information processing apparatus method, comprising: learning the first data generation model defined by referring to the first generation model information, using the learning data.
  • An information processing method comprising:
  • Appendix 20 A program for causing a computer to function as an information processing device, the computer comprising: learning data acquisition means for acquiring learning data; First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition means for acquiring data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data; A program that acts as a
  • Appendix 21 A program for causing a computer to function as an information processing device, the computer comprising: seed data acquisition means for acquiring seed data; Data generation means for generating data using the seed data, the first generation model information relating to the first data generation model, the second data generation model different from the first data generation model A program functioning as data generating means for generating data using a first data generation model defined by referring to first generative model information in which second generative model information regarding is reflected.
  • Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model
  • Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information
  • Appendix 23 at least one processor, said processor comprising: learning data acquisition processing for acquiring learning data; First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition processing for acquiring and a data generation model learning process of learning the first data generation model defined by referring to the first generation model information using the learning data.
  • the information processing apparatus may further include a memory, in which the learning data acquisition process, the generative model information acquisition process, and the data generative model learning process are executed by the processor.
  • a program may be stored for causing the Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
  • Appendix 24 at least one processor, said processor comprising: a seed data acquisition process for acquiring seed data; A data generation process for generating data using the seed data, the first generation model information relating to the first data generation model, and a second data generation model different from the first data generation model and a data generation process for generating data using a first data generation model defined by referring to first generation model information in which second generation model information regarding is reflected.
  • the information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the seed data acquisition process and the data generation process. . Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
  • Appendix 25 at least one processor, said processor comprising: Generative model information acquisition processing for acquiring first generative model information related to a first data generation model and second generative model information related to a second data generation model different from the first data generation model; and a generative model information update process for generating updated generative model information by referring to the first generative model information and the second generative model information.
  • the information processing apparatus may further include a memory, and the memory stores a program for causing the processor to execute the generative model information acquisition process and the generative model information update process.
  • this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention generates a data generating model capable of generating more diversified data even in a condition where it is difficult to acquire training data retained by another information processing device. An information processing device (10) is provided with: a training data acquisition unit (101) that acquires training data; a generated model information acquisition unit (102) for acquiring first generated model information which is relating to a first data generating model and in which second generated model information relating to a second data generating model different from the first data generating model is reflected; and a data generating model training unit (103) that trains, by using the training data, the first data generating model defined with reference to the first generated model information.

Description

情報処理装置、情報処理システム、情報処理方法、及びプログラムInformation processing device, information processing system, information processing method, and program
 本発明は、情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing system, an information processing method, and a program.
 データを生成するデータ生成モデルを機械学習により生成する技術が知られている。例えば、非特許文献1には、データを生成するデータ生成モデルを、データのクラスを予測する予測モデル、及び、データの真偽を判別する判別モデルの双方に対して敵対的に学習させることにより生成する技術が記載されている。このようなデータ生成モデルにより生成されるデータは、例えば、推論モデルの学習用データとして用いられる。 A technology is known that uses machine learning to generate a data generation model that generates data. For example, in Non-Patent Document 1, a data generation model that generates data is trained against both a prediction model that predicts the class of data and a discriminant model that discriminates the truth of data. A technique for generating is described. Data generated by such a data generation model is used, for example, as learning data for an inference model.
 しかしながら、上述した非特許文献1に記載された技術では、データ生成モデルが生成するデータの多様性に改善の余地がある。例えば、学習用データが不足する場合に、他の情報処理装置から学習用データを取得することができれば、データ生成モデルの学習効率を向上させることができる可能性がある。しかしながら、このような場合であっても、実際には、例えばプライバシーへの配慮のために、他の情報処理装置が有する学習用データを取得することが難しい可能性がある。 However, with the technology described in Non-Patent Document 1, there is room for improvement in the diversity of data generated by the data generation model. For example, if learning data can be acquired from another information processing apparatus when there is a shortage of learning data, it may be possible to improve the learning efficiency of the data generation model. However, even in such a case, in practice, it may be difficult to acquire learning data held by other information processing apparatuses, for example, in consideration of privacy.
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、他の情報処理装置が有する学習用データを取得することが難しい状況であっても、より多様性のあるデータを生成可能なデータ生成モデルを生成する技術を提供することである。 One aspect of the present invention has been made in view of the above problem, and an example of its purpose is to improve diversity even in situations where it is difficult to acquire learning data held by other information processing apparatuses. To provide a technique for generating a data generation model capable of generating certain data.
 本発明の一側面に係る情報処理装置は、学習用データを取得する学習用データ取得手段と、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、を備えている。 An information processing apparatus according to one aspect of the present invention includes learning data acquisition means for acquiring learning data; and first generative model information relating to a first data generative model, a generative model information acquiring means for acquiring first generative model information reflecting second generative model information relating to a different second data generative model; Data generation model learning means for learning the first data generation model using the learning data.
 本発明の一側面に係る情報処理装置は、シードデータを取得するシードデータ取得手段と、前記シードデータを用いてデータを生成するデータ生成手段とを備え、前記データ生成手段は、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う。 An information processing apparatus according to one aspect of the present invention includes seed data acquisition means for acquiring seed data and data generation means for generating data using the seed data, wherein the data generation means generates first data First generative model information about a generative model that reflects second generative model information about a second data generative model that is different from the first data generative model with reference to the first generative model information Data generation is performed using the defined first data generation model.
 本発明の一側面に係る情報処理装置は、第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、を備えている。 An information processing apparatus according to one aspect of the present invention includes first generative model information about a first data generative model and second generative model information about a second data generative model different from the first data generative model. and generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information. there is
 本発明の一側面に係る情報処理システムは、第1の情報処理装置、及びサーバを含む情報処理システムであって、前記第1の情報処理装置は、学習用データを取得する学習用データ取得手段と、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、前記サーバから取得する生成モデル情報取得手段と、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データ取得手段が取得した学習用データを用いて学習させるデータ生成モデル学習手段と、前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段とを備え、前記サーバは、前記第3の生成モデル情報、及び、学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報を取得する生成モデル情報取得手段と、前記第3の生成モデル情報と、前記第4の生成モデル情報とを参照して更新後の生成モデル情報を生成する生成モデル情報更新手段と、前記更新後の生成モデル情報を、前記第1の情報処理装置に送信する送信手段とを備えている。 An information processing system according to one aspect of the present invention is an information processing system including a first information processing device and a server, wherein the first information processing device includes learning data acquisition means for acquiring learning data. and first generation model information relating to the first data generation model, which reflects second generation model information relating to a second data generation model different from the first data generation model a generative model information acquiring means for acquiring model information from the server; and a learning data acquiring means for acquiring the first data generating model defined by referring to the first generative model information. data generation model learning means for learning using data; and transmission means for transmitting third generation model information related to the first data generation model learned by the data generation model learning means; is a generative model information acquiring means for acquiring the third generative model information and fourth generative model information related to the second data generative model after learning; the third generative model information; Generative model information updating means for generating updated generative model information by referring to the generative model information of 4; and transmitting means for transmitting the updated generative model information to the first information processing device. ing.
 本発明の一側面に係る情報処理方法は、学習用データを取得すること、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させることを含んでいる。 An information processing method according to one aspect of the present invention includes obtaining learning data, obtaining first generative model information related to a first data generative model, wherein the second data generative model differs from the first data generative model. Acquiring first generative model information reflecting second generative model information relating to a data generation model, and obtaining the first data generation model defined by referring to the first generative model information, It includes learning using the learning data.
 本発明の一側面に係る情報処理方法は、シードデータを取得すること、及び前記シードデータを用いてデータを生成すること、を含み、前記データを生成する工程では、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う。 An information processing method according to one aspect of the present invention includes obtaining seed data and generating data using the seed data, wherein the step of generating data includes: First generative model information, defined by referring to first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Data generation is performed using the first data generation model.
 本発明の一側面に係る情報処理方法は、第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得すること、及び、前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成すること、を含んでいる。 An information processing method according to one aspect of the present invention includes first generative model information about a first data generative model, and second generative model information about a second data generative model different from the first data generative model. and referring to the first generative model information and the second generative model information to generate updated generative model information.
 本発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、学習用データを取得する学習用データ取得手段と、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、として機能させる。 A program according to one aspect of the present invention is a program for causing a computer to function as an information processing apparatus, the computer comprising: learning data acquisition means for acquiring learning data; Generative model information acquisition means for acquiring first generative model information, which is one piece of generative model information and reflects second generative model information related to a second data generation model different from the first data generation model. and data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data.
 本発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、シードデータを取得するシードデータ取得手段と、前記シードデータを用いてデータを生成するデータ生成手段であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成手段として機能させる。 A program according to one aspect of the present invention is a program for causing a computer to function as an information processing device, the computer comprising seed data acquisition means for acquiring seed data and generating data using the seed data. The data generating means is first generative model information relating to a first data generating model, and second generative model information relating to a second data generating model different from the first data generating model is reflected. It functions as data generation means for generating data using a first data generation model defined by referring to the first generation model information.
 本発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、として機能させる。 A program according to one aspect of the present invention is a program for causing a computer to function as an information processing apparatus, the computer being configured to generate first generative model information relating to a first data generative model and the first data generative model. a generative model information acquiring means for acquiring second generative model information related to a second data generative model different from the model; and generative model information updating means for generating the generative model information.
 本発明の一態様によれば、他の情報処理装置が有する学習用データを取得することが難しい状況であっても、データ生成モデルを効率的に学習させることができる。 According to one aspect of the present invention, it is possible to efficiently learn a data generation model even in a situation where it is difficult to acquire learning data possessed by another information processing apparatus.
例示的実施形態1に係る情報処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an information processing apparatus according to Exemplary Embodiment 1; FIG. 例示的実施形態1に係る情報処理方法の流れを示すフロー図である。FIG. 3 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 1; 例示的実施形態2に係る情報処理装置の構成を示すブロック図である。FIG. 9 is a block diagram showing the configuration of an information processing apparatus according to Exemplary Embodiment 2; 例示的実施形態2に係る情報処理方法の流れを示すフロー図である。FIG. 10 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 2; 例示的実施形態3に係る情報処理装置の構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an information processing apparatus according to exemplary embodiment 3; 例示的実施形態3に係る情報処理方法の流れを示すフロー図である。FIG. 11 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 3; 例示的実施形態4に係る情報処理システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 4; 例示的実施形態4に係る情報処理方法の流れを示すフロー図である。FIG. 12 is a flow diagram showing the flow of an information processing method according to exemplary embodiment 4; 例示的実施形態5に係る情報処理システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 5; 例示的実施形態5に係る情報処理方法の流れを説明するフロー図である。FIG. 12 is a flow diagram illustrating the flow of an information processing method according to exemplary embodiment 5; 例示的実施形態5に係る他の情報処理方法の流れを説明するフロー図である。FIG. 12 is a flow diagram illustrating the flow of another information processing method according to exemplary embodiment 5; 例示的実施形態5におけるデータ生成モデルの具体例を説明する模式図である。FIG. 13 is a schematic diagram illustrating a specific example of a data generation model in exemplary embodiment 5; 例示的実施形態5におけるデータ生成モデルの他の具体例を説明する模式図である。FIG. 21 is a schematic diagram illustrating another specific example of the data generation model in exemplary embodiment 5; 例示的実施形態5におけるデータ生成モデルのさらに他の具体例を説明する模式図である。FIG. 21 is a schematic diagram illustrating still another specific example of the data generation model in exemplary embodiment 5; 例示的実施形態6に係る情報処理システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 6; 例示的実施形態6に係る情報処理方法の流れを説明するフロー図である。FIG. 11 is a flow diagram illustrating the flow of an information processing method according to exemplary embodiment 6; 例示的実施形態7に係る情報処理システムの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of an information processing system according to exemplary embodiment 7; 例示的実施形態8に係る情報処理システムの構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of an information processing system according to exemplary embodiment 8; 例示的実施形態9に係る情報処理システムの構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of an information processing system according to Exemplary Embodiment 9; 例示的実施形態10における学習用データ取得部の構成を示す図である。FIG. 22 is a diagram showing the configuration of a learning data acquisition unit in exemplary embodiment 10; 本発明の各例示的実施形態における情報処理装置及びサーバのハードウェア構成の一例を示すブロック図である。1 is a block diagram showing an example of hardware configuration of an information processing device and a server in each exemplary embodiment of the present invention; FIG.
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
[Exemplary embodiment 1]
A first exemplary embodiment of the invention will now be described in detail with reference to the drawings. This exemplary embodiment is the basis for the exemplary embodiments described later.
 本例示的実施形態に係る情報処理装置10は、学習用データ(以下、生成モデル学習用データとも呼ぶ)を用いて、データ生成モデルを学習させるものであり、データ生成モデルの学習装置とも呼称できるものである。ここで、本例示的実施形態に係るデータ生成モデルが生成するデータが、生成後にどのように用いられるのかについては、本例示的実施形態を限定するものではないが、一例として、当該データは、推論モデルを学習するために用いることができる。 The information processing apparatus 10 according to this exemplary embodiment uses learning data (hereinafter also referred to as generative model learning data) to learn a data generation model, and can also be referred to as a data generation model learning apparatus. It is. Here, how the data generated by the data generation model according to this exemplary embodiment is used after generation does not limit this exemplary embodiment, but as an example, the data is It can be used to train an inference model.
 例えば、プライバシーへの配慮等によって、推論モデルを学習させるための推論モデル学習用データを十分に取得することが難しいような状況が生じ得る。このような状況において、本例示的実施形態に係る情報処理装置10は、当該推論モデルを学習させるための推論モデル学習用データを生成する装置として用いることができる。 For example, due to privacy concerns, etc., a situation may arise in which it is difficult to obtain sufficient inference model training data for training an inference model. In such a situation, the information processing device 10 according to this exemplary embodiment can be used as a device that generates inference model learning data for learning the inference model.
 一方で、生成モデル学習用データの取得に際しても、プライバシーへの配慮等によって、生成モデル学習用データを十分に取得することが難しいような状況も生じ得る。例えば、情報処理装置10と同様の構成を有する複数の情報処理装置が存在する状況を考える。これら複数の情報処理装置が取得した生成モデル学習用データを直接的に用いて、上記データ生成モデルを学習させることができれば、上記データ生成モデルの学習効率を向上させることができるような場合であっても、実際には、プライバシーへの配慮のために、他の情報処理装置が取得した生成モデル学習用データを、当該情報処理装置10が取得することは避けるべき状況も生じ得る。 On the other hand, even when acquiring generative model learning data, there may be situations where it is difficult to acquire sufficient generative model learning data due to privacy concerns. For example, consider a situation in which there are a plurality of information processing apparatuses having the same configuration as the information processing apparatus 10 . If the data generation model can be learned by directly using the generative model learning data acquired by the plurality of information processing devices, the learning efficiency of the data generation model can be improved. However, in practice, there may arise a situation in which the information processing apparatus 10 should avoid acquiring the generative model learning data acquired by another information processing apparatus in consideration of privacy.
 本例示的実施形態に係る情報処理装置10は、このような状況であっても、プライバシーへの配慮を保ちつつ、データ生成モデルを効率的に学習させることができるよう構成されている。 The information processing apparatus 10 according to this exemplary embodiment is configured so that the data generation model can be efficiently learned while keeping consideration for privacy even in such a situation.
 以下、本例示的実施形態に係る情報処理装置10についてより具体的に説明する。 The information processing device 10 according to this exemplary embodiment will be described in more detail below.
 <情報処理装置の構成>
 本例示的実施形態に係る情報処理装置10の構成について、図1を参照して説明する。図1は、情報処理装置10の構成を示すブロック図である。図1に示すように、情報処理装置10は、学習用データ取得部101、生成モデル情報取得部102、及びデータ生成モデル学習部103を備えている。
<Configuration of information processing device>
A configuration of an information processing apparatus 10 according to this exemplary embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of an information processing device 10. As shown in FIG. As shown in FIG. 1 , the information processing apparatus 10 includes a learning data acquisition unit 101 , a generative model information acquisition unit 102 , and a data generation model learning unit 103 .
 ここで、学習用データ取得部101は、本例示的実施形態に係る学習用データ取得手段の一例である。また、生成モデル情報取得部102は、本例示的実施形態に係る生成モデル情報取得手段の一例である。また、データ生成モデル学習部103は、本例示的実施形態に係るデータ生成モデル学習手段の一例である。 Here, the learning data acquisition unit 101 is an example of the learning data acquisition means according to this exemplary embodiment. Also, the generative model information acquisition unit 102 is an example of a generative model information acquisition unit according to this exemplary embodiment. Also, the data generation model learning unit 103 is an example of the data generation model learning means according to this exemplary embodiment.
 (学習用データ取得部)
 学習用データ取得部101は、学習用データ(生成モデル学習用データ)を取得する。当該生成モデル学習用データは、後述する第1のデータ生成モデルを学習させるためのデータである。
(learning data acquisition unit)
The learning data acquisition unit 101 acquires learning data (generative model learning data). The generative model learning data is data for learning a first data generative model, which will be described later.
 (生成モデル情報取得部)
 生成モデル情報取得部102は、後述する第1のデータ生成モデルに関する第1の生成モデル情報を取得する。
(generative model information acquisition unit)
The generative model information acquisition unit 102 acquires first generative model information regarding a first data generative model, which will be described later.
 (第1のデータ生成モデル)
 第1のデータ生成モデルとは、データを生成するモデルである。例えば、第1のデータ生成モデルは、シードデータを入力として、データを出力する。第1のデータ生成モデルによって生成されるデータは、例えば、上述した推論モデル学習用データとして用いられる。ただし、第1のデータ生成モデルが生成するデータの用途はこれに限定されない。
(First data generation model)
A first data generation model is a model that generates data. For example, the first data generation model inputs seed data and outputs data. The data generated by the first data generation model is used, for example, as the inference model learning data described above. However, the use of data generated by the first data generation model is not limited to this.
 (第1の生成モデル情報)
 第1の生成モデル情報は、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。本例示的実施形態では、第1の生成モデル情報には、第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映されている。これにより、後述する他の情報処理装置が有する生成モデル学習用データを直接的に取得することなく、他の生成モデル学習用データを間接的に参照することが可能となる。一例として、後述するデータ生成モデル学習部103が、第1のデータ生成モデルを、逐次的に学習させるよう構成されている場合、ある時点において生成モデル情報取得部102が取得する第1の生成モデル情報には、当該ある時点よりも過去において第1の生成モデル情報を規定していた第1の生成モデル情報と、当該ある時点よりも過去において第2の生成モデル情報を規定していた第2の生成モデル情報とを参照して得られる情報が含まれている。
(First generative model information)
The first generative model information includes, for example, various parameters that define the first data generative model. In this exemplary embodiment, the first generative model information reflects second generative model information relating to a second data generative model different from the first data generative model. This makes it possible to indirectly refer to other generative model learning data without directly acquiring generative model learning data possessed by another information processing apparatus, which will be described later. As an example, when the data generation model learning unit 103, which will be described later, is configured to sequentially learn the first data generation model, the first generation model acquired by the generative model information acquisition unit 102 at a certain point in time The information includes first generative model information that defined the first generative model information in the past before the certain point in time, and second generative model information that defined the second generative model information in the past than the certain point in time. It includes information obtained by referring to the generative model information of
 (第2のデータ生成モデル)
 第2のデータ生成モデルとは、第1のデータ生成モデルとは異なるモデルであり、入力データに応じたデータを生成するモデルである。例えば、第2の生成モデルは、第1の生成モデルを生成する情報処理装置10とは異なる他の情報処理装置において、他の生成モデル学習用データを用いて学習される。他の情報処理装置は、一例として、情報処理装置10と同様に構成される装置であってもよい。また、第2のデータ生成モデルは、逐次的に学習されるよう構成されていてもよい。
(Second data generation model)
The second data generation model is a model different from the first data generation model, and is a model that generates data according to input data. For example, the second generative model is learned using other generative model learning data in an information processing apparatus different from the information processing apparatus 10 that generates the first generative model. The other information processing device may be, for example, a device configured similarly to the information processing device 10 . Also, the second data generation model may be configured to be learned sequentially.
 (第2の生成モデル情報)
 第2の生成モデル情報は、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。
(Second generative model information)
The second generative model information includes, for example, various parameters that define the first data generative model.
 なお、上述した第1の生成モデル情報には、第1のデータ生成モデル及び第2のデータ生成モデルの何れとも異なる他のデータ生成モデルに関する他の生成モデル情報が反映される構成としてもよいし、更に他の生成モデル情報が反映される構成としてもよい。 Note that the above-described first generative model information may reflect other generative model information relating to another data generation model that is different from either the first data generation model or the second data generation model. Further, it may be configured to reflect other generative model information.
 (データ生成モデル学習部)
 データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1のモデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。
(Data generation model learning part)
The data generation model learning unit 103 learns the first data generation model defined by referring to the first model information acquired by the generative model information acquisition unit 102, using the generative model learning data as teacher data. .
 ここで、第1の生成モデルとしては、一例として、オートエンコーダや敵対的生成ネットワークなど、ニューラルネットワークを用いて構成される生成モデルを用いることができるが、これは本例示的実施形態を限定するものではなく、他の構成を有する生成モデルを用いることもできる。 Here, as the first generative model, as an example, a generative model constructed using a neural network, such as an autoencoder or a generative adversarial network, can be used, but this limits this exemplary embodiment. Generative models with other configurations can also be used.
 データ生成モデル学習部103による学習後の第1のデータ生成モデルを規定する第1のモデル情報は、一例として、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルを規定する第2のモデル情報と組み合わせられることによって、更新後のモデル情報を生成するために用いられる。 The first model information that defines the first data generation model after learning by the data generation model learning unit 103 is, for example, a second data generation model that defines a second data generation model that is different from the first data generation model. is used to generate updated model information by being combined with the model information of .
 <情報処理方法の流れ>
 以上のように構成された情報処理装置10が実行する情報処理方法S10について、図2を参照して説明する。図2は、情報処理方法S10の流れを示すフロー図である。図2に示すように、情報処理方法S10は、ステップS101~S103を含む。
<Flow of information processing method>
An information processing method S10 executed by the information processing apparatus 10 configured as described above will be described with reference to FIG. FIG. 2 is a flow diagram showing the flow of the information processing method S10. As shown in FIG. 2, the information processing method S10 includes steps S101 to S103.
 (ステップS101)
 ステップS101において、学習用データ取得部101は、生成モデル学習用データを取得する。
(Step S101)
In step S101, the learning data acquisition unit 101 acquires generative model learning data.
 (ステップS102)
 ステップS102において、生成モデル情報取得部102は、第1の生成モデル情報を取得する。
(Step S102)
In step S102, the generative model information acquisition unit 102 acquires first generative model information.
 (ステップS103)
 ステップS103において、データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1のモデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。
(Step S103)
In step S103, the data generation model learning unit 103 creates a first data generation model defined by referring to the first model information acquired by the generative model information acquisition unit 102, using the data for generative model learning as teacher data. learn by using
 情報処理装置10は、上述した情報処理方法S10を逐次的に実行することにより、第1の生成モデルを逐次的に学習させてもよい。一例として、n回目(nは自然数)に実行する情報処理方法S10のステップS102において生成モデル情報取得部102が取得する第1の生成モデル情報には、(i)n-1回目以前のステップS103において学習させた第1の生成モデル情報を規定していた第1の生成モデル情報と、(ii)n-1回目以前の時点で第2の生成モデル情報を規定していた第2の生成モデル情報との加重平均をとることによって得られる情報が含まれている。 The information processing device 10 may sequentially learn the first generative model by sequentially executing the information processing method S10 described above. As an example, the first generative model information acquired by the generative model information acquiring unit 102 in step S102 of the information processing method S10 executed for the n-th time (n is a natural number) includes (i) step S103 before the n-1th time and (ii) the second generative model that defined the second generative model information before the n-1 time. Information obtained by taking a weighted average with information is included.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態に係る情報処理装置10においては、
・第1のデータ生成モデルの学習用データ(生成モデル学習用データ)を取得し、
・第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得し、
・取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習用データ(生成モデル学習用データ)を用いて学習させる、
という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in the information processing device 10 according to this exemplary embodiment,
・ Acquire learning data (generative model learning data) of the first data generation model,
A first generative model that is first generative model information about a first data generative model and that reflects second generative model information about a second data generative model that is different from the first data generative model get information,
・Learning a first data generation model defined by referring to the acquired first generative model information using learning data (generative model learning data);
configuration is adopted.
 上記の構成によれば、第2の生成モデルを生成した他の情報処理装置によって用いられた他の生成モデル学習用データを直接的に取得することなく、当該他の生成モデル学習用データを間接的に用いて、第1のデータ生成モデルを生成することができる。換言すると、自装置で取得した生成モデル学習用データと、他の情報処理装置が取得した生成モデル学習用データとの双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。 According to the above configuration, without directly acquiring the other generative model learning data used by the other information processing device that generated the second generative model, the other generative model learning data is indirectly acquired. can be used to generate a first data generation model. In other words, data with diversity is generated in the same way as when training is performed by directly using both the data for generative model learning acquired by the own device and the data for generative model learning acquired by another information processing device. A possible first data generation model can be generated.
 その結果、他の情報処理装置において用いられた他の生成モデル学習用データを当該情報処理装置10が取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また、一例として、このような第1のデータ生成モデルにより生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。 As a result, even in a situation where the information processing device 10 should avoid acquiring other generative model learning data used in other information processing devices, the first can generate a data generation model of In addition, as an example, when the data generated by such a first data generation model is used for learning an inference model, the diversity of the inference model learning data can be increased, and more accurate and diverse data can be obtained. It is possible to obtain an inference model that can correspond to
 なお、本例示的実施形態に係る情報処理装置10が行う学習は、一例として、連合学習とも呼称されるものであるが、当該文言によって本例示的実施形態が限定されるものではない。 The learning performed by the information processing apparatus 10 according to this exemplary embodiment is also called associative learning as an example, but this exemplary embodiment is not limited by this wording.
 〔例示的実施形態2〕
 本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態に係る情報処理装置20は、例示的実施形態1に係る情報処理装置10が生成した第1のデータ生成モデルを用いてデータを生成する装置である。一例として、情報処理装置20が生成するデータは、推論モデルの学習において教師データとして用いるためのデータであってもよい。ただし、情報処理装置20が生成するデータの用途はこれに限定されない。
[Exemplary embodiment 2]
A second exemplary embodiment of the invention will now be described in detail with reference to the drawings. The information processing device 20 according to this exemplary embodiment is a device that generates data using the first data generation model generated by the information processing device 10 according to the first exemplary embodiment. As an example, the data generated by the information processing device 20 may be data to be used as teacher data in learning an inference model. However, the use of the data generated by the information processing device 20 is not limited to this.
 以下、本例示的実施形態に係る情報処理装置20についてより具体的に説明する。 The information processing device 20 according to this exemplary embodiment will be described in more detail below.
 <情報処理装置の構成>
 本例示的実施形態に係る情報処理装置20の構成について、図3を参照して説明する。図3は、情報処理装置20の構成を示すブロック図である。図3に示すように、情報処理装置20は、シードデータ取得部201、及びデータ生成部202を備えている。
<Configuration of information processing device>
The configuration of the information processing device 20 according to this exemplary embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the information processing device 20. As shown in FIG. As shown in FIG. 3 , the information processing device 20 includes a seed data acquisition section 201 and a data generation section 202 .
 ここで、シードデータ取得部201は、本例示的実施形態に係るシードデータ取得手段の一例である。また、データ生成部202は、本例示的実施形態に係るデータ生成手段の一例である。 Here, the seed data acquisition unit 201 is an example of seed data acquisition means according to this exemplary embodiment. Also, the data generator 202 is an example of a data generator according to this exemplary embodiment.
 (シードデータ取得部)
 シードデータ取得部201は、シードデータを取得する。シードデータは、第1のデータ生成モデルに入力するためのデータである。例えば、シードデータ取得部201は、シードデータを生成することにより取得してもよいし、当該装置に含まれる他の機能ブロック(図示せず)又は他の装置(図示せず)によって生成されたシードデータを取得してもよい。シードデータの具体例は、本例示的実施形態を限定するものではないが、一例としてランダムなノイズデータを挙げることができる。また、シードデータとの名称は本例示的実施形態を何ら限定するものではない。
(Seed data acquisition part)
The seed data acquisition unit 201 acquires seed data. Seed data is data to be input to the first data generation model. For example, the seed data acquisition unit 201 may acquire by generating seed data, or generated by another functional block (not shown) included in the device or another device (not shown) Seed data may be obtained. A specific example of seed data is random noise data, which is not a limitation of this exemplary embodiment. Also, the name seed data does not limit this exemplary embodiment in any way.
 (データ生成部)
 データ生成部202は、シードデータ及び第1のデータ生成モデルを用いてデータ生成を行う。具体的には、データ生成部202は、シードデータを第1のデータ生成モデルに入力することによりデータを生成する。第1のデータ生成モデルは、第1の生成モデル情報を参照して規定される。第1の生成モデル情報には、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映されている。第1のデータ生成モデル、第1の生成モデル情報、第2のデータ生成モデル、及び第2の生成モデル情報の詳細については、例示的実施形態1で説明した通りである。
(data generator)
The data generation unit 202 generates data using seed data and the first data generation model. Specifically, the data generation unit 202 generates data by inputting seed data into the first data generation model. The first data generation model is defined with reference to the first generation model information. The first generative model information reflects second generative model information relating to a second data generative model different from the first data generative model. Details of the first data generation model, the first generative model information, the second data generation model, and the second generative model information are as described in the first exemplary embodiment.
 <情報処理方法の流れ>
 以上のように構成された情報処理装置20が実行する情報処理方法S20について、図4を参照して説明する。図4は、情報処理方法S20の流れを示すフロー図である。図4に示すように、情報処理方法S20は、ステップS201~S203を含む。
<Flow of information processing method>
The information processing method S20 executed by the information processing apparatus 20 configured as described above will be described with reference to FIG. FIG. 4 is a flow diagram showing the flow of the information processing method S20. As shown in FIG. 4, the information processing method S20 includes steps S201 to S203.
 (ステップS201)
 ステップS201において、シードデータ取得部201は、シードデータを取得する。例えば、シードデータ取得部201は、ランダムに生成したデータをシードデータとして取得してもよい。
(Step S201)
In step S201, the seed data acquisition unit 201 acquires seed data. For example, the seed data acquisition unit 201 may acquire randomly generated data as seed data.
 (ステップS202)
 ステップS202において、データ生成部202は、シードデータを第1のデータ生成モデルに入力することにより、データを生成する。例えば、情報処理装置20のメモリ(図示せず)には、例示的実施形態1に係る情報処理装置10によって生成された第1のデータ生成モデルに関する第1の生成モデル情報が記憶されている。データ生成部202は、当該第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いて、データを生成する。
(Step S202)
In step S202, the data generation unit 202 generates data by inputting seed data into the first data generation model. For example, the memory (not shown) of the information processing apparatus 20 stores first generative model information regarding the first data generative model generated by the information processing apparatus 10 according to the first exemplary embodiment. The data generation unit 202 generates data using a first data generation model defined by referring to the first generation model information.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態に係る情報処理装置20においては、
・シードデータを取得し、
・取得したシードデータ、及び、第1のデータ生成モデルを用いてデータ生成を行う。
・第1のデータ生成モデルは、第1の生成モデル情報によって規定される、
との構成が採用されている。ここで、
・第1の生成モデル情報は、第1のデータ生成モデルに関する情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルが反映された情報である。
<Effects of this exemplary embodiment>
As described above, in the information processing device 20 according to this exemplary embodiment,
・Obtain seed data,
- Generate data using the acquired seed data and the first data generation model.
- the first data generative model is defined by the first generative model information;
configuration is adopted. here,
- The first generative model information is information relating to the first data generative model, and is information reflecting a second data generative model different from the first data generative model.
 上記の構成によれば、第2の生成モデルに関する第2の生成モデル情報が反映された第1のデータ生成モデルを用いることにより、第2の生成モデルの学習に用いられた他の生成モデル学習用データを直接的に参照することなく、第1の生成モデル及び第2の生成モデルの学習に用いられた生成モデル学習用データの双方に相当するような多様性のあるデータを生成することができる。また、一例として、本例示的実施形態において生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。 According to the above configuration, by using the first data generation model in which the second generative model information about the second generative model is reflected, the other generative model learning used for learning the second generative model It is possible to generate diverse data corresponding to both the generative model training data used for training the first generative model and the second generative model without directly referring to the data for the generative model. can. Further, as an example, when the data generated in this exemplary embodiment is used for learning an inference model, the diversity of data for learning an inference model can be increased, and an inference capable of handling a variety of data with higher accuracy can be obtained. model can be obtained.
 〔例示的実施形態3〕
 本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態に係る情報処理装置30は、複数のデータ生成モデルをそれぞれ規定する生成モデル情報を参照して、更新後の生成モデル情報を生成する装置である。
[Exemplary embodiment 3]
A third exemplary embodiment of the invention will now be described in detail with reference to the drawings. The information processing device 30 according to the present exemplary embodiment is a device that refers to generative model information that respectively defines a plurality of data generative models and generates updated generative model information.
 以下、本例示的実施形態に係る情報処理装置30についてより具体的に説明する。 The information processing device 30 according to this exemplary embodiment will be described in more detail below.
 <情報処理装置の構成>
 本例示的実施形態に係る情報処理装置30の構成について、図5を参照して説明する。図5は、情報処理装置30の構成を示すブロック図である。図5に示すように、情報処理装置30は、生成モデル情報取得部301、及び生成モデル情報更新部302を備えている。
<Configuration of information processing device>
The configuration of the information processing device 30 according to this exemplary embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing the configuration of the information processing device 30. As shown in FIG. As shown in FIG. 5 , the information processing device 30 includes a generative model information acquisition unit 301 and a generative model information update unit 302 .
 ここで、生成モデル情報取得部301は、本例示的実施形態に係る生成モデル情報取得手段の一例である。また、生成モデル情報更新部302は、本例示的実施形態に係る生成モデル情報更新手段の一例である。 Here, the generative model information acquisition unit 301 is an example of the generative model information acquisition means according to this exemplary embodiment. Also, the generative model information updating unit 302 is an example of the generative model information updating means according to this exemplary embodiment.
 (生成モデル情報取得部)
 生成モデル情報取得部301は、第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する。
(generative model information acquisition part)
The generative model information acquisition unit 301 acquires first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model.
 (第1のデータ生成モデル、及び第2のデータ生成モデル)
 第1のデータ生成モデルは、入力データに応じたデータを生成するモデルである。第1のデータ生成モデルは、情報処理装置30とは異なる情報処理装置において、生成モデル学習用データを用いて学習される。第2のデータ生成モデルは、第1のデータ生成モデルとは異なるモデルであり、入力データに応じたデータを生成するモデルである。第2のデータ生成モデルは、情報処理装置30、及び第1のデータ生成モデルを学習させる情報処理装置の何れとも異なる情報処理装置において、生成モデル学習用データを用いて学習される。第1のデータ生成モデルの学習に用いられる生成モデル学習用データと、第2のデータ生成モデルの学習に用いられる生成モデル学習用データとは、例えば、各情報処理装置が互いに独立して取得するデータであり、互いに異なり得る。
(First data generation model and second data generation model)
A first data generation model is a model that generates data according to input data. The first data generation model is learned in an information processing device different from the information processing device 30 using the data for generative model learning. The second data generation model is a model different from the first data generation model, and is a model that generates data according to input data. The second data generation model is learned using the generative model learning data in an information processing device different from the information processing device 30 and the information processing device that learns the first data generation model. The generative model learning data used for learning the first data generation model and the generative model learning data used for learning the second data generation model are, for example, acquired independently by each information processing device. data and can differ from each other.
 (第1の生成モデル情報、及び第2の生成モデル情報)
 第1の生成モデル情報は、第1のデータ生成モデルに関する情報であり、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。第2の生成モデル情報は、第1のデータ生成モデルに関する情報であり、一例として、第2のデータ生成モデルを規定する各種のパラメータを含んでいる。
(First generative model information and second generative model information)
The first generative model information is information relating to the first data generative model, and includes, for example, various parameters defining the first data generative model. The second generative model information is information relating to the first data generative model, and includes, for example, various parameters defining the second data generative model.
 なお、本例示的実施形態における第1の生成モデル情報は、例示的実施形態1、2における第1の生成モデル情報とは異なり、必ずしも第2の生成モデル情報が反映されたものでなくてよい。 Note that the first generative model information in this exemplary embodiment does not necessarily reflect the second generative model information, unlike the first generative model information in exemplary embodiments 1 and 2. .
 (生成モデル情報更新部)
 生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する。
(Generative model information update section)
The generative model information updating unit 302 refers to the first generative model information and the second generative model information to generate updated generative model information.
 (更新後の生成モデル情報)
 更新後の生成モデル情報には、第1の生成モデル情報及び第2の生成モデル情報が反映されている。例えば、第1のデータ生成モデル、及び第2のデータ生成モデルは、更新後の生成モデル情報を参照して新たに規定されてもよい。
(Generative model information after update)
The first generative model information and the second generative model information are reflected in the updated generative model information. For example, the first data generation model and the second data generation model may be newly defined with reference to updated generation model information.
 <情報処理方法の流れ>
 以上のように構成された情報処理装置30が実行する情報処理方法S30について、図6を参照して説明する。図6は、情報処理方法S30の流れを示すフロー図である。図6に示すように、情報処理方法S30は、ステップS301~S203を含む。
<Flow of information processing method>
The information processing method S30 executed by the information processing apparatus 30 configured as described above will be described with reference to FIG. FIG. 6 is a flow diagram showing the flow of the information processing method S30. As shown in FIG. 6, the information processing method S30 includes steps S301 to S203.
 (ステップS301)
 ステップS301において、生成モデル情報取得部301は、第1の生成モデル情報と、第2の生成モデル情報とを取得する。例えば、生成モデル情報取得部301は、第1のデータ生成モデルを学習させた情報処理装置から第1の生成モデル情報を取得する。また、例えば、生成モデル情報取得部301は、第2のデータ生成モデルを学習させた情報処理装置から第2の生成モデル情報を取得する。
(Step S301)
In step S301, the generative model information acquisition unit 301 acquires first generative model information and second generative model information. For example, the generative model information acquisition unit 301 acquires first generative model information from an information processing apparatus that has learned the first data generative model. Also, for example, the generative model information acquisition unit 301 acquires second generative model information from the information processing apparatus that has learned the second data generative model.
 (ステップS302)
 ステップS302において、生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する。一例として、生成モデル情報更新部302は、第1の生成モデル情報と第2の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含めてもよい。
(Step S302)
In step S302, the generative model information update unit 302 refers to the first generative model information and the second generative model information to generate post-update generative model information. As an example, the generative model information updating unit 302 may include information obtained by taking a weighted average of the first generative model information and the second generative model information in the updated generative model information.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態に係る情報処理装置30においては、
 第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得し、
 第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する、
という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in the information processing device 30 according to this exemplary embodiment,
Acquiring first generative model information about a first data generative model and second generative model information about a second data generative model different from the first data generative model;
generating updated generative model information by referring to the first generative model information and the second generative model information;
configuration is adopted.
 上記の構成によれば、更新後の生成モデル情報を参照して規定されるデータ生成モデルは、(i)第1のデータ生成モデルの学習に用いられた生成モデル学習用データと、(ii)第2のデータ生成モデルの学習に用いられた生成モデル学習用データとを、間接的に用いて学習されたデータ生成モデルとして機能する。 According to the above configuration, the data generation model defined by referring to the updated generative model information includes (i) generative model learning data used for learning the first data generation model, and (ii) It functions as a data generation model learned by indirectly using the generative model learning data used for learning the second data generation model.
 その結果、上記(i)、(ii)の生成モデル学習用データとの少なくとも一方を取得することを避けるべき状況であっても、双方を間接的に用いてより多様性のあるデータを生成可能なデータ生成モデルを生成することができる。換言すると、(i)、(ii)の双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能なデータ生成モデルを生成することができる。また、一例として、このようなデータ生成モデルを用いて生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。 As a result, even in situations where acquisition of at least one of the data for generative model training in (i) and (ii) above should be avoided, it is possible to indirectly use both to generate more diverse data. data generation model can be generated. In other words, it is possible to generate a data generation model capable of generating diverse data as in the case of learning by directly using both (i) and (ii). In addition, as an example, when data generated using such a data generation model is used for training an inference model, the diversity of the data for training the inference model can be increased, resulting in more accurate and diverse data. It is possible to obtain a corresponding inference model.
 なお、本例示的実施形態に係る情報処理装置30は、一例として、連合学習におけるサーバとして機能するものであるが、当該文言によって本例示的実施形態が限定されるものではない。 Note that the information processing apparatus 30 according to this exemplary embodiment functions as a server in federated learning as an example, but this exemplary embodiment is not limited by the wording.
 〔例示的実施形態4〕
 本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~3にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary embodiment 4]
A fourth exemplary embodiment of the invention will now be described in detail with reference to the drawings. Components having the same functions as those described in exemplary embodiments 1 to 3 are denoted by the same reference numerals, and description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1aの構成について、図7を参照して説明する。図7は、情報処理システム1aの構成を示すブロック図である。図7に示すように、情報処理システム1aは、第1の情報処理装置10a、及びサーバ30aを含む。第1の情報処理装置10aと、サーバ30aとは、ネットワークNを介して接続される。ネットワークNの具体例としては、例えば、無線LAN(Local Area Network)、有線LAN、WAN、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせが挙げられる。ただし、ネットワークNの構成は、これに限定されない。
<Configuration of information processing system>
The configuration of an information processing system 1a according to this exemplary embodiment will be described with reference to FIG. FIG. 7 is a block diagram showing the configuration of the information processing system 1a. As shown in FIG. 7, the information processing system 1a includes a first information processing device 10a and a server 30a. The first information processing device 10a and the server 30a are connected via a network N. FIG. Specific examples of the network N include a wireless LAN (Local Area Network), a wired LAN, a WAN, a public line network, a mobile data communication network, or a combination of these networks. However, the configuration of network N is not limited to this.
 (第1の情報処理装置の構成)
 第1の情報処理装置10aは、学習用データ取得部101、生成モデル情報取得部102、データ生成モデル学習部103、及び送信部110を含む。
(Configuration of first information processing device)
The first information processing device 10 a includes a learning data acquisition unit 101 , a generative model information acquisition unit 102 , a data generation model learning unit 103 and a transmission unit 110 .
 学習用データ取得部101、及びデータ生成モデル学習部103は、例示的実施形態1と同様に構成される。 The learning data acquisition unit 101 and the data generation model learning unit 103 are configured in the same manner as in the first exemplary embodiment.
 生成モデル情報取得部102は、例示的実施形態1とほぼ同様に構成される。ただし、本例示的実施形態では、第1の生成モデル情報を、サーバ30aから受信することにより取得する点が異なる。 The generative model information acquisition unit 102 is configured in substantially the same manner as in the first exemplary embodiment. However, this exemplary embodiment differs in that the first generative model information is obtained by receiving it from the server 30a.
 送信部110は、データ生成モデル学習部103によって学習された後の第1のデータ生成モデルに関する第3の生成モデル情報をサーバ30aに送信する。 The transmission unit 110 transmits third generative model information related to the first data generation model learned by the data generation model learning unit 103 to the server 30a.
 (第3の生成モデル情報)
 第3の生成モデル情報は、学習後の第1のデータ生成モデルに関する情報であり、例えば、学習後の第1のデータ生成モデルを規定するパラメータを含む。
(Third generative model information)
The third generative model information is information about the learned first data generation model, and includes, for example, parameters that define the learned first data generation model.
 (第4の生成モデル情報)
 第4の生成モデル情報は、学習後の第2のデータ生成モデルに関する情報であり、例えば、学習後の第2のデータ生成モデルを規定するパラメータを含む。
(Fourth generative model information)
The fourth generative model information is information about the second data generation model after learning, and includes, for example, parameters that define the second data generation model after learning.
 (サーバの構成)
 サーバ30aは、生成モデル情報取得部301、生成モデル情報更新部302、及び送信部310を含む。
(Server configuration)
The server 30 a includes a generative model information acquisition unit 301 , a generative model information update unit 302 and a transmission unit 310 .
 (生成モデル情報取得部)
 生成モデル情報取得部301は、例示的実施形態3とほぼ同様に構成される。ただし、本例示的実施形態では、第1の生成モデル情報及び第2の生成モデル情報に替えて、第3の生成モデル情報及び第4の生成モデル情報を取得する点が異なる。
(generative model information acquisition unit)
The generative model information acquisition unit 301 is configured in substantially the same manner as in the third exemplary embodiment. However, the present exemplary embodiment differs in that third generative model information and fourth generative model information are obtained instead of the first generative model information and the second generative model information.
 (生成モデル情報更新部)
 生成モデル情報更新部302は、例示的実施形態3とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照する代わりに、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。
(Generative model information update part)
The generative model information update unit 302 is configured almost similarly to the third exemplary embodiment. However, in this exemplary embodiment, the generative model information updater 302 refers to the third generative model information and the fourth generative model instead of referring to the first generative model information and the second generative model information. Generate updated generative model information by referring to the information.
 送信部310は、更新後の生成モデル情報を、第1の情報処理装置10aに送信する。 The transmission unit 310 transmits the updated generative model information to the first information processing device 10a.
 <情報処理方法の流れ>
 以上のように構成された情報処理システム1aが実行する情報処理方法S1aについて、図8を参照して説明する。図8は、情報処理方法S1aの流れを示すフロー図である。図8に示すように、情報処理方法S1aは、第1の情報処理装置10aが実行するS101a~S104aと、サーバ30aが実行するS301a~S303aとを含む。情報処理システム1aは、情報処理方法S1aを逐次的に実行する。以下では、n回目に実行する情報処理方法S1aについて説明している。(n=1,2,…)
 (ステップS101a)
 ステップS101aにおいて、学習用データ取得部101は、生成モデル学習用データを取得する。
<Flow of information processing method>
An information processing method S1a executed by the information processing system 1a configured as described above will be described with reference to FIG. FIG. 8 is a flowchart showing the flow of the information processing method S1a. As shown in FIG. 8, the information processing method S1a includes S101a to S104a executed by the first information processing apparatus 10a and S301a to S303a executed by the server 30a. The information processing system 1a sequentially executes the information processing method S1a. The information processing method S1a to be executed for the n-th time will be described below. (n = 1, 2, ...)
(Step S101a)
In step S101a, the learning data acquisition unit 101 acquires generative model learning data.
 (ステップS102a)
 ステップS102aにおいて、生成モデル情報取得部102は、第1の生成モデル情報を、サーバ30aから受信することにより取得する。なお、情報処理方法S1aの実行が初回(n=1)である場合、サーバ30aから受信する第1の生成モデル情報は、必ずしも第2の生成モデル情報が反映された情報でなくてもよい。また、情報処理方法S1aの実行が2回目以降(n≧2)である場合、生成モデル情報取得部102は、前回(n-1回目)のステップS303a(詳細は後述)においてサーバ30aが送信した「更新後の生成モデル情報」を、第1の生成モデル情報として取得する。この場合、取得した第1の生成モデル情報(すなわち、前回の更新後の生成モデル情報)は、第2の生成モデル情報(すなわち、前回の第4の生成モデル情報)が反映された情報である。
(Step S102a)
In step S102a, the generative model information acquisition unit 102 acquires the first generative model information by receiving it from the server 30a. When the information processing method S1a is executed for the first time (n=1), the first generative model information received from the server 30a does not necessarily have to reflect the second generative model information. Further, when the information processing method S1a is executed for the second time or later (n≧2), the generative model information acquisition unit 102 acquires the The “updated generative model information” is acquired as the first generative model information. In this case, the acquired first generative model information (that is, the previous updated generative model information) is information that reflects the second generative model information (that is, the previous fourth generative model information). .
 (ステップS103a)
 ステップS103aにおいて、データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。例えば、データ生成モデル学習部103は、生成モデル学習用データを用いて、第1のデータ生成モデルを規定するパラメータ群を更新する更新処理を実行する。データ生成モデル学習部103は、学習が収束するまで、あるいは、規定回数に達するまで、当該更新処理を繰り返す。これにより、第1のデータ生成モデルが学習される。
(Step S103a)
In step S103a, the data generation model learning unit 103 creates a first data generation model defined by referring to the first generative model information acquired by the generative model information acquisition unit 102, and converts the data for generative model learning into teacher data. used as a learning method. For example, the data generation model learning unit 103 uses the data for generative model learning to execute update processing for updating the parameter group defining the first data generation model. The data generation model learning unit 103 repeats the update process until the learning converges or until the specified number of times is reached. Thereby, the first data generation model is learned.
 (ステップS104a)
 ステップS104aにおいて、送信部110は、学習後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30aに送信する。
(Step S104a)
In step S104a, the transmission unit 110 transmits the third generative model information regarding the learned first data generative model to the server 30a.
 (ステップS301a)
 ステップS301aにおいて、サーバ30aの生成モデル情報取得部301は、第3の生成モデル情報を、第1の情報処理装置10aから受信することにより取得する。また、生成モデル情報取得部301は、第4の生成モデル情報を、第2のデータ生成モデルを逐次的に学習させる他の情報処理装置から受信することにより取得する。他の情報処理装置は、第1の情報処理装置10a及びサーバ30aとは異なる装置である。
(Step S301a)
In step S301a, the generative model information acquisition unit 301 of the server 30a acquires the third generative model information by receiving it from the first information processing apparatus 10a. Further, the generative model information acquisition unit 301 acquires the fourth generative model information by receiving it from another information processing apparatus that sequentially learns the second data generative model. Other information processing devices are devices different from the first information processing device 10a and the server 30a.
 (ステップS302a)
 ステップS302aにおいて、生成モデル情報更新部302は、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。一例として、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含めてもよい。
(Step S302a)
In step S302a, the generative model information update unit 302 refers to the third generative model information and the fourth generative model information to generate post-update generative model information. As an example, the generative model information updating unit 302 may include information obtained by taking a weighted average of the third generative model information and the fourth generative model information in the updated generative model information.
 (ステップS303a)
 ステップS303aにおいて、送信部310は、更新後の生成モデル情報を、第1の情報処理装置10aに送信する。当ステップで送信した「更新後の生成モデル情報」は、次回(n+1回目)の情報処理方法S1aにおけるステップS102aにおいて、「第1の生成モデル情報」として第1の情報処理装置10aによって受信される。
(Step S303a)
In step S303a, the transmission unit 310 transmits the updated generative model information to the first information processing apparatus 10a. The "updated generative model information" transmitted in this step is received by the first information processing apparatus 10a as "first generative model information" in step S102a in the next (n+1)th information processing method S1a. .
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態に係る情報処理システム1aにおいては、
 第1の情報処理装置10aが、
・第1のデータ生成モデルの学習用データ(生成モデル学習用データ)を取得し、
・サーバ30aから受信する更新後の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、第1のデータ生成モデルに関する第1の生成モデル情報として取得し、
・取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習用データ(生成モデル学習用データ)を用いて学習させ、
・学習後の第1のデータ生成モデルに関する第3の生成モデル情報をサーバ30aに送信する、
という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in the information processing system 1a according to this exemplary embodiment,
The first information processing device 10a
・ Acquire learning data (generative model learning data) of the first data generation model,
- first generative model information that is updated generative model information received from the server 30a and reflects second generative model information related to a second data generative model different from the first data generative model; , obtained as first generative model information about the first data generative model,
・Learning a first data generation model defined by referring to the acquired first generative model information using learning data (generative model learning data),
- Sending the third generative model information about the learned first data generative model to the server 30a;
configuration is adopted.
 また、サーバ30aが、
・第3の生成モデル情報、及び学習後の第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
・第3の生成モデル情報と第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成し、
・更新後の生成モデル情報を、第1の情報処理装置10aに送信する、
という構成が採用されている。
Moreover, the server 30a
Acquiring third generative model information and fourth generative model information related to the second data generative model after learning,
- Generate updated generative model information by referring to the third generative model information and the fourth generative model information;
- Transmitting the updated generative model information to the first information processing device 10a;
configuration is adopted.
 上記の構成によれば、第1の情報処理装置10aは、サーバ30aから受信する更新後の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習の対象として取得することができる。その結果、第1の情報処理装置10aは、第2の生成モデルを生成した他の情報処理装置によって用いられた他の生成モデル学習用データを直接的に取得することなく、当該他の生成モデル学習用データを間接的に用いて、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。換言すると、第1の情報処理装置10aは、自装置で取得した生成モデル学習用データと、他の情報処理装置が取得した生成モデル学習用データとの双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また、一例として、このような第1のデータ生成モデルにより生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。 According to the above configuration, the first information processing device 10a can acquire the first data generation model defined by referring to the updated generation model information received from the server 30a as a learning target. can. As a result, the first information processing device 10a does not directly acquire the other generative model learning data used by the other information processing device that generated the second generative model. The learning data can be used indirectly to generate a first data generation model capable of generating more diverse data. In other words, the first information processing device 10a learns by directly using both the generative model learning data acquired by the first information processing device and the generative model learning data acquired by another information processing device. A first data generation model can be generated that can similarly generate diverse data. In addition, as an example, when the data generated by such a first data generation model is used for learning an inference model, the diversity of the inference model learning data can be increased, and more accurate and diverse data can be obtained. It is possible to obtain an inference model that can correspond to
 〔例示的実施形態5〕
 本発明の第5の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~4にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary embodiment 5]
A fifth exemplary embodiment of the present invention will now be described in detail with reference to the drawings. Components having the same functions as the components described in exemplary embodiments 1 to 4 are denoted by the same reference numerals, and description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1bの構成について、図9を参照して説明する。図9は、情報処理システム1bの構成を示すブロック図である。情報処理システム1bは、推論モデル学習用のデータ群における不均衡を解消し、解消したデータ群を用いて推論モデルを学習させるシステムである。情報処理システム1bは、不均衡を解消するために、当該データ群に追加するデータを生成するデータ生成モデルを、連合学習により生成する。
<Configuration of information processing system>
The configuration of an information processing system 1b according to this exemplary embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing the configuration of the information processing system 1b. The information processing system 1b is a system that eliminates the imbalance in the data group for inference model learning and trains the inference model using the resolved data group. The information processing system 1b generates a data generation model for generating data to be added to the data group by federated learning in order to eliminate the imbalance.
 図9に示すように、情報処理システム1bは、第1の情報処理装置10b-1、第2の情報処理装置10b-2、及びサーバ30bを含む。第1の情報処理装置10b-1と、第2の情報処理装置10b-2と、サーバ30bとは、ネットワークNを介して接続される。 As shown in FIG. 9, the information processing system 1b includes a first information processing device 10b-1, a second information processing device 10b-2, and a server 30b. The first information processing device 10b-1, the second information processing device 10b-2, and the server 30b are connected via a network N. FIG.
 (推論モデル)
 本例示的実施形態では、推論モデルは、データのラベル種を推論するモデルである。推論モデルは、データが入力されると、複数のラベル種のうち何れかを示す情報を出力する。第1の情報処理装置10b-1は、当該装置が取得した学習用データを用いて、第1の推論モデルを学習させる。第2の情報処理装置10b-2は、当該装置が取得した学習用データを用いて、第2の推論モデルを学習させる。第1の推論モデル及び第2の推論モデルは互いに異なる。なお、第1の推論モデル、及び第2の推論モデルがそれぞれ出力するデータが示し得る複数のラベル種の構成は、必ずしも同一でなくてよい。例えば、第1の推論モデルが、ラベルL1、L3、L4、…、Lnの何れかを示すデータを出力し、第2の推論モデルが、ラベルL2、L3、L4、…、Lnの何れかを示すデータを出力してもよい。以降、第1の推論モデル、及び第2の推論モデルを特に区別して説明する必要がない場合には、単に「推論モデル」と記載する。
(inference model)
In this exemplary embodiment, the inference model is a model that infers the label species of the data. The inference model outputs information indicating one of a plurality of label types when data is input. The first information processing device 10b-1 uses the learning data acquired by the device to learn the first inference model. The second information processing device 10b-2 uses the learning data acquired by the device to learn the second inference model. The first inference model and the second inference model are different from each other. Note that the configurations of the plurality of label types that can be indicated by the data output by the first inference model and the data output by the second inference model do not necessarily have to be the same. For example, the first inference model outputs data indicating any of the labels L1, L3, L4, . You may output the data shown. Hereinafter, when there is no need to distinguish between the first inference model and the second inference model, they will simply be referred to as "inference model".
 (学習用データ、不均衡データ群)
 学習用データは、推論モデルの学習に用いるために取得されるデータ片であり、データ群に含まれる複数のデータ片の何れかである。当該データ群に含まれる各データ片は、複数のラベル種の何れかでラベル付けされており、あるラベル種が付されたデータ片の割合が所定の割合以下である。以降、このようなデータ群を「不均衡データ群」とも記載し、「あるラベル種」を「少数ラベル種」とも記載する。
(Learning data, unbalanced data group)
Learning data is a piece of data acquired for use in learning an inference model, and is any of a plurality of pieces of data included in a data group. Each data piece included in the data group is labeled with one of a plurality of label types, and the percentage of data pieces labeled with a certain label type is less than or equal to a predetermined percentage. Hereinafter, such a data group is also referred to as an "unbalanced data group", and "a certain label species" is also referred to as a "minority label species".
 換言すると、不均衡データ群は、複数のラベル種の何れかがそれぞれに付された複数の学習用データ(データ片)を含み、複数のラベル種のうち少なくとも1つが少数ラベル種の条件を満たす。例えば、少数ラベル種の条件とは、上述したように、当該ラベル種が付されたデータ片の割合が所定の割合以下であることであってもよいし、当該ラベル種が付されたデータ片の数が、他のラベル種の数より少ないことであってもよい。ただし、少数ラベル種の条件は、上述したものに限られない。 In other words, the imbalanced data group includes a plurality of learning data (data pieces) each labeled with one of a plurality of label types, and at least one of the plurality of label types satisfies the minority label type condition. . For example, the condition for the minority label type may be, as described above, that the ratio of data pieces to which the label type is attached is equal to or less than a predetermined ratio, or that the data pieces to which the label type is attached may be less than the number of other label types. However, the conditions for minority label types are not limited to those described above.
 第1の情報処理装置10b-1が取得する第1の不均衡データ群と、第2の情報処理装置10b-2が用いる第2の不均衡データ群は、少なくとも一部が互いに異なる。ここで、第1の不均衡データ群における少数ラベル種と、第2の不均衡データ群における少数ラベル種とは同一であってもよいし、同一でなくてもよい。なお、第1の不均衡データ群、及び第2の不均衡データ群を特に区別して説明する必要が無い場合には、引き続き、単に「不均衡データ群」とも記載する。 The first imbalance data group acquired by the first information processing device 10b-1 and the second imbalance data group used by the second information processing device 10b-2 are at least partially different from each other. Here, the minority label species in the first imbalanced data group and the minority label species in the second imbalanced data group may or may not be the same. Incidentally, when there is no need to specifically distinguish between the first imbalance data group and the second imbalance data group, they will also simply be referred to as "imbalance data group".
 第1の不均衡データ群、及び第2の不均衡データ群における少数ラベル種が同一でない場合の具体例について説明する。このような不均衡データ群に含まれるデータ片の具体例として、製品画像が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なる生産工場で得られた製品画像のセットである。各製品画像には、「正常品」、「不良品パターンA」、及び「不良品パターンB」の何れかのラベルが付される。第1の不均衡データ群では、「不良品パターンA」のラベルが付された製品画像の割合が所定の割合以下である。または、「不良品パターンA」のラベルが付された製品画像の数が、「正常品」のラベルが付された製品画像の数より少なく、かつ、「不良品パターンB」のラベルが付された製品画像の数より少ない。この場合、第1の不均衡データ群における少数ラベル種は「不良品パターンA」である。一方、第2の不均衡データ群では、「不良品パターンB」のラベルが付された製品画像の割合が所定の割合以下である。または、「不良品パターンB」のラベルが付された製品画像の数が、「正常品」のラベルが付された製品画像の数より少なく、かつ、「不良品パターンA」のラベルが付された製品画像の数より少ない。この場合、第2の不均衡データ群における少数ラベル種は「不良品パターンB」である。 A specific example when the minority label species in the first imbalanced data group and the second imbalanced data group are not the same will be described. A specific example of a data piece included in such an unbalanced data group is a product image. In this case, the first imbalance data group and the second imbalance data group are sets of product images obtained at different production plants. Each product image is labeled with one of "normal product", "defective product pattern A", and "defective product pattern B". In the first imbalanced data set, the percentage of product images labeled "Defective Pattern A" is less than or equal to a predetermined percentage. Or, the number of product images labeled with "defective product pattern A" is less than the number of product images labeled with "normal product", and the label with "defective product pattern B" is attached less than the number of product images shown. In this case, the minority label type in the first imbalance data group is "defective product pattern A." On the other hand, in the second imbalance data group, the percentage of product images labeled with "defective product pattern B" is less than or equal to the predetermined percentage. Or, the number of product images labeled with "defective product pattern B" is less than the number of product images labeled with "normal product", and the label with "defective product pattern A" is attached less than the number of product images shown. In this case, the minority label type in the second imbalance data group is "defective product pattern B".
 また、第1の不均衡データ群、及び第2の不均衡データ群における少数ラベル種が同一である場合の具体例について説明する。このような不均衡データ群に含まれるデータ片の具体例として、金融システム又は通信システムにおける通信データ片が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なるシステムで得られた通信データ片のセットである。各通信データ片に「正常」又は「異常」のラベルが付され、「異常」が少数ラベル種となる例がある。また、他のデータ片の具体例として、医療用画像である例が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なる医療機関で得られた医療用画像のセットである。各医療用画像には、「病変無し」又は「病変有り」のラベルが付され、「病変有り」が少数ラベル種となる例がある。ただし、データ片、及び少数ラベル種の具体例は、上述したものに限られない。 Also, a specific example in which the minority label species in the first imbalanced data group and the second imbalanced data group are the same will be described. A specific example of a piece of data included in such an imbalanced data group is a piece of communication data in a financial system or communication system. In this case, the first imbalanced data set and the second imbalanced data set are sets of pieces of communication data obtained by different systems. There is an example in which each piece of communication data is labeled as "normal" or "abnormal", with "abnormal" being a minority label type. Another specific example of the data piece is a medical image. In this case, the first unbalanced data group and the second unbalanced data group are sets of medical images obtained at different medical institutions. Each medical image is labeled as "without lesion" or "with lesion", with "with lesion" being a minority label type. However, specific examples of data pieces and minority label types are not limited to those described above.
 (均衡データ群)
 均衡データ群は、複数のラベル種の何れかがそれぞれに付された複数の学習用データ(データ片)を含み、何れのラベル種も少数ラベル種の条件を満たさない。例えば、均衡データ群では、各ラベル種が付された学習用データの割合が処理の割合以上であるか、又は、各ラベル種が付された学習用データの数が等しい。
(Equilibrium data group)
The equilibrium data group includes a plurality of learning data (data pieces) each labeled with one of a plurality of label types, and none of the label types satisfies the minority label type condition. For example, in the balanced data group, the ratio of learning data with each label type is greater than or equal to the processing ratio, or the number of learning data with each label type is equal.
 第1の情報処理装置10b-1が生成する第1の均衡データ群と、第2の情報処理装置10b-2が生成する第2の均衡データ群は、少なくとも一部が互いに異なる。ただし、第1の均衡データ群、及び第2の均衡データ群を特に区別して説明する必要が無い場合には、引き続き、単に「均衡データ群」とも記載する。 The first balanced data group generated by the first information processing device 10b-1 and the second balanced data group generated by the second information processing device 10b-2 are at least partially different from each other. However, if there is no need to specifically distinguish between the first equilibrium data group and the second equilibrium data group, they will simply be referred to as the "equilibrium data group".
 (データ生成モデル)
 データ生成モデルは、推論モデル学習用データとして用いるためのデータを生成する。なお、第1の情報処理装置10b-1は第1のデータ生成モデルを生成し、第2の情報処理装置10b-2は第2のデータ生成モデルを生成するが、これらを特に区別して説明する必要がない場合には、引き続き、単に「データ生成モデル」とも記載する。データ生成モデルは、少なくとも少数ラベル種の教師データとなり得る学習用データを生成するよう学習される。
(data generation model)
The data generation model generates data to be used as inference model learning data. Although the first information processing device 10b-1 generates a first data generation model and the second information processing device 10b-2 generates a second data generation model, they will be described separately. If it is not necessary, it will also be simply described as "data generation model". The data generation model is learned to generate learning data that can be teacher data for at least a few label types.
 (生成モデル学習用データ)
 生成モデル学習用データは、データ生成モデルを学習させるためのデータである。不均衡データ群の一部または全部が、生成モデル学習用データとして用いられる。
(Generative model learning data)
The generative model learning data is data for learning the data generative model. Part or all of the imbalance data group is used as generative model learning data.
 (推論モデル学習用データ)
 推論モデル学習用データは、推論モデルを学習させるためのデータである。本例示的実施形態では、不均衡データ群における不均衡が解消された均衡データ群が、推論モデル学習用データとして用いられる。
(Inference model learning data)
The inference model learning data is data for learning the inference model. In this exemplary embodiment, a balanced data group in which the imbalance in the imbalanced data group is eliminated is used as inference model training data.
 (第1の情報処理装置の構成)
 第1の情報処理装置10b-1は、制御部150-1と、通信部160-1とを含む。制御部150-1は、学習用データ取得部101-1と、生成モデル情報取得部102-1と、データ生成モデル学習部103-1と、シードデータ取得部201-1と、データ生成部202-1と、推論モデル学習部203-1と、推論部204-1と、通信部160-1とを含む。
(Configuration of first information processing device)
First information processing device 10b-1 includes control unit 150-1 and communication unit 160-1. The control unit 150-1 includes a learning data acquisition unit 101-1, a generative model information acquisition unit 102-1, a data generation model learning unit 103-1, a seed data acquisition unit 201-1, and a data generation unit 202. -1, an inference model learning unit 203-1, an inference unit 204-1, and a communication unit 160-1.
 (学習用データ取得部)
 学習用データ取得部101-1は、第1の不均衡データ群を取得する。第1の不均衡データ群の詳細については上述した通りである。
(learning data acquisition unit)
The learning data acquisition unit 101-1 acquires a first imbalance data group. The details of the first imbalance data group are as described above.
 (生成モデル情報取得部)
 生成モデル情報取得部102-1は、例示的実施形態1における生成モデル情報取得部102と同様に構成される。
(generative model information acquisition part)
The generative model information acquisition unit 102-1 is configured similarly to the generative model information acquisition unit 102 in the first exemplary embodiment.
 (データ生成モデル学習部)
 データ生成モデル学習部103-1は、第1のデータ生成モデルを、第1の不均衡データ群の少なくとも一部を用いて学習させる。例えば、データ生成モデル学習部103-1は、第1のデータ生成モデルを含むオートエンコーダ、及び、第1のデータ生成モデルを含む敵対的生成ネットワークの少なくとも何れかを学習させてもよい。第1のデータ生成モデルの詳細については後述する。
(Data generation model learning part)
Data generation model learning section 103-1 learns the first data generation model using at least part of the first imbalance data group. For example, the data generation model learning unit 103-1 may learn at least one of an autoencoder including the first data generation model and a generative adversarial network including the first data generation model. Details of the first data generation model will be described later.
 (シードデータ取得部)
 シードデータ取得部201-1は、第1のデータ生成モデルに入力するためのシードデータを取得する。例えば、シードデータ取得部201-1は、シードデータを生成することにより取得してもよいし、当該装置に含まれる他の機能ブロック(図示せず)又は他の装置(図示せず)によって生成されたシードデータを取得してもよい。
(Seed data acquisition part)
The seed data acquisition unit 201-1 acquires seed data to be input to the first data generation model. For example, the seed data acquisition unit 201-1 may acquire by generating seed data, or may be generated by another functional block (not shown) included in the device or another device (not shown). You may obtain seed data that has been
 (データ生成部)
 データ生成部202-1は、シードデータを用いてデータを生成する。具体的には、データ生成部202-1は、シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。例えば、データ生成部202-1は、シードデータと、少数ラベル種を特定する条件とを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成してもよい。また、データ生成部202-1は、生成した学習用データを第1の不均衡データ群に追加して、第1の均衡データ群を生成する。
(data generator)
The data generator 202-1 generates data using seed data. Specifically, the data generation unit 202-1 generates learning data that can be teacher data for a small number of labels by inputting seed data into the first data generation model. For example, the data generation unit 202-1 inputs seed data and conditions for identifying minority label types into the first data generation model to generate learning data that can be teacher data for minority label types. good too. The data generator 202-1 also adds the generated learning data to the first imbalance data group to generate the first equilibrium data group.
 (推論モデル学習部)
 推論モデル学習部203-1は、データ生成部202-1が生成したデータを参照して第1の推論モデルを学習させる。具体的には、推論モデル学習部203-1は、第1の均衡データ群を、推論モデル学習用データとして用いる。
(Inference model learning part)
The inference model learning unit 203-1 refers to the data generated by the data generation unit 202-1 to learn the first inference model. Specifically, inference model learning section 203-1 uses the first equilibrium data group as inference model learning data.
 (推論部)
 推論部204-1は、推論部204-1が生成した推論モデルを用いて推論を行う。
(reasoning part)
The inference unit 204-1 makes an inference using the inference model generated by the inference unit 204-1.
 (通信部)
 通信部160-1は、データ生成モデル学習部103-1によって学習された後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30bに送信する。
(communication department)
The communication unit 160-1 transmits to the server 30b third generative model information regarding the first data generative model learned by the data generative model learning unit 103-1.
 (第2の情報処理装置の構成)
 第2の情報処理装置10b-2は、制御部150-2と、通信部160-2とを含む。制御部150-2は、学習用データ取得部101-2と、生成モデル情報取得部102-2と、データ生成モデル学習部103-2と、シードデータ取得部201-2と、データ生成部202-2と、推論モデル学習部203-2と、推論部204-2とを含む。
(Configuration of second information processing device)
Second information processing device 10b-2 includes control unit 150-2 and communication unit 160-2. Control unit 150-2 includes learning data acquisition unit 101-2, generation model information acquisition unit 102-2, data generation model learning unit 103-2, seed data acquisition unit 201-2, and data generation unit 202. -2, an inference model learning unit 203-2, and an inference unit 204-2.
 第2の情報処理装置10b-2の構成の詳細については、第1の情報処理装置10b-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。 For details of the configuration of the second information processing device 10b-2, in the description of the configuration of the first information processing device 10b-1, the suffixes “1” and “2” of each reference numeral are read interchangeably, and “second 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
 (サーバの構成)
 サーバ30bは、制御部350と、通信部360とを含む。制御部350は、生成モデル情報取得部301と、生成モデル情報更新部302と、通信部360とを含む。
(Server configuration)
Server 30 b includes a control unit 350 and a communication unit 360 . The control unit 350 includes a generative model information acquisition unit 301 , a generative model information update unit 302 and a communication unit 360 .
 (生成モデル情報取得部)
 生成モデル情報取得部301は、例示的実施形態4における生成モデル情報取得部301と同様に構成される。
(generative model information acquisition unit)
The generative model information acquisition unit 301 is configured similarly to the generative model information acquisition unit 301 in the fourth exemplary embodiment.
 (生成モデル情報更新部)
 生成モデル情報更新部302は、例示的実施形態4における生成モデル情報更新部302と同様に構成される。詳細には、本例示的実施形態では、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との平均を取ることによって、更新後の生成モデル情報を生成する。
(Generative model information update section)
The generative model information update unit 302 is configured similarly to the generative model information update unit 302 in the fourth exemplary embodiment. Specifically, in this exemplary embodiment, the generative model information updater 302 generates updated generative model information by averaging the third generative model information and the fourth generative model information.
 (通信部)
 通信部360は、更新後の生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。
(communication department)
The communication unit 360 distributes the updated generative model information to the first information processing device 10b-1 and the second information processing device 10b-2.
 <データ生成モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1bが実行する情報処理方法S1bについて、図10を参照して説明する。図10は、情報処理方法S1bの流れを説明するフロー図である。情報処理システム1bは、情報処理方法S1bを逐次的に実行することにより、データ生成モデルを生成する。なお、図10において、末尾に(n)を含む参照符号は、n回目に実行する情報処理方法S1bの各ステップを示し、末尾に(n+1)を含む参照符号は、n+1回目に実行する情報処理方法S1bの各ステップを示している。
<Flow of information processing method for generating data generation model>
An information processing method S1b executed by the information processing system 1b configured as described above will be described with reference to FIG. FIG. 10 is a flowchart for explaining the flow of the information processing method S1b. The information processing system 1b generates a data generation model by sequentially executing the information processing method S1b. In FIG. 10, the reference numerals including (n) at the end indicate the steps of the information processing method S1b to be executed for the nth time, and the reference numerals including (n+1) at the end are the information processing to be executed for the n+1th time. 4 shows the steps of method S1b.
 (ステップS101-1)
 n回目のステップS101-1において、第1の情報処理装置10b-1の学習用データ取得部101-1は、第1の不均衡データ群を取得する。
(Step S101-1)
In the n-th step S101-1, the learning data acquisition unit 101-1 of the first information processing device 10b-1 acquires the first imbalance data group.
 (ステップS360)
 n回目のステップS360において、サーバ30bの通信部360は、生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。n=1である場合、配信する生成モデル情報として、事前に定められた情報が適用される。n≧2である場合、配信する生成モデル情報として、n-1回目のステップS302で更新された「更新後の生成モデル情報」が適用される。ステップS302については後述する。
(Step S360)
In the n-th step S360, the communication unit 360 of the server 30b distributes the generative model information to the first information processing device 10b-1 and the second information processing device 10b-2. When n=1, predetermined information is applied as the generative model information to be distributed. If n≧2, the “updated generative model information” updated in step S302 for the n−1 time is applied as the generative model information to be distributed. Step S302 will be described later.
 (ステップS102-1)
 n回目のステップS102-1において、第1の情報処理装置10b-1の生成モデル情報取得部102-1は、サーバ30bから配信された生成モデル情報を、第1の生成モデル情報として取得する。
(Step S102-1)
In the n-th step S102-1, the generative model information acquisition unit 102-1 of the first information processing device 10b-1 acquires the generative model information delivered from the server 30b as first generative model information.
 (ステップS103-1)
 n回目のステップS103-1において、第1の情報処理装置10b-1のデータ生成モデル学習部103-1は、生成モデル情報取得部102-1が取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを学習させる。学習には、第1の不均衡データ群に含まれる一部または全部の学習用データが教師データとして用いられる。具体的には、データ生成モデル学習部103-1は、第1の不均衡データ群に含まれる学習用データを用いて、第1のデータ生成モデルが少なくとも少数ラベル種の教師データとなり得る学習用データを出力するようパラメータ群を更新する更新処理を、学習が収束するまで、又は、規定回数に達するまで繰り返す。
(Step S103-1)
In the n-th step S103-1, the data generation model learning unit 103-1 of the first information processing device 10b-1 refers to the first generative model information acquired by the generative model information acquisition unit 102-1. A defined first data generation model is trained. For learning, part or all of the learning data included in the first imbalance data group is used as teacher data. Specifically, the data generation model learning unit 103-1 uses the learning data included in the first imbalance data group to determine whether the first data generation model can be training data of at least a minority label type. The update process for updating the parameter group so as to output the data is repeated until learning converges or until a specified number of times is reached.
 (ステップS160-1)
 n回目のステップS160-1において、第1の情報処理装置10b-1の通信部160-1は、学習後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30bに送信する。
(Step S160-1)
In the n-th step S160-1, the communication unit 160-1 of the first information processing device 10b-1 transmits the third generative model information regarding the learned first data generative model to the server 30b.
 (ステップS101-2~S160-2)
 第2の情報処理装置10b-2は、n回目のステップS101-2、S102-2、S103-2、S160-2を実行する。これらのステップの詳細については、第1の情報処理装置10b-1が実行するステップS101-1、S102-1、S103-1、S160-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Steps S101-2 to S160-2)
The second information processing device 10b-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the n-th time. Details of these steps are described in the descriptions of steps S101-1, S102-1, S103-1, and S160-1 executed by the first information processing device 10b-1. The same description is given by replacing "2" with each other, "first" and "second" with each other, and "third" and "fourth" with each other.
 (ステップS301)
 n+1回目のステップS301において、サーバ30bの生成モデル情報取得部301は、第3の生成モデル情報を、第1の情報処理装置10b-1から受信することにより取得する。また、生成モデル情報取得部301は、第4の生成モデル情報を、第2の情報処理装置10b-2から受信することにより取得する。
(Step S301)
In step S301 of the n+1 time, the generative model information acquisition unit 301 of the server 30b acquires the third generative model information by receiving it from the first information processing device 10b-1. Further, the generative model information acquisition unit 301 acquires the fourth generative model information by receiving it from the second information processing device 10b-2.
 (ステップS302)
 n+1回目のステップS302において、生成モデル情報更新部302は、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。具体的には、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含める。
(Step S302)
In the n+1th step S302, the generative model information updating unit 302 refers to the third generative model information and the fourth generative model information to generate post-update generative model information. Specifically, the generative model information update unit 302 includes information obtained by taking a weighted average of the third generative model information and the fourth generative model information in the updated generative model information.
 (ステップS360)
 n+1回目のステップS360において、通信部360は、更新後の生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。
(Step S360)
In the n+1-th step S360, the communication unit 360 distributes the updated generative model information to the first information processing device 10b-1 and the second information processing device 10b-2.
 また、第1の情報処理装置10b-1は、n+1回目のステップS101-1、S102-1、S103-1、S160-1を実行する。第2の情報処理装置10b-2は、n+1回目のステップS101-2、S102-2、S103-2、S160-2を実行する。その詳細については、n回目の各ステップにおいて説明した通りである。 Also, the first information processing device 10b-1 executes steps S101-1, S102-1, S103-1, and S160-1 for the n+1th time. The second information processing device 10b-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the (n+1)th time. The details are as described in each n-th step.
 このようにして、情報処理方法S1bを逐次的に実行することにより、第1の情報処理装置10b-1は、第2の情報処理装置10b-2が取得した学習用データを直接的に取得することなく間接的に用いることができる。その結果、第1の情報処理装置10b-1は、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また第2の情報処理装置10b-2は、第1の情報処理装置10b-1が取得した学習用データを直接的に取得することなく間接的に用いることができる。その結果、第2の情報処理装置10b-2は、より多様性のあるデータを生成可能な第2のデータ生成モデルを生成することができる。 By sequentially executing the information processing method S1b in this way, the first information processing device 10b-1 directly acquires the learning data acquired by the second information processing device 10b-2. can be used indirectly without As a result, the first information processing device 10b-1 can generate a first data generation model capable of generating more diverse data. Also, the second information processing device 10b-2 can indirectly use the learning data acquired by the first information processing device 10b-1 without directly acquiring it. As a result, the second information processing device 10b-2 can generate a second data generation model capable of generating more diverse data.
 <推論モデルを生成する情報処理方法の流れ>
 第1の情報処理装置10b-1、及び第2の情報処理装置10b-2が実行する情報処理方法S20bについて、図11を参照して説明する。図11は、情報処理方法S20bの流れを説明するフロー図である。第1の情報処理装置10b-1は、情報処理方法S20bを実行することにより、第1の推論モデルを生成する。第2の情報処理装置10b-2は、情報処理方法S20bを実行することにより、第2の推論モデルを生成する。以下では、第1の情報処理装置10b-1が情報処理方法S20bを実行する例について説明する。第2の情報処理装置10b-2が情報処理方法S20bを実行する例については、以下の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替えることにより、同様に説明される。図11に示すように、情報処理方法S20bは、ステップS201~S203を含む。
<Flow of information processing method for generating inference model>
The information processing method S20b executed by the first information processing device 10b-1 and the second information processing device 10b-2 will be described with reference to FIG. FIG. 11 is a flowchart for explaining the flow of the information processing method S20b. The first information processing device 10b-1 generates a first inference model by executing the information processing method S20b. The second information processing device 10b-2 generates a second inference model by executing the information processing method S20b. An example in which the first information processing device 10b-1 executes the information processing method S20b will be described below. As for the example in which the second information processing device 10b-2 executes the information processing method S20b, in the following description, the suffixes “1” and “2” of each reference numeral are replaced with each other, and “first” and “second 2” are interchanged with each other. As shown in FIG. 11, the information processing method S20b includes steps S201 to S203.
 (ステップS201)
 ステップS201において、シードデータ取得部201-1は、シードデータを取得する。具体的には、シードデータ取得部201-1は、少なくとも、第1の不均衡データ群における不均衡を解消可能な数だけ、シードデータを取得する。複数のシードデータを取得する場合、これらのシードデータは、互いに異なることが望ましい。不均衡を解消可能な数とは、例えば、第1の不均衡データ群において少数ラベル種が付された学習用データの数と、不均衡を解消後の第1の均衡データ群において所定の割合となる数との差である。例えば、第1の不均衡データ群において少数ラベル種が付された学習用データの数が20であり、第1の不均衡データ群に含まれる学習用データの数が100であり、所定の割合が0.3であるとする。この場合、不均衡を解消可能な数は、15である。また、不均衡を解消可能な数とは、例えば、第1の不均衡データ群において、少数ラベル種が付された学習用データの数と、他のラベル種が付された学習用データの数との差である。例えば、ラベル種が2種類であり、少数ラベル種が付された学習用データの数が20であり、他のラベル種が付された学習用データの数が40であるとする。この場合、不均衡を解消可能な数は、20である。なお、不均衡を解消可能な数は、上述した例に限定されない。
(Step S201)
In step S201, the seed data acquisition unit 201-1 acquires seed data. Specifically, the seed data acquisition unit 201-1 acquires at least as many pieces of seed data as can eliminate the imbalance in the first imbalance data group. When obtaining a plurality of seed data, it is desirable that these seed data are different from each other. The number of imbalances that can be resolved is, for example, the number of learning data with a minority label in the first imbalance data group, and a predetermined percentage in the first equilibrium data group after the imbalance is resolved. is the difference between the number of For example, the number of learning data to which minority labels are attached in the first imbalanced data group is 20, the number of learning data contained in the first imbalanced data group is 100, and the predetermined ratio is 0.3. In this case, the possible number to resolve the imbalance is fifteen. In addition, the number of imbalances that can be resolved is, for example, the number of learning data with minority label types and the number of learning data with other label types in the first imbalance data group. is the difference between For example, assume that there are two kinds of label types, the number of learning data to which minority label types are attached is 20, and the number of learning data to which other label types are attached is 40. In this case, the possible number to resolve the imbalance is twenty. Note that the number of imbalances that can be resolved is not limited to the example described above.
 (ステップS202)
 ステップS202において、データ生成部202-1は、ステップS201で生成した各シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。また、データ生成部202-1は、生成した学習用データを、第1の不均衡データ群に追加する。これにより、第1の不均衡データ群における不均衡が解消された第1の均衡データ群が生成される。
(Step S202)
In step S202, the data generation unit 202-1 inputs the seed data generated in step S201 to the first data generation model, thereby generating learning data that can be teacher data for a minority label type. Further, the data generator 202-1 adds the generated learning data to the first imbalance data group. As a result, a first balanced data group in which the imbalance in the first imbalanced data group is eliminated is generated.
 (ステップS203)
 ステップS203において、推論モデル学習部203-1は、第1の推論モデルを学習させる。学習には、第1の均衡データ群に含まれる各学習用データが、推論モデル学習用データとして用いられる。
(Step S203)
In step S203, the inference model learning unit 203-1 learns the first inference model. For learning, each learning data included in the first equilibrium data group is used as inference model learning data.
 <データ生成モデルの具体例>
 ここでは、第1のデータ生成モデル、第2のデータ生成モデルの具体例について説明する。以下では、第1のデータ生成モデル、及び第2のデータ生成モデルを特に区別して説明する必要がない場合、単に「データ生成モデル」と記載する。また、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に含まれる各機能ブロックを、何れの情報処理装置に含まれるかを特に区別して説明する必要がない場合、参照符号の末尾の「-1」又は「-2」を省略して記載する。
<Specific example of data generation model>
Here, specific examples of the first data generation model and the second data generation model will be described. In the following description, the first data generation model and the second data generation model are simply referred to as "data generation model" unless it is necessary to distinguish them from each other. In addition, when it is not necessary to specifically distinguish which information processing device includes each functional block included in the first information processing device 10b-1 and the second information processing device 10b-2, "-1" or "-2" at the end of the reference number is omitted.
 (具体例1)
 データ生成モデルを、変分オートエンコーダに含まれるデコーダとして実現する具体例1について、図12を参照して説明する。図12は、データ生成モデルの具体例1を説明する模式図である。図12に示すように、データ生成モデル学習部103が学習させる変分オートエンコーダは、エンコーダEN1及びデコーダDE1を含む。エンコーダEN1は、データXが入力されると、潜在変数Zを出力する。デコーダDE1は、潜在変数Zが入力されると、データX’を出力する。データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXのうち少数ラベル種が付されたデータXをエンコーダEN1に入力し、デコーダDE1が出力するデータX’とデータXとの差異がより小さくなるように学習を行う。詳細には、データ生成モデル学習部103は、少数ラベル種が付された学習用データXを用いて、XとX’との差異がより小さくなるようエンコーダEN1及びデコーダDE1を規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後のデコーダDE1は、少数ラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。
(Specific example 1)
A specific example 1 in which the data generation model is implemented as a decoder included in the variational autoencoder will be described with reference to FIG. FIG. 12 is a schematic diagram illustrating specific example 1 of the data generation model. As shown in FIG. 12, the variational autoencoder trained by the data generation model learning unit 103 includes an encoder EN1 and a decoder DE1. Encoder EN1 outputs latent variable Z when data X is input. Decoder DE1 outputs data X' when latent variable Z is input. The data generation model learning unit 103 inputs the data X to which the minority label type is attached among the learning data X acquired by the learning data acquisition unit 101 to the encoder EN1, and the data X′ and the data X output by the decoder DE1. Learning is performed so that the difference between Specifically, the data generation model learning unit 103 uses the learning data X to which the minority label seed is attached to set a parameter group that defines the encoder EN1 and the decoder DE1 so that the difference between X and X' becomes smaller. Execute the update process to update. In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times. The decoder DE1 after learning becomes a data generation model that generates learning data that can be teacher data for a minority label type.
 シードデータ取得部201は、学習後のデコーダDE1に入力するシードデータSを生成する。具体的には、シードデータ取得部201は、少数ラベル種が付された学習用データXをエンコーダENに入力して出力された潜在変数Zが示す範囲のデータを、シードデータSとして生成する。例えば、シードデータ取得部201は、潜在変数Zが示す範囲においてランダムにサンプリングしたデータをシードデータSとして生成してもよい。 The seed data acquisition unit 201 generates seed data S to be input to the decoder DE1 after learning. Specifically, the seed data acquisition unit 201 generates, as the seed data S, the data in the range indicated by the latent variable Z that is output from the learning data X to which the minority label seed is attached. For example, the seed data acquisition unit 201 may generate the seed data S by randomly sampling data in the range indicated by the latent variable Z. FIG.
 データ生成部202は、シードデータSをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。 By inputting the seed data S to the decoder DE2, the data generation unit 202 generates learning data that can be teacher data for a small number of labels.
 (具体例2)
 データ生成モデルを、条件付き変分オートエンコーダに含まれるデコーダとして実現する具体例2について、図13を参照して説明する。図13は、データ生成モデルの具体例2を説明する模式図である。図13に示すように、データ生成モデル学習部103が学習させる条件付き変分オートエンコーダは、エンコーダEN2及びデコーダDE2を含む。エンコーダEN2は、データX及び条件Yが入力されると、潜在変数Zを出力する。デコーダDE1は、潜在変数Z及び条件Yが入力されると、データX’を出力する。ここでは、条件Yとして、ラベル種を特定する情報が用いられる。
(Specific example 2)
A specific example 2 in which the data generation model is implemented as a decoder included in the conditional variational autoencoder will be described with reference to FIG. FIG. 13 is a schematic diagram illustrating a specific example 2 of the data generation model. As shown in FIG. 13, the conditional variational autoencoder trained by the data generation model learning unit 103 includes an encoder EN2 and a decoder DE2. Encoder EN2 outputs latent variable Z when data X and condition Y are input. Decoder DE1 outputs data X' when latent variable Z and condition Y are input. Here, as the condition Y, information specifying the label type is used.
 データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXをエンコーダEN2に入力し、当該学習用データに付されたラベル種を特定する条件YをエンコーダEN2及びデコーダDE2に入力する。また、データ生成モデル学習部103は、デコーダDE2が出力するデータX’とデータXとの差異がより小さくなるように学習を行う。詳細には、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXを用いて、XとX’との差異がより小さくなるようエンコーダEN2及びデコーダDE2を規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後のデコーダDE2は、条件Yにより特定されたラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。 The data generation model learning unit 103 inputs the learning data X acquired by the learning data acquisition unit 101 to the encoder EN2, and sends the condition Y specifying the label type attached to the learning data to the encoder EN2 and the decoder DE2. input. Further, the data generation model learning unit 103 performs learning so that the difference between the data X' output by the decoder DE2 and the data X becomes smaller. Specifically, the data generation model learning unit 103 uses the learning data X acquired by the learning data acquisition unit 101 to reduce the difference between X and X′ by using parameters that define the encoder EN2 and the decoder DE2. Execute update processing to update the group. In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times. The decoder DE2 after learning becomes a data generation model that generates learning data that can be teacher data of the label type specified by the condition Y. FIG.
 シードデータ取得部201は、学習後のデコーダDE2に入力するシードデータSを生成する。具体的には、シードデータ取得部201は、学習用データ、及び少数ラベル種を特定する条件YをエンコーダENに入力して出力された潜在変数Zを参照し、当該潜在変数Zが示す範囲のデータをシードデータSとして生成する。例えば、シードデータ取得部201は、潜在変数Zが示す範囲においてランダムにサンプリングしたデータをシードデータSとして生成してもよい。 The seed data acquisition unit 201 generates seed data S to be input to the post-learning decoder DE2. Specifically, the seed data acquisition unit 201 refers to the latent variable Z output by inputting the learning data and the condition Y for identifying the minority label type to the encoder EN, and determines the range indicated by the latent variable Z. data is generated as seed data S; For example, the seed data acquisition unit 201 may generate the seed data S by randomly sampling data in the range indicated by the latent variable Z. FIG.
 データ生成部202は、シードデータS及び、少数ラベル種を特定する条件YをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。 The data generation unit 202 generates learning data that can be teacher data for minority label types by inputting seed data S and a condition Y for specifying minority label types to the decoder DE2.
 (具体例3)
 データ生成モデルを、敵対的生成ネットワークに含まれるジェネレータとして実現する具体例3について、図14を参照して説明する。図14は、データ生成モデルの具体例3を説明する模式図である。図14に示すように、データ生成モデル学習部103が学習させる敵対的生成ネットワークは、生成器GEN及び識別器DISを含む。生成器GENは、ノイズNDが入力されるとデータGDを出力する。識別器DISは、データGD及び真のデータXが入力されると、データGDが真のデータXであるか否かを判定する。
(Specific example 3)
A specific example 3 in which the data generation model is implemented as a generator included in the adversarial generation network will be described with reference to FIG. FIG. 14 is a schematic diagram illustrating a specific example 3 of the data generation model. As shown in FIG. 14, the generative adversarial network trained by the data generation model learning unit 103 includes a generator GEN and a discriminator DIS. The generator GEN outputs data GD when noise ND is input. The discriminator DIS determines whether the data GD is the true data X when the data GD and the true data X are inputted.
 データ生成モデル学習部103は、ノイズNDを生成器GENに入力し、学習用データ取得部101が取得した学習用データXのうち、少数ラベル種が付されたデータXを識別器DISに入力する。また、データ生成モデル学習部103は、生成器GENが生成したデータGDが真であると判定されるように学習を行う。詳細には、データ生成モデル学習部103は、少数ラベル種が付された学習用データXを用いて、データGDが真であると判定されるよう生成器GEN及び識別器DISを規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後の生成器GENは、少数ラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。 The data generation model learning unit 103 inputs the noise ND to the generator GEN, and inputs the data X to which the minority label type is attached among the learning data X acquired by the learning data acquisition unit 101 to the discriminator DIS. . Also, the data generation model learning unit 103 performs learning so that the data GD generated by the generator GEN is determined to be true. Specifically, the data generation model learning unit 103 uses the learning data X to which the minority label seed is attached, and sets the parameter group that defines the generator GEN and the discriminator DIS so that the data GD is determined to be true. Execute the update process to update the . In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times. The generator GEN after learning becomes a data generation model that generates learning data that can be teacher data for minority label types.
 シードデータ取得部201は、学習後の生成器GENに入力するシードデータSを生成する。具体的には、シードデータ取得部201は、ランダムに生成したノイズをシードデータSとして生成してもよい。 The seed data acquisition unit 201 generates seed data S to be input to the post-learning generator GEN. Specifically, the seed data acquisition unit 201 may generate randomly generated noise as the seed data S. FIG.
 データ生成部202は、シードデータSを学習後の生成器GENに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。 The data generation unit 202 generates learning data that can be teacher data for a small number of labels by inputting the seed data S to the post-learning generator GEN.
 (その他の具体例)
 その他の具体例として、データ生成モデルを、条件付き敵対的生成ネットワークに含まれるジェネレータとして実現する例がある。このような具体例では、図14に示す生成器GEN及び識別器DISには、それぞれさらに条件Yが入力される。生成器GENは、条件Y、及びノイズNDが入力されるとデータGDを出力する。識別器DISは、条件Y、データGD及び真のデータXが入力されると、データGDが真のデータXであるか否かを判定する。
(Other specific examples)
Another example is implementing the data generation model as a generator included in a conditional generative adversarial network. In such a specific example, the condition Y is further input to the generator GEN and discriminator DIS shown in FIG. The generator GEN outputs data GD when condition Y and noise ND are input. The discriminator DIS determines whether or not the data GD is the true data X when the condition Y, the data GD and the true data X are input.
 この場合、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXの何れかと、当該データXに付されたラベル種を特定する条件Yとを識別器DISに入力する。また、データ生成モデル学習部103は、当該ラベル種を特定する条件Yと、ノイズNDとを生成器GENに入力する。また、データ生成モデル学習部103は、生成器GENが生成したデータGDが真であると判定されるように学習を行う。詳細には、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXを用いて、データGDが真であると判定されるよう生成器GEN及び識別器DISを規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後の生成器GENは、条件Yにより特定されたラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。 In this case, the data generation model learning unit 103 inputs any of the learning data X acquired by the learning data acquiring unit 101 and the condition Y specifying the label type attached to the data X to the discriminator DIS. . Further, the data generation model learning unit 103 inputs the condition Y specifying the label type and the noise ND to the generator GEN. Also, the data generation model learning unit 103 performs learning so that the data GD generated by the generator GEN is determined to be true. Specifically, the data generation model learning unit 103 uses the learning data X acquired by the learning data acquisition unit 101 to define the generator GEN and the discriminator DIS so that the data GD is determined to be true. Execute update processing to update the parameter group. In addition, the data generation model learning unit 103 repeats the update process until the learning converges or until it reaches a specified number of times. The generator GEN after learning becomes a data generation model that generates learning data that can be teacher data of the label type specified by the condition Y.
 シードデータ取得部201は、学習後の生成器GENに入力するシードデータSを生成する。データ生成部202は、シードデータS及び、少数ラベル種を特定する条件YをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。 The seed data acquisition unit 201 generates seed data S to be input to the post-learning generator GEN. The data generation unit 202 generates learning data that can be teacher data for minority label types by inputting seed data S and conditions Y for specifying minority label types to the decoder DE2.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態においては、
 第1の情報処理装置10b-1、及び第2の情報処理装置10b-2の各々が、不均衡データ群を取得し、取得した不均衡データ群を用いた連合学習により、少数ラベル種の教師データとなり得る学習用データを生成するためのデータ生成モデルを生成する、
という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in this exemplary embodiment,
Each of the first information processing device 10b-1 and the second information processing device 10b-2 acquires an imbalanced data group, and performs associative learning using the acquired imbalanced data group to perform minority-labeled teacher training. Generating a data generation model for generating training data that can be data,
configuration is adopted.
 上記の構成によれば、少数ラベル種が付された学習用データの数が充分でない場合でも、他の情報処理装置が取得した少数ラベル種の学習用データを間接的に用いることができる。その結果、少数ラベル種の教師データとなり得る学習用データとしてより多様性のあるデータを生成可能なデータ生成モデルを生成することができる。 According to the above configuration, even if the number of learning data with minority label types is not sufficient, it is possible to indirectly use the minority label type learning data acquired by other information processing devices. As a result, it is possible to generate a data generation model capable of generating more diverse data as learning data that can be teacher data for a small number of label types.
 また、上記の構成によれば、データ生成モデルを用いて生成した少数ラベル種の教師データとなり得る学習用データを追加することで、不均衡データ群における不均衡を解消した均衡データ群を生成することができる。その結果、そのような均衡データ群を推論モデル学習用データとして用いることにより、より精度よく推論モデルを学習させることができる。 In addition, according to the above configuration, by adding learning data that can be teacher data for a minority label type generated using a data generation model, a balanced data group in which the imbalance in the imbalanced data group is eliminated is generated. be able to. As a result, by using such a balanced data group as inference model learning data, the inference model can be learned with higher accuracy.
 〔例示的実施形態6〕
 本発明の第6の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~5にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary embodiment 6]
A sixth exemplary embodiment of the invention will now be described in detail with reference to the drawings. Components having the same functions as the components described in the exemplary embodiments 1 to 5 are denoted by the same reference numerals, and the description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1cの構成について、図15を参照して説明する。図15は、情報処理システム1cの構成を示すブロック図である。情報処理システム1cは、例示的実施形態5に係る情報処理システム1cを、推論モデルを連合学習により生成するよう変形した態様である。すなわち、情報処理システム1cは、推論モデルの学習に用いる不均衡データ群における不均衡を解消するためのデータ生成モデルを連合学習により生成することに加えて、推論モデル自体も連合学習により生成する。
<Configuration of information processing system>
The configuration of an information processing system 1c according to this exemplary embodiment will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the information processing system 1c. The information processing system 1c is a modification of the information processing system 1c according to exemplary embodiment 5 so as to generate an inference model by federated learning. That is, the information processing system 1c generates the inference model itself by federated learning in addition to generating the data generation model for eliminating the imbalance in the imbalanced data group used for learning the inference model by federated learning.
 図15に示すように、情報処理システム1cは、第1の情報処理装置10c-1、第2の情報処理装置10c-2、及びサーバ30cを含む。第1の情報処理装置10c-1と、第2の情報処理装置10c-2と、サーバ30cとは、ネットワークNを介して接続される。 As shown in FIG. 15, the information processing system 1c includes a first information processing device 10c-1, a second information processing device 10c-2, and a server 30c. The first information processing device 10c-1, the second information processing device 10c-2, and the server 30c are connected via a network N. FIG.
 (第1の情報処理装置の構成)
 第1の情報処理装置10c-1は、例示的実施形態5に係る第1の情報処理装置10b-1と同様の構成に加えて、推論モデル情報取得部205-1を含む。また、本例示的実施形態では、推論モデル学習部203-1、及び通信部160-1の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
(Configuration of first information processing device)
The first information processing device 10c-1 includes an inference model information acquisition unit 205-1 in addition to the same configuration as the first information processing device 10b-1 according to the fifth exemplary embodiment. Also, in this exemplary embodiment, the configurations of the inference model learning unit 203-1 and the communication unit 160-1 are slightly different from those in the fifth exemplary embodiment. Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
 (推論モデル情報取得部)
 推論モデル情報取得部205-1は、第1の推論モデルに関する第1の推論モデル情報を取得する。
(Inference model information acquisition unit)
The inference model information acquisition unit 205-1 acquires first inference model information regarding the first inference model.
 (第1の推論モデル情報)
 第1の推論モデル情報は、一例として、第1の推論モデルを規定する各種のパラメータを含んでいる。本例示的実施形態では、第1の推論モデル情報には、第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映されている。
(First inference model information)
The first inference model information includes, for example, various parameters that define the first inference model. In the exemplary embodiment, the first inference model information reflects second inference model information about a second inference model that is different from the first inference model.
 (推論モデル学習部)
 推論モデル学習部203-1は、第1の推論モデル情報を参照して規定される第1の推論モデルを、データ生成部202-1が生成したデータを用いて学習させる。具体的には、推論モデル学習部203-1は、データ生成部202-1が生成したデータが追加されることにより第1の不均衡データ群における不均衡が解消された第1の均衡データ群を、第1の推論モデルの学習に用いる。
(Inference model learning part)
The inference model learning unit 203-1 learns the first inference model defined by referring to the first inference model information using the data generated by the data generation unit 202-1. Specifically, the inference model learning unit 203-1 adds the data generated by the data generation unit 202-1 to the first balanced data group in which the imbalance in the first imbalanced data group is eliminated. is used for training the first inference model.
 (通信部)
 通信部160-1は、例示的実施形態5と同様に構成されることに加えて、第3の推論モデル情報をサーバ30cに送信する。
(communication department)
The communication unit 160-1, in addition to being configured in the same manner as in exemplary embodiment 5, transmits the third inference model information to the server 30c.
 (第3の推論モデル情報)
 第3の推論モデル情報は、学習後の第1の推論モデルに関する情報であり、例えば、学習後の第1の推論モデルを規定するパラメータを含む。
(Third inference model information)
The third inference model information is information about the first inference model after learning, and includes, for example, parameters that define the first inference model after learning.
 (第4の推論モデル情報)
 第4の推論モデル情報は、学習後の第2の推論モデルに関する情報であり、例えば、学習後の第2の推論モデルを規定するパラメータを含む。
(Fourth inference model information)
The fourth inference model information is information about the second inference model after learning, and includes, for example, parameters that define the second inference model after learning.
 (第2の情報処理装置の構成)
 第2の情報処理装置10c-2は、例示的実施形態5に係る第2の情報処理装置10b-2と同様の構成に加えて、推論モデル情報取得部205-2を含む。第2の情報処理装置10c-2の構成の詳細については、第1の情報処理装置10c-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Configuration of second information processing device)
The second information processing device 10c-2 includes an inference model information acquisition unit 205-2 in addition to the same configuration as the second information processing device 10b-2 according to the fifth exemplary embodiment. For details of the configuration of the second information processing device 10c-2, in the description of the configuration of the first information processing device 10c-1, "1" and "2" at the end of each reference numeral are replaced with each other, 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
 (サーバの構成)
 サーバ30cは、例示的実施形態5に係るサーバ30bと同様の構成に加えて、推論モデル情報取得部303と、推論モデル情報更新部304とを含む。また、通信部360の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
(Server configuration)
The server 30c includes an inference model information acquisition unit 303 and an inference model information update unit 304 in addition to the same configuration as the server 30b according to the fifth exemplary embodiment. Also, the configuration of the communication unit 360 is slightly different from that of the fifth exemplary embodiment. Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
 (推論モデル情報取得部)
 推論モデル情報取得部303は、第1の推論モデルに関する第3の推論モデル情報、及び、第2の推論モデルに関する第4の推論モデル情報を取得する。
(Inference model information acquisition unit)
The inference model information acquisition unit 303 acquires third inference model information regarding the first inference model and fourth inference model information regarding the second inference model.
 (推論モデル情報更新部)
 推論モデル情報更新部304は、第3の推論モデル情報、及び第4の推論モデル情報を参照して、更新後の推論モデル情報を生成する。
(Inference model information update unit)
The inference model information update unit 304 generates updated inference model information by referring to the third inference model information and the fourth inference model information.
 (更新後の推論モデル情報)
 更新後の推論モデル情報には、第3の生成モデル情報及び第4の生成モデル情報が反映されている。
(Updated inference model information)
The updated inference model information reflects the third generative model information and the fourth generative model information.
 (通信部)
 通信部360は、例示的実施形態5と同様に構成されることに加えて、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。
(communication department)
In addition to being configured in the same manner as in Exemplary Embodiment 5, the communication unit 360 transmits updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2. To deliver.
 <データ生成モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1cは、図10に示した情報処理方法S1bを、例示的実施形態5と同様に逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。
<Flow of information processing method for generating data generation model>
The information processing system 1c configured as described above sequentially executes the information processing method S1b shown in FIG. Generate a data generation model for
 <推論モデルを生成する情報処理方法の流れ>
 情報処理システム1cが実行する情報処理方法S1cについて、図16を参照して説明する。図16は、情報処理方法S1cの流れを説明するフロー図である。情報処理システム1cは、情報処理方法S1cを逐次的に実行することにより、推論モデルを生成する。なお、図16において、末尾に(n)を含む参照符号は、n回目に実行する情報処理方法S1cの各ステップを示し、末尾に(n+1)を含む参照符号は、n+1回目に実行する情報処理方法S1cの各ステップを示している。
<Flow of information processing method for generating inference model>
An information processing method S1c executed by the information processing system 1c will be described with reference to FIG. FIG. 16 is a flowchart for explaining the flow of the information processing method S1c. The information processing system 1c generates an inference model by sequentially executing the information processing method S1c. In FIG. 16 , reference symbols including (n) at the end indicate steps of the information processing method S1c to be executed for the nth time, and reference symbols including (n+1) at the end are information processing to be performed for the n+1th time. 4 shows the steps of method S1c.
 (ステップS201-1)
 n回目のステップS201-1において、第1の情報処理装置10c-1のシードデータ取得部201-1は、第1の不均衡データ群における不均衡を解消可能な数だけ、シードデータを取得する。
(Step S201-1)
In the n-th step S201-1, the seed data acquisition unit 201-1 of the first information processing device 10c-1 acquires seed data by the number capable of resolving the imbalance in the first imbalance data group. .
 (ステップS202-1)
 n回目のステップS202-1において、第1の情報処理装置10c-1のデータ生成部202-1は、各シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。これにより、不均衡を解消可能な数だけ学習用データが生成される。また、データ生成部202-1は、生成した学習用データを、第1の不均衡データ群に追加する。これにより、第1の均衡データ群が生成される。
(Step S202-1)
In the n-th step S202-1, the data generation unit 202-1 of the first information processing device 10c-1 inputs each seed data to the first data generation model, thereby becoming teacher data of a few label types. Generate training data to obtain. As a result, the number of learning data that can eliminate the imbalance is generated. Further, the data generator 202-1 adds the generated learning data to the first imbalance data group. This produces a first set of balanced data.
 (ステップS370)
 n回目のステップS370において、サーバ30cの通信部360は、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。n=1である場合、配信する推論モデル情報として、事前に定められた情報が適用される。n≧2である場合、配信する推論モデル情報として、n-1回目のステップS304で更新された「更新後の推論モデル情報」が適用される。ステップS304については後述する。
(Step S370)
In the n-th step S370, the communication unit 360 of the server 30c distributes the updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2. When n=1, predetermined information is applied as the inference model information to be distributed. If n≧2, the “updated inference model information” updated in step S304 for the (n−1)th time is applied as the inference model information to be distributed. Step S304 will be described later.
 (ステップS205-1)
 n回目のステップS205-1において、第1の情報処理装置10c-1の推論モデル情報取得部205-1は、サーバ30cから配信された推論モデル情報を、第1の推論モデル情報として取得する。
(Step S205-1)
In the n-th step S205-1, the inference model information acquisition unit 205-1 of the first information processing device 10c-1 acquires the inference model information delivered from the server 30c as the first inference model information.
 (ステップS203-1)
 n回目のステップS203-1において、第1の情報処理装置10c-1の推論モデル学習部203-1は、推論モデル情報取得部205-1が取得した第1の推論モデル情報を参照して規定される第1の推論モデルを学習させる。学習には、ステップS202-1で生成した第1の均衡データ群が用いられる。具体的には、データ生成モデル学習部103-1は、第1の均衡データ群に含まれる学習用データを用いて第1の推論モデルのパラメータ群を更新する更新処理を、学習が収束するまで、又は、規定回数に達するまで繰り返す。
(Step S203-1)
In the n-th step S203-1, the inference model learning unit 203-1 of the first information processing device 10c-1 refers to the first inference model information acquired by the inference model information acquisition unit 205-1 to define A first inference model is trained. The first equilibrium data group generated in step S202-1 is used for learning. Specifically, the data generation model learning unit 103-1 performs update processing for updating the parameter group of the first inference model using the learning data included in the first equilibrium data group until learning converges. , or repeat until a specified number of times is reached.
 (ステップS170-1)
 n回目のステップS170-1において、第1の情報処理装置10c-1の通信部160-1は、学習後の第1の推論モデルに関する第3の推論モデル情報を、サーバ30cに送信する。
(Step S170-1)
In the n-th step S170-1, the communication unit 160-1 of the first information processing device 10c-1 transmits the third inference model information regarding the learned first inference model to the server 30c.
 (ステップS201-2、S202-2、S205-2、S203-2、S170-2)
 第2の情報処理装置10c-2は、n回目のステップS201-2、S202-2、S205-2、S203-2、S170-2を実行する。これらのステップの詳細については、第1の情報処理装置10c-1が実行するステップS201-1、S202-1、S205-1、S203-1、S170-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Steps S201-2, S202-2, S205-2, S203-2, S170-2)
The second information processing device 10c-2 executes steps S201-2, S202-2, S205-2, S203-2, and S170-2 for the n-th time. Details of these steps are described in the description of steps S201-1, S202-1, S205-1, S203-1, and S170-1 executed by the first information processing device 10c-1. The same description is given by replacing "1" and "2" with each other, "first" and "second" with each other, and "third" and "fourth" with each other.
 (ステップS303)
 n+1回目のステップS303において、サーバ30cの推論モデル情報取得部303は、第3の推論モデル情報を、第1の情報処理装置10c-1から受信することにより取得する。また、推論モデル情報取得部303は、第4の推論モデル情報を、第2の情報処理装置10c-2から受信することにより取得する。
(Step S303)
In step S303 of the (n+1)th time, the inference model information acquisition unit 303 of the server 30c acquires the third inference model information by receiving it from the first information processing device 10c-1. Also, the inference model information acquisition unit 303 acquires the fourth inference model information by receiving it from the second information processing device 10c-2.
 (ステップS304)
 n+1回目のステップS304において、推論モデル情報更新部304は、第3の推論モデル情報、及び第4の推論モデル情報を参照して、更新後の推論モデル情報を生成する。具体的には、推論モデル情報更新部304は、第3の推論モデル情報と第4の推論モデル情報との加重平均をとることによって得られる情報を、更新後の推論モデル情報に含める。
(Step S304)
In the n+1-th step S304, the inference model information updating unit 304 refers to the third inference model information and the fourth inference model information to generate updated inference model information. Specifically, the inference model information updating unit 304 includes information obtained by taking a weighted average of the third inference model information and the fourth inference model information in the updated inference model information.
 (ステップS370)
 n+1回目のステップS370において、通信部360は、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。
(Step S370)
In the n+1-th step S370, the communication unit 360 distributes the updated inference model information to the first information processing device 10c-1 and the second information processing device 10c-2.
 また、第1の情報処理装置10c-1は、n+1回目のステップS201-1、S202-1、S205-1、S203-1、S170-1を実行する。第2の情報処理装置10c-2は、n+1回目のステップS201-2、S202-2、S205-2、S203-2、S170-2を実行する。その詳細については、n回目の各ステップにおいて説明した通りである。 Also, the first information processing device 10c-1 executes steps S201-1, S202-1, S205-1, S203-1, and S170-1 for the (n+1)th time. The second information processing device 10c-2 executes steps S201-2, S202-2, S205-2, S203-2, and S170-2 for the (n+1)th time. The details are as described in each n-th step.
 このようにして、情報処理方法S1cを逐次的に実行することにより、第1の情報処理装置10c-1は、第2の情報処理装置10c-2が取得又は生成した学習用データを直接的に取得することなく間接的に用いることができ、第1の推論モデルを精度よく効率的に生成することができる。また第2の情報処理装置10c-2は、第1の情報処理装置10c-1が取得又は生成した学習用データを直接的に取得することなく間接的に用いることができ、第2の推論モデルをより精度よく効率的に生成することができる。 In this way, by sequentially executing the information processing method S1c, the first information processing device 10c-1 directly acquires or generates learning data obtained by the second information processing device 10c-2. It can be used indirectly without obtaining it, and the first inference model can be generated accurately and efficiently. Further, the second information processing device 10c-2 can indirectly use the learning data acquired or generated by the first information processing device 10c-1 without directly acquiring it, and the second inference model can be generated more accurately and efficiently.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態においては、
 第1の情報処理装置10c-1、及び第2の情報処理装置10c-2の各々が、連合学習により生成したデータ生成モデルを用いて不均衡を解消した均衡データ群を用いて、推論モデルを連合学習させる。
<Effects of this exemplary embodiment>
As described above, in this exemplary embodiment,
Each of the first information processing device 10c-1 and the second information processing device 10c-2 generates an inference model using a balanced data group in which imbalance is eliminated using a data generation model generated by federated learning. Let them learn associatively.
 上記の構成によれば、データ生成モデルを用いて不均衡を解消した均衡データ群に含まれる学習用データの数が充分でない場合であっても、他の情報処理装置が生成した均衡データ群に含まれる学習用データを間接的に用いることができる。その結果、他の情報処理装置が生成した均衡データ群を直接的に取得することを避けるべき状況であっても、間接的に参照できる学習データが増加したことで、推論モデルを効率よく生成することができる。 According to the above configuration, even if the number of learning data included in the balanced data group whose imbalance is resolved using the data generation model is not sufficient, the balanced data group generated by the other information processing device The included training data can be used indirectly. As a result, even in situations where direct acquisition of equilibrium data groups generated by other information processing devices should be avoided, inference models can be generated efficiently due to the increased amount of learning data that can be referenced indirectly. be able to.
 〔例示的実施形態7〕
 本発明の第7の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~6にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary Embodiment 7]
A seventh exemplary embodiment of the present invention will now be described in detail with reference to the drawings. Components having the same functions as the components described in the exemplary embodiments 1 to 6 are denoted by the same reference numerals, and the description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1dの構成について、図17を参照して説明する。図17は、情報処理システム1dの構成を示すブロック図である。情報処理システム1dは、例示的実施形態6に係る情報処理システム1cを、サーバ30cを含まないよう変形した態様である。すなわち、情報処理システム1dは、データ生成モデル、及び推論モデルの連合学習を、サーバを介さずに行う。
<Configuration of information processing system>
A configuration of an information processing system 1d according to this exemplary embodiment will be described with reference to FIG. FIG. 17 is a block diagram showing the configuration of the information processing system 1d. The information processing system 1d is a modification of the information processing system 1c according to the sixth exemplary embodiment so as not to include the server 30c. That is, the information processing system 1d performs federated learning of the data generation model and the inference model without using the server.
 図17に示すように、情報処理システム1dは、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2を含む。第1の情報処理装置10d-1と、第2の情報処理装置10d-2とは、ネットワークNを介して接続される。 As shown in FIG. 17, the information processing system 1d includes a first information processing device 10d-1 and a second information processing device 10d-2. A first information processing device 10d-1 and a second information processing device 10d-2 are connected via a network N. FIG.
 (第1の情報処理装置の構成)
 第1の情報処理装置10d-1は、例示的実施形態6に係る第1の情報処理装置10c-1と同様の構成に加えて、モデル情報更新部260-1を含む。また、本例示的実施形態では、生成モデル情報取得部102-1、データ生成モデル学習部103-1、推論モデル情報取得部205-1、及び推論モデル学習部203-1の構成が、例示的実施形態6と若干異なる。その他の各機能ブロックについては、例示的実施形態6と同様であるため、詳細な説明を繰り返さない。
(Configuration of first information processing device)
The first information processing device 10d-1 includes a model information updating unit 260-1 in addition to the same configuration as the first information processing device 10c-1 according to the sixth exemplary embodiment. Further, in this exemplary embodiment, the configurations of the generative model information acquisition unit 102-1, the data generation model learning unit 103-1, the inference model information acquisition unit 205-1, and the inference model learning unit 203-1 are It is slightly different from the sixth embodiment. Other functional blocks are the same as those in the sixth exemplary embodiment, so detailed description will not be repeated.
 (生成モデル情報取得部)
 生成モデル情報取得部102-1は、第2の情報処理装置10d-2から、第4の生成モデル情報を取得する。第4の生成モデル情報は、第2の情報処理装置10d-2が学習させた学習後の第2のデータ生成モデルに関する情報である。
(generative model information acquisition unit)
The generative model information acquisition unit 102-1 acquires fourth generative model information from the second information processing device 10d-2. The fourth generative model information is information about the second data generative model after learning which is learned by the second information processing device 10d-2.
 (推論モデル情報取得部)
 推論モデル情報取得部205-1は、第2の情報処理装置10d-2から、第4の推論モデル情報を取得する。第4の推論モデル情報は、第2の情報処理装置10d-2が学習させた学習後の第2の推論モデルに関する情報である。
(Inference model information acquisition unit)
The inference model information acquisition unit 205-1 acquires fourth inference model information from the second information processing device 10d-2. The fourth inference model information is information about the second inference model after learning which is learned by the second information processing device 10d-2.
 (モデル情報更新部)
 モデル情報更新部206-1は、第3の生成モデル情報と、第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成する。ここで、第3の生成モデル情報は、データ生成モデル学習部103-1が学習させた学習後の第1のデータ生成モデルに関する情報である。
(Model information update section)
The model information updating unit 206-1 generates updated generative model information by referring to the third generative model information and the fourth generative model information. Here, the third generative model information is information about the learned first data generative model learned by the data generative model learning unit 103-1.
 また、モデル情報更新部206は、第3の推論モデル情報と、第4の推論モデル情報とを参照して、更新後の推論モデル情報を生成する。ここで、第3の推論モデル情報は、推論モデル学習部203-1が学習させた学習後の第1の推論モデルに関する情報である。 Also, the model information update unit 206 generates updated inference model information by referring to the third inference model information and the fourth inference model information. Here, the third inference model information is information about the first inference model after learning which the inference model learning unit 203-1 has made to learn.
 (データ生成モデル学習部)
 データ生成モデル学習部103-1は、モデル情報更新部206-1が生成した更新後の生成モデル情報によって規定される第1のデータ生成モデルを、第1の不均衡データ群を用いて学習させる。
(Data generation model learning part)
The data generation model learning unit 103-1 learns the first data generation model defined by the updated generation model information generated by the model information update unit 206-1 using the first imbalance data group. .
 (推論モデル学習部)
 推論モデル学習部203-1は、モデル情報更新部206-1が生成した更新後の推論モデル情報によって規定される第1の推論モデルを、第1の均衡データ群を用いて学習させる。
(Inference model learning part)
The inference model learning unit 203-1 uses the first equilibrium data group to learn the first inference model defined by the updated inference model information generated by the model information update unit 206-1.
 (通信部)
 通信部160-1は、第2の情報処理装置10d-2に対して、第3の生成モデル情報、及び第3の推論モデル情報を送信する。
(communication department)
The communication unit 160-1 transmits the third generative model information and the third inference model information to the second information processing device 10d-2.
 (第2の情報処理装置の構成)
 第2の情報処理装置10d-2は、例示的実施形態6に係る第2の情報処理装置10c-2と同様の構成に加えて、モデル情報更新部260-2を含む。第2の情報処理装置10d-2の構成の詳細については、第1の情報処理装置10d-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Configuration of second information processing device)
The second information processing device 10d-2 includes a model information updating unit 260-2 in addition to the same configuration as the second information processing device 10c-2 according to the sixth exemplary embodiment. For details of the configuration of the second information processing device 10d-2, in the description of the configuration of the first information processing device 10d-1, the suffixes “1” and “2” of each reference numeral are replaced with each other, and “second 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged.
 <データ生成モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1dは、図10に示した情報処理方法S1bを変形して逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。具体的には、情報処理方法S1bは、サーバ30bが実行していたステップS302を、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2が代わりに実行するよう変形される。一例として、第1の情報処理装置10d-1は、ステップS102-1、及びS103-1の間に、ステップS302-1を実行する。変形された情報処理方法S1bについて、以下に説明する。
<Flow of information processing method for generating data generation model>
The information processing system 1d configured as described above modifies and sequentially executes the information processing method S1b shown in FIG. 10 to generate a first data generation model and a second data generation model. do. Specifically, the information processing method S1b is modified such that step S302 that was executed by the server 30b is executed by the first information processing device 10d-1 and the second information processing device 10d-2 instead. be. As an example, the first information processing apparatus 10d-1 executes step S302-1 between steps S102-1 and S103-1. The modified information processing method S1b will be described below.
 (ステップS101-1)
 n回目のステップS101-1は、例示的実施形態5と同様である。
(Step S101-1)
The n-th step S101-1 is the same as in the fifth exemplary embodiment.
 (ステップS102-1)
 n回目のステップS102-1は、n≧2の場合に実行される。n回目のステップS102-1において、第1の情報処理装置10d-1の生成モデル情報取得部102-1は、第2の情報処理装置10d-2から、第4の生成モデル情報を取得する。第4の生成モデル情報は、前回(n-1回目)のステップS160-2において第2の情報処理装置10d-2から送信される。n=1の場合、ステップS102-1の実行は省略される。
(Step S102-1)
The n-th step S102-1 is executed when n≧2. In the n-th step S102-1, the generative model information acquisition unit 102-1 of the first information processing device 10d-1 acquires fourth generative model information from the second information processing device 10d-2. The fourth generative model information is transmitted from the second information processing device 10d-2 in the previous (n-1)th step S160-2. If n=1, execution of step S102-1 is omitted.
 (ステップS302-1)
 n回目のステップS302-1において、第1の情報処理装置10d-1のモデル情報更新部206-1は、第3の生成モデル情報と、第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成する。なお、n≧2の場合、第3の生成モデル情報は、前回(n-1回目)のステップS103-1において学習後の第1のデータ生成モデルに関する情報である。n=1の場合、モデル情報更新部206-1は、更新後の生成モデル情報として、事前に定められた情報を生成する。
(Step S302-1)
In the n-th step S302-1, the model information updating unit 206-1 of the first information processing device 10d-1 refers to the third generative model information and the fourth generative model information, and updates the Generate generative model information for . When n≧2, the third generative model information is information about the first data generative model after learning in the previous (n−1)th step S103-1. When n=1, the model information updating unit 206-1 generates predetermined information as updated generative model information.
 (ステップS103-1)
 n回目のステップS103-1において、第1の情報処理装置10d-1のデータ生成モデル学習部103-1は、更新後の生成モデル情報によって規定される第1のデータ生成モデルを、第1の不均衡データ群を用いて学習させる。
(Step S103-1)
In the n-th step S103-1, the data generation model learning unit 103-1 of the first information processing device 10d-1 converts the first data generation model defined by the updated generative model information into the first Learn using an imbalanced data group.
 (ステップS160-1)
 n回目のステップS160-1において、第1の情報処理装置10d-1の通信部160-1は、学習後の第1のデータ生成モデルに関する新たな第3の生成モデル情報を、第2の情報処理装置10d-2に送信する。
(Step S160-1)
In the n-th step S160-1, the communication unit 160-1 of the first information processing device 10d-1 transmits new third generative model information regarding the learned first data generative model to the second information. It is transmitted to the processing device 10d-2.
 (ステップS101-2、S102-2、S302-2、S103-2、S160-2)
 第2の情報処理装置10d-2は、n回目のステップS101-2、S102-2、S103-2、S160-2を実行する。これらのステップの詳細については、第1の情報処理装置10d-1が実行するステップS101-1、S102-1、S302-1、S103-1、S160-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Steps S101-2, S102-2, S302-2, S103-2, S160-2)
The second information processing device 10d-2 executes steps S101-2, S102-2, S103-2, and S160-2 for the n-th time. Details of these steps are described in the description of steps S101-1, S102-1, S302-1, S103-1, and S160-1 executed by the first information processing device 10d-1. The same description is given by replacing "1" and "2" with each other, "first" and "second" with each other, and "third" and "fourth" with each other.
 <推論モデルを生成する情報処理方法の流れ>
 情報処理システム1dは、図16に示した情報処理方法S1cを変形して逐次的に実行することにより、第1の推論モデル、及び第2の推論モデルを生成する。情報処理方法S1cは、サーバ30cが実行していたステップS304を、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2が代わりに実行するよう変形される。一例として、第1の情報処理装置10d-1は、ステップS205-1、及びS203-1の間に、ステップS304-1を実行する。変形された情報処理方法S1cについて、以下に説明する。
<Flow of information processing method for generating inference model>
The information processing system 1d transforms the information processing method S1c shown in FIG. 16 and sequentially executes it to generate a first inference model and a second inference model. The information processing method S1c is modified such that step S304, which was executed by the server 30c, is executed by the first information processing device 10d-1 and the second information processing device 10d-2 instead. As an example, the first information processing apparatus 10d-1 executes step S304-1 between steps S205-1 and S203-1. The modified information processing method S1c will be described below.
 (ステップS201-1~S202-1)
 n回目のステップS201-1~S202-1は、例示的実施形態6と同様である。
(Steps S201-1 to S202-1)
The nth steps S201-1 to S202-1 are the same as in the sixth exemplary embodiment.
 (ステップS205-1)
 n回目のステップS205-1は、n≧2の場合に実行される。n回目のステップS205-1において、第1の情報処理装置10d-1の推論モデル情報取得部205-1は、第2の情報処理装置10d-2から、第4の推論モデル情報を取得する。第4の推論モデル情報は、前回(n-1回目)のステップS170-2において第2の情報処理装置10d-2から送信される。n=1の場合、ステップS205-1の実行は省略される。
(Step S205-1)
The n-th step S205-1 is executed when n≧2. In the n-th step S205-1, the inference model information acquisition unit 205-1 of the first information processing device 10d-1 acquires the fourth inference model information from the second information processing device 10d-2. The fourth inference model information is transmitted from the second information processing device 10d-2 in the previous (n-1)th step S170-2. If n=1, execution of step S205-1 is omitted.
 (ステップS304-1)
 n回目のステップS304-1において、第1の情報処理装置10d-1のモデル情報更新部206-1は、第3の推論モデル情報と、第4の推論モデル情報とを参照して、更新後の推論モデル情報を生成する。なお、n≧2の場合、第3の推論モデル情報は、前回(n-1回目)のステップS203-1において学習後の第1の推論モデルに関する情報である。n=1の場合、モデル情報更新部206-1は、更新後の推論モデル情報として、事前に定められた情報を生成する。
(Step S304-1)
In the n-th step S304-1, the model information updating unit 206-1 of the first information processing device 10d-1 refers to the third inference model information and the fourth inference model information, and updates the Generate inference model information for When n≧2, the third inference model information is information about the first inference model after learning in the previous (n−1)th step S203-1. When n=1, the model information updating unit 206-1 generates predetermined information as updated inference model information.
 (ステップS203-1)
 n回目のステップS203-1において、第1の情報処理装置10d-1の推論モデル学習部203-1は、更新後の推論モデル情報によって規定される第1の推論モデルを、第1の均衡データ群を用いて学習させる。
(Step S203-1)
In the n-th step S203-1, the inference model learning unit 203-1 of the first information processing device 10d-1 converts the first inference model defined by the updated inference model information to the first equilibrium data. Learn using a group.
 (ステップS170-1)
 n回目のステップS170-1において、第1の情報処理装置10d-1の通信部160-1は、学習後の第1の推論モデルに関する新たな第3の推論モデル情報を、第2の情報処理装置10d-2に送信する。
(Step S170-1)
In the n-th step S170-1, the communication unit 160-1 of the first information processing device 10d-1 transmits new third inference model information regarding the learned first inference model to the second information processing unit. Send to device 10d-2.
 (ステップS201-2、S202-2、S205-2、S304-2、S203-2、S170-2)
 第2の情報処理装置10d-2は、n回目のステップS201-2、S202-2、S205-2、S304-2、S203-2、S170-2を実行する。これらのステップの詳細については、第1の情報処理装置10d-1が実行するステップS201-1、S202-1、S205-1、S304-1、S203-1、S170-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
(Steps S201-2, S202-2, S205-2, S304-2, S203-2, S170-2)
The second information processing device 10d-2 executes steps S201-2, S202-2, S205-2, S304-2, S203-2, and S170-2 for the n-th time. For details of these steps, refer to the descriptions of steps S201-1, S202-1, S205-1, S304-1, S203-1, and S170-1 executed by the first information processing device 10d-1. The same explanation can be made by replacing the suffixes "1" and "2" with each other, "first" and "second" with each other, and with "third" and "fourth" with each other.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態の第1の情報処理装置10d-1においては、
 学習後の第2のデータ生成モデルに関する第4の生成モデル情報を他の情報処理装置から受信し、
 自装置において学習後の第1のデータ生成モデルに関する第3の生成モデル情報と、第4の生成モデル情報とを参照して更新後の生成モデル情報を生成し、
 当該第3の生成モデル情報を、他の情報処理装置に送信する、
 という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in the first information processing device 10d-1 of this exemplary embodiment,
receiving fourth generative model information about the second data generative model after learning from another information processing device;
generating updated generative model information by referring to the third generative model information and the fourth generative model information regarding the learned first data generative model in the own device;
transmitting the third generative model information to another information processing device;
configuration is adopted.
 上記構成によれば、サーバを必要とせずに、例示的実施形態5、及び例示的実施形態6と同様の効果を奏する。なお、本例示的実施形態は、他の情報処理装置から第4の生成モデル情報、及び第4の推論モデル情報を取得する。このため、本例示的実施形態は、複数の情報処理装置間で互いが有する情報を共有することの問題が少ない状況において好適である。 According to the above configuration, the same effects as those of exemplary embodiments 5 and 6 can be obtained without requiring a server. Note that this exemplary embodiment acquires the fourth generative model information and the fourth inference model information from another information processing device. For this reason, the exemplary embodiment is suitable in situations where sharing of information possessed by multiple information processing devices is less problematic.
 〔例示的実施形態8〕
 本発明の第8の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~7にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary embodiment 8]
An eighth exemplary embodiment of the invention will now be described in detail with reference to the drawings. Components having the same functions as those described in exemplary embodiments 1 to 7 are denoted by the same reference numerals, and description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1eの構成について、図18を参照して説明する。図18は、情報処理システム1eの構成を示すブロック図である。情報処理システム1eは、例示的実施形態6におけるサーバ30cの機能を分散して実現した態様である。
<Configuration of information processing system>
The configuration of an information processing system 1e according to this exemplary embodiment will be described with reference to FIG. FIG. 18 is a block diagram showing the configuration of the information processing system 1e. The information processing system 1e is a mode in which the functions of the server 30c in exemplary embodiment 6 are distributed and realized.
 図18に示すように、情報処理システム1eは、第1の情報処理装置10e-1、第2の情報処理装置10e-2、第1のサーバ30e、及び第2のサーバ40eを含む。第1の情報処理装置10e-1と、第2の情報処理装置10e-2と、第1のサーバ30eと、第2のサーバ40eとは、ネットワークNを介して接続される。 As shown in FIG. 18, the information processing system 1e includes a first information processing device 10e-1, a second information processing device 10e-2, a first server 30e, and a second server 40e. A first information processing device 10e-1, a second information processing device 10e-2, a first server 30e, and a second server 40e are connected via a network N. FIG.
 (第1の情報処理装置の構成)
 第1の情報処理装置10e-1は、例示的実施形態6に係る第1の情報処理装置10c-1とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報取得部102-1、推論モデル情報取得部205-1、及び通信部160-1の構成が、例示的実施形態6と若干異なる。その他の各機能ブロックについては、例示的実施形態6と同様であるため、詳細な説明を繰り返さない。
(Configuration of first information processing device)
The first information processing device 10e-1 is configured substantially similarly to the first information processing device 10c-1 according to the sixth exemplary embodiment. However, in this exemplary embodiment, the configurations of the generative model information acquisition unit 102-1, the inference model information acquisition unit 205-1, and the communication unit 160-1 are slightly different from those in the sixth exemplary embodiment. Other functional blocks are the same as those in the sixth exemplary embodiment, so detailed description will not be repeated.
 (生成モデル情報取得部)
 生成モデル情報取得部102-1は、例示的実施形態6とほぼ同様に構成されるが、取得する第1の生成モデル情報の配信元が、第1のサーバ30eである点が異なる。
(generative model information acquisition part)
The generative model information acquisition unit 102-1 is configured substantially in the same manner as in the sixth exemplary embodiment, but differs in that the first generative model information to be acquired is distributed by the first server 30e.
 (推論モデル情報取得部)
 推論モデル情報取得部205-1は、例示的実施形態6とほぼ同様に構成されるが、取得する第1の推論モデル情報の配信元が、第2のサーバ40eである点が異なる。
(Inference model information acquisition unit)
The inference model information acquisition unit 205-1 is configured substantially in the same manner as in the sixth exemplary embodiment, but differs in that the first inference model information to be acquired is distributed by the second server 40e.
 (通信部)
 通信部160-1は、例示的実施形態6とほぼ同様に構成されるが、第3の生成モデル情報の送信先が、第1のサーバ30eである点が異なる。また、第3の推論モデル情報の送信先が、第2のサーバ40eである点が異なる。
(communication department)
The communication unit 160-1 is configured in substantially the same manner as in the sixth exemplary embodiment, except that the destination of the third generative model information is the first server 30e. Another difference is that the destination of the third inference model information is the second server 40e.
 (第2の情報処理装置の構成)
 第2の情報処理装置10e-2は、例示的実施形態6に係る第2の情報処理装置10c-2とほぼ同様に構成される。第2の情報処理装置10e-2の構成の詳細については、第1の情報処理装置10e-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。ただし、「第1のサーバ」及び「第2のサーバ」は互いに読み替えない。
(Configuration of second information processing device)
The second information processing device 10e-2 is configured substantially similarly to the second information processing device 10c-2 according to the sixth exemplary embodiment. For details of the configuration of the second information processing device 10e-2, in the description of the configuration of the first information processing device 10e-1, "1" and "2" at the end of each reference numeral are replaced with each other, 1” and “second” are read interchangeably, and “third” and “fourth” are interchanged. However, "first server" and "second server" are not read interchangeably.
 (第1のサーバの構成)
 第1のサーバ30eは、データ生成モデルの連合学習におけるサーバとして機能する。第1のサーバ30eは、例示的実施形態6に係るサーバ30cに含まれる機能ブロックのうち、生成モデル情報取得部301と、生成モデル情報更新部302と、通信部360とを有する。これらの各機能ブロックの詳細は、例示的実施形態6と同様である。
(Configuration of first server)
The first server 30e functions as a server in federated learning of data generation models. The first server 30e has a generative model information acquisition unit 301, a generative model information update unit 302, and a communication unit 360 among the functional blocks included in the server 30c according to the sixth exemplary embodiment. The details of each of these functional blocks are the same as in the sixth exemplary embodiment.
 (第2のサーバの構成)
 第2のサーバ40eは、推論モデルの連合学習におけるサーバとして機能する。第2のサーバ40eは、第1のサーバ30eとは異なる装置である。第2のサーバ40eは、例示的実施形態6に係るサーバ30cに含まれる機能ブロックのうち、推論モデル情報取得部303と、推論モデル情報更新部304と、通信部460とを有する。これらの各機能ブロックの詳細は、例示的実施形態6と同様である。
(Configuration of the second server)
The second server 40e functions as a server in federated learning of inference models. The second server 40e is a device different from the first server 30e. The second server 40e has an inference model information acquisition unit 303, an inference model information update unit 304, and a communication unit 460 among the functional blocks included in the server 30c according to the sixth exemplary embodiment. The details of each of these functional blocks are the same as in the sixth exemplary embodiment.
 <データ生成モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1eは、例示的実施形態5と同様に、図10に示した情報処理方法S1bを逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。ただし、本例示的実施形態では、情報処理方法S1bにおいてサーバ30bが実行する各ステップを、第1のサーバ30eが実行する。
<Flow of information processing method for generating data generation model>
The information processing system 1e configured as described above sequentially executes the information processing method S1b shown in FIG. Generate a data generation model for However, in this exemplary embodiment, the steps performed by the server 30b in the information processing method S1b are performed by the first server 30e.
 <推論モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1eは、例示的実施形態6と同様に、図16に示した情報処理方法S1cを逐次的に実行することにより、第1の推論モデル、及び第2の推論モデルを生成する。ただし、本例示的実施形態では、情報処理方法S1cにおいてサーバ30cが実行する各ステップを、第2のサーバ40eが実行する。
<Flow of information processing method for generating inference model>
The information processing system 1e configured as described above sequentially executes the information processing method S1c shown in FIG. Generate an inference model. However, in this exemplary embodiment, the steps performed by the server 30c in the information processing method S1c are performed by the second server 40e.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態においては、
 データ生成モデルの連合学習を行うサーバと、不均衡を解消した均衡データ群を用いて推論モデルの連合学習を行うサーバとを、互いに異なる装置により実現する、
 という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in this exemplary embodiment,
A server that performs federated learning of a data generation model and a server that performs federated learning of an inference model using a balanced data group whose imbalance has been resolved are realized by different devices,
configuration is adopted.
 上記の構成によれば、例示的実施形態6と同様の効果を奏するために必要なサーバの負荷を分散することができる。また、各サーバとして、それぞれの負荷に適した装置を適用することができる。例えば、第1の情報処理装置10e-1、及び第2の情報処理装置10e-2を含む複数の情報処理装置が、データ生成モデルの連合学習、及び推論モデルの連合学習に参加するケースが考えられる。このようなケースでは、データ生成モデルの連合学習に参加する情報処理装置の数と、推論モデルの連合学習に参加する情報処理装置の数とが大きく異なる可能性がある。この場合、第1のサーバ30eと第2のサーバ40eとの負荷が大きく異なることが想定される。このような場合、第1のサーバ30eと第2のサーバ40eとして、それぞれの負荷に適した装置を適用することができる。 According to the above configuration, it is possible to distribute the load of the servers required to achieve the same effects as in the sixth exemplary embodiment. Also, a device suitable for each load can be applied as each server. For example, a plurality of information processing devices including a first information processing device 10e-1 and a second information processing device 10e-2 may participate in federated learning of data generation models and federated learning of inference models. be done. In such a case, there is a possibility that the number of information processing devices participating in the federated learning of the data generation model and the number of information processing devices participating in the federated learning of the inference model are significantly different. In this case, it is assumed that the loads on the first server 30e and the second server 40e are significantly different. In such a case, devices suitable for respective loads can be applied as the first server 30e and the second server 40e.
 〔例示的実施形態9〕
 本発明の第9の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~8にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
[Exemplary embodiment 9]
A ninth exemplary embodiment of the present invention will now be described in detail with reference to the drawings. Components having the same functions as the components described in the exemplary embodiments 1 to 8 are denoted by the same reference numerals, and the description thereof will not be repeated.
 <情報処理システムの構成>
 本例示的実施形態に係る情報処理システム1fの構成について、図19を参照して説明する。図19は、情報処理システム1fの構成を示すブロック図である。情報処理システム1fは、例示的実施形態5に係る情報処理システム1bにおけるサーバ30bの機能を、分散して実現した態様である。ここで、例示的実施形態5は、連合学習のクライアント(第1の情報処理装置10b-1、及び第2の情報処理装置10b-2)間で、互いに他の情報処理装置が取得・生成した情報を直接的に参照することを避けるべき状況に考慮した形態の一例であった。本例示的実施形態は、これを変形することにより、連合学習において各クライアントが取得・生成した情報をサーバが直接的に参照することを避けるべき状況をさらに考慮した形態の一例を実現する。
<Configuration of information processing system>
The configuration of an information processing system 1f according to this exemplary embodiment will be described with reference to FIG. FIG. 19 is a block diagram showing the configuration of the information processing system 1f. The information processing system 1f is a mode in which the functions of the server 30b in the information processing system 1b according to the fifth exemplary embodiment are implemented in a distributed manner. Here, in exemplary embodiment 5, between federated learning clients (the first information processing device 10b-1 and the second information processing device 10b-2), each other information processing device obtains and generates This is an example of a form that takes into consideration situations in which direct reference to information should be avoided. By modifying this, the exemplary embodiment realizes an example of a form that further considers the situation in which the server should avoid directly referring to the information acquired and generated by each client in federated learning.
 図19に示すように、情報処理システム1fは、第1の情報処理装置10f-1、第2の情報処理装置10f-2、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3を含む。第1の情報処理装置10f-1と、第2の情報処理装置10f-2と、第1のサーバ30f-1と、第2のサーバ30f-2と、第3のサーバ30f-3とは、ネットワークNを介して接続される。 As shown in FIG. 19, the information processing system 1f includes a first information processing device 10f-1, a second information processing device 10f-2, a first server 30f-1, a second server 30f-2, and It includes a third server 30f-3. The first information processing device 10f-1, the second information processing device 10f-2, the first server 30f-1, the second server 30f-2, and the third server 30f-3 are connected via network N;
 (生成モデル情報のデータ片)
 本例示的実施形態では、連合学習のクライアント(第1の情報処理装置10f-1、及び第2の情報処理装置10f-2)と、サーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)との間で、生成モデル情報から生成されたデータ片を送受信する。
(data piece of generative model information)
In this exemplary embodiment, federated learning clients (first information processing device 10f-1 and second information processing device 10f-2) and servers (first server 30f-1 and second server 30f) -2, and the third server 30f-3), it transmits and receives a piece of data generated from the generative model information.
 ここでは、生成モデル情報から3つのデータ片Aと、データ片Bと、データ片Cとが生成されるものとして説明するが、データ片の個数は、これに限定されない。データ片Aと、データ片Bと、データ片Cとは、互いに異なる情報であり、生成モデル情報を生成するための情報である。データ片A、データ片B、及びデータ片Cは、それぞれ単体もしくは2つを参照しても生成モデル情報を復元できるものではないが、全てを参照することにより生成モデル情報を生成可能な情報である。例えば、データ片A~Cは、生成モデル情報が、その総和が変わらないようにランダムに3つに分割されたデータ片であってもよい。 Here, it is assumed that three data pieces A, B, and C are generated from the generative model information, but the number of data pieces is not limited to this. The data piece A, the data piece B, and the data piece C are information different from each other, and are information for generating generative model information. Data piece A, data piece B, and data piece C cannot restore the generative model information by referring to either one or two of them, but they are information that can generate generative model information by referring to all of them. be. For example, the data pieces A to C may be data pieces in which the generative model information is randomly divided into three so that the total sum does not change.
 (データ片を用いた連合学習の概要)
 各クライアントは、自装置で学習させた生成モデルに関する生成モデル情報からデータ片A~Cを生成し、各サーバに分散して送信する。各サーバは、1つのクライアントからデータ片A、データ片B、及びデータ片Cの全てを受信することはないため、元の生成モデル情報を直接的に参照することはできない。各サーバは、各クライアントから受信したデータ片A(又は、データ片B、データ片C)を統合して統合後のデータ片A(又は、データ片B、データ片C)を生成する。各クライアントは、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cの全てを、2以上のサーバから取得することが可能である。各クライアントは、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cを参照して、更新後の生成モデル情報を復元することができる。
(Overview of associative learning using data pieces)
Each client generates data pieces A to C from the generative model information related to the generative model learned by its own device, and distributes and transmits them to each server. Since each server does not receive all of data piece A, data piece B, and data piece C from one client, it cannot directly refer to the original generative model information. Each server integrates data piece A (or data piece B, data piece C) received from each client to generate integrated data piece A (or data piece B, data piece C). Each client can acquire all of the integrated data piece A, the integrated data piece B, and the integrated data piece C from two or more servers. Each client can refer to the post-integration data piece A, the post-integration data piece B, and the post-integration data piece C to restore the updated generative model information.
 (第1の情報処理装置の構成)
 第1の情報処理装置10f-1は、例示的実施形態5に係る第1の情報処理装置10b-1とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報取得部102-1、及び通信部160-1の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
(Configuration of first information processing device)
The first information processing device 10f-1 is configured almost similarly to the first information processing device 10b-1 according to the fifth exemplary embodiment. However, in this exemplary embodiment, the configurations of the generative model information acquisition unit 102-1 and the communication unit 160-1 are slightly different from those in the fifth exemplary embodiment. Other functional blocks are the same as those of exemplary embodiment 5, so detailed description will not be repeated.
 (通信部)
 通信部160-1は、更新後の第1のデータ生成モデルに関する第3の生成モデル情報から、第3のデータ片A~Cを生成する。また、通信部160-1は、第3のデータ片A、Bを、第1のサーバ30f-1に送信する。また、通信部160-1は、第3のデータ片B、Cを第2のサーバ30f-2に送信する。また、通信部160-1は、第3のデータ片C、Aを第3のサーバ30f-3に送信する。第3のデータ片A~Cは、各サーバにおいて「第1のデータ片A~C」として適用される。
(communication department)
Communication unit 160-1 generates third data pieces A to C from the third generative model information regarding the updated first data generative model. Also, the communication unit 160-1 transmits the third data pieces A and B to the first server 30f-1. Also, the communication unit 160-1 transmits the third data pieces B and C to the second server 30f-2. Also, the communication unit 160-1 transmits the third data pieces C and A to the third server 30f-3. The third data pieces A to C are applied as "first data pieces A to C" in each server.
 (生成モデル情報取得部)
 生成モデル情報取得部102-1は、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cを、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3のうち少なくとも2つから受信することにより取得する。また、生成モデル情報取得部102-1は、これらの統合後のデータ片A、統合後のデータ片B、及び、統合後のデータ片Cを参照して、更新後の第1の生成モデル情報を生成する。ここでは、統合後のデータ片Aとは、第1のデータ片A、及び第2のデータ片Aの和である。また、統合後のデータ片Bとは、第1のデータ片B、及び第2のデータ片Bの和である。また、統合後のデータ片Cとは、第1のデータ片C、及び第2のデータ片Cの和である。生成モデル情報取得部102-1は、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cの総和を情報処理装置10の総数(ここでは、2)で除することにより、第1のデータ片A~Cの総和(すなわち、第1の生成モデル情報)と、第2のデータ片A~Cの総和(すなわち、第2の生成モデル情報)との平均を得る。また、生成モデル情報取得部102-1は、これらの平均を、更新後の第1の生成モデル情報とする。更新後の第1の生成モデル情報には、第2のデータ片A~C(すなわち、第2の生成モデル情報)が反映されている。
(generative model information acquisition unit)
The generative model information acquisition unit 102-1 transfers the integrated data piece A, the integrated data piece B, and the integrated data piece C to the first server 30f-1, the second server 30f-2, and the Obtained by receiving from at least two of the third servers 30f-3. In addition, the generative model information acquisition unit 102-1 refers to the data piece A after integration, the data piece B after integration, and the data piece C after integration, and obtains the first generative model information after update. to generate Here, the data piece A after integration is the sum of the first data piece A and the second data piece A. FIG. Also, the data piece B after integration is the sum of the first data piece B and the second data piece B. FIG. Also, the data piece C after integration is the sum of the first data piece C and the second data piece C. As shown in FIG. The generative model information acquisition unit 102-1 divides the total sum of the integrated data piece A, the integrated data piece B, and the integrated data piece C by the total number of the information processing devices 10 (here, 2). obtains the average of the sum of the first data pieces A to C (ie, the first generative model information) and the sum of the second data pieces A to C (ie, the second generative model information). Further, the generative model information acquiring unit 102-1 uses the average of these as the updated first generative model information. The second data pieces A to C (that is, the second generative model information) are reflected in the updated first generative model information.
 (第2の情報処理装置の構成)
 第2の情報処理装置10f-2は、例示的実施形態5に係る第2の情報処理装置10b-2とほぼ同様に構成される。例示的実施形態5と異なる点の詳細については、第1の情報処理装置10f-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。ただし、「第1のサーバ」、「第2のサーバ」及び「第3のサーバ」は互いに読み替えない。
(Configuration of second information processing device)
The second information processing device 10f-2 is configured almost similarly to the second information processing device 10b-2 according to the fifth exemplary embodiment. For details of the differences from exemplary embodiment 5, in the description of the configuration of the first information processing device 10f-1, the suffixes “1” and “2” of each reference numeral are replaced with each other, and “first” and A similar description will be made by replacing "second" with each other and "third" and "fourth" with each other. However, "first server", "second server" and "third server" are not interchangeable.
 (第1のサーバの構成)
 第1のサーバ30f-1は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第1のサーバ30f-1は、制御部350-1と、通信部360-1とを含む。制御部350-1は、生成モデル情報取得部301-1と、生成モデル情報更新部302-1とを含む。
(Configuration of first server)
The first server 30f-1 functions as one of a plurality of distributed servers in federated learning of data generation models. First server 30f-1 includes control unit 350-1 and communication unit 360-1. Control unit 350-1 includes a generative model information acquisition unit 301-1 and a generative model information update unit 302-1.
 (生成モデル情報習得部)
 生成モデル情報取得部301-1は、第1の情報処理装置10f-1から、第1のデータ片A、Bを受信する。また、生成モデル情報取得部301-1は、第2の情報処理装置10f-2から、第2のデータ片A、Bを受信する。
(generative model information acquisition part)
The generative model information acquisition unit 301-1 receives the first data pieces A and B from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-1 receives the second data pieces A and B from the second information processing device 10f-2.
 (生成モデル情報更新部)
 生成モデル情報更新部302-1は、第1のデータ片Aと、第2のデータ片Aとを統合して、統合後のデータ片Aを生成する。また、生成モデル情報更新部302-1は、第1のデータ片Bと、第2のデータ片Bとを統合して、統合後のデータ片Bを生成する。前述したように、ここでは、統合後のデータ片A(又は、データ片B)として、第1のデータ片A(又は、データ片B)と、第2のデータ片A(又は、データ片B)との和を適用する。
(Generative model information update unit)
The generative model information updating unit 302-1 integrates the first data piece A and the second data piece A to generate the data piece A after integration. Further, the generative model information updating unit 302-1 integrates the first data piece B and the second data piece B to generate the data piece B after integration. As described above, here, as the data piece A (or data piece B) after integration, the first data piece A (or data piece B) and the second data piece A (or data piece B ).
 (通信部)
 通信部360-1は、統合後のデータ片A、及び統合後のデータ片Bを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
(communication department)
The communication unit 360-1 receives a request for the integrated data piece A and the integrated data piece B from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
 (第2のサーバの構成)
 第2のサーバ30f-2は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第2のサーバ30f-2は、制御部350-2と、通信部360-2とを含む。制御部350-2は、生成モデル情報取得部301-2と、生成モデル情報更新部302-2とを含む。
(Configuration of the second server)
The second server 30f-2 functions as one of a plurality of distributed servers in federated learning of data generation models. The second server 30f-2 includes a control section 350-2 and a communication section 360-2. Control unit 350-2 includes a generative model information acquisition unit 301-2 and a generative model information update unit 302-2.
 (生成モデル情報習得部)
 生成モデル情報取得部301-2は、第1の情報処理装置10f-1から、第1のデータ片B、Cを受信する。また、生成モデル情報取得部301-2は、第2の情報処理装置10f-2から、第2のデータ片B、Cを受信する。
(generative model information acquisition part)
The generative model information acquisition unit 301-2 receives the first data pieces B and C from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-2 receives the second data pieces B and C from the second information processing device 10f-2.
 (生成モデル情報更新部)
 生成モデル情報更新部302-2は、第1のデータ片Bと、第2のデータ片Bとを統合して、統合後のデータ片Bを生成する。また、生成モデル情報更新部302-2は、第1のデータ片Cと、第2のデータ片Cとを統合して、統合後のデータ片Cを生成する。前述したように、ここでは、統合後のデータ片B(又は、データ片C)として、第1のデータ片B(又は、データ片C)と、第2のデータ片B(又は、データ片C)との和を適用する。
(Generative model information update unit)
The generative model information updating unit 302-2 integrates the first data piece B and the second data piece B to generate the data piece B after integration. Further, the generative model information updating unit 302-2 integrates the first data piece C and the second data piece C to generate the data piece C after integration. As described above, here, as the data piece B (or data piece C) after integration, the first data piece B (or data piece C) and the second data piece B (or data piece C ).
 (通信部)
 通信部360-2は、統合後のデータ片B、及び統合後のデータ片Cを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
(communication department)
The communication unit 360-2 receives a request for the integrated data piece B and the integrated data piece C from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
 (第3のサーバの構成)
 第3のサーバ30f-3は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第3のサーバ30f-3は、制御部350-3と、通信部360-3とを含む。制御部350-3は、生成モデル情報取得部301-3と、生成モデル情報更新部302-3とを含む。
(Configuration of the third server)
The third server 30f-3 functions as one of a plurality of distributed servers in federated learning of data generation models. The third server 30f-3 includes a control section 350-3 and a communication section 360-3. Control unit 350-3 includes a generative model information acquisition unit 301-3 and a generative model information update unit 302-3.
 (生成モデル情報習得部)
 生成モデル情報取得部301-3は、第1の情報処理装置10f-1から、第1のデータ片C、Aを受信する。また、生成モデル情報取得部301-3は、第2の情報処理装置10f-2から、第2のデータ片C、Aを受信する。
(generative model information acquisition part)
The generative model information acquisition unit 301-3 receives the first data pieces C and A from the first information processing device 10f-1. Also, the generative model information acquisition unit 301-3 receives the second data pieces C and A from the second information processing device 10f-2.
 (生成モデル情報更新部)
 生成モデル情報更新部302-3は、第1のデータ片Cと、第2のデータ片Cとを参照して、統合後のデータ片Cを生成する。また、生成モデル情報更新部302-3は、第1のデータ片Aと、第2のデータ片Aとを統合して、統合後のデータ片Aを生成する。前述したように、ここでは、統合後のデータ片C(又は、データ片A)として、第1のデータ片C(又は、データ片A)と、第2のデータ片C(又は、データ片A)との和を適用する。
(Generative model information update section)
The generative model information updating unit 302-3 refers to the first data piece C and the second data piece C to generate the data piece C after integration. Further, the generative model information update unit 302-3 integrates the first data piece A and the second data piece A to generate the data piece A after integration. As described above, here, as the data piece C (or data piece A) after integration, the first data piece C (or data piece A) and the second data piece C (or data piece A ).
 (通信部)
 通信部360-3は、統合後のデータ片C、及び統合後のデータ片Aを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
(communication department)
The communication unit 360-3 receives a request for the integrated data piece C and the integrated data piece A from one or both of the first information processing device 10f-1 and the second information processing device 10f-2. Deliver according to.
 <データ生成モデルを生成する情報処理方法の流れ>
 以上のように構成された情報処理システム1fは、図10に示した情報処理方法S1bを変形し、逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。
<Flow of information processing method for generating data generation model>
The information processing system 1f configured as described above modifies the information processing method S1b shown in FIG. 10 and sequentially executes it to generate a first data generation model and a second data generation model. do.
 具体的には、情報処理方法S1bは、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3が、それぞれ、ステップS301、S302、S360を実行するように変形される。また、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3のこれらの各ステップにおける動作は、図10のステップS301、S302、S360の説明において、「第3の生成モデル情報」を「第1のデータ片」と読み替え、「第4の生成モデル情報」を「第2のデータ片」と読み替え、「更新後の生成モデル情報」を「統合後のデータ片」と読み替えることにより同様に説明される。また、情報処理方法S1bにおいて、ステップS102-1の動作は、統合後のデータ片A~Cを参照して第1の生成モデル情報を生成するよう変形される。また、ステップS160-1の動作は、第3の生成モデル情報から生成した第3のデータ片A~Cのうち2つずつを、異なるサーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)に送信するよう変形される。また、ステップS160-2の動作は、第4の生成モデル情報から生成した第4のデータ片A~Cのうち2つずつを、異なるサーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)に送信するよう変形される。 Specifically, the information processing method S1b causes the first server 30f-1, the second server 30f-2, and the third server 30f-3 to execute steps S301, S302, and S360, respectively. Transformed. The operations of the first server 30f-1, the second server 30f-2, and the third server 30f-3 in these steps are described in the description of steps S301, S302, and S360 in FIG. 3 generative model information” should be read as “first data piece”, “fourth generative model information” should be read as “second data piece”, and “updated generative model information” should be read as “data after integration The same explanation is given by reading "piece". Further, in the information processing method S1b, the operation of step S102-1 is modified so as to generate the first generative model information by referring to the data pieces A to C after integration. Further, the operation of step S160-1 is to transfer two each of the third data pieces A to C generated from the third generative model information to different servers (first server 30f-1, second server 30f). -2, and modified to send to a third server 30f-3). Further, the operation of step S160-2 is to send two each of the fourth data pieces A to C generated from the fourth generative model information to different servers (first server 30f-1, second server 30f). -2, and modified to send to a third server 30f-3).
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態においては、
 データ生成モデルの連合学習を行うサーバを、複数の互いに異なる装置に分散して実現する、
 という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in this exemplary embodiment,
A server that performs federated learning of data generation models is distributed to a plurality of different devices,
configuration is adopted.
 ここで、例えばプライバシーへの配慮等のために、連合学習におけるサーバ自体も各情報処理装置が有する情報を取得することが難しいケースがある。この場合、第3の生成モデル情報、及び第4の生成モデル情報をサーバが直接的に取得することは好ましくない可能性がある。上記の構成によれば、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3は、学習後の第1の生成モデルに関する情報、及び学習後の第2の生成モデルに関する情報を直接的に取得することがない。一方で、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2は、学習後の第1の生成モデルに関する情報、及び学習後の第2の生成モデルに関する情報が反映された更新後の生成モデル情報を、各サーバから受信した情報を参照して生成することができる。したがって、例示的実施形態5と同様の効果を奏することができる。 Here, for example, due to privacy considerations, there are cases where it is difficult for the server itself in federated learning to acquire information held by each information processing device. In this case, it may not be preferable for the server to directly acquire the third generative model information and the fourth generative model information. According to the above configuration, the first server 30f-1, the second server 30f-2, and the third server 30f-3 provide information about the first generative model after learning and the second generative model after learning. There is no direct acquisition of information about the generative model of On the other hand, in the first information processing device 10f-1 and the second information processing device 10f-2, the information about the first generative model after learning and the information about the second generative model after learning are reflected. The updated generative model information can be generated by referring to the information received from each server. Therefore, an effect similar to that of exemplary embodiment 5 can be obtained.
 なお、本例示的実施形態では、例示的実施形態5におけるサーバ30bの機能を、3つのサーバに分散して実現する例について説明した。これに限らず、サーバ30bの機能を、4つ以上のサーバに分散して実現してもよい。その場合、第1の情報処理装置10f-1、第2の情報処理装置10f-2は、それぞれ、学習後のデータ生成モデルに関する生成モデル情報を参照して、4以上のデータ片A、B、C、…を生成し、そのうち一部分ずつを各サーバに分散して送信すればよい。 Note that in this exemplary embodiment, an example has been described in which the functions of the server 30b in exemplary embodiment 5 are implemented by distributing them to three servers. The functions of the server 30b are not limited to this, and may be implemented by being distributed to four or more servers. In that case, the first information processing device 10f-1 and the second information processing device 10f-2 refer to the generative model information about the data generative model after learning, respectively, to obtain four or more data pieces A, B, C, .
 なお、本例示的実施形態に係る情報処理システム1fが行う生成モデル情報の分割及び復元手法は、一例として、マルチパーティ計算とも呼称されるものであるが、当該文言によって本例示的実施形態が限定されるものではない。 Note that the method of dividing and restoring the generative model information performed by the information processing system 1f according to this exemplary embodiment is also called multi-party computation as an example, but this exemplary embodiment is limited by this wording. not to be
 〔例示的実施形態10〕
 本発明の第10の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、例示的実施形態5~9の何れかに係る第1の情報処理装置(10b-1、10c-1、10d-1、10e-1、10f-1)、及び第2の情報処理装置(10b-2、10c-2、10d-2、10e-2、10f-2)において、学習用データ取得部101-1、101-2を変形した態様である。なお、以下では、第1の情報処理装置、及び第2の情報処理装置を特に区別して説明する必要がない場合には、参照符号末尾の「-1」、「-2」を適宜省略して記載する。本例示的実施形態における学習用データ取得部101について、図20を参照して説明する。図20は、学習用データ取得部101の構成を示す図である。なお、その他の構成、及び情報処理方法の流れについては、各例示的実施形態で説明した通りであるため、詳細な説明を省略する。
[Exemplary embodiment 10]
A tenth exemplary embodiment of the present invention will now be described in detail with reference to the drawings. This exemplary embodiment includes a first information processing device (10b-1, 10c-1, 10d-1, 10e-1, 10f-1) according to any of exemplary embodiments 5-9, and a second 10b-2, 10c-2, 10d-2, 10e-2, 10f-2) in which the learning data acquisition units 101-1 and 101-2 are modified. In the following description, if there is no need to distinguish between the first information processing apparatus and the second information processing apparatus, "-1" and "-2" at the end of the reference numerals are omitted as appropriate. Describe. The learning data acquisition unit 101 in this exemplary embodiment will be described with reference to FIG. FIG. 20 is a diagram showing the configuration of the learning data acquisition unit 101. As shown in FIG. Other configurations and the flow of the information processing method are the same as those described in each exemplary embodiment, so detailed description thereof will be omitted.
 (学習用データ選択部)
 図20に示すように、学習用データ取得部101は、学習用データ選択部111を含む。学習用データ選択部111は、本例示的実施形態に係る選択手段の一例である。学習用データ選択部111は、複数のデータ群候補から、不均衡データ群を選択する。
(Learning data selection part)
As shown in FIG. 20 , the learning data acquisition section 101 includes a learning data selection section 111 . The learning data selection unit 111 is an example of selection means according to this exemplary embodiment. The learning data selection unit 111 selects an imbalanced data group from a plurality of data group candidates.
 例えば、学習用データ選択部111は、記憶部SRに記憶されたデータセットA、データセットB、データセットC、…のうち、不均衡データ群であるとの条件を満たすものを選択してもよい。例えば、そのような条件とは、上述した少数ラベル種の条件であってもよい。なお、記憶部SRは、情報処理装置10b、10c、10d、10e、10fに含まれていてもよいし、外部の装置に含まれていてもよい。 For example, the learning data selection unit 111 may select data that satisfies the condition of being an imbalanced data group among the data set A, the data set B, the data set C, . . . stored in the storage unit SR. good. For example, such a condition may be the minority label type condition described above. Note that the storage unit SR may be included in the information processing apparatuses 10b, 10c, 10d, 10e, and 10f, or may be included in an external device.
 <本例示的実施形態の効果>
 以上のように、本例示的実施形態においては、
 データ生成モデルの学習に用いる不均衡データ群を、複数のデータ群候補から選択する、
 という構成が採用されている。
<Effects of this exemplary embodiment>
As described above, in this exemplary embodiment,
selecting an imbalanced data group to be used for learning the data generation model from a plurality of data group candidates;
configuration is adopted.
 上記構成によれば、各情報処理装置が全体として不均衡が解消されるように各自のデータセットを選択することで、より安定してデータ生成モデルを学習させることができる。 According to the above configuration, each information processing device selects its own data set so that the imbalance is eliminated as a whole, so that the data generation model can be learned more stably.
 〔変形例〕
 上述した各例示的実施形態は、1または2の情報処理装置を含むものとして説明した。これに限らず、各例示的実施形態は、3つ以上の情報処理装置を含むよう変形できる。これにより、各情報処理装置は、より多くの他の情報処理装置において用いられた学習用データを直接的に取得することなく間接的に用いて、データ生成モデルを生成することができる。
[Modification]
Each exemplary embodiment described above has been described as including one or two information processing devices. Without limitation, each exemplary embodiment can be modified to include more than two information processors. Thereby, each information processing device can generate a data generation model by indirectly using learning data used in a larger number of other information processing devices without directly acquiring the data.
 また、上述した例示的実施形態6~9において、2つの情報処理装置(第1の情報処理装置、第2の情報処理装置)にそれぞれ含まれる機能ブロックは、複数の装置に分散して含まれていてもよい。例えば、第1の情報処理装置(又は第2の情報処理装置)に含まれる機能ブロックは、(i)データ生成モデルの学習に係る機能ブロック(学習用データ取得部、生成モデル情報取得部、及びデータ生成モデル学習部)を含む装置と、(ii)データの生成に係る機能ブロック(シードデータ取得部、及びデータ生成部)を含む装置と、(iii)推論モデルの学習に係る機能ブロック(推論モデル情報取得部、及び推論モデル学習部)を含む装置と、(iv)推論に係る機能ブロック(推論部)を含む装置とに分散して含まれていてもよい。 Further, in the sixth to ninth exemplary embodiments described above, the functional blocks included in each of the two information processing devices (the first information processing device and the second information processing device) are dispersed and included in a plurality of devices. may be For example, the functional blocks included in the first information processing device (or the second information processing device) are: (i) functional blocks related to data generation model learning (learning data acquisition unit, generation model information acquisition unit, and data generation model learning unit); (ii) a device including functional blocks related to data generation (seed data acquisition unit and data generation unit); and (iii) functional blocks related to inference model learning (inference model information acquisition unit and inference model learning unit) and (iv) an apparatus including a function block (inference unit) related to inference.
 〔ソフトウェアによる実現例〕
 情報処理装置10、10a、10b-1、10b-2、10c-1、10c-2、10d-1、10d-2、10e-1、10e-2、10f-1、10f-2、20、サーバ30、30a、30b、30c、30d、30e、30f、40e、50f(以下、各情報処理装置10~20、及び各サーバ30~50と記載)の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
Information processing apparatus 10, 10a, 10b-1, 10b-2, 10c-1, 10c-2, 10d-1, 10d-2, 10e-1, 10e-2, 10f-1, 10f-2, 20, server 30, 30a, 30b, 30c, 30d, 30e, 30f, 40e, 50f (hereinafter referred to as each information processing device 10 to 20 and each server 30 to 50) are partially or entirely functionally integrated circuits (IC It may be implemented by hardware such as a chip), or may be implemented by software.
 後者の場合、上述した、各情報処理装置10~20、及び各サーバ30~50は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図21に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを各情報処理装置10~20、及び各サーバ30~50として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、各情報処理装置10~20、及び各サーバ30~50の各機能が実現される。 In the latter case, each of the information processing devices 10 to 20 and each of the servers 30 to 50 described above is implemented by, for example, a computer that executes program instructions that are software that implements each function. An example of such a computer (hereinafter referred to as computer C) is shown in FIG. Computer C comprises at least one processor C1 and at least one memory C2. A program P for operating the computer C as each of the information processing apparatuses 10 to 20 and each of the servers 30 to 50 is recorded in the memory C2. In the computer C, the processor C1 reads the program P from the memory C2 and executes it, thereby implementing the functions of the information processing devices 10-20 and the servers 30-50.
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。 As the processor C1, for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof. As the memory C2, for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。 Note that the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data. Computer C may further include a communication interface for sending and receiving data to and from other devices. Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。 In addition, the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C. As such a recording medium M, for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used. The computer C can acquire the program P via such a recording medium M. Also, the program P can be transmitted via a transmission medium. As such a transmission medium, for example, a communication network or broadcast waves can be used. Computer C can also obtain program P via such a transmission medium.
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
[Appendix 1]
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims. For example, embodiments obtained by appropriately combining the technical means disclosed in the embodiments described above are also included in the technical scope of the present invention.
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
[Appendix 2]
Some or all of the above-described embodiments may also be described as follows. However, the present invention is not limited to the embodiments described below.
 (付記1)
 学習用データを取得する学習用データ取得手段と、
 第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
 前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
を備えている情報処理装置。
(Appendix 1)
learning data acquisition means for acquiring learning data;
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition means for acquiring
data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data;
Information processing device equipped with.
 上記の構成によれば、他の情報処理装置において第2のデータ生成モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1のデータ生成モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。 According to the above configuration, the first data generation model is obtained by indirectly using the other learning data used to generate the second data generation model in the other information processing apparatus without directly obtaining the data. to learn As a result, it is possible to generate a first data generation model capable of generating more diverse data even in a situation where acquisition of other learning data used in other information processing devices should be avoided. can be done.
 (付記2)
 前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段
を更に備えている付記1に記載の情報処理装置。
(Appendix 2)
The information processing apparatus according to supplementary note 1, further comprising transmitting means for transmitting third generative model information related to the first data generative model learned by the data generative model learning means.
 上記の構成によれば、学習後の第1のデータ生成モデルに関する第3のデータ生成モデル情報を、他の装置に提供することができる。その結果、第1のデータ生成モデルの学習に用いた学習用データを、他の装置が直接的に取得することなく間接的に用いて学習を行うことを可能とする。 According to the above configuration, the third data generation model information regarding the first data generation model after learning can be provided to other devices. As a result, the learning data used for learning the first data generation model can be indirectly used for learning without being directly acquired by another device.
 (付記3)
 前記生成モデル情報取得手段は、
 学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
 当該情報処理装置は、
  前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報と、
  前記第4の生成モデル情報と
を参照して更新後の生成モデル情報を生成する生成モデル情報更新手段
を更に備えている付記1に記載の情報処理装置。
(Appendix 3)
The generative model information acquisition means includes:
Acquiring fourth generative model information about the second data generative model after learning,
The information processing device is
third generative model information about the first data generative model learned by the data generative model learning means;
The information processing apparatus according to appendix 1, further comprising generative model information updating means for generating updated generative model information with reference to the fourth generative model information.
 上記の構成によれば、第4の生成モデル情報を参照することにより、他の情報処理装置において第2のデータ生成モデルの生成に用いられた他の学習用データを間接的に用いることができる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。 According to the above configuration, by referring to the fourth generative model information, it is possible to indirectly use other learning data used to generate the second data generative model in another information processing apparatus. . As a result, it is possible to generate a first data generation model capable of generating more diverse data even in a situation where acquisition of other learning data used in other information processing devices should be avoided. can be done.
 (付記4)
 前記学習用データ取得手段は、
  データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
ことを特徴とする付記1から3の何れか1つに記載の情報処理装置。
(Appendix 4)
The learning data acquisition means is
A data group containing a plurality of data pieces, each data piece labeled with one of a plurality of label types, and included in the data group in which the ratio of data pieces labeled with a certain label type is equal to or less than a predetermined ratio 4. The information processing apparatus according to any one of appendices 1 to 3, wherein a piece of data is acquired as the learning data.
 上記の構成によれば、ラベル種が付されたデータ片の数が不均衡な不均衡データ群を学習用データとして用いて、第1のデータ生成モデルを学習させる。その結果、第1のデータ生成モデルを用いて、そのようなデータ群における不均衡を解消するためのデータを生成することができる。 According to the above configuration, the first data generation model is trained using an imbalanced data group with an imbalanced number of labeled data pieces as learning data. As a result, the first data generation model can be used to generate data for resolving imbalances in such data sets.
 (付記5)
 前記学習用データ取得手段は、
  複数のデータ群候補から、前記データ群を選択する選択手段を備えている
ことを特徴とする付記4に記載の情報処理装置。
(Appendix 5)
The learning data acquisition means is
The information processing apparatus according to appendix 4, further comprising selection means for selecting the data group from a plurality of data group candidates.
 上記の構成によれば、不均衡データ群を選択することで、付記4に記載の効果をより確実に奏することができる。 According to the above configuration, by selecting the imbalanced data group, the effect described in appendix 4 can be achieved more reliably.
 (付記6)
 前記データ生成モデル学習手段は、
  前記第1のデータ生成モデルを含むオートエンコーダ、及び、
  前記第1のデータ生成モデルを含む敵対的生成ネットワーク
の少なくとも何れかを学習させる
ことを特徴とする付記1から5の何れか1つに記載の情報処理装置。
(Appendix 6)
The data generation model learning means is
an autoencoder including the first data generation model; and
6. The information processing apparatus according to any one of appendices 1 to 5, wherein at least one of generative adversarial networks including the first data generation model is learned.
 上記の構成によれば、上述した効果を奏するための第1のデータ生成モデルを実現することができる。 According to the above configuration, it is possible to realize the first data generation model for achieving the above effects.
 (付記7)
 前記オートエンコーダは、
  変分オートエンコーダ、及び条件付き変分オートエンコーダ
の少なくとも何れかを含んでいる
ことを特徴とする付記6に記載の情報処理装置。
(Appendix 7)
The autoencoder is
7. The information processing device according to appendix 6, comprising at least one of a variational autoencoder and a conditional variational autoencoder.
 上記の構成によれば、上述した効果を奏するための第1のデータ生成モデルを実現することができる。 According to the above configuration, it is possible to realize the first data generation model for achieving the above effects.
 (付記8)
 前記第1のデータ生成モデルを用いてデータを生成するデータ生成手段と、
 前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段と
を更に備えている
ことを特徴とする付記1から7の何れか1つに記載の情報処理装置。
(Appendix 8)
data generation means for generating data using the first data generation model;
8. The information processing apparatus according to any one of appendices 1 to 7, further comprising inference model learning means for learning the first inference model with reference to the data generated by the data generation means. .
 上記の構成によれば、上述した効果を奏する第1のデータ生成モデルが生成したデータを参照するので、第1の推論モデルを精度よく学習させることができる。 According to the above configuration, the data generated by the first data generation model having the above-described effect is referred to, so the first inference model can be learned with high accuracy.
 (付記9)
 前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
 前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
ことを特徴とする付記8に記載の情報処理装置。
(Appendix 9)
Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for
The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device described.
 上記の構成によれば、他の情報処理装置において第2の推論モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1の推論モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、第1の推論モデルを精度よく学習させることができる。 According to the above configuration, the first inference model is learned by indirectly using the other learning data used to generate the second inference model in the other information processing device without directly obtaining the data. Let As a result, the first inference model can be learned with high accuracy even in a situation where acquisition of other learning data used in another information processing apparatus should be avoided.
 (付記10)
 シードデータを取得するシードデータ取得手段と、
 前記シードデータを用いてデータを生成するデータ生成手段とを備え、
 前記データ生成手段は、
  第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
ことを特徴とする情報処理装置。
(Appendix 10)
seed data acquisition means for acquiring seed data;
Data generation means for generating data using the seed data,
The data generation means is
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model An information processing apparatus characterized by generating data using a first data generation model defined with reference to.
 上記の構成によれば、第2の生成モデルに関する第2の生成モデル情報を反映して学習された第1のデータ生成モデルを用いることにより、より多様性のあるデータを生成することができる。 According to the above configuration, it is possible to generate more diverse data by using the first data generation model learned by reflecting the second generative model information regarding the second generative model.
 (付記11)
 前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段を更に備えている
ことを特徴とする付記10に記載の情報処理装置。
(Appendix 11)
11. The information processing apparatus according to appendix 10, further comprising inference model learning means for learning the first inference model with reference to the data generated by the data generation means.
 上記の構成によれば、上述した効果を奏する第1のデータ生成モデルが生成したデータを参照するので、第1の推論モデルを精度よく学習させることができる。 According to the above configuration, the data generated by the first data generation model having the above-described effect is referred to, so the first inference model can be learned with high accuracy.
 (付記12)
 前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
 前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
ことを特徴とする付記11に記載の情報処理装置。
(Appendix 12)
Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for
The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device described.
 上記の構成によれば、他の情報処理装置において第2の推論モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1の推論モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、第1の推論モデルを精度よく学習させることができる。 According to the above configuration, the first inference model is learned by indirectly using the other learning data used to generate the second inference model in the other information processing device without directly obtaining the data. Let As a result, the first inference model can be learned with high accuracy even in a situation where acquisition of other learning data used in another information processing apparatus should be avoided.
 (付記13)
 第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
 前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
を備えていることを特徴とする情報処理装置。
(Appendix 13)
Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model;
Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information;
An information processing device comprising:
 上記の構成によれば、(i)第1のデータ生成モデルの学習に用いられた学習用データと、(ii)第2のデータ生成モデルの学習に用いられた学習用データとを、間接的に用いて学習されたデータ生成モデルを生成することができる。その結果、(i)、(ii)の学習用データとの少なくとも一方を取得することを避けるべき状況であっても、データ生成モデルを、より多様なデータを生成できるように学習させることができる。 According to the above configuration, (i) the learning data used for learning the first data generation model and (ii) the learning data used for learning the second data generation model are indirectly can generate a data generation model trained using As a result, even in a situation where acquisition of at least one of (i) and (ii) data for learning should be avoided, the data generation model can be trained to generate more diverse data. .
 (付記14)
 前記更新後の生成モデル情報を、前記第1のデータ生成モデルを実装した第1の情報処理装置、及び、前記第2のデータ生成モデルを実装した第2の情報処理装置に送信する送信手段を更に備えていることを特徴とする付記13に記載の情報処理装置。
(Appendix 14)
transmitting means for transmitting the updated generative model information to a first information processing device implementing the first data generation model and a second information processing device implementing the second data generation model; 14. The information processing apparatus according to appendix 13, further comprising:
 上記の構成によれば、第1の情報処理装置、及び第2の情報処理装置の間で、それぞれが用いた学習用データを互いに提供することを避けるべき状況であっても、双方が用いた学習用データを間接的に用いて学習されたデータ生成モデルを、第1の情報処理装置、及び第2の情報処理装置に提供することができる。 According to the above configuration, even if the first information processing device and the second information processing device should avoid providing each other with the learning data used by both, A data generation model learned by indirectly using learning data can be provided to the first information processing device and the second information processing device.
 (付記15)
 前記生成モデル情報更新手段は、
 前記第1の生成モデル情報と前記第2の生成モデル情報との平均を取ることによって、前記更新後の生成モデル情報を生成する
ことを特徴とする付記13又は14に記載の情報処理装置。
(Appendix 15)
The generative model information updating means includes:
15. The information processing apparatus according to appendix 13 or 14, wherein the updated generative model information is generated by averaging the first generative model information and the second generative model information.
 上記の構成によれば、第1のデータ生成モデルの学習に用いられた学習用データと、第2のデータ生成モデルの学習に用いられた学習用データとを間接的に用いた学習を実現する。 According to the above configuration, learning is realized by indirectly using the learning data used for learning the first data generation model and the learning data used for learning the second data generation model. .
 (付記16)
 第1の情報処理装置、及びサーバを含む情報処理システムであって、
 前記第1の情報処理装置は、
  学習用データを取得する学習用データ取得手段と、
  第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、前記サーバから取得する生成モデル情報取得手段と、
  前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データ取得手段が取得した学習用データを用いて学習させるデータ生成モデル学習手段と、
  前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段と
を備え、
 前記サーバは、
  前記第3の生成モデル情報、及び、
  学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報
を取得する生成モデル情報取得手段と、
  前記第3の生成モデル情報と、前記第4の生成モデル情報とを参照して更新後の生成モデル情報を生成する生成モデル情報更新手段と、
  前記更新後の生成モデル情報を、前記第1の情報処理装置に送信する送信手段と
を備えていることを特徴とする情報処理システム。
(Appendix 16)
An information processing system including a first information processing device and a server,
The first information processing device is
learning data acquisition means for acquiring learning data;
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model a generative model information acquisition means for acquiring from the server;
data generation model learning means for learning the first data generation model defined by referring to the first generation model information using learning data acquired by the learning data acquisition means;
transmitting means for transmitting third generative model information related to the first data generative model learned by the data generative model learning means;
The server is
the third generative model information; and
a generative model information acquiring means for acquiring fourth generative model information about the second data generative model after learning;
Generative model information updating means for generating updated generative model information by referring to the third generative model information and the fourth generative model information;
and transmitting means for transmitting the updated generative model information to the first information processing apparatus.
 上記の構成によれば、情報処理装置及びサーバを用いて、付記1と同様の効果を奏するシステムを実現することができる。 According to the above configuration, it is possible to realize a system that has the same effect as Appendix 1 by using the information processing device and the server.
 (付記17)
 学習用データを取得すること、
 第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、
 前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させること
を含んでいることを特徴とする情報処理装置方法。
(Appendix 17)
obtaining training data;
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model and
An information processing apparatus method, comprising: learning the first data generation model defined by referring to the first generation model information, using the learning data.
 上記の構成によれば、付記1と同様の効果を奏する。 According to the above configuration, the same effect as Appendix 1 can be obtained.
 (付記18)
 シードデータを取得すること、及び
 前記シードデータを用いてデータを生成すること、
を含み、
 前記データを生成する工程では、
  第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
ことを特徴とする情報処理方法。
(Appendix 18)
obtaining seed data; and generating data using the seed data;
including
In the step of generating the data,
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model An information processing method characterized by generating data using a first data generation model defined with reference to.
 上記の構成によれば、付記10と同様の効果を奏する。 According to the above configuration, the same effects as in Supplementary Note 10 are obtained.
 (付記19)
 第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得すること、及び、
 前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成すること、
を含んでいることを特徴とする情報処理方法。
(Appendix 19)
obtaining first generative model information about a first data generative model and second generative model information about a second data generative model different from the first data generative model; and
generating updated generative model information by referring to the first generative model information and the second generative model information;
An information processing method comprising:
 上記の構成によれば、付記13と同様の効果を奏する。  According to the above configuration, the same effects as in Supplementary Note 13 are obtained.
 (付記20)
 コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
 学習用データを取得する学習用データ取得手段と、
 第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
 前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
として機能させるプログラム。
(Appendix 20)
A program for causing a computer to function as an information processing device, the computer comprising:
learning data acquisition means for acquiring learning data;
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition means for acquiring
data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data;
A program that acts as a
 上記の構成によれば、付記1と同様の効果を奏する。 According to the above configuration, the same effect as Appendix 1 can be obtained.
 (付記21)
 コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
 シードデータを取得するシードデータ取得手段と、
 前記シードデータを用いてデータを生成するデータ生成手段であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成手段と
として機能させるプログラム。
(Appendix 21)
A program for causing a computer to function as an information processing device, the computer comprising:
seed data acquisition means for acquiring seed data;
Data generation means for generating data using the seed data, the first generation model information relating to the first data generation model, the second data generation model different from the first data generation model A program functioning as data generating means for generating data using a first data generation model defined by referring to first generative model information in which second generative model information regarding is reflected.
 上記の構成によれば、付記10と同様の効果を奏する。 According to the above configuration, the same effects as in Supplementary Note 10 are obtained.
 (付記22)
 コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
 第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
 前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
として機能させるプログラム。
(Appendix 22)
A program for causing a computer to function as an information processing device, the computer comprising:
Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model;
Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information;
A program that acts as a
 上記の構成によれば、付記13と同様の効果を奏する。  According to the above configuration, the same effects as in Supplementary Note 13 are obtained.
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
[Appendix 3]
Some or all of the embodiments described above can also be expressed as follows.
 (付記23)
 少なくとも1つのプロセッサを備え、前記プロセッサは、
 学習用データを取得する学習用データ取得処理と、
 第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得処理と、
 前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習処理と、を実行する情報処理装置。
(Appendix 23)
at least one processor, said processor comprising:
learning data acquisition processing for acquiring learning data;
First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition processing for acquiring
and a data generation model learning process of learning the first data generation model defined by referring to the first generation model information using the learning data.
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記学習用データ取得処理と、前記生成モデル情報取得処理と、前記データ生成モデル学習処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。 The information processing apparatus may further include a memory, in which the learning data acquisition process, the generative model information acquisition process, and the data generative model learning process are executed by the processor. A program may be stored for causing the Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
 (付記24)
 少なくとも1つのプロセッサを備え、前記プロセッサは、
 シードデータを取得するシードデータ取得処理と、
 前記シードデータを用いてデータを生成するデータ生成処理であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成処理と、を実行する情報処理装置。
(Appendix 24)
at least one processor, said processor comprising:
a seed data acquisition process for acquiring seed data;
A data generation process for generating data using the seed data, the first generation model information relating to the first data generation model, and a second data generation model different from the first data generation model and a data generation process for generating data using a first data generation model defined by referring to first generation model information in which second generation model information regarding is reflected.
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記シードデータ取得処理と、前記データ生成処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。 The information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the seed data acquisition process and the data generation process. . Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
 (付記25)
 少なくとも1つのプロセッサを備え、前記プロセッサは、
 第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得処理と、
 前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新処理と、を実行する情報処理装置。
(Appendix 25)
at least one processor, said processor comprising:
Generative model information acquisition processing for acquiring first generative model information related to a first data generation model and second generative model information related to a second data generation model different from the first data generation model;
and a generative model information update process for generating updated generative model information by referring to the first generative model information and the second generative model information.
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記生成モデル情報取得処理と、前記生成モデル情報更新処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。 The information processing apparatus may further include a memory, and the memory stores a program for causing the processor to execute the generative model information acquisition process and the generative model information update process. may Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.
1a~1f 情報処理システム
10、10a~10f、20 情報処理装置
30、30a~30f、40e、50f 情報処理装置(サーバ)
101 学習用データ取得部
102、301、501 生成モデル情報取得部
103、 データ生成モデル学習部
160、360、460、560 通信部
110、310 送信部
111 学習用データ選択部
150、350 制御部
201 シードデータ取得部
202 データ生成部
203 推論モデル学習部
204 推論部
205、303 推論モデル情報取得部
206 モデル情報更新部
302、502 生成モデル情報更新部
304 推論モデル情報更新部
C コンピュータ
C1 プロセッサ
C2 メモリ

 
1a to 1f information processing systems 10, 10a to 10f, 20 information processing devices 30, 30a to 30f, 40e, 50f information processing devices (servers)
101 learning data acquisition units 102, 301, 501 generative model information acquisition unit 103 data generation model learning units 160, 360, 460, 560 communication units 110, 310 transmission unit 111 learning data selection units 150, 350 control unit 201 seed Data acquisition unit 202 Data generation unit 203 Inference model learning unit 204 Inference units 205, 303 Inference model information acquisition unit 206 Model information update units 302, 502 Generative model information update unit 304 Inference model information update unit C Computer C1 Processor C2 Memory

Claims (22)

  1.  学習用データを取得する学習用データ取得手段と、
     第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
     前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
    を備えている情報処理装置。
    learning data acquisition means for acquiring learning data;
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition means for acquiring
    data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data;
    Information processing device equipped with.
  2.  前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段
    を更に備えている請求項1に記載の情報処理装置。
    2. The information processing apparatus according to claim 1, further comprising transmitting means for transmitting third generative model information related to said first data generative model learned by said data generative model learning means.
  3.  前記生成モデル情報取得手段は、
     学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
     当該情報処理装置は、
      前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報と、
      前記第4の生成モデル情報と
    を参照して更新後の生成モデル情報を生成する生成モデル情報更新手段
    を更に備えている請求項1に記載の情報処理装置。
    The generative model information acquisition means includes:
    Acquiring fourth generative model information about the second data generative model after learning,
    The information processing device is
    third generative model information about the first data generative model learned by the data generative model learning means;
    2. The information processing apparatus according to claim 1, further comprising generative model information updating means for generating updated generative model information with reference to said fourth generative model information.
  4.  前記学習用データ取得手段は、
      データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
    ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
    The learning data acquisition means is
    A data group containing a plurality of data pieces, each data piece labeled with one of a plurality of label types, and included in the data group in which the ratio of data pieces labeled with a certain label type is equal to or less than a predetermined ratio 4. The information processing apparatus according to any one of claims 1 to 3, wherein a piece of data is obtained as said learning data.
  5.  前記学習用データ取得手段は、
      複数のデータ群候補から、前記データ群を選択する選択手段を備えている
    ことを特徴とする請求項4に記載の情報処理装置。
    The learning data acquisition means is
    5. An information processing apparatus according to claim 4, further comprising selection means for selecting said data group from a plurality of data group candidates.
  6.  前記データ生成モデル学習手段は、
      前記第1のデータ生成モデルを含むオートエンコーダ、及び、
      前記第1のデータ生成モデルを含む敵対的生成ネットワーク
    の少なくとも何れかを学習させる
    ことを特徴とする請求項1から5の何れか1項に記載の情報処理装置。
    The data generation model learning means is
    an autoencoder including the first data generation model; and
    6. The information processing apparatus according to any one of claims 1 to 5, wherein at least one of generative adversarial networks including the first data generation model is learned.
  7.  前記オートエンコーダは、
      変分オートエンコーダ、及び条件付き変分オートエンコーダ
    の少なくとも何れかを含んでいる
    ことを特徴とする請求項6に記載の情報処理装置。
    The autoencoder is
    7. An information processing apparatus according to claim 6, comprising at least one of a variational autoencoder and a conditional variational autoencoder.
  8.  前記第1のデータ生成モデルを用いてデータを生成するデータ生成手段と、
     前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段と
    を更に備えている
    ことを特徴とする請求項1から7の何れか1項に記載の情報処理装置。
    data generation means for generating data using the first data generation model;
    8. The information processing according to claim 1, further comprising inference model learning means for learning the first inference model with reference to the data generated by said data generation means. Device.
  9.  前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
     前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
    ことを特徴とする請求項8に記載の情報処理装置。
    Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for
    8. The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device according to .
  10.  シードデータを取得するシードデータ取得手段と、
     前記シードデータを用いてデータを生成するデータ生成手段とを備え、
     前記データ生成手段は、
      第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
    ことを特徴とする情報処理装置。
    seed data acquisition means for acquiring seed data;
    Data generation means for generating data using the seed data,
    The data generation means is
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model An information processing apparatus characterized by generating data using a first data generation model defined with reference to.
  11.  前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段を更に備えている
    ことを特徴とする請求項10に記載の情報処理装置。
    11. An information processing apparatus according to claim 10, further comprising inference model learning means for learning the first inference model with reference to the data generated by said data generation means.
  12.  前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
     前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
    ことを特徴とする請求項11に記載の情報処理装置。
    Acquiring first inference model information relating to the first inference model, the first inference model information reflecting second inference model information relating to a second inference model different from the first inference model. further comprising inference model information acquisition means for
    11. The inference model learning means learns the first inference model defined by referring to the first inference model information using the data generated by the data generation means. The information processing device according to .
  13.  第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
     前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
    を備えていることを特徴とする情報処理装置。
    Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model;
    Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information;
    An information processing device comprising:
  14.  前記更新後の生成モデル情報を、前記第1のデータ生成モデルを実装した第1の情報処理装置、及び、前記第2のデータ生成モデルを実装した第2の情報処理装置に送信する送信手段を更に備えていることを特徴とする請求項13に記載の情報処理装置。 transmitting means for transmitting the updated generative model information to a first information processing device implementing the first data generation model and a second information processing device implementing the second data generation model; 14. The information processing apparatus according to claim 13, further comprising:
  15.  前記生成モデル情報更新手段は、
     前記第1の生成モデル情報と前記第2の生成モデル情報との平均を取ることによって、前記更新後の生成モデル情報を生成する
    ことを特徴とする請求項13又は14に記載の情報処理装置。
    The generative model information updating means includes:
    15. The information processing apparatus according to claim 13, wherein the updated generative model information is generated by averaging the first generative model information and the second generative model information.
  16.  第1の情報処理装置、及びサーバを含む情報処理システムであって、
     前記第1の情報処理装置は、
      学習用データを取得する学習用データ取得手段と、
      第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、前記サーバから取得する生成モデル情報取得手段と、
      前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データ取得手段が取得した学習用データを用いて学習させるデータ生成モデル学習手段と、
      前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段と
    を備え、
     前記サーバは、
      前記第3の生成モデル情報、及び、
      学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報
    を取得する生成モデル情報取得手段と、
      前記第3の生成モデル情報と、前記第4の生成モデル情報とを参照して更新後の生成モデル情報を生成する生成モデル情報更新手段と、
      前記更新後の生成モデル情報を、前記第1の情報処理装置に送信する送信手段と
    を備えていることを特徴とする情報処理システム。
    An information processing system including a first information processing device and a server,
    The first information processing device is
    learning data acquisition means for acquiring learning data;
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model a generative model information acquisition means for acquiring from the server;
    data generation model learning means for learning the first data generation model defined by referring to the first generation model information using learning data acquired by the learning data acquisition means;
    transmitting means for transmitting third generative model information related to the first data generative model learned by the data generative model learning means;
    The server is
    the third generative model information; and
    a generative model information acquiring means for acquiring fourth generative model information about the second data generative model after learning;
    Generative model information updating means for generating updated generative model information by referring to the third generative model information and the fourth generative model information;
    and transmitting means for transmitting the updated generative model information to the first information processing apparatus.
  17.  学習用データを取得すること、
     第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、
     前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させること
    を含んでいることを特徴とする情報処理装置方法。
    obtaining training data;
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model and
    An information processing apparatus method, comprising: learning the first data generation model defined by referring to the first generation model information, using the learning data.
  18.  シードデータを取得すること、及び
     前記シードデータを用いてデータを生成すること、
    を含み、
     前記データを生成する工程では、
      第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
    ことを特徴とする情報処理方法。
    obtaining seed data; and generating data using the seed data;
    including
    In the step of generating the data,
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model An information processing method characterized by generating data using a first data generation model defined with reference to.
  19.  第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得すること、及び、
     前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成すること、
    を含んでいることを特徴とする情報処理方法。
    obtaining first generative model information about a first data generative model and second generative model information about a second data generative model different from the first data generative model; and
    generating updated generative model information by referring to the first generative model information and the second generative model information;
    An information processing method comprising:
  20.  コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
     学習用データを取得する学習用データ取得手段と、
     第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
     前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
    として機能させるプログラム。
    A program for causing a computer to function as an information processing device, the computer comprising:
    learning data acquisition means for acquiring learning data;
    First generative model information relating to a first data generation model, the first generative model information reflecting second generative model information relating to a second data generation model different from the first data generation model Generative model information acquisition means for acquiring
    data generation model learning means for learning the first data generation model defined by referring to the first generation model information using the learning data;
    A program that acts as a
  21.  コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
     シードデータを取得するシードデータ取得手段と、
     前記シードデータを用いてデータを生成するデータ生成手段であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成手段と
    として機能させるプログラム。
    A program for causing a computer to function as an information processing device, the computer comprising:
    seed data acquisition means for acquiring seed data;
    Data generation means for generating data using the seed data, the first generation model information relating to the first data generation model, the second data generation model different from the first data generation model A program functioning as data generating means for generating data using a first data generation model defined by referring to first generative model information in which second generative model information regarding is reflected.
  22.  コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
     第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
     前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
    として機能させるプログラム。

     
    A program for causing a computer to function as an information processing device, the computer comprising:
    Generative model information acquisition means for acquiring first generative model information regarding a first data generation model and second generative model information regarding a second data generation model different from the first data generation model;
    Generative model information updating means for generating updated generative model information by referring to the first generative model information and the second generative model information;
    A program that acts as a

PCT/JP2021/011772 2021-03-22 2021-03-22 Information processing device, information processing system, information processing method, and program WO2022201256A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023508176A JPWO2022201256A1 (en) 2021-03-22 2021-03-22
PCT/JP2021/011772 WO2022201256A1 (en) 2021-03-22 2021-03-22 Information processing device, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/011772 WO2022201256A1 (en) 2021-03-22 2021-03-22 Information processing device, information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2022201256A1 true WO2022201256A1 (en) 2022-09-29

Family

ID=83395373

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/011772 WO2022201256A1 (en) 2021-03-22 2021-03-22 Information processing device, information processing system, information processing method, and program

Country Status (2)

Country Link
JP (1) JPWO2022201256A1 (en)
WO (1) WO2022201256A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119615A1 (en) * 2009-04-15 2010-10-21 日本電気株式会社 Learning-data generating device and named-entity-extraction system
JP2015184805A (en) * 2014-03-20 2015-10-22 株式会社東芝 Model update device and model update method
JP2019502988A (en) * 2015-12-02 2019-01-31 株式会社Preferred Networks Generative machine learning system for drug design
JP2020027182A (en) * 2018-08-10 2020-02-20 クリスタルメソッド株式会社 Learning data generation method, learning method, and evaluation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010119615A1 (en) * 2009-04-15 2010-10-21 日本電気株式会社 Learning-data generating device and named-entity-extraction system
JP2015184805A (en) * 2014-03-20 2015-10-22 株式会社東芝 Model update device and model update method
JP2019502988A (en) * 2015-12-02 2019-01-31 株式会社Preferred Networks Generative machine learning system for drug design
JP2020027182A (en) * 2018-08-10 2020-02-20 クリスタルメソッド株式会社 Learning data generation method, learning method, and evaluation device

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DANIEL JIWOONG IM; HE MA; CHRIS DONGJOO KIM; GRAHAM TAYLOR: "Generative Adversarial Parallelization", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 13 December 2016 (2016-12-13), 201 Olin Library Cornell University Ithaca, NY 14853 , XP080738850 *
FILIPIUK MICHAEL KRZYSZTOF: "Variational Autoencoder for Collaborative Filtering for TensorFlow Table Of Contents", GITHUB, 23 July 2019 (2019-07-23), XP055974814, Retrieved from the Internet <URL:https://github.com/mkfilipiuk/VAE-CF/blob/master/README.md> [retrieved on 20221026] *
XIANDONG QI: "Intro Distributed Deep Learning", XIANDONG79, 13 May 2013 (2013-05-13), XP055904842, Retrieved from the Internet <URL:https://xiandong79.github.io/Intro-Distributed-Deep-Learning> [retrieved on 20220324] *

Also Published As

Publication number Publication date
JPWO2022201256A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
Almasan et al. Deep reinforcement learning meets graph neural networks: Exploring a routing optimization use case
JP7308003B2 (en) Decentralized distributed deep learning
WO2022073320A1 (en) Methods and systems for decentralized federated learning
US20190114537A1 (en) Distributed training and prediction using elastic resources
US10783437B2 (en) Hybrid aggregation for deep learning neural networks
US11164108B2 (en) Transfer learning without local data export in multi-node machine learning
KR102310187B1 (en) A distributed computing system including multiple edges and cloud, and method for providing model for using adaptive intelligence thereof
JP7383803B2 (en) Federated learning using heterogeneous model types and architectures
US10733500B2 (en) Short-term memory using neuromorphic hardware
CN113033811A (en) Processing method and device of two-quantum-bit logic gate
Satoh et al. Quisp: a quantum internet simulation package
US11809895B2 (en) Control device, control method, and program
JP2019515367A (en) Energy-saving multiple neurosynaptic cores to implement the spanning power and area efficiency of neural networks
Alghayadh et al. Ubiquitous learning models for 5G communication network utility maximization through utility-based service function chain deployment
CN110383302A (en) Small Maastricht Treaty Rana Fermi&#39;s subcode
CN115358487A (en) Federal learning aggregation optimization system and method for power data sharing
US11176489B1 (en) Optimal message scheduling for aggregation
US20230297844A1 (en) Federated learning using heterogeneous labels
Bouzidi et al. Dynamic clustering of software defined network switches and controller placement using deep reinforcement learning
Das et al. Design of a quantum repeater using quantum circuits and benchmarking its performance on an IBM quantum computer
Bhuiyan et al. Fast parallel algorithms for edge-switching to achieve a target visit rate in heterogeneous graphs
Zhang et al. Blockchain-based secure aggregation for federated learning with a traffic prediction use case
WO2022201256A1 (en) Information processing device, information processing system, information processing method, and program
Chen et al. Ta-moe: Topology-aware large scale mixture-of-expert training
IT202100006179A1 (en) METHOD IMPLEMENTED BY COMPUTERS FOR REAL-TIME QUANTUM COMPILATION BASED ON ARTIFICIAL INTELLIGENCE

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21932869

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023508176

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21932869

Country of ref document: EP

Kind code of ref document: A1