WO2021120676A1 - 联邦学习网络下的模型训练方法及其相关设备 - Google Patents

联邦学习网络下的模型训练方法及其相关设备 Download PDF

Info

Publication number
WO2021120676A1
WO2021120676A1 PCT/CN2020/111428 CN2020111428W WO2021120676A1 WO 2021120676 A1 WO2021120676 A1 WO 2021120676A1 CN 2020111428 W CN2020111428 W CN 2020111428W WO 2021120676 A1 WO2021120676 A1 WO 2021120676A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
gradient information
information
model
training
Prior art date
Application number
PCT/CN2020/111428
Other languages
English (en)
French (fr)
Inventor
何安珣
王健宗
肖京
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021120676A1 publication Critical patent/WO2021120676A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes

Definitions

  • This application relates to the field of artificial intelligence technology, in particular to a model training method under a federated learning network and related equipment.
  • Federated machine learning refers to a machine learning framework that can effectively help multiple nodes perform data usage and machine learning modeling while meeting the requirements of data privacy protection and data security.
  • the optimization methods of federated learning include FedSGD, FedAvg, FedProx, FedMA, SCAFFOLD, etc.
  • the final training model of each participant is basically the same, and personalized training cannot be achieved; there is a certain loss in the Non-IID (independent and identically distributed) data distribution, and the accuracy rate is It is not high enough, and when some nodes use meaningless data to maliciously participate in the model training, it is difficult to identify them in time and effectively, and they are vulnerable to attacks.
  • the purpose of the embodiments of this application is to propose a model training method and related equipment under a federated learning network to realize personalized training of different nodes and reduce the impact of meaningless data on model training.
  • an embodiment of the present application provides a model training method under a federated learning network, which adopts the following technical solutions:
  • a model training method under a federated learning network includes the following steps:
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive the initialization model issued by the central client as a local model. Each node updates the local model in multiple rounds. training;
  • each node obtains the resulting model
  • the process of update training includes:
  • each of the nodes to use the local data corresponding to the node to train the local model, obtain gradient information of each node, and send the gradient information to the central client;
  • Controlling the central client to receive and generate global information according to the gradient information, and send the global information to each node;
  • Control the current node to receive and obtain the gradient information of other nodes according to the global information use the gradient information of each node to test the local model of the current node to obtain the accuracy rate, and adjust the received global information according to the accuracy rate, Obtain the adjusted global information, and use the adjusted global information to update the local model of the current node;
  • an embodiment of the present application also provides a model training device under the federated learning network, which adopts the following technical solutions:
  • a model training device under a federated learning network including:
  • the establishment module is used to establish a federated learning network.
  • the federated learning network includes a central client and a plurality of nodes, and controls each node to receive an initialization model issued by the central client. As a local model, each node is responsible for the local The model undergoes multiple rounds of update training;
  • the output module is used to control the node to receive user data and input it into the result model corresponding to the node to obtain the recommended information output by the result model;
  • the establishment module includes a training sub-module, a generation sub-module, an adjustment sub-module, and a judgment sub-module;
  • the training sub-module is used to control each of the nodes to use the local data corresponding to the node to train the local model in each round of update training, obtain the gradient information of each node, and combine the gradient Information is sent to the central client;
  • the generating sub-module is configured to control the central client to receive and generate global information according to the gradient information in each round of update training, and send the global information to each node;
  • the adjustment sub-module is used to control the current node to receive and obtain the gradient information of other nodes according to the global information in each round of update training, and use the gradient information of each node to test the local model of the current node to obtain Accuracy, adjusting the weight of the gradient information of each node in the global information according to the accuracy, obtaining the adjusted global information, and using the adjusted global information to update the local model of the current node;
  • the judgment sub-module is used to judge whether the local model corresponding to each node converges until the current round of all node update training is completed.
  • the embodiments of the present application also provide a computer device, which adopts the following technical solutions:
  • a computer device includes a memory and a processor.
  • the memory stores computer-readable instructions.
  • the processor executes the computer-readable instructions, the steps of the model training method under the federated learning network are implemented as follows:
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive the initialization model issued by the central client as a local model. Each node updates the local model in multiple rounds. training;
  • each node obtains the resulting model
  • the process of update training includes:
  • each of the nodes to use the local data corresponding to the node to train the local model, obtain gradient information of each node, and send the gradient information to the central client;
  • Controlling the central client to receive and generate global information according to the gradient information, and send the global information to each node;
  • Control the current node to receive and obtain the gradient information of other nodes according to the global information use the gradient information of each node to test the local model of the current node to obtain the accuracy rate, and adjust the received global information according to the accuracy rate, Obtain the adjusted global information, and use the adjusted global information to update the local model of the current node;
  • the embodiments of the present application also provide a computer-readable storage medium, which adopts the following technical solutions:
  • a computer-readable storage medium having computer-readable instructions stored thereon, and when the computer-readable instructions are executed by a processor, the steps of a model training method under a federated learning network are implemented as follows:
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive the initialization model issued by the central client as a local model. Each node updates the local model in multiple rounds. training;
  • each node obtains the resulting model
  • the process of update training includes:
  • each of the nodes to use the local data corresponding to the node to train the local model, obtain gradient information of each node, and send the gradient information to the central client;
  • Controlling the central client to receive and generate global information according to the gradient information, and send the global information to each node;
  • Control the current node to receive and obtain the gradient information of other nodes according to the global information use the gradient information of each node to test the local model of the current node to obtain the accuracy rate, and adjust the received global information according to the accuracy rate, Obtain the adjusted global information, and use the adjusted global information to update the local model of the current node;
  • Figure 1 is an exemplary system architecture diagram to which the present application can be applied;
  • Fig. 2 is a flowchart of an embodiment of a model training method under a federated learning network according to the present application
  • Fig. 3 is a schematic structural diagram of an embodiment of a model training device under a federated learning network according to the present application
  • Fig. 4 is a schematic structural diagram of an embodiment of a computer device according to the present application.
  • the system architecture 100 may include terminal devices (101, 102, 103), a network 104, and a server 105.
  • the network 104 is used to provide a medium for communication links between terminal devices (101, 102, 103) and the server 105.
  • the network 104 may include various connection types, such as wired, wireless communication links, or fiber optic cables, and so on.
  • the user can use the terminal device (101, 102, 103) to interact with the server 105 through the network 104 to receive or send messages and so on.
  • Various communication client applications such as web browser applications, shopping applications, search applications, instant messaging tools, email clients, and social platform software, can be installed on the terminal devices (101, 102, 103).
  • Terminal devices can be various electronic devices that have a display screen and support web browsing, including but not limited to smartphones, tablets, e-book readers, MP3 players (Moving Picture Experts Group Audio Layer III , Motion Picture Experts compress standard audio layer 3), MP4 (Moving Picture Experts Group Audio Layer IV, Motion Picture Experts compress standard audio layer 4) Players, laptop portable computers and desktop computers, etc.
  • MP3 players Moving Picture Experts Group Audio Layer III , Motion Picture Experts compress standard audio layer 3
  • MP4 Motion Picture Experts Group Audio Layer IV, Motion Picture Experts compress standard audio layer 4
  • laptop portable computers laptop portable computers and desktop computers, etc.
  • the server 105 may be a server that provides various services, for example, a background server that provides support for pages displayed on terminal devices (101, 102, 103).
  • model training method under the federated learning network provided by the embodiment of the present application is generally executed by the server/terminal device. Accordingly, the model training device under the federated learning network is generally set in the server/terminal device.
  • terminal devices, networks, and servers in FIG. 1 are merely illustrative. There can be any number of terminal devices, networks, and servers according to implementation needs.
  • the model training method under the federated learning network includes the following steps:
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive an initialization model issued by the central client as a local model.
  • each node separately performs multiple rounds of update training on the local model.
  • the node is the participant of federated learning.
  • the central client initializes the model and delivers it.
  • Each participant uses local data (batch size, the number of data samples captured in one training) for training, obtains gradient information, and sends the gradient information Back to the central client.
  • the gradient information of all nodes is: In the scenario of providing users with personalized services, it mainly involves recommending products or services.
  • the data characteristics involved in smart recommendation mainly include user purchasing power, user personal preferences and product characteristics. In practical applications, the three data characteristics are scattered in three different enterprises.
  • the user's purchasing power data is stored in the bank
  • the user's personal preference data is stored in the social network platform
  • the product feature data is stored in the electronic store platform.
  • the central client sends the initialization model to the bank, social network platform, and e-shop platform as the node.
  • the electronic device (such as the server/terminal device shown in FIG. 1) on which the model training method under the federated learning network runs can receive the initialization model through a wired connection or a wireless connection.
  • the above-mentioned wireless connection methods may include, but are not limited to, 3G/4G connection, WiFi connection, Bluetooth connection, WiMAX connection, Zigbee connection, UWB (ultrawideband) connection, and other currently known or future wireless connection methods.
  • S2 Control each of the nodes to use the local data corresponding to the node to train the local model, obtain gradient information of each node, and send the gradient information to the central client.
  • each node in each round of update training, each node is controlled to use the local data corresponding to the node to train the local model, the gradient information is obtained through the local data training, and then the gradient information is sent to the central client , To avoid privacy leakage caused by direct transmission of local data.
  • Banks, social networking platforms, and e-shop platforms use locally stored data including user purchasing power, user personal preferences, and product characteristics to train local models to obtain gradient information (ie model parameters).
  • the local data is composed of training data and validation set data.
  • each of the nodes is controlled to use the local data corresponding to the node to train the local model to obtain gradient information of each node.
  • Control each of the nodes to use training data to train the local model to obtain gradient information of each node.
  • the local data includes training data and verification set; 70% of the local data is used as training data, and 30% is used as verification set data. Or 80% of the local data is used as training data, and 20% is used as validation set data. The local model is trained through the training data, and the local model is tested through the validation set.
  • S3 Control the central client to receive and generate global information according to the gradient information, and send the global information to each node.
  • the central client after receiving the gradient information sent by all nodes, the central client sends the global information Send back to each node. All nodes will have the iterative update information of this round of training; global information is equivalent to putting together the gradient information sent by all nodes and then transmitting it to each node.
  • the gradient information transmitted from the bank, social network platform, and e-shop platform to the central client is unified to generate global information, and the global information is sent to the bank, social network platform, and e-shop platform, respectively.
  • step S2 the step of sending the gradient information to the central client includes:
  • step S3 the step of controlling the central client to receive and generate global information according to the gradient information includes:
  • an encryption method is set during the transmission process to protect the security of data transmission.
  • the central client decrypts the encrypted gradient information by using the private key corresponding to the public key to obtain the gradient information.
  • the public key transmitted to each node is different, so as to prevent the public key of a certain node from being cracked, causing the information of other nodes to be leaked.
  • S4 Control the current node to receive and obtain the gradient information of other nodes according to the global information, use the gradient information of each node to test the local model of the current node to obtain the accuracy rate, and adjust the received global information according to the accuracy rate Information, obtain the adjusted global information, and use the adjusted global information to update the local model of the current node.
  • the local model is updated as a training completion of the current node.
  • the bank node Take the bank node as an example, use the gradient information of the social network platform and the electronic store platform to test the local model of the bank node to obtain the corresponding accuracy rate.
  • step S2 the step of sending the gradient information to the central client includes:
  • step S4 the step of controlling the current node to receive and obtain gradient information of other nodes according to the global information includes:
  • the symmetric key received by each node is the same.
  • the central client does not decrypt the gradient information, but the node that receives the global information decrypts the gradient information, which increases the security of data transmission and reduces the burden on the central client.
  • the local data is composed of training data and validation set data.
  • step S4 that is, the gradient information of each node is used to test the local model of the current node, and the steps of obtaining accuracy include:
  • the gradient information of each node and the verification set are used to test the local model of the current node to obtain the gradient information of each node and the accuracy of the model corresponding to the current node.
  • the current node is a bank
  • the global information includes gradient information of the bank, social network platform, and e-shop platform
  • the gradient information of the store platform and the local validation set data are used to test the local model, and the accuracy rates of the bank, social network platform and e-shop platform are obtained respectively.
  • the validation set data itself carries a label, and the accuracy of the gradient information of each node is obtained by comparing the output result of the model with the label.
  • Part of the user purchasing power data in the bank is used as training data, and part is used as the validation set data.
  • the tags of user purchasing power data include high purchasing power, medium purchasing power, and low purchasing power.
  • this application is not limited to the above scenarios, and can also be applied to scenarios such as supervision.
  • the local data is data related to default
  • the label carried in the verification set data is the result of actual default (default or non-default).
  • the predicted result (default or non-default) output by the local model is consistent with the actual default result, so as to realize the determination of each node The accuracy of the gradient information.
  • step S4 that is, adjusting the received global information according to the accuracy rate
  • the step of obtaining the adjusted global information includes:
  • the weight and gradient information are weighted and summed to obtain adjusted global information.
  • the weight of the gradient information in the global information is adjusted according to the accuracy rate, so as to eliminate meaningless or low-quality data that maliciously participate in model training. Adjusting the weight by the accuracy rate makes the unreal or unqualified data naturally filtered out, and only the nodes that provide valuable data can benefit from the groups with similar distribution.
  • the weight of the gradient information in the global information is adjusted to obtain the adjusted global information, and the local model of the bank is updated with the adjusted global information.
  • the local model adjusted by the global information is obtained, and the training is realized through the user's purchasing power, user's personal preferences and product feature data from the bank, social network platform and e-shop platform respectively.
  • the step of obtaining the weight of the gradient information of each node in the global information according to the accuracy rate includes:
  • the weight of the gradient information of each node is calculated by the following formula:
  • Is the weight of the gradient information of each node Is the weight of the gradient information of each node in the previous round
  • is the learning rate
  • Is the accuracy of each node It is the median value of accuracy.
  • is the learning rate.
  • the update speed of the model is adjusted by adjusting the learning rate.
  • the specific value of ⁇ can be Adjust according to the actual situation.
  • calculate the weight of the gradient information of the bank, social network platform and e-shop platform generate new global information based on the weight result and gradient information, and update the local area with the new global information model. among them, Is the weight of the gradient information of each node in this round, Is the weight of the gradient information of each node in the previous round.
  • the model training process is ended, and the result model of each node is obtained respectively. If it does not converge, the iterative training is continued to achieve the convergence.
  • the model makes the model use better. Until the local models of banks, social network platforms, and e-shop platforms converge, personalized recommendations can be made to users through the use of result models. Among them, the corresponding result models of banks, social network platforms, and e-shop platforms may be the same or different. , Whether the result model is the same is determined by the training data provided by each node and the accuracy rate corresponding to the gradient information of different nodes in each iteration.
  • all nodes repeat steps S2 to S4 at the same time until all nodes have been updated, and enter the next round of iterations until the local models converge.
  • the result model is obtained by training through data related to different dimensions of the user’s purchasing power, the user’s personal preferences and product features, and the user data is input into the result model to obtain recommendation information with high pertinence and accuracy.
  • the result model By using the result model to output the recommended information, the accuracy of the recommended information is improved while ensuring the privacy of the local data corresponding to different nodes in the model training process.
  • the training method and the obtained result model of this application can be applied to a personalized recommendation information scenario, and the recommendation information output by the result model is obtained by inputting the received user data into the result model.
  • the local model is trained through the data of different dimensions of the patients provided by different nodes, the result model is obtained, and the hospital patient data is input into the result model To obtain the diagnostic information output by the result model.
  • the above-mentioned gradient information may also be stored in a node of a blockchain.
  • Blockchain is essentially a decentralized database. It is a series of data blocks associated with cryptographic methods. Each data block contains a batch of network transaction information for verification. The validity of its information (anti-counterfeiting) and the generation of the next block.
  • the blockchain can include the underlying platform of the blockchain, the platform product service layer, and the application service layer.
  • This application belongs to the field of artificial intelligence technology and has good performance in both machine learning and deep learning.
  • this application can also be applied to technologies such as disease risk assessment, precision medicine, and smart medicine of digital medical care.
  • This application can also be applied in the field of smart communities to promote the construction of smart cities.
  • the processes in the above-mentioned embodiment methods can be implemented by instructing relevant hardware through computer-readable instructions, which can be stored in a computer-readable storage medium.
  • the computer-readable instructions When executed, they may include the processes of the above-mentioned method embodiments.
  • the aforementioned storage medium may be a non-volatile storage medium such as a magnetic disk, an optical disc, a read-only memory (Read-Only Memory, ROM), or a random access memory (Random Access Memory, RAM), etc.
  • this application provides an embodiment of a model training device under a federated learning network.
  • the device embodiment corresponds to the method embodiment shown in FIG. 2 ,
  • the device can be specifically applied to various electronic equipment.
  • the model training device 300 under the federated learning network in this embodiment includes: an establishment module 301, an acquisition module 302, and an output module 303.
  • the establishment module 301 includes a training sub-module 3011, a generating sub-module 3012 , The adjustment sub-module 3013 and the judgment sub-module 3014.
  • the establishment module 301 is used to establish a federated learning network
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive an initialization model issued by the central client as a local model
  • training submodule 3011 is used to establish a federated learning network
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive an initialization model issued by the central client as a local model
  • training submodule 3011 is used to establish a federated learning network
  • the federated learning network includes a central client and multiple nodes, and each node is controlled to receive an initialization model issued by the central client
  • each round of update training control each node to use the local data corresponding to the node to train the local model, obtain gradient information of each node, and send the gradient information to the central Client; generating sub-module 3012, used to control the central client to receive and generate global information according to the gradient information in each round of update training, and send the global information to each node; adjustment sub-module 3013, using In each round of update training, the current node is controlled to receive and obtain the gradient information of other nodes according to the global information, and the gradient information of each node is used to test the local model of the current node to obtain the accuracy rate.
  • the judgment sub-module 3014 is used to determine whether the local model corresponding to each node converges until the current round of all node update training is completed; the obtaining module 302 is used to determine whether the local model corresponding to each node converges after the update training, and each node obtains Result model; output module 303, used to control the node to receive user data and input it into the result model corresponding to the node to obtain the recommended information output by the result model;.
  • each participant will be able to find other participants whose data quality is similar to that of its own during the update process.
  • different nodes will obtain different models through personalized training; because federated learning can To achieve the effect of expanding the data scale, this application has a better effect on Non-IID (non-independent and identically distributed) data.
  • Some nodes use meaningless or low-quality data to maliciously participate in model training, they can be identified in a timely and effective manner through the calculation of accuracy, and by reducing their influence weight, the impact on the local model is reduced, and the model is improved at the same time Robustness.
  • the local data is composed of training data and validation set data
  • the training submodule 3011 is further configured to: control each node to use the training data to perform the local model Training to obtain the gradient information of each node.
  • the training sub-module 3011 includes a first encryption unit and a first transmission unit, and the first encryption unit is used to encrypt the gradient information using a public key pre-transmitted by the central client.
  • the first transmission unit is used to send the encrypted gradient information to the central client.
  • the generating sub-module 3012 includes a decryption unit and a generating unit. The decryption unit is used to control the central client to decrypt the encrypted gradient information to obtain gradient information; the generating unit is used to generate Global information.
  • the training sub-module 3011 also includes a second encryption unit and a second transmission unit, the second encryption unit is configured to encrypt the gradient information using a symmetric key pre-transmitted by the central client; the second The transmission unit is used to send the encrypted gradient information to the central client; the adjustment sub-module 3013 includes a receiving unit, a first obtaining unit and a second obtaining unit, and the receiving unit is used to control the current node to receive The global information; the first acquisition unit is used to obtain encrypted gradient information according to the global information; the second acquisition unit is used to decrypt the encrypted gradient information using a symmetric key to obtain the gradient information.
  • the local data consists of training data and validation set data
  • the adjustment submodule 3013 is further configured to use the gradient information of each node and the validation set to the current node respectively.
  • the local model is tested and the accuracy is obtained.
  • the adjustment submodule 3013 also includes a third acquiring unit and a weighting unit.
  • the third obtaining unit is used to obtain the weight of the gradient information of each node in the global information according to the accuracy; the weighting unit is used to perform a weighted summation of the weight and the gradient information to obtain the adjusted global information.
  • the third acquisition unit includes a first calculation sub-unit and a second sub-calculation unit.
  • the first calculation sub-unit is configured to calculate an intermediate value of the accuracy rate according to the accuracy rate, wherein the intermediate value of the accuracy rate is each accurate The median rate.
  • the second calculation subunit is used to calculate the weight of the gradient information of each node by using the following formula: among them, Is the weight of the gradient information of each node, Is the weight of the gradient information of each node in the previous round, ⁇ is the learning rate, Is the accuracy of each node, It is the median value of accuracy. .
  • FIG. 4 is a block diagram of the basic structure of the computer device in this embodiment.
  • the computer device 200 includes a memory 201, a processor 202, and a network interface 203 that are connected to each other in communication through a system bus. It should be pointed out that only the computer device 200 with components 201-203 is shown in the figure, but it should be understood that it is not required to implement all the illustrated components, and more or fewer components may be implemented instead. Among them, those skilled in the art can understand that the computer device here is a device that can automatically perform numerical calculation and/or information processing in accordance with pre-set or stored instructions.
  • Its hardware includes, but is not limited to, a microprocessor, a dedicated Integrated Circuit (Application Specific Integrated Circuit, ASIC), Programmable Gate Array (Field-Programmable Gate Array, FPGA), Digital Processor (Digital Signal Processor, DSP), embedded equipment, etc.
  • ASIC Application Specific Integrated Circuit
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • DSP Digital Processor
  • the computer device may be a computing device such as a desktop computer, a notebook, a palmtop computer, and a cloud server.
  • the computer device can interact with the user through a keyboard, a mouse, a remote control, a touch panel, or a voice control device.
  • the memory 201 includes at least one type of readable storage medium, the readable storage medium includes flash memory, hard disk, multimedia card, card-type memory (for example, SD or DX memory, etc.), random access memory (RAM), static Random access memory (SRAM), read only memory (ROM), electrically erasable programmable read only memory (EEPROM), programmable read only memory (PROM), magnetic memory, magnetic disks, optical disks, etc.
  • the computer-readable storage medium may be non-volatile or volatile.
  • the memory 201 may be an internal storage unit of the computer device 200, such as a hard disk or a memory of the computer device 200.
  • the memory 201 may also be an external storage device of the computer device 200, such as a plug-in hard disk, a smart media card (SMC), and a secure digital device equipped on the computer device 200. (Secure Digital, SD) card, Flash Card, etc.
  • the memory 201 may also include both an internal storage unit of the computer device 200 and an external storage device thereof.
  • the memory 201 is generally used to store an operating system and various application software installed in the computer device 200, such as computer-readable instructions of a model training method under a federated learning network.
  • the memory 201 can also be used to temporarily store various types of data that have been output or will be output.
  • the processor 202 may be a central processing unit (CPU), a controller, a microcontroller, a microprocessor, or other data processing chips.
  • the processor 202 is generally used to control the overall operation of the computer device 200.
  • the processor 202 is configured to run computer-readable instructions or process data stored in the memory 201, for example, computer-readable instructions for running the model training method under the federated learning network.
  • the network interface 203 may include a wireless network interface or a wired network interface, and the network interface 203 is generally used to establish a communication connection between the computer device 200 and other electronic devices.
  • different nodes obtain different models through personalized training to reduce the impact of meaningless data on model training.
  • the computer equipment provided in this application executes the steps of the model training method under the federated learning network as described above, It has the beneficial effects corresponding to the model training method under the federated learning network provided by the foregoing method embodiment.
  • the present application also provides another implementation manner, that is, a computer-readable storage medium is provided.
  • the computer-readable storage medium stores computer-readable instructions, and the computer-readable instructions can be executed by at least one processor to The at least one processor is caused to execute the steps of the model training method under the federated learning network as described above.
  • different nodes obtain different models through personalized training to reduce the impact of meaningless data on model training.
  • the computer-readable instructions stored in the computer-readable storage medium provided in this application are executed as described above.
  • the steps of the model training method under the federated learning network have the beneficial effects corresponding to the model training method under the federated learning network provided in the foregoing method embodiment.
  • the method of the above embodiments can be implemented by means of software plus the necessary general hardware platform. Of course, it can also be implemented by hardware, but in many cases the former is better. ⁇
  • the technical solution of this application essentially or the part that contributes to the existing technology can be embodied in the form of a software product, and the computer software product is stored in a storage medium (such as ROM/RAM, magnetic disk, The optical disc) includes several instructions to enable a terminal device (which can be a mobile phone, a computer, a server, an air conditioner, or a network device, etc.) to execute the method described in each embodiment of the present application.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Bioethics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种联邦学习网络下的模型训练方法及其相关设备,建立包括中央客户端和多个节点的联邦学习网络,控制节点接收初始化模型作为本地模型,控制节点使用本地数据训练本地模型获得梯度信息;控制中央客户端根据梯度信息生成全局信息;控制节点根据全局信息获得其他节点的梯度信息,使用梯度信息对当前节点的本地模型进行测试,获得准确率,根据准确率调整全局信息,更新当前节点的本地模型;直至模型收敛,获得结果模型;将节点接收的用户数据输入节点对应的结果模型中,获得结果模型输出的推荐信息。各节点的梯度信息可存储于区块链节点中。该方法实现不同节点的本地模型的个性化训练。

Description

联邦学习网络下的模型训练方法及其相关设备
本申请以2020年6月30日提交的申请号为202010622524.X,名称为“联邦学习网络下的模型训练方法及其相关设备”的中国发明专利申请为基础,并要求其优先权。
技术领域
本申请涉及人工智能技术领域,尤其涉及联邦学习网络下的模型训练方法及其相关设备。
背景技术
联邦学习(Federated machine learning),是指一种机器学习框架,能有效帮助多个节点在满足数据隐私保护和数据安全的要求下,进行数据使用和机器学习建模。
目前,联邦学习的优化方法有FedSGD,FedAvg,FedProx,FedMA,SCAFFOLD等。发明人发现这些方法均是在中央客户端进行模型更新,各参与者最后训练的模型基本一致,无法做到个性化训练;在Non-IID(独立同分布)数据分布上有一定损耗,准确率不够高,以及当有一些节点使用无意义的数据恶意参与模型训练时,难以及时有效地辨别出来,容易受到攻击。
发明内容
本申请实施例的目的在于提出一种联邦学习网络下的模型训练方法及其相关设备,实现不同节点的个性化训练,并降低无意义数据对模型训练的影响。
为了解决上述技术问题,本申请实施例提供一种联邦学习网络下的模型训练方法,采用了如下所述的技术方案:
一种联邦学习网络下的模型训练方法,包括下述步骤:
建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
其中,在每轮更新训练中,所述更新训练的过程包括:
控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
为了解决上述技术问题,本申请实施例还提供一种联邦学习网络下的模型训练装置,采用了如下所述的技术方案:
一种联邦学习网络下的模型训练装置,包括:
建立模块,用于建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
获得模块,用于直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
输出模块,用于控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
所述建立模块包括训练子模块、生成子模块、调整子模块和判断子模块;
其中,所述训练子模块,用于在每轮更新训练中,控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
所述生成子模块,用于在每轮更新训练中,控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
所述调整子模块,用于在每轮更新训练中,控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整每个节点的梯度信息在全局信息中的权重,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
所述判断子模块,用于直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如下所述的联邦学习网络下的模型训练方法的步骤:
建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
其中,在每轮更新训练中,所述更新训练的过程包括:
控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如下所述的联邦学习网络下的模型训练方法的步骤:
建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结 果模型输出的推荐信息;
其中,在每轮更新训练中,所述更新训练的过程包括:
控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
与现有技术相比,本申请实施例主要有以下有益效果:
各参与者将获得在更新过程中,能够通过准确率找到与自身数据质量比较相近的其他参与者,最终不同的节点通过个性化训练获得不同的模型;由于通过联邦学习可以达到扩充数据规模的效果,所以本申请在Non-IID(非独立同分布)数据上的效果比较好。当有一些节点使用无意义或者低质量的数据恶意参与模型训练时,通过准确率的计算,及时有效将其辨别出来,并通过降低其影响权重的方法,减少对本地模型的影响,同时提升模型的鲁棒性。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的联邦学习网络下的模型训练方法的一个实施例的流程图;
图3是根据本申请的联邦学习网络下的模型训练装置的一个实施例的结构示意图;
图4是根据本申请的计算机设备的一个实施例的结构示意图。
附图标记:200、计算机设备;201、存储器;202、处理器;203、网络接口;300、联邦学习网络下的模型训练装置;301、建立模块;302、获得模块;303、输出模块;3011、训练子模块;3012、生成子模块;3013、调整子模块;3014、判断子模块。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备(101、102、103),网络104和服务器105。网络104用以在终端设备(101、102、103)和服务器105之间提供通信链路的介质。 网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备(101、102、103)通过网络104与服务器105交互,以接收或发送消息等。终端设备(101、102、103)上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备(101、102、103)可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备(101、102、103)上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的联邦学习网络下的模型训练方法一般由服务器/终端设备执行,相应地,联邦学习网络下的模型训练装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的联邦学习网络下的模型训练方法的一个实施例的流程图。所述的联邦学习网络下的模型训练方法,包括以下步骤:
S1:建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型。
在本实施例中,每个节点分别对本地模型进行多轮更新训练。节点即为联邦学习的参与者,中央客户端初始化模型并下发,各参与者利用本地数据(batch size,一次训练所抓取的数据样本数量)进行训练,获得梯度信息,并将梯度信息发回中央客户端。所有节点的梯度信息为:
Figure PCTCN2020111428-appb-000001
在为用户提供个性化服务的场景中,主要涉及推荐产品或者服务。智能推荐涉及到的数据特征主要包括用户购买力,用户个人喜好和产品特征。在实际应用中,三个数据特征分散在三个不同的企业中。例如,用户的购买力数据存储于银行,用户个人喜好数据存储于社交网络平台,产品特征数据存储于电子商店平台。中央客户端将初始化模型分别发送给作为节点的银行、社交网络平台和电子商店平台。
在本实施例中,联邦学习网络下的模型训练方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收初始化模型。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultrawideband)连接、以及其他现在已知或将来开发的无线连接方式。
S2:控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端。
在本实施例中,在每轮更新训练中,控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,通过本地数据训练获得梯度信息,再将梯度信息发送至中央客户端,避免了直接传输本地数据造成的隐私泄露。银行、社交网络平台和电子商店平台分别使用本地存储的包括用户购买力,用户个人喜好和产品特征等数据对本地模型进行训练,获得梯度信息(即模型参数)。
其中,所述本地数据由训练数据和验证集数据组成,在步骤S2中,即所述控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息的步骤包括:
控制每个所述节点使用训练数据对所述本地模型进行训练,获得每个节点的梯度信息。
在本实施例中,本地数据包括训练数据和验证集;本地数据中的70%作为训练数据,30%作为验证集数据。或者本地数据中的80%作为训练数据,20%作为验证集数据。通过训练数据对本地模型进行训练,通过验证集对本地模型进行测试。
S3:控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点。
在本实施例中,中央客户端收到所有节点发送的梯度信息后,将全局信息
Figure PCTCN2020111428-appb-000002
发回至各节点。所有节点将拥有本轮训练的迭代更新信息;全局信息相当于把所有节点发送来的梯度信息放在一起后传输给各节点。把银行、社交网络平台和电子商店平台传输至中央客户端的梯度信息统一生成全局信息,将全局信息分别发送给银行、社交网络平台和电子商店平台。
其中,在步骤S2中,即所述将所述梯度信息发送至所述中央客户端的步骤包括:
将所述梯度信息使用所述中央客户端预先传输的公钥进行加密;
将所述加密后的梯度信息发送至所述中央客户端;
在步骤S3中,即所述控制所述中央客户端接收并根据所述梯度信息生成全局信息的步骤包括:
控制所述中央客户端解密所述加密后的梯度信息,获得梯度信息;
根据所述梯度信息生成全局信息。
在本实施例中,通过在传输过程中设置加密的方式,以保护数据传输的安全性.中央客户端通过使用与公钥对应的私钥解密加密后的梯度信息,获得梯度信息。其中,传输给每个节点的公钥不同,避免某一个节点的公钥被破解,导致其他节点的信息也遭到泄露。
S4:控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型。
在本实施例中,通过更新本地模型,作为当前节点的一次训练完成。以银行节点来举例,分别使用社交网络平台和电子商店平台的梯度信息对银行节点的本地模型进行测试,获得对应的准确率。
其中,在步骤S2中,即所述将所述梯度信息发送至所述中央客户端的步骤包括:
将所述梯度信息使用所述中央客户端预先传输的对称密钥进行加密;
将所述加密后的梯度信息发送至所述中央客户端;
在步骤S4中,即控制当前节点接收并根据所述全局信息获得其他节点的梯度信息的步骤包括:
控制当前节点接收所述全局信息;
根据所述全局信息获得加密后的梯度信息;
使用对称密钥解密所述加密后的梯度信息,获得梯度信息。
在本实施例中,各节点接收的对称密钥是一样的。中央客户端不对梯度信息进行解密,而是由接收全局信息的节点对梯度信息进行解密,在增加数据传输安全性的同时,减小了中央客户端的负担。
其中,所述本地数据由训练数据和验证集数据组成,在步骤S4中,即所述分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率的步骤包括:
分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,获得准确率。
在本实施例中,分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,以获得各个节点的梯度信息,在当前节点对应的模型中的准确率。例如:当前节点为银行,全局信息中包括有银行、社交网络平台和电子商店平台的梯度信息;分别使用银行的梯度信息和本地验证集数据、社交网络平台的梯度信息和本地验证集数据、电子商店平台的梯度信息和本地验证集数据来测试本地模型,分别获得银行、社交网络平台和电子商店平台的准确率。具体的:验证集数据本身携带有标签,通过将模型的输出结果与标签做比较,获得各节点的梯度信息的准确率。银行中的用户购买力数据一部分作为训练数据,一部分作为验证集数据,用户购买力数据的标签包括购买力高、购买力中和购买力低,通 过将银行、社交网络平台和电子商店平台的梯度信息和验证集数据输入至本地模型中,通过本地模型输出购买力的预测结果,与购买力数据标签进行比较,从而确定各节点的梯度信息的准确率。
当然本申请不限于上述场景中,还可以应用于监管等场景,在其中,比如,若本地数据为与违约相关的数据,则验证集数据携带的标签为实际是否违约的结果(违约或未违约),通过将上述各节点的梯度信息和本地验证集数据输入本地模型中,通过本地模型输出的预测结果(违约或未违约)与实际违约结果之间的一致的数量,从而实现确定各节点的梯度信息的准确率。
进一步地,在步骤S4中,即根据所述准确率调整接收到的全局信息,获得调整后的全局信息的步骤包括:
根据所述准确率获得每个节点的梯度信息在全局信息中的权重;
将所述权重和梯度信息进行加权求和,获得调整后的全局信息。
在本实施例中,根据准确率调整梯度信息在全局信息中的权重,从而实现排除恶意参与模型训练的无意义或者低质量的数据。通过准确率调整权重,使得不真实或不合格数据自然会被过滤掉,只有提供有价值数据的节点才能从具有相似分布的群体中获益。根据获得的银行、社交网络平台和电子商店平台的梯度信息的准确率,调整梯度信息在全局信息中的权重,从而获得调整后的全局信息,用调整后的全局信息更新银行的本地模型。获得全局信息调整后的本地模型,实现了通过分别来自银行、社交网络平台和电子商店平台的用户购买力,用户个人喜好和产品特征数据进行训练。
其中,根据所述准确率获得每个节点的梯度信息在全局信息中的权重的步骤包括:
根据所述准确率计算准确率中间值,其中,所述准确率中间值为各准确率的中位数;
通过如下公式计算各节点的梯度信息的权重:
Figure PCTCN2020111428-appb-000003
其中,
Figure PCTCN2020111428-appb-000004
为各节点的梯度信息的权重,
Figure PCTCN2020111428-appb-000005
为上一轮的各节点梯度信息的权重,η为学习率,
Figure PCTCN2020111428-appb-000006
为各节点的准确率,
Figure PCTCN2020111428-appb-000007
为准确率中间值。
在本实施例中,η为学习率(learning rate),通过调整学习率从而调整模型的更新速度,η的数值越大,模型的更新速度越快,在实际使用过程中,η的具体数值可以根据实际情况进行调整。计算准确率中位数作为准确率中间值,根据公式分别计算银行、社交网络平台和电子商店平台的梯度信息的权重,根据权重结果和梯度信息生成新的全局信息,使用新的全局信息更新本地模型。其中,
Figure PCTCN2020111428-appb-000008
为本轮各节点的梯度信息的权重,
Figure PCTCN2020111428-appb-000009
为上一轮的各节点梯度信息的权重。
需要说明的是,当本轮为第一轮时,本轮各节点的梯度信息的权重的计算公式为:
Figure PCTCN2020111428-appb-000010
i为各节点,t为本轮,t-1为上一轮。
S5:直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
在本实施例中,在当前轮(第t轮)的所有节点的更新训练完成后,判断各节点对应的本地模型是否收敛,以确定模型训练是否完成,避免模型未收敛而结束训练,引起后续使用模型时输出结果不准确的情况。当银行、社交网络平台节点和电子商店平台都完成本轮的更新训练后,判断银行、社交网络平台节点和电子商店平台的本地模型是否收敛.
S6:直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型。
在本实施例中,确定更新后的各节点的本地模型是否收敛,若收敛,则结束模型训练过程,分别获得各节点的结果模型,若未收敛,则继续进行迭代训练,以实现获得收敛后的模型,使得模型使用的效果好。直到银行、社交网络平台和电子商店平台的本地模型都收敛,则可以实现通过使用结果模型对用户进行个性化推荐,其中,银行、社交网络平台和电子商店平台对应的结果模型可能相同也可能不同,结果模型是否相同,由各节点提供的训练数据的情况和每轮迭代时不同节点的梯度信息对应的准确率决定。
在本实施例中,所有节点同时重复步骤S2至S4,直至所有节点全部更新完毕,进入 下一轮迭代,直至各本地模型收敛。
S7:控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息。
在本实施例中,通过涉及用户购买力,用户个人喜好和产品特征等不同维度的数据,训练得到结果模型,将用户数据输入结果模型中及能够获得针对性和准确率都较高的推荐信息,通过使用结果模型输出推荐信息,在保证模型训练过程中不同节点对应的本地数据的隐私性的同时,提升了推荐信息的准确性。本申请的训练方式和获得的结果模型,可以应用于个性化推荐信息场景中,通过将接受到的用户数据输入结果模型,获得结果模型输出的推荐信息。当然,也可以应用于政务,管理,医疗等领域,具体的,在医院场景中,通过不同节点提供的患者的不同维度的数据训练本地模型,获得结果模型,将医院的患者数据输入结果模型中,获得结果模型输出的诊断信息。
需要强调的是,为进一步保证上述梯度信息的私密和安全性,上述梯度信息还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Block chain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请属于人工智能技术领域,在机器学习、深度学习中均具有较好的表现。此外,本申请也可应用于数字医疗的疾病风险评估、精准医疗和智慧医疗等技术中。本申请还可应用于智慧社区领域中,从而推动智慧城市的建设。
各参与者将获得在更新过程中,能够通过准确率找到与自身数据质量比较相近的其他参与者,最终不同的节点通过个性化训练获得不同的模型;由于通过联邦学习可以达到扩充数据规模的效果,所以本申请在Non-IID(非独立同分布)数据上的效果比较好。当有一些节点使用无意义或者低质量的数据恶意参与模型训练时,通过准确率的计算,及时有效将其辨别出来,并通过降低其影响权重的方法,减少对本地模型的影响,同时提升模型的鲁棒性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图3,作为对上述图2所示方法的实现,本申请提供了一种联邦学习网络下的模型训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,本实施例所述的联邦学习网络下的模型训练装置300包括:建立模块301、获得模块302和输出模块303,所述建立模块301包括训练子模块3011、生成子模块3012、调整子模块3013和判断子模块3014。其中:建立模块301,用于建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型;训练子模块3011,用于在每轮更新训练中,控制每个所述节点 使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;生成子模块3012,用于在每轮更新训练中,控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;调整子模块3013,用于在每轮更新训练中,控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整每个节点的梯度信息在全局信息中的权重,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型。所述判断子模块3014,用于直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛;获得模块302,用于直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;输出模块303,用于控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;。
在本实施例中,各参与者将获得在更新过程中,能够通过准确率找到与自身数据质量比较相近的其他参与者,最终不同的节点通过个性化训练获得不同的模型;由于通过联邦学习可以达到扩充数据规模的效果,所以本申请在Non-IID(非独立同分布)数据上的效果比较好。当有一些节点使用无意义或者低质量的数据恶意参与模型训练时,通过准确率的计算,及时有效将其辨别出来,并通过降低其影响权重的方法,减少对本地模型的影响,同时提升模型的鲁棒性。
在本实施例的一些可选的实现方式中,所述本地数据由训练数据和验证集数据组成,上述训练子模块3011进一步用于:控制每个所述节点使用训练数据对所述本地模型进行训练,获得每个节点的梯度信息。
所述训练子模块3011包括第一加密单元和第一传输单元,所述第一加密单元用于将所述梯度信息使用所述中央客户端预先传输的公钥进行加密。所述第一传输单元用于将所述加密后的梯度信息发送至所述中央客户端。所述生成子模块3012包括解密单元和生成单元,所述解密单元用于控制所述中央客户端解密所述加密后的梯度信息,获得梯度信息;所述生成单元用于根据所述梯度信息生成全局信息。
所述训练子模块3011还包括第二加密单元和第二传输单元,所述第二加密单元用于将所述梯度信息使用所述中央客户端预先传输的对称密钥进行加密;所述第二传输单元用于将所述加密后的梯度信息发送至所述中央客户端;所述调整子模块3013包括接收单元、第一获取单元和第二获取单元,所述接收单元用于控制当前节点接收所述全局信息;所述第一获取单元用于根据所述全局信息获得加密后的梯度信息;所述第二获取单元用于使用对称密钥解密所述加密后的梯度信息,获得梯度信息。
在本实施例的一些可选的实现方式中,所述本地数据由训练数据和验证集数据组成,所述调整子模块3013还用于分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,获得准确率。
所述调整子模块3013还包括第三获取单元和加权单元。所述第三获取单元用于根据所述准确率获得每个节点的梯度信息在全局信息中的权重;所述加权单元用于将所述权重和梯度信息进行加权求和,获得调整后的全局信息。
所述第三获取单元包括第一计算子单元和第二子计算单元,所述第一计算子单元用于根据所述准确率计算准确率中间值,其中,所述准确率中间值为各准确率的中位数。所述第二计算子单元用于通过如下公式计算各节点的梯度信息的权重:
Figure PCTCN2020111428-appb-000011
Figure PCTCN2020111428-appb-000012
其中,
Figure PCTCN2020111428-appb-000013
为各节点的梯度信息的权重,
Figure PCTCN2020111428-appb-000014
为上一轮的各节点梯度信息的权重,η为学习率,
Figure PCTCN2020111428-appb-000015
为各节点的准确率,
Figure PCTCN2020111428-appb-000016
为准确率中间值。。
各参与者将获得在更新过程中,能够通过准确率找到与自身数据质量比较相近的其他参与者,最终不同的节点通过个性化训练获得不同的模型;由于通过联邦学习可以达到扩充数据规模的效果,所以本申请在Non-IID(非独立同分布)数据上的效果比较好。当有一些节点使用无意义或者低质量的数据恶意参与模型训练时,通过准确率的计算,及时有 效将其辨别出来,并通过降低其影响权重的方法,减少对本地模型的影响,同时提升模型的鲁棒性。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图4,图4为本实施例计算机设备基本结构框图。
所述计算机设备200包括通过系统总线相互通信连接存储器201、处理器202、网络接口203。需要指出的是,图中仅示出了具有组件201-203的计算机设备200,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器201至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。所述计算机可读存储介质可以是非易失性,也可以是易失性。在一些实施例中,所述存储器201可以是所述计算机设备200的内部存储单元,例如该计算机设备200的硬盘或内存。在另一些实施例中,所述存储器201也可以是所述计算机设备200的外部存储设备,例如该计算机设备200上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器201还可以既包括所述计算机设备200的内部存储单元也包括其外部存储设备。本实施例中,所述存储器201通常用于存储安装于所述计算机设备200的操作系统和各类应用软件,例如联邦学习网络下的模型训练方法的计算机可读指令等。此外,所述存储器201还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器202在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器202通常用于控制所述计算机设备200的总体操作。本实施例中,所述处理器202用于运行所述存储器201中存储的计算机可读指令或者处理数据,例如运行所述联邦学习网络下的模型训练方法的计算机可读指令。
所述网络接口203可包括无线网络接口或有线网络接口,该网络接口203通常用于在所述计算机设备200与其他电子设备之间建立通信连接。
在本实施例中,不同的节点通过个性化训练获得不同的模型,降低无意义数据对模型训练的影响,本申请提供的计算机设备执行如上述的联邦学习网络下的模型训练方法的步骤时,具有与上述方法实施例提供的联邦学习网络下的模型训练方法相应的有益效果。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的联邦学习网络下的模型训练方法的步骤。
在本实施例中,不同的节点通过个性化训练获得不同的模型,降低无意义数据对模型训练的影响,本申请提供的计算机可读存储介质中存储的计算机可读指令被执行时执行如上述的联邦学习网络下的模型训练方法的步骤,具有与上述方法实施例提供的联邦学习网络下的模型训练方法相应的有益效果。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡 献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (20)

  1. 一种联邦学习网络下的模型训练方法,包括下述步骤:
    建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
    直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
    控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
    其中,在每轮更新训练中,所述更新训练的过程包括:
    控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
    控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
    控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
    直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
  2. 根据权利要求1所述的联邦学习网络下的模型训练方法,其中,根据所述准确率调整接收到的全局信息,获得调整后的全局信息的步骤包括:
    根据所述准确率获得每个节点的梯度信息在全局信息中的权重;
    将所述权重和梯度信息进行加权求和,获得调整后的全局信息。
  3. 根据权利要求2所述的联邦学习网络下的模型训练方法,其中,根据所述准确率获得每个节点的梯度信息在全局信息中的权重的步骤包括:
    根据所述准确率计算准确率中间值,其中,所述准确率中间值为各准确率的中位数;
    通过如下公式计算各节点的梯度信息的权重:
    Figure PCTCN2020111428-appb-100001
    其中,
    Figure PCTCN2020111428-appb-100002
    为各节点的梯度信息的权重,
    Figure PCTCN2020111428-appb-100003
    为上一轮的各节点梯度信息的权重,η为学习率,
    Figure PCTCN2020111428-appb-100004
    为各节点的准确率,
    Figure PCTCN2020111428-appb-100005
    为准确率中间值。
  4. 根据权利要求1所述的联邦学习网络下的模型训练方法,其中,所述本地数据由训练数据和验证集数据组成,所述分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率的步骤包括:
    分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,获得准确率。
  5. 根据权利要求1所述的联邦学习网络下的模型训练方法,其中,所述本地数据由训练数据和验证集数据组成,所述控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息的步骤包括:
    控制每个所述节点使用训练数据对所述本地模型进行训练,获得每个节点的梯度信息。
  6. 根据权利要求1至5任意一项所述的联邦学习网络下的模型训练方法,其中,所述将所述梯度信息发送至所述中央客户端的步骤包括:
    将所述梯度信息使用所述中央客户端预先传输的公钥进行加密;
    将所述加密后的梯度信息发送至所述中央客户端;
    所述控制所述中央客户端接收并根据所述梯度信息生成全局信息的步骤包括:
    控制所述中央客户端解密所述加密后的梯度信息,获得梯度信息;
    根据所述梯度信息生成全局信息。
  7. 根据权利要求1至5任意一项所述的联邦学习网络下的模型训练方法,其中,所述将所述梯度信息发送至所述中央客户端的步骤包括:
    将所述梯度信息使用所述中央客户端预先传输的对称密钥进行加密;
    将所述加密后的梯度信息发送至所述中央客户端;
    所述控制当前节点接收并根据所述全局信息获得其他节点的梯度信息的步骤包括:
    控制当前节点接收所述全局信息;
    根据所述全局信息获得加密后的梯度信息;
    使用对称密钥解密所述加密后的梯度信息,获得梯度信息。
  8. 一种联邦学习网络下的模型训练装置,包括:
    建立模块,用于建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
    获得模块,用于直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
    输出模块,用于控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
    所述建立模块包括训练子模块、生成子模块、调整子模块和判断子模块;
    其中,所述训练子模块,用于在每轮更新训练中,控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
    所述生成子模块,用于在每轮更新训练中,控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
    所述调整子模块,用于在每轮更新训练中,控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整每个节点的梯度信息在全局信息中的权重,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
    所述判断子模块,用于直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
  9. 一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如下所述的联邦学习网络下的模型训练方法的步骤:
    建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
    直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
    控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
    其中,在每轮更新训练中,所述更新训练的过程包括:
    控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
    控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
    控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
    直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
  10. 根据权利要求9所述的计算机设备,其中,根据所述准确率调整接收到的全局信息,获得调整后的全局信息的步骤包括:
    根据所述准确率获得每个节点的梯度信息在全局信息中的权重;
    将所述权重和梯度信息进行加权求和,获得调整后的全局信息。
  11. 根据权利要求10所述的计算机设备,其中,根据所述准确率获得每个节点的梯度信息在全局信息中的权重的步骤包括:
    根据所述准确率计算准确率中间值,其中,所述准确率中间值为各准确率的中位数;
    通过如下公式计算各节点的梯度信息的权重:
    Figure PCTCN2020111428-appb-100006
    其中,
    Figure PCTCN2020111428-appb-100007
    为各节点的梯度信息的权重,
    Figure PCTCN2020111428-appb-100008
    为上一轮的各节点梯度信息的权重,η为学习率,
    Figure PCTCN2020111428-appb-100009
    为各节点的准确率,
    Figure PCTCN2020111428-appb-100010
    为准确率中间值。
  12. 根据权利要求9所述的计算机设备,其中,所述本地数据由训练数据和验证集数据组成,所述分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率的步骤包括:
    分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,获得准确率。
  13. 根据权利要求9所述的计算机设备,其中,所述本地数据由训练数据和验证集数据组成,所述控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息的步骤包括:
    控制每个所述节点使用训练数据对所述本地模型进行训练,获得每个节点的梯度信息。
  14. 根据权利要求9至13任意一项所述的计算机设备,其中,所述将所述梯度信息发送至所述中央客户端的步骤包括:
    将所述梯度信息使用所述中央客户端预先传输的公钥进行加密;
    将所述加密后的梯度信息发送至所述中央客户端;
    所述控制所述中央客户端接收并根据所述梯度信息生成全局信息的步骤包括:
    控制所述中央客户端解密所述加密后的梯度信息,获得梯度信息;
    根据所述梯度信息生成全局信息。
  15. 根据权利要求9至13任意一项所述的计算机设备,其中,所述将所述梯度信息发送至所述中央客户端的步骤包括:
    将所述梯度信息使用所述中央客户端预先传输的对称密钥进行加密;
    将所述加密后的梯度信息发送至所述中央客户端;
    所述控制当前节点接收并根据所述全局信息获得其他节点的梯度信息的步骤包括:
    控制当前节点接收所述全局信息;
    根据所述全局信息获得加密后的梯度信息;
    使用对称密钥解密所述加密后的梯度信息,获得梯度信息。
  16. 一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如下所述的联邦学习网络下的模型训练方法的步骤:
    建立联邦学习网络,所述联邦学习网络包括中央客户端和多个节点,控制每个所述节点接收中央客户端下发的初始化模型,作为本地模型,每个节点分别对本地模型进行多轮更新训练;
    直至更新训练后各节点对应的本地模型收敛,各节点分别获得结果模型;
    控制所述节点接收用户数据,并输入到所述节点对应的所述结果模型中,获得所述结果模型输出的推荐信息;
    其中,在每轮更新训练中,所述更新训练的过程包括:
    控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息,并将所述梯度信息发送至所述中央客户端;
    控制所述中央客户端接收并根据所述梯度信息生成全局信息,将所述全局信息发送至各节点;
    控制当前节点接收并根据所述全局信息获得其他节点的梯度信息,分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率,根据所述准确率调整接收到的全局信息,获得调整后的全局信息,并使用所述调整后的全局信息更新当前节点的本地模型;以及
    直至完成当前轮全部节点更新训练,判断各节点对应的本地模型是否收敛。
  17. 根据权利要求16所述的计算机可读存储介质,其中,根据所述准确率调整接收到的全局信息,获得调整后的全局信息的步骤包括:
    根据所述准确率获得每个节点的梯度信息在全局信息中的权重;
    将所述权重和梯度信息进行加权求和,获得调整后的全局信息。
  18. 根据权利要求17所述的计算机可读存储介质,其中,根据所述准确率获得每个节点的梯度信息在全局信息中的权重的步骤包括:
    根据所述准确率计算准确率中间值,其中,所述准确率中间值为各准确率的中位数;
    通过如下公式计算各节点的梯度信息的权重:
    Figure PCTCN2020111428-appb-100011
    其中,
    Figure PCTCN2020111428-appb-100012
    为各节点的梯度信息的权重,
    Figure PCTCN2020111428-appb-100013
    为上一轮的各节点梯度信息的权重,η为学习率,
    Figure PCTCN2020111428-appb-100014
    为各节点的准确率,
    Figure PCTCN2020111428-appb-100015
    为准确率中间值。
  19. 根据权利要求16所述的计算机可读存储介质,其中,所述本地数据由训练数据和验证集数据组成,所述分别使用每个节点的梯度信息对当前节点的本地模型进行测试,获得准确率的步骤包括:
    分别使用每个节点的梯度信息和验证集对当前节点的本地模型进行测试,获得准确率。
  20. 根据权利要求16所述的计算机可读存储介质,其中,所述本地数据由训练数据和验证集数据组成,所述控制每个所述节点使用节点对应的本地数据对所述本地模型进行训练,获得每个节点的梯度信息的步骤包括:
    控制每个所述节点使用训练数据对所述本地模型进行训练,获得每个节点的梯度信息。
PCT/CN2020/111428 2020-06-30 2020-08-26 联邦学习网络下的模型训练方法及其相关设备 WO2021120676A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010622524.XA CN111814985B (zh) 2020-06-30 2020-06-30 联邦学习网络下的模型训练方法及其相关设备
CN202010622524.X 2020-06-30

Publications (1)

Publication Number Publication Date
WO2021120676A1 true WO2021120676A1 (zh) 2021-06-24

Family

ID=72856661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/111428 WO2021120676A1 (zh) 2020-06-30 2020-08-26 联邦学习网络下的模型训练方法及其相关设备

Country Status (2)

Country Link
CN (1) CN111814985B (zh)
WO (1) WO2021120676A1 (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590947A (zh) * 2021-07-27 2021-11-02 润联软件系统(深圳)有限公司 信息推荐方法、装置、计算机设备及存储介质
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法
CN113705825A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 适用于多方使用的数据模型共享方法
CN113723619A (zh) * 2021-08-31 2021-11-30 南京大学 一种基于训练阶段感知策略的联邦学习训练方法
CN113780572A (zh) * 2021-08-19 2021-12-10 支付宝(杭州)信息技术有限公司 建立个性化模型的方法和装置
CN113806735A (zh) * 2021-08-20 2021-12-17 北京工业大学 一种执行与评价双网络个性化联邦学习入侵检测方法及系统
CN113837397A (zh) * 2021-09-27 2021-12-24 平安科技(深圳)有限公司 基于联邦学习的模型训练方法、装置及相关设备
CN114118542A (zh) * 2021-11-11 2022-03-01 新智我来网络科技有限公司 烟气含氧量负荷预测模型的选择方法及装置
CN114168988A (zh) * 2021-12-16 2022-03-11 大连理工大学 一种联邦学习模型聚合方法及电子装置
CN114494771A (zh) * 2022-01-10 2022-05-13 北京理工大学 一种可防御后门攻击的联邦学习图像分类方法
CN114491623A (zh) * 2021-12-30 2022-05-13 北京邮电大学 一种基于区块链的异步联邦学习方法及系统
CN114676845A (zh) * 2022-02-18 2022-06-28 支付宝(杭州)信息技术有限公司 模型训练方法和装置、业务预测方法和装置
CN114742240A (zh) * 2022-03-09 2022-07-12 大连理工大学 一种横向联邦学习方法、装置及存储介质
CN114760023A (zh) * 2022-04-19 2022-07-15 光大科技有限公司 基于联邦学习的模型训练方法、装置及存储介质
CN114817958A (zh) * 2022-04-24 2022-07-29 山东云海国创云计算装备产业创新中心有限公司 一种基于联邦学习的模型训练方法、装置、设备及介质
CN114913390A (zh) * 2022-05-06 2022-08-16 东南大学 基于条件gan的数据增广改善个性化联邦学习性能方法
CN115082180A (zh) * 2022-05-07 2022-09-20 北京航空航天大学 一种基于区块链与联邦学习的信用行为存证方法与系统
CN115190028A (zh) * 2022-06-16 2022-10-14 华中科技大学 基于局域通信网络的去中心化联邦学习方法、装置和系统
CN115699207A (zh) * 2021-11-01 2023-02-03 豪夫迈·罗氏有限公司 医学验证模型的联邦学习
CN116016110A (zh) * 2022-12-14 2023-04-25 国网湖北省电力有限公司信息通信公司 一种基于分层联邦学习的电力网络流量异常检测方法
CN116611118A (zh) * 2023-07-21 2023-08-18 北京智芯微电子科技有限公司 基于改进差分隐私的数据隐私保护模型的构建方法、装置
CN116828453A (zh) * 2023-06-30 2023-09-29 华南理工大学 基于自适应非线性函数的无人机边缘计算隐私保护方法
CN116958149A (zh) * 2023-09-21 2023-10-27 湖南红普创新科技发展有限公司 医疗模型训练方法、医疗数据分析方法、装置及相关设备
CN117151208A (zh) * 2023-08-07 2023-12-01 大连理工大学 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质
CN117395083A (zh) * 2023-12-11 2024-01-12 东信和平科技股份有限公司 基于联邦学习的数据保护方法及系统
CN117994635A (zh) * 2024-04-03 2024-05-07 山东省计算中心(国家超级计算济南中心) 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统
CN118094638A (zh) * 2024-04-26 2024-05-28 国网福建省电力有限公司 基于双服务器串行安全联邦学习的工控入侵设备检测方法
CN118228841A (zh) * 2024-05-21 2024-06-21 武汉大学 基于一致性建模的个性化联邦学习训练方法、系统及设备
WO2024160216A1 (zh) * 2023-01-31 2024-08-08 华为技术有限公司 一种联邦学习方法及相关装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288097B (zh) * 2020-10-29 2024-04-02 平安科技(深圳)有限公司 联邦学习数据处理方法、装置、计算机设备及存储介质
CN112257876B (zh) * 2020-11-15 2021-07-30 腾讯科技(深圳)有限公司 联邦学习方法、装置、计算机设备及介质
CN112381000B (zh) * 2020-11-16 2024-08-27 深圳前海微众银行股份有限公司 基于联邦学习的人脸识别方法、装置、设备及存储介质
CN112465786B (zh) * 2020-12-01 2024-09-10 平安科技(深圳)有限公司 模型训练方法、数据处理方法、装置、客户端及存储介质
CN112733181B (zh) * 2020-12-18 2023-09-15 平安科技(深圳)有限公司 一种产品推荐方法、系统、计算机设备及存储介质
CN112256786B (zh) * 2020-12-21 2021-04-16 北京爱数智慧科技有限公司 多模态数据处理方法和装置
CN112784995B (zh) * 2020-12-31 2024-04-23 杭州趣链科技有限公司 联邦学习方法、装置、设备及存储介质
CN112732297B (zh) * 2020-12-31 2022-09-27 平安科技(深圳)有限公司 联邦学习模型的更新方法、装置、电子设备及存储介质
CN113807544B (zh) * 2020-12-31 2023-09-26 京东科技控股股份有限公司 一种联邦学习模型的训练方法、装置及电子设备
CN114721501A (zh) * 2021-01-06 2022-07-08 微软技术许可有限责任公司 在虚拟空间中嵌入数字内容
CN112686385B (zh) * 2021-01-07 2023-03-07 中国人民解放军国防科技大学 面向多站点三维影像的联邦深度学习方法及系统
CN112885337A (zh) * 2021-01-29 2021-06-01 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及存储介质
CN112936304B (zh) * 2021-02-02 2022-09-16 浙江大学 一种自演进式服务机器人系统及其学习方法
CN112860800A (zh) * 2021-02-22 2021-05-28 深圳市星网储区块链有限公司 基于区块链和联邦学习的可信网络应用方法和装置
CN113158550B (zh) * 2021-03-24 2022-08-26 北京邮电大学 一种联邦学习方法、装置、电子设备及存储介质
CN113077056A (zh) * 2021-03-29 2021-07-06 上海嗨普智能信息科技股份有限公司 基于横向联邦学习的数据处理系统
CN116420149A (zh) * 2021-05-08 2023-07-11 亚信科技(中国)有限公司 基于联邦学习的客户体验感知
CN113378994B (zh) * 2021-07-09 2022-09-02 浙江大学 一种图像识别方法、装置、设备及计算机可读存储介质
CN113283185B (zh) * 2021-07-23 2021-11-12 平安科技(深圳)有限公司 联邦模型训练、客户画像方法、装置、设备及介质
CN113723617B (zh) * 2021-08-26 2024-08-06 清华大学 二阶段联邦学习方法、系统
CN114048780A (zh) * 2021-11-15 2022-02-15 中国科学院深圳先进技术研究院 基于联邦学习的脑电信号分类模型训练方法及装置
CN114398949B (zh) * 2021-12-13 2024-07-26 鹏城实验室 一种脉冲神经网络模型的训练方法、存储介质及计算设备
CN114510652B (zh) * 2022-04-20 2023-04-07 宁波大学 一种基于联邦学习的社交协同过滤推荐方法
CN114741611B (zh) * 2022-06-08 2022-10-14 杭州金智塔科技有限公司 联邦推荐模型训练方法以及系统
CN115622800A (zh) * 2022-11-30 2023-01-17 山东区块链研究院 基于中国剩余表示的联邦学习同态加密系统及方法
CN117398662B (zh) * 2023-12-15 2024-03-12 苏州海易泰克机电设备有限公司 基于生理采集信息的三自由度旋转训练参数控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190268163A1 (en) * 2017-04-27 2019-08-29 Factom, Inc. Secret Sharing via Blockchain Distribution
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN111190487A (zh) * 2019-12-30 2020-05-22 中国科学院计算技术研究所 一种建立数据分析模型的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165683B (zh) * 2018-08-10 2023-09-12 深圳前海微众银行股份有限公司 基于联邦训练的样本预测方法、装置及存储介质
CN110874484A (zh) * 2019-10-16 2020-03-10 众安信息技术服务有限公司 基于神经网络和联邦学习的数据处理方法和系统
CN110929880A (zh) * 2019-11-12 2020-03-27 深圳前海微众银行股份有限公司 一种联邦学习方法、装置及计算机可读存储介质
CN111212110B (zh) * 2019-12-13 2022-06-03 清华大学深圳国际研究生院 一种基于区块链的联邦学习系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190268163A1 (en) * 2017-04-27 2019-08-29 Factom, Inc. Secret Sharing via Blockchain Distribution
CN110490738A (zh) * 2019-08-06 2019-11-22 深圳前海微众银行股份有限公司 一种混合联邦学习方法及架构
CN110442457A (zh) * 2019-08-12 2019-11-12 北京大学深圳研究生院 基于联邦学习的模型训练方法、装置及服务器
CN110572253A (zh) * 2019-09-16 2019-12-13 济南大学 一种联邦学习训练数据隐私性增强方法及系统
CN111190487A (zh) * 2019-12-30 2020-05-22 中国科学院计算技术研究所 一种建立数据分析模型的方法

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113705825A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 适用于多方使用的数据模型共享方法
CN113590947A (zh) * 2021-07-27 2021-11-02 润联软件系统(深圳)有限公司 信息推荐方法、装置、计算机设备及存储介质
CN113591145B (zh) * 2021-07-28 2024-02-23 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法
CN113591145A (zh) * 2021-07-28 2021-11-02 西安电子科技大学 基于差分隐私和量化的联邦学习全局模型训练方法
CN113780572A (zh) * 2021-08-19 2021-12-10 支付宝(杭州)信息技术有限公司 建立个性化模型的方法和装置
CN113806735A (zh) * 2021-08-20 2021-12-17 北京工业大学 一种执行与评价双网络个性化联邦学习入侵检测方法及系统
CN113723619A (zh) * 2021-08-31 2021-11-30 南京大学 一种基于训练阶段感知策略的联邦学习训练方法
CN113837397A (zh) * 2021-09-27 2021-12-24 平安科技(深圳)有限公司 基于联邦学习的模型训练方法、装置及相关设备
CN113837397B (zh) * 2021-09-27 2024-02-02 平安科技(深圳)有限公司 基于联邦学习的模型训练方法、装置及相关设备
CN115699207A (zh) * 2021-11-01 2023-02-03 豪夫迈·罗氏有限公司 医学验证模型的联邦学习
CN115699207B (zh) * 2021-11-01 2024-04-26 豪夫迈·罗氏有限公司 医学验证模型的联邦学习
CN114118542A (zh) * 2021-11-11 2022-03-01 新智我来网络科技有限公司 烟气含氧量负荷预测模型的选择方法及装置
CN114168988A (zh) * 2021-12-16 2022-03-11 大连理工大学 一种联邦学习模型聚合方法及电子装置
CN114168988B (zh) * 2021-12-16 2024-05-03 大连理工大学 一种联邦学习模型聚合方法及电子装置
CN114491623A (zh) * 2021-12-30 2022-05-13 北京邮电大学 一种基于区块链的异步联邦学习方法及系统
CN114491623B (zh) * 2021-12-30 2024-06-07 北京邮电大学 一种基于区块链的异步联邦学习方法及系统
CN114494771B (zh) * 2022-01-10 2024-06-07 北京理工大学 一种可防御后门攻击的联邦学习图像分类方法
CN114494771A (zh) * 2022-01-10 2022-05-13 北京理工大学 一种可防御后门攻击的联邦学习图像分类方法
CN114676845A (zh) * 2022-02-18 2022-06-28 支付宝(杭州)信息技术有限公司 模型训练方法和装置、业务预测方法和装置
CN114742240A (zh) * 2022-03-09 2022-07-12 大连理工大学 一种横向联邦学习方法、装置及存储介质
CN114760023A (zh) * 2022-04-19 2022-07-15 光大科技有限公司 基于联邦学习的模型训练方法、装置及存储介质
CN114817958B (zh) * 2022-04-24 2024-03-29 山东云海国创云计算装备产业创新中心有限公司 一种基于联邦学习的模型训练方法、装置、设备及介质
CN114817958A (zh) * 2022-04-24 2022-07-29 山东云海国创云计算装备产业创新中心有限公司 一种基于联邦学习的模型训练方法、装置、设备及介质
CN114913390A (zh) * 2022-05-06 2022-08-16 东南大学 基于条件gan的数据增广改善个性化联邦学习性能方法
CN115082180A (zh) * 2022-05-07 2022-09-20 北京航空航天大学 一种基于区块链与联邦学习的信用行为存证方法与系统
CN115190028A (zh) * 2022-06-16 2022-10-14 华中科技大学 基于局域通信网络的去中心化联邦学习方法、装置和系统
CN115190028B (zh) * 2022-06-16 2024-05-14 华中科技大学 基于局域通信网络的去中心化联邦学习方法、装置和系统
CN116016110A (zh) * 2022-12-14 2023-04-25 国网湖北省电力有限公司信息通信公司 一种基于分层联邦学习的电力网络流量异常检测方法
WO2024160216A1 (zh) * 2023-01-31 2024-08-08 华为技术有限公司 一种联邦学习方法及相关装置
CN116828453A (zh) * 2023-06-30 2023-09-29 华南理工大学 基于自适应非线性函数的无人机边缘计算隐私保护方法
CN116828453B (zh) * 2023-06-30 2024-04-16 华南理工大学 基于自适应非线性函数的无人机边缘计算隐私保护方法
CN116611118A (zh) * 2023-07-21 2023-08-18 北京智芯微电子科技有限公司 基于改进差分隐私的数据隐私保护模型的构建方法、装置
CN117151208A (zh) * 2023-08-07 2023-12-01 大连理工大学 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质
CN117151208B (zh) * 2023-08-07 2024-03-22 大连理工大学 基于自适应学习率的异步联邦学习参数更新方法、电子设备及存储介质
CN116958149B (zh) * 2023-09-21 2024-01-12 湖南红普创新科技发展有限公司 医疗模型训练方法、医疗数据分析方法、装置及相关设备
CN116958149A (zh) * 2023-09-21 2023-10-27 湖南红普创新科技发展有限公司 医疗模型训练方法、医疗数据分析方法、装置及相关设备
CN117395083A (zh) * 2023-12-11 2024-01-12 东信和平科技股份有限公司 基于联邦学习的数据保护方法及系统
CN117395083B (zh) * 2023-12-11 2024-03-19 东信和平科技股份有限公司 基于联邦学习的数据保护方法及系统
CN117994635A (zh) * 2024-04-03 2024-05-07 山东省计算中心(国家超级计算济南中心) 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统
CN117994635B (zh) * 2024-04-03 2024-06-11 山东省计算中心(国家超级计算济南中心) 一种噪声鲁棒性增强的联邦元学习图像识别方法及系统
CN118094638A (zh) * 2024-04-26 2024-05-28 国网福建省电力有限公司 基于双服务器串行安全联邦学习的工控入侵设备检测方法
CN118228841A (zh) * 2024-05-21 2024-06-21 武汉大学 基于一致性建模的个性化联邦学习训练方法、系统及设备

Also Published As

Publication number Publication date
CN111814985B (zh) 2023-08-29
CN111814985A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
WO2021120676A1 (zh) 联邦学习网络下的模型训练方法及其相关设备
WO2021204040A1 (zh) 联邦学习数据处理方法、装置、设备及存储介质
CN110399742B (zh) 一种联邦迁移学习模型的训练、预测方法及装置
CN110245510B (zh) 用于预测信息的方法和装置
CN110189192B (zh) 一种信息推荐模型的生成方法及装置
CN113159327B (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
WO2021174877A1 (zh) 基于智能决策的目标检测模型的处理方法、及其相关设备
JP7095140B2 (ja) 特徴抽出に基くマルチモデルトレーニング方法及び装置、電子機器と媒体
US11580417B2 (en) System and method for processing data and managing information
WO2022247576A1 (zh) 一种数据处理方法、装置、设备及计算机可读存储介质
Du et al. Distributed data privacy preservation in IoT applications
Chen et al. Propensity score-integrated composite likelihood approach for augmenting the control arm of a randomized controlled trial by incorporating real-world data
US11106809B2 (en) Privacy-preserving transformation of continuous data
Liu et al. Keep your data locally: Federated-learning-based data privacy preservation in edge computing
WO2023071105A1 (zh) 一种特征变量的分析方法、装置、计算机设备及存储介质
US10333964B1 (en) Fake account identification
Zhou et al. A privacy-preserving logistic regression-based diagnosis scheme for digital healthcare
CN113761350B (zh) 一种数据推荐方法、相关装置和数据推荐系统
CN101924786A (zh) 计算设备之间的动态内容偏好和行为共享
US20230274183A1 (en) Processing of machine learning modeling data to improve accuracy of categorization
CN113434906B (zh) 数据查询方法、装置、计算机设备及存储介质
CN116502732B (zh) 基于可信执行环境的联邦学习方法以及系统
WO2019022052A1 (ja) 情報処理装置、システムおよび情報処理方法
CN117077816B (zh) 联邦模型的训练方法及系统
CN114547658A (zh) 数据处理方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20901079

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20901079

Country of ref document: EP

Kind code of ref document: A1