WO2021189906A1 - 基于联邦学习的目标检测方法、装置、设备及存储介质 - Google Patents

基于联邦学习的目标检测方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2021189906A1
WO2021189906A1 PCT/CN2020/131986 CN2020131986W WO2021189906A1 WO 2021189906 A1 WO2021189906 A1 WO 2021189906A1 CN 2020131986 W CN2020131986 W CN 2020131986W WO 2021189906 A1 WO2021189906 A1 WO 2021189906A1
Authority
WO
WIPO (PCT)
Prior art keywords
target detection
detection model
model
lightweight
data set
Prior art date
Application number
PCT/CN2020/131986
Other languages
English (en)
French (fr)
Inventor
李泽远
王健宗
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021189906A1 publication Critical patent/WO2021189906A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Definitions

  • This application relates to the field of artificial intelligence technology, and in particular to a target detection method, device, electronic device, and computer-readable storage medium based on federated learning.
  • Target recognition is an important field in the development of computer vision. According to different tasks, it can be applied to various technical solutions such as image recognition, object positioning, and target detection. Among them, target detection is widely studied as the basis of face recognition, instance segmentation and other applications.
  • the inventor realized that the current target detection method mainly uses a multi-layer convolutional neural network structure to generate candidate regions, and then performs regression and classification, but the recognition speed of this method is very slow and the efficiency is low; at the same time, in some business scenarios, Some business data needs to be kept confidential, resulting in a small amount of sample data collected, resulting in low detection accuracy.
  • a target detection method based on federated learning provided by this application includes:
  • the target detection model is used to perform target detection on the image to be detected.
  • This application also provides a target detection device based on federated learning, the device including:
  • the pruning module is used for pruning the pre-built initial target detection model with random weights to obtain a lightweight target detection model
  • a local training module configured to train the lightweight target detection model based on a local data set, obtain multiple corresponding model gradient parameters, and send the model gradient parameters to the server;
  • a parameter fusion module configured to receive the global gradient parameters obtained by fusing the model gradient parameters by the server according to a federated average algorithm
  • the parameter update module is used to update the initial target detection model using the global gradient parameters, and return to the above-mentioned step of training the lightweight target detection model based on the local data set until the lightweight target The detection model meets the preset termination conditions, and the trained target detection model is obtained;
  • the detection module is configured to use the target detection model to perform target detection on the image to be detected.
  • This application also provides an electronic device, which includes:
  • Memory storing at least one computer program
  • the processor executes the computer program stored in the memory to implement the following steps:
  • the target detection model is used to perform target detection on the image to be detected.
  • This application also provides a computer-readable storage medium, including a storage data area and a storage program area, the storage data area stores created data, and the storage program area stores a computer program; wherein the computer program is executed by the processor as follows step:
  • the target detection model is used to perform target detection on the image to be detected.
  • FIG. 1 is a schematic flowchart of a target detection method based on federated learning provided by an embodiment of this application;
  • FIG. 2 is a schematic flowchart of a pruning method with random weights according to an embodiment of this application;
  • FIG. 3 is a schematic flowchart of a model training method based on federated learning provided by an embodiment of this application;
  • FIG. 4 is a schematic diagram of modules of a target detection device based on federated learning provided by an embodiment of this application;
  • FIG. 5 is a schematic diagram of the internal structure of an electronic device that implements a target detection method based on federated learning according to an embodiment of the application;
  • the embodiment of the present application provides a target detection method based on federated learning.
  • the execution subject of the target detection method based on federated learning includes, but is not limited to, at least one of the electronic devices that can be configured to execute the method provided in the embodiment of the present application, such as a server and a terminal.
  • the target detection method based on federated learning can be executed by software or hardware installed on a terminal device or a server device, and the software can be a blockchain platform.
  • the server includes but is not limited to: a single server, a server cluster, a cloud server or a cloud server cluster, etc.
  • the target detection method based on federated learning includes:
  • the initial target detection model described in the embodiment of the present application is a detection model based on a convolutional neural network.
  • the embodiment of the present application further includes: acquiring sample data, inputting the sample data to the initial target detection model, and determining the The output data of each convolutional layer in the initial target detection model.
  • the pruning process on the pre-built initial target detection model by using random weights includes:
  • S12 Perform pruning according to the priority of each convolutional layer to obtain an initial target detection model after pruning
  • step S11 When the objective function does not meet the preset stopping condition, return to the above step S11, and continue to perform the step of determining the priority of the convolutional layer according to the weight; if the objective function meets the preset stopping condition, perform step S15, Stop pruning and get a lightweight target detection model.
  • the weight is a different value assigned to each convolutional layer in advance.
  • the value of the weight ranges from 0 to 1.
  • the stopping condition may be that the value of the objective function no longer drops.
  • the embodiment of the present application uses the following formula to determine the priority of each convolutional layer:
  • j is the number of convolutional layers
  • W j is the priority of convolutional layer j
  • gate j is the weight of convolutional layer j
  • output j-1 is the upper output of convolutional layer j, that is, convolutional layer j Input data.
  • the pruning according to the priority of each convolutional layer includes:
  • the convolutional layer corresponding to the priority is reserved
  • the convolutional layer corresponding to the priority is deleted from the initial target detection model.
  • a variable global threshold ⁇ is preset.
  • the priority of the convolutional layer j is W j ⁇ ⁇
  • the convolutional layer j is deleted in the initial target detection model.
  • the size of the global threshold ⁇ is related to the total number of layers in the initial target detection model, and when the total number of layers in the initial target detection model decreases, ⁇ will also decrease accordingly.
  • f(x i ; W, ⁇ ) is the output result of the initial target detection model
  • x i is sample data
  • W is the parameter of the initial target detection model
  • is the structural representation of the initial target detection model
  • N is the total number of sample data
  • y i represents the actual label corresponding to the sample data x i
  • is the balance parameter, which is a constant
  • M is the number of convolutional layers in the initial target detection model
  • gate j is the convolutional layer j the weight of.
  • the calculation speed is improved, but at the same time the accuracy of the model will also decrease.
  • an objective function is used to detect the pruning effect of the initial target detection model. Ensure the detection speed and detection accuracy of the lightweight target detection model.
  • the initial target detection model includes multiple convolutional layers, pooling layers, and fully connected layers. Each layer contains a large number of weight parameters. In actual use, a large number of calculations are required, resulting in a slower recognition speed.
  • the embodiment removes redundant parts in the initial target detection model through pruning, reduces the amount of calculation, and improves efficiency.
  • the embodiment of the application uses a federated learning algorithm to train the lightweight target detection model.
  • the federated learning algorithm utilizes multiple participants for joint training, where the participant may be a client, has its own local data set, and only uses the data set it owns to train the machine learning model.
  • the local data set is a data set stored locally by each participant, and has the same characteristics as the data sets of other participants, but the data content is different.
  • the embodiment of the present application further includes initializing a local data set, which specifically includes:
  • the category label of the target object is added to the labeled data set.
  • each participant first agrees on the target object category.
  • Each participant marks the target object with a recognition frame in the local data set, then determines the target object category, and adds category labels to the target object. , To facilitate follow-up training.
  • the training of the lightweight target detection model based on the local data set to obtain multiple corresponding model gradient parameters includes:
  • step S23 is executed to adjust the parameters of the lightweight target detection model according to the loss value, and return to the above step S20; if said When the loss value converges, step S24 is executed to determine the parameters of the lightweight target detection model as the model gradient parameters.
  • the convergence of the loss value means that the loss value remains unchanged.
  • the adjustment of the parameters of the lightweight target detection model according to the loss value is to backpropagate the lightweight target detection model according to the loss value, and calculate the gradient of each convolutional layer, according to the gradient Calculate the update amount, using the original parameter minus the update amount as the new parameter.
  • the inputting the local data set to the lightweight target detection model to obtain the output result of the lightweight target detection model includes:
  • Target recognition is performed on the multiple prediction frames, and the prediction target category and the prediction probability corresponding to the prediction target category are output.
  • the local data set that enters the lightweight target detection model is first uniformly divided into blocks.
  • the size of the block determines the fine granularity of the picture detection, so that each feature block uses multiple prediction bounding boxes to predict whether there is a pre-existence in each frame. Label the target object, and respectively predict the target object category and corresponding probability.
  • the calculation of the loss value of the output result by using the preset loss function in the embodiment of the present application includes:
  • a preset loss function is used to calculate a loss value according to the frame coordinate position error, the prediction accuracy error, and the prediction category error.
  • the preset loss function described in the embodiment of the application can be obtained by combining the frame coordinate position error, the prediction accuracy error, and the prediction category error. By calculating the loss function, various aspects of the output result can be integrated. , Get the loss value.
  • the part before the first plus sign indicates the prediction error of the frame coordinate position of the target object
  • the part after the second plus sign indicates the prediction accuracy error of the frame including the target object
  • the third plus The part after the number represents the prediction category error.
  • M is the total number of feature blocks
  • H is the total number of prediction frames
  • x mi is the vector representation of the prediction frame i in the m-th feature block.
  • Is the position of the predicted frame i in the m-th feature block Is the actual marking position of the frame in the m-th feature block; Represents the prediction accuracy of the prediction frame i in the m-th feature block, Represents the accuracy of the actual labeling of the bounding box in the m-th feature block;
  • x m is the vector representation of the feature block m
  • N is the total number of target categories
  • P(N j ) pred represents the predicted probability of the target category j
  • P(N j ) true represents the actual probability of the target category j.
  • each participant sends the gradient model parameters obtained through local training to the server, and the server uses the federated average algorithm to fuse the multiple model gradient parameters to obtain the global gradient parameter , And encrypting and transmitting the global gradient parameters to each participant can ensure the security and privacy of the data of each participant.
  • the federated average algorithm in the embodiment of the present application includes:
  • W is the global gradient parameter
  • W k is the model gradient parameter
  • p is the total number of participants.
  • the embodiment of the application transmits the global gradient parameter to each participant, and each participant updates the model parameter of the initial target detection model using the total gradient parameter, and replaces all the parameters with the total gradient parameter.
  • the original model parameters in the initial target detection model are described.
  • the preset termination condition in the embodiment of the present application is that the number of iterations of the initial target detection model reaches the preset number. Obtain the number of iterations after the update; when the number of iterations does not reach the preset number, determine that the initial target detection model after the update does not meet the preset termination condition; when the number of iterations reaches the preset number, determine all the updated When the initial target detection model meets the preset termination condition.
  • the embodiment of the present application expands the sample space by performing joint training on multiple participants, thereby improving the accuracy of the model.
  • the embodiment of the present application may use the target detection model to detect the image to be detected according to a preset target object, and feed back the detection result to the user.
  • the target detection model described in the embodiments of this application is an end-to-end lightweight target detection model with a faster detection speed.
  • a joint training scheme is used to optimize the accuracy of the model, which can realize fast and accurate target object detection.
  • the embodiment of this application uses random weights to prune the pre-built initial target detection model, optimizes the model of the multi-layer network structure into a lightweight model, reduces the amount of calculation, and improves the detection speed of the model; at the same time, it is based on federated learning
  • the technology trains the lightweight target detection model, which not only ensures the privacy of the local data set, but also expands the training data set of the model, thereby improving the accuracy of the lightweight target detection model. Therefore, the target detection method, device and computer-readable storage medium based on federated learning proposed in this application can improve the detection speed and detection accuracy of target detection.
  • FIG. 4 it is a schematic diagram of the module of the target detection device based on federated learning in this application.
  • the target detection device 100 based on federated learning described in this application can be installed in an electronic device.
  • the target detection device based on federated learning may include a pruning module 101, a local training module 102, a parameter fusion module 103, a parameter update module 104, and a detection module 105.
  • the module described in this application can also be called a unit, which refers to a series of computer program segments that can be executed by an electronic device processor and can complete fixed functions, and are stored in the memory of the electronic device.
  • each module/unit is as follows:
  • the pruning module 101 is used for pruning the pre-built initial target detection model by using random weights to obtain a lightweight target detection model.
  • the initial target detection model described in the embodiment of the present application is a detection model based on a convolutional neural network.
  • the embodiment of the present application further includes: acquiring sample data, inputting the sample data to the initial target detection model, and determining the The output data of each convolutional layer in the initial target detection model.
  • the pruning module 101 is specifically used for:
  • Pruning is performed according to the priority of each convolutional layer, and the initial target detection model after pruning is obtained;
  • stop pruning is executed to obtain a lightweight target detection model.
  • the weight is a different value assigned to each convolutional layer in advance.
  • the value of the weight ranges from 0 to 1.
  • the stopping condition may be that the value of the objective function no longer drops.
  • the embodiment of the present application uses the following formula to determine the priority of each convolutional layer:
  • j is the number of convolutional layers
  • W j is the priority of convolutional layer j
  • gate j is the weight of convolutional layer j
  • output j-1 is the upper output of convolutional layer j, that is, convolutional layer j Input data.
  • the pruning according to the priority of each convolutional layer includes:
  • the convolutional layer corresponding to the priority is reserved
  • the convolutional layer corresponding to the priority is deleted from the initial target detection model.
  • a variable global threshold ⁇ is preset.
  • the priority of the convolutional layer j is W j ⁇ ⁇
  • the convolutional layer j is deleted in the initial target detection model.
  • the size of the global threshold ⁇ is related to the total number of layers in the initial target detection model, and when the total number of layers in the initial target detection model decreases, ⁇ will also decrease accordingly.
  • f(x i ; W, ⁇ ) is the output result of the initial target detection model
  • x i is sample data
  • W is the parameter of the initial target detection model
  • is the structural representation of the initial target detection model
  • N is the total number of sample data
  • y i represents the actual label corresponding to the sample data x i
  • is the balance parameter, which is a constant
  • M is the number of convolutional layers in the initial target detection model
  • gate j is the convolutional layer j the weight of.
  • the calculation speed is improved, but at the same time the accuracy of the model will also decrease.
  • an objective function is used to detect the pruning effect of the initial target detection model. Ensure the detection speed and detection accuracy of the lightweight target detection model.
  • the initial target detection model includes multiple convolutional layers, pooling layers, and fully connected layers. Each layer contains a large number of weight parameters. In actual use, a large number of calculations are required, resulting in a slower recognition speed.
  • the embodiment removes redundant parts in the initial target detection model through pruning, reduces the amount of calculation, and improves efficiency.
  • the local training module 102 is configured to train the lightweight target detection model based on a local data set, obtain multiple corresponding model gradient parameters, and send the model gradient gradient parameters to the server.
  • the embodiment of the application uses a federated learning algorithm to train the lightweight target detection model.
  • the federated learning algorithm utilizes multiple participants for joint training, where the participant may be a client, has its own local data set, and only uses the data set it owns to train the machine learning model.
  • the local data set is a data set stored locally by each participant, and has the same characteristics as the data sets of other participants, but the data content is different.
  • the embodiment of the present application further includes initializing a local data set, which specifically includes:
  • the category label of the target object is added to the labeled data set.
  • each participant first agrees on the target object category.
  • Each participant marks the target object with a recognition frame in the local data set, then determines the target object category, and adds category labels to the target object. , To facilitate follow-up training.
  • the training of the lightweight target detection model based on a local data set to obtain a plurality of corresponding model gradient parameters includes:
  • Step A Input the local data set to the lightweight target detection model to obtain the output result of the lightweight target detection model
  • Step B Calculate the loss value of the output result by using a preset loss function
  • Step C Determine whether the loss value converges
  • Step D Adjust the parameters of the lightweight target detection model according to the loss value, and return to the above step A;
  • Step E Determine the parameters of the lightweight target detection model as model gradient parameters. Wherein, when the judgment result of step C is that the loss value does not converge, perform step D: adjust the parameters of the lightweight target detection model according to the loss value, and return to the above step A:;
  • step E the parameters of the lightweight target detection model are determined as model gradient parameters.
  • the convergence of the loss value means that the loss value remains unchanged.
  • the adjustment of the parameters of the lightweight target detection model according to the loss value is to backpropagate the lightweight target detection model according to the loss value, and calculate the gradient of each convolutional layer, according to the gradient Calculate the update amount, using the original parameter minus the update amount as the new parameter.
  • the inputting the local data set to the lightweight target detection model to obtain the output result of the lightweight target detection model includes:
  • Target recognition is performed on the multiple prediction frames, and the prediction target category and the prediction probability corresponding to the prediction target category are output.
  • the local data set that enters the lightweight target detection model is first uniformly divided into blocks.
  • the size of the block determines the fine granularity of the picture detection, so that each feature block uses multiple prediction bounding boxes to predict whether there is a pre-existence in each frame. Label the target object, and respectively predict the target object category and corresponding probability.
  • the calculation of the loss value of the output result by using the preset loss function in the embodiment of the present application includes:
  • a preset loss function is used to calculate a loss value according to the frame coordinate position error, the prediction accuracy error, and the prediction category error.
  • the preset loss function described in the embodiment of the application can be obtained by combining the frame coordinate position error, the prediction accuracy error, and the prediction category error. By calculating the loss function, various aspects of the output result can be integrated. , Get the loss value.
  • the part before the first plus sign indicates the prediction error of the frame coordinate position of the target object
  • the part after the second plus sign indicates the prediction accuracy error of the frame including the target object
  • the third plus The part after the number represents the prediction category error.
  • M is the total number of feature blocks
  • H is the total number of prediction frames
  • x mi is the vector representation of the prediction frame i in the m-th feature block.
  • Is the position of the predicted frame i in the m-th feature block Is the actual marking position of the frame in the m-th feature block; Represents the prediction accuracy of the prediction frame i in the m-th feature block, Represents the accuracy of the actual labeling of the bounding box in the m-th feature block;
  • x m is the vector representation of the feature block m
  • N is the total number of target categories
  • P(N j ) pred represents the predicted probability of the target category j
  • P(N j ) true represents the actual probability of the target category j.
  • the parameter fusion module 103 is configured to receive the global gradient parameters obtained by fusing the multiple model gradient parameters by the server according to the federated average algorithm.
  • each participant sends the gradient model parameters obtained through local training to the server, and the server uses the federated average algorithm to fuse the multiple model gradient parameters to obtain the global gradient parameter , And encrypting and transmitting the global gradient parameters to each participant can ensure the security and privacy of the data of each participant.
  • the federated average algorithm in the embodiment of the present application includes:
  • W is the global gradient parameter
  • W k is the model gradient parameter
  • p is the total number of participants.
  • the parameter update module 104 is configured to use the global gradient parameter to update the initial target detection model
  • the embodiment of the application transmits the global gradient parameter to each participant, and each participant updates the model parameter of the initial target detection model using the total gradient parameter, and replaces all the parameters with the total gradient parameter.
  • the original model parameters in the initial target detection model are described.
  • the preset termination condition in the embodiment of the present application is that the number of iterations of the initial target detection model reaches the preset number. Obtain the number of iterations after the update; when the number of iterations does not reach the preset number, determine that the initial target detection model after the update does not meet the preset termination condition; when the number of iterations reaches the preset number, determine all the updated When the initial target detection model meets the preset termination condition.
  • the preset termination condition is that the initial target detection model converges or the number of iterations reaches a preset number.
  • the embodiment of the present application expands the sample space by performing joint training on multiple participants, thereby improving the accuracy of the model.
  • the detection module 105 is configured to use the target detection model to perform target detection on the image to be detected.
  • the embodiment of the present application may use the target detection model to detect the image to be detected according to a preset target object, and feed back the detection result to the user.
  • the target detection model described in the embodiments of this application is an end-to-end lightweight target detection model with a faster detection speed.
  • a joint training scheme is used to optimize the accuracy of the model, which can realize fast and accurate target object detection.
  • FIG. 5 it is a schematic structural diagram of an electronic device that implements the target detection method based on federated learning in this application.
  • the electronic device 1 may include a processor 10, a memory 11, and a bus, and may also include a computer program stored in the memory 11 and running on the processor 10, such as a target detection program 12 based on federated learning.
  • the memory 11 includes at least one type of readable storage medium, and the readable storage medium includes flash memory, mobile hard disk, multimedia card, card-type memory (such as SD or DX memory, etc.), magnetic memory, magnetic disk, CD etc.
  • the memory 11 may be an internal storage unit of the electronic device 1 in some embodiments, for example, a mobile hard disk of the electronic device 1.
  • the memory 11 may also be an external storage device of the electronic device 1, such as a plug-in mobile hard disk, a smart media card (SMC), and a secure digital (Secure Digital) equipped on the electronic device 1. , SD) card, flash card (Flash Card), etc.
  • the memory 11 may also include both an internal storage unit of the electronic device 1 and an external storage device.
  • the memory 11 can be used not only to store application software and various data installed in the electronic device 1, such as the code of the target detection program 12 based on federated learning, etc., but also to temporarily store data that has been output or will be output.
  • the processor 10 may be composed of integrated circuits in some embodiments, for example, may be composed of a single packaged integrated circuit, or may be composed of multiple integrated circuits with the same function or different functions, including one or more Combinations of central processing unit (CPU), microprocessor, digital processing chip, graphics processor, and various control chips, etc.
  • the processor 10 is the control unit of the electronic device, which uses various interfaces and lines to connect the various components of the entire electronic device, and runs or executes programs or modules stored in the memory 11 (for example, executing Object detection programs based on federated learning, etc.), and call data stored in the memory 11 to execute various functions of the electronic device 1 and process data.
  • the bus may be a peripheral component interconnect standard (PCI) bus or an extended industry standard architecture (EISA) bus, etc.
  • PCI peripheral component interconnect standard
  • EISA extended industry standard architecture
  • the bus can be divided into address bus, data bus, control bus and so on.
  • the bus is configured to implement connection and communication between the memory 11 and at least one processor 10 and the like.
  • FIG. 5 only shows an electronic device with components. Those skilled in the art can understand that the structure shown in FIG. 5 does not constitute a limitation on the electronic device 1, and may include fewer or more components than shown in the figure. Components, or a combination of certain components, or different component arrangements.
  • the electronic device 1 may also include a power source (such as a battery) for supplying power to various components.
  • the power source may be logically connected to the at least one processor 10 through a power management device, thereby controlling power
  • the device implements functions such as charge management, discharge management, and power consumption management.
  • the power supply may also include any components such as one or more DC or AC power supplies, recharging devices, power failure detection circuits, power converters or inverters, and power status indicators.
  • the electronic device 1 may also include various sensors, Bluetooth modules, Wi-Fi modules, etc., which will not be repeated here.
  • the electronic device 1 may also include a network interface.
  • the network interface may include a wired interface and/or a wireless interface (such as a WI-FI interface, a Bluetooth interface, etc.), which is usually used in the electronic device 1 Establish a communication connection with other electronic devices.
  • the electronic device 1 may also include a user interface.
  • the user interface may be a display (Display) and an input unit (such as a keyboard (Keyboard)).
  • the user interface may also be a standard wired interface or a wireless interface.
  • the display may be an LED display, a liquid crystal display, a touch-sensitive liquid crystal display, an OLED (Organic Light-Emitting Diode, organic light-emitting diode) touch device, etc.
  • the display can also be appropriately called a display screen or a display unit, which is used to display the information processed in the electronic device 1 and to display a visualized user interface.
  • the target detection program 12 based on federated learning stored in the memory 11 in the electronic device 1 is a combination of multiple computer programs. When running in the processor 10, it can realize:
  • the target detection model is used to perform target detection on the image to be detected.
  • the integrated module/unit of the electronic device 1 can be stored in a computer-readable storage medium. It can be volatile or non-volatile.
  • the computer-readable medium may include: any entity or device capable of carrying the computer program code, recording medium, U disk, mobile hard disk, magnetic disk, optical disk, computer memory, read-only memory (ROM, Read-Only Memory) .
  • the computer usable storage medium may mainly include a storage program area and a storage data area, wherein the storage program area may store an operating system, an application program required by at least one function, etc.; the storage data area may store a block chain node Use the created data, etc.
  • the storage program area of the computer-readable storage medium stores a computer program; wherein the computer program is executed by a processor to implement the following steps:
  • the target detection model is used to perform target detection on the image to be detected.
  • modules described as separate components may or may not be physically separated, and the components displayed as modules may or may not be physical units, that is, they may be located in one place, or they may be distributed on multiple network units. Some or all of the modules can be selected according to actual needs to achieve the objectives of the solutions of the embodiments.
  • the functional modules in the various embodiments of the present application may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above-mentioned integrated unit may be implemented in the form of hardware, or may be implemented in the form of hardware plus software functional modules.
  • the blockchain referred to in this application is a new application mode of computer technology such as distributed data storage, point-to-point transmission, consensus mechanism, and encryption algorithm.
  • Blockchain essentially a decentralized database, is a series of data blocks associated with cryptographic methods. Each data block contains a batch of network transaction information for verification. The validity of the information (anti-counterfeiting) and the generation of the next block.
  • the blockchain can include the underlying platform of the blockchain, the platform product service layer, and the application service layer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种基于联邦学习的目标检测方法,包括:采用随机权重对初始目标检测模型进行剪枝处理,得到轻量级目标检测模型(S1);基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并发送给服务端(S2);接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数(S3);使用所述全局梯度参数对所述初始目标检测模型进行更新(S4),并返回上述训练的步骤,直到满足预设的终止条件(S5),得到目标检测模型;使用所述目标检测模型对待检测图像进行目标检测(S6)。此外,还涉及区块链技术,本地数据集可存储于区块链节点中,该方法可以提高目标检测的检测速度和检测准确度。

Description

基于联邦学习的目标检测方法、装置、设备及存储介质
本申请要求于2020年10月20日提交中国专利局、申请号为CN202011125718.5、名称为“基于联邦学习的目标检测方法、装置、设备及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于联邦学习的目标检测方法、装置、电子设备及计算机可读存储介质。
背景技术
目标识别是计算机视觉发展的重要领域,根据任务的不同,可以应用在图像识别、物体定位、目标检测等多种技术方案中。其中,目标检测作为人脸识别、实例分割等应用的基础被广泛研究。
发明人意识到目前的目标检测方法主要采用多层卷积神经网络结构生成候选区域,再进行回归和分类,但这种方式的识别速度很慢,效率较低;同时,在一些业务场景中,需要对某些业务数据进行保密,导致采集的样本数据量较少,使得检测的准确性较低。
发明内容
本申请提供的一种基于联邦学习的目标检测方法,包括:
采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
使用所述目标检测模型对待检测图像进行目标检测。
本申请还提供一种基于联邦学习的目标检测装置,所述装置包括:
剪枝模块,用于采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
本地训练模块,用于基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
参数融合模块,用于接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
参数更新模块,用于使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
检测模块,用于使用所述目标检测模型对待检测图像进行目标检测。
本申请还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现如下步骤:
采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
使用所述目标检测模型对待检测图像进行目标检测。
本申请还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如下步骤:
采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
使用所述目标检测模型对待检测图像进行目标检测。
附图说明
图1为本申请一实施例提供的基于联邦学习的目标检测方法的流程示意图;
图2为本申请一实施例提供的随机权重的剪枝方法的流程示意图;
图3为本申请一实施例提供的基于联邦学习的模型训练方法的流程示意图;
图4为本申请一实施例提供的基于联邦学习的目标检测装置的模块示意图;
图5为本申请一实施例提供的实现基于联邦学习的目标检测方法的电子设备的内部结构示意图;
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种基于联邦学习的目标检测方法。所述基于联邦学习的目标检测方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于联邦学习的目标检测方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示的本申请一实施例提供的基于联邦学习的目标检测方法的流程示意图,所述基于联邦学习的目标检测方法包括:
S1、采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型。
本申请实施例中所述初始目标检测模型是一种基于卷积神经网络的检测模型。
可选地,本申请实施例在采用随机权重对预构建的初始目标检测模型进行剪枝处理之前,还包括:获取样本数据,将所述样本数据输入至所述初始目标检测模型,确定所述初始目标检测模型中各卷积层的输出数据。
详细地,参阅图2所示,所述采用随机权重对预构建的初始目标检测模型进行剪枝处理,包括:
S10、获取所述初始目标检测模型中各卷积层的权重;
S11、根据所述权重确定各卷积层的优先级;
S12、根据各卷积层的优先级进行剪枝,得到剪枝后的初始目标检测模型;
S13、计算所述剪枝后的初始目标检测模型的目标函数;
S14、判断所述目标函数是否满足预设的停止条件;
S15、停止剪枝,得到轻量级目标检测模型。
所述目标函数不满足预设的停止条件时,返回上述的步骤S11,继续执行根据权重确定卷积层的优先级的步骤;若所述目标函数满足预设的停止条件,则执行步骤S15,停止剪枝,得到轻量级目标检测模型。
其中,所述权重是预先赋予给每个卷积层不同的数值,本实施例中,所述权重的数值范围为0至1。所述停止条件可以是所述目标函数的值不再下降。
可选地,本申请实施例利用下述公式确定各卷积层的优先级:
W j=gate j×output j-1
其中,j是卷积层的层数,W j是卷积层j的优先级,gate j是卷积层j的权重,output j-1是卷积层j的上层输出,即卷积层j的输入数据。进一步地,所述根据各卷积层的优先级进行剪枝,包括:
将所述各卷积层的优先级与预设阈值进行比较;
当所述优先级大于或者等于所述阈值时,保留所述优先级对应的卷积层;
当所述优先级小于所述阈值时,将所述优先级对应的卷积层在所述初始目标检测模型中删除。
本申请实施例中预设设置一个可变全局阈值λ,当卷积层j的优先级W j≤λ时,在所述初始目标检测模型中将卷积层j进行删除。其中,所述全局阈值λ的大小与所述初始目标检测模型中的总层数相关,当所述初始目标检测模型中的总层数降低时,λ也会随之减小。
进一步地,本申请实施例使用下述公式计算所述目标函数:
Figure PCTCN2020131986-appb-000001
其中,f(x i;W,α)是所述初始目标检测模型的输出结果,x i为样本数据,W为所述初始目标检测模型的参数,α为所述初始目标检测模型的结构表示,N是样本数据的总数,y i表示样本数据x i对应的实际标签,ω是平衡参数,为常数,M是所述初始目标检测模型中的卷积层数,gate j是卷积层j的权重。
所述初始目标检测模型在剪枝后,计算速度得到了提升,但同时模型的准确度也会下降,为了保证模型的准确度,使用目标函数来检测所述初始目标检测模型的剪枝效果,确保所述轻量级目标检测模型的检测速度和检测准确度。
所述初始目标检测模型中包含多个卷积层、池化层、全连接层,各层中都包含大量的权重参数,在实际使用过程中需要进行大量计算,导致识别速度较慢,本申请实施例通过剪枝,去除所述初始目标检测模型中的冗余部分,减少计算量,提高效率。
S2、基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度梯度参数发送给服务端。
本申请实施例使用了联邦学习算法对所述轻量级目标检测模型进行训练。所述联邦学习算法利用多个参与方联合训练,其中所述参与方可以是客户端,拥有自己的本地数据集,并只使用自己拥有的数据集来训练机器学习模型。
所述本地数据集是各参与方保存在本地的数据集,与其他各参与方的数据集具有相同的特征,但数据内容并不相同。
可选地,在对所述轻量级目标检测模型进行训练之前,本申请实施例还包括对本地数据集进行初始化,具体包括:
在所述本地数据集内标注出目标对象识别框;
在所述标注后的数据集中添加目标对象的类别标签。
详细地,各参与方首先约定好目标对象的类别,可以有多个类别,各参与方在本地数据集内将目标对象用识别框标注出来,再确定目标对象的类别,为目标对象添加类别标签,便于后续的训练。
详细地,参阅图3所示,所述基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,包括:
S20、将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果;
S21、利用预设的损失函数计算所述输出结果的损失值;
S22、判断所述损失值是否收敛;
S23、根据所述损失值对所述轻量级目标检测模型的参数进行调整,并返回上述的步骤S20;
S24、将所述轻量级目标检测模型的参数确定为模型梯度参数。
其中,当步骤S22的判断结果为所述损失值没有收敛时,执行步骤S23,根据所述损失值对所述轻量级目标检测模型的参数进行调整,并返回上述的步骤S20;若所述损失值收敛时,则执行步骤S24,将所述轻量级目标检测模型的参数确定为模型梯度参数。
本申请实施例中,所述损失值收敛是指所述损失值维持不变。所述根据所述损失值对所述轻量级目标检测模型的参数进行调整是根据所述损失值对所述轻量级目标检测模型进行反向传播,并计算各卷积层梯度,根据梯度计算更新量,使用原始参数减去更新量作为新参数。
进一步地,所述将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果,包括:
将所述本地数据集进行均匀分块,得到多个特征块;
提取每个所述特征块中的特征数据,并根据所述特征数据生成多个预测边框;
对所述多个预测边框进行目标识别,输出预测目标类别以及与所述预测目标类别对应的预测概率。
进入所述轻量级目标检测模型的本地数据集首先被均匀分块,分块的大小决定了图片检测的精细粒度,使每个特征块中使用多个预测边界框预测各边框中是否存在预先标注的目标对象,并分别预测目标对象的类别以及对应的概率。
详细地,本申请实施例所述利用预设的损失函数计算所述输出结果的损失值,包括:
根据所述输出结果计算边框坐标位置误差、预测准确度误差和预测类别误差;
利用预设的损失函数根据所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差计算得到损失值。
本申请实施例所述预设的损失函数可以通过将所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差合并得到,通过计算所述损失函数可以综合所述输出结果多方面的误差,得到损失值。
进一步地,本申请实施例使用下述公式计算所述损失函数:
Figure PCTCN2020131986-appb-000002
其中,上述损失函数中,第一个加号之前的部分表示包含目标对象的边框坐标位置预测误差,第二个加号之后的部分表示包含目标对象的边框的预测准确度误差,第三个加号之后的部分表示预测类别误差,进一步地,M是特征块总数,H是预测边框总数量,x mi是第m个特征块中预测边框i的向量表示,
Figure PCTCN2020131986-appb-000003
为第m个特征块中预测边框i的位置,
Figure PCTCN2020131986-appb-000004
为 第m个特征块中该边框的实际标注位置;
Figure PCTCN2020131986-appb-000005
表示第m个特征块中预测边框i的预测准确度,
Figure PCTCN2020131986-appb-000006
表示第m个特征块中该边界框的实际标注的准确度;x m是特征块m的向量表示,N是目标类别总数,P(N j) pred表示目标类别j的预测概率,P(N j) true表示目标类别j的实际概率。
S3、接收所述服务端根据联邦平均算法将所述多个模型梯度参数进行融合得到的全局梯度参数。
详细地,本申请实施例中,各参与方将经过本地训练获得的梯度模型参数发送给服务端,所述服务端采用采用联邦平均算法将所述多个模型梯度参数进行融合,得到全局梯度参数,并将所述全局梯度参数加密传输至各参与方,可以保证各参与方数据的安全和隐私。
详细地,本申请实施例中所述联邦平均算法包括:
Figure PCTCN2020131986-appb-000007
其中,W是全局梯度参数,W k是模型梯度参数,p是参与方的总数量。
S4、使用所述全局梯度参数对所述初始目标检测模型进行更新。
本申请实施例将所述全局梯度参数传输给各所述参与方,各所述参与方将所述初始目标检测模型的模型参数使用所述全体梯度参数进行更新,以所述全体梯度参数替换所述初始目标检测模型中原本的模型参数。
S5、判断更新之后的所述初始目标检测模型是否满足预设的终止训练条件。
本申请实施例中所述预设的终止条件是所述初始目标检测模型的迭代次数达到预设次数。更新后获取迭代次数;在迭代次数未达到预设次数时,确定更新之后的所述初始目标检测模型不满足预设的终止条件;在所述迭代次数达到预设次数时,确定更新之后的所述初始目标检测模型满足预设的终止条件时。
当更新之后的所述初始目标检测模型不满足预设的终止条件时,返回上述S2;
当更新之后的所述初始目标检测模型满足预设的终止条件时,得到训练完成的目标检测模型。
本申请实施例通过对多个参与方进行联合训练,扩大了样本空间,从而提升了模型的准确性。
S6、使用所述目标检测模型对待检测图像进行目标检测。
详细地,本申请实施例可以使用所述目标检测模型根据预设目标对象对待检测图像进行检测,并将检测结果反馈给用户。
本申请实施例中所述目标检测模型是一种端到端的轻量级目标检测模型,检测速度较快,同时采用联合训练方案优化了该模型的准确性,可以实现快速且准确的目标对象检测,能够应用于危险情况及时反应,特别是在安防要求很高的工厂中,可以快速准确地检测出危险情况,如火苗、烟雾等,从而避免险情发生。
本申请实施例采用随机权重对预构建的初始目标检测模型进行剪枝处理,将多层网络结构的模型优化为轻量级模型,减轻了计算量,提高了模型的检测速度;同时基于联邦学习技术对所述所述轻量级目标检测模型进行训练,即保证了本地数据集的隐秘性,又扩大了模型的训练数据集,从而提升了所述轻量级目标检测模型的准确性。因此本申请提出的基于联邦学习的目标检测方法、装置及计算机可读存储介质,可以提高目标检测的检测速度和检测准确性。
如图4所示,是本申请基于联邦学习的目标检测装置的模块示意图。
本申请所述基于联邦学习的目标检测装置100可以安装于电子设备中。根据实现的功能,所述基于联邦学习的目标检测装置可以包括剪枝模块101、本地训练模块102、参数融合模块103、参数更新模块104和检测模块105。本申请所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段, 其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述剪枝模块101,用于采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型。
本申请实施例中所述初始目标检测模型是一种基于卷积神经网络的检测模型。
可选地,本申请实施例在采用随机权重对预构建的初始目标检测模型进行剪枝处理之前,还包括:获取样本数据,将所述样本数据输入至所述初始目标检测模型,确定所述初始目标检测模型中各卷积层的输出数据。
详细地,所述剪枝模块101具体用于:
获取所述初始目标检测模型中各卷积层的权重;
根据所述权重确定各卷积层的优先级;
根据各卷积层的优先级进行剪枝,得到剪枝后的初始目标检测模型;
计算所述剪枝后的初始目标检测模型的目标函数;
判断所述目标函数是否满足预设的停止条件;
停止剪枝,得到轻量级目标检测模型。
所述目标函数不满足预设的停止条件时,返回上述根据所述权重确定各卷积层的优先级的操作;或者
若所述目标函数满足预设的停止条件,执行停止剪枝,得到轻量级目标检测模型。
其中,所述权重是预先赋予给每个卷积层不同的数值,本实施例中,所述权重的数值范围为0至1。所述停止条件可以是所述目标函数的值不再下降。
可选地,本申请实施例利用下述公式确定各卷积层的优先级:
W j=gate j×output j-1
其中,j是卷积层的层数,W j是卷积层j的优先级,gate j是卷积层j的权重,output j-1是卷积层j的上层输出,即卷积层j的输入数据。
进一步地,所述根据各卷积层的优先级进行剪枝,包括:
将所述各卷积层的优先级与预设阈值进行比较;
当所述优先级大于或者等于所述阈值时,保留所述优先级对应的卷积层;
当所述优先级小于所述阈值时,将所述优先级对应的卷积层在所述初始目标检测模型中删除。
本申请实施例中预设设置一个可变全局阈值λ,当卷积层j的优先级W j≤λ时,在所述初始目标检测模型中将卷积层j进行删除。其中,所述全局阈值λ的大小与所述初始目标检测模型中的总层数相关,当所述初始目标检测模型中的总层数降低时,λ也会随之减小。
进一步地,本申请实施例使用下述公式计算所述目标函数:
Figure PCTCN2020131986-appb-000008
其中,f(x i;W,α)是所述初始目标检测模型的输出结果,x i为样本数据,W为所述初始目标检测模型的参数,α为所述初始目标检测模型的结构表示,N是样本数据的总数,y i表示样本数据x i对应的实际标签,ω是平衡参数,为常数,M是所述初始目标检测模型中的卷积层数,gate j是卷积层j的权重。
所述初始目标检测模型在剪枝后,计算速度得到了提升,但同时模型的准确度也会下降,为了保证模型的准确度,使用目标函数来检测所述初始目标检测模型的剪枝效果,确保所述轻量级目标检测模型的检测速度和检测准确度。
所述初始目标检测模型中包含多个卷积层、池化层、全连接层,各层中都包含大量的权重参数,在实际使用过程中需要进行大量计算,导致识别速度较慢,本申请实施例通过 剪枝,去除所述初始目标检测模型中的冗余部分,减少计算量,提高效率。
所述本地训练模块102,用于基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度梯度参数发送给服务端。
本申请实施例使用了联邦学习算法对所述轻量级目标检测模型进行训练。所述联邦学习算法利用多个参与方联合训练,其中所述参与方可以是客户端,拥有自己的本地数据集,并只使用自己拥有的数据集来训练机器学习模型。
所述本地数据集是各参与方保存在本地的数据集,与其他各参与方的数据集具有相同的特征,但数据内容并不相同。
可选地,在对所述轻量级目标检测模型进行训练之前,本申请实施例还包括对本地数据集进行初始化,具体包括:
在所述本地数据集内标注出目标对象识别框;
在所述标注后的数据集中添加目标对象的类别标签。
详细地,各参与方首先约定好目标对象的类别,可以有多个类别,各参与方在本地数据集内将目标对象用识别框标注出来,再确定目标对象的类别,为目标对象添加类别标签,便于后续的训练。
详细地,所述基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,包括:
步骤A:将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果;
步骤B:利用预设的损失函数计算所述输出结果的损失值;
步骤C:判断所述损失值是否收敛;
步骤D:根据所述损失值对所述轻量级目标检测模型的参数进行调整,并返回上述的步骤A;
步骤E:将所述轻量级目标检测模型的参数确定为模型梯度参数。其中,当步骤C的判断结果为所述损失值没有收敛时,执行步骤D:根据所述损失值对所述轻量级目标检测模型的参数进行调整,并返回上述的步骤A:;
若所述损失值收敛时,则执行步骤E:将所述轻量级目标检测模型的参数确定为模型梯度参数。
本申请实施例中,所述损失值收敛是指所述损失值维持不变。所述根据所述损失值对所述轻量级目标检测模型的参数进行调整是根据所述损失值对所述轻量级目标检测模型进行反向传播,并计算各卷积层梯度,根据梯度计算更新量,使用原始参数减去更新量作为新参数。
进一步地,所述将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果,包括:
将所述本地数据集进行均匀分块,得到多个特征块;
提取每个所述特征块中的特征数据,并根据所述特征数据生成多个预测边框;
对所述多个预测边框进行目标识别,输出预测目标类别以及与所述预测目标类别对应的预测概率。
进入所述轻量级目标检测模型的本地数据集首先被均匀分块,分块的大小决定了图片检测的精细粒度,使每个特征块中使用多个预测边界框预测各边框中是否存在预先标注的目标对象,并分别预测目标对象的类别以及对应的概率。详细地,本申请实施例所述利用预设的损失函数计算所述输出结果的损失值,包括:
根据所述输出结果计算边框坐标位置误差、预测准确度误差和预测类别误差;
利用预设的损失函数根据所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差计算得到损失值。
本申请实施例所述预设的损失函数可以通过将所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差合并得到,通过计算所述损失函数可以综合所述输出结果多方面的误差,得到损失值。
进一步地,本申请实施例使用下述公式计算所述损失函数:
Figure PCTCN2020131986-appb-000009
其中,上述损失函数中,第一个加号之前的部分表示包含目标对象的边框坐标位置预测误差,第二个加号之后的部分表示包含目标对象的边框的预测准确度误差,第三个加号之后的部分表示预测类别误差,进一步地,M是特征块总数,H是预测边框总数量,x mi是第m个特征块中预测边框i的向量表示,
Figure PCTCN2020131986-appb-000010
为第m个特征块中预测边框i的位置,
Figure PCTCN2020131986-appb-000011
为第m个特征块中该边框的实际标注位置;
Figure PCTCN2020131986-appb-000012
表示第m个特征块中预测边框i的预测准确度,
Figure PCTCN2020131986-appb-000013
表示第m个特征块中该边界框的实际标注的准确度;x m是特征块m的向量表示,N是目标类别总数,P(N j) pred表示目标类别j的预测概率,P(N j) true表示目标类别j的实际概率。
所述参数融合模块103,用于接收所述服务端根据联邦平均算法将所述多个模型梯度参数进行融合得到的全局梯度参数。
详细地,本申请实施例中,各参与方将经过本地训练获得的梯度模型参数发送给服务端,所述服务端采用采用联邦平均算法将所述多个模型梯度参数进行融合,得到全局梯度参数,并将所述全局梯度参数加密传输至各参与方,可以保证各参与方数据的安全和隐私。
详细地,本申请实施例中所述联邦平均算法包括:
Figure PCTCN2020131986-appb-000014
其中,W是全局梯度参数,W k是模型梯度参数,p是参与方的总数量。
所述参数更新模块104,用于使用所述全局梯度参数对所述初始目标检测模型进行更新;
判断更新之后的所述初始目标检测模型是否满足预设的终止训练条件。
本申请实施例将所述全局梯度参数传输给各所述参与方,各所述参与方将所述初始目标检测模型的模型参数使用所述全体梯度参数进行更新,以所述全体梯度参数替换所述初始目标检测模型中原本的模型参数。
本申请实施例中所述预设的终止条件是所述初始目标检测模型的迭代次数达到预设次数。更新后获取迭代次数;在迭代次数未达到预设次数时,确定更新之后的所述初始目标检测模型不满足预设的终止条件;在所述迭代次数达到预设次数时,确定更新之后的所述初始目标检测模型满足预设的终止条件时。
当更新之后的所述初始目标检测模型不满足预设的终止条件时,返回上述本地训练模块102;
当更新之后的所述初始目标检测模型满足预设的终止条件时,得到训练完成的目标检测模型。
其中,所述预设的终止条件是所述初始目标检测模型收敛或者迭代次数达到预设次数。
本申请实施例通过对多个参与方进行联合训练,扩大了样本空间,从而提升了模型的准确性。
所述检测模块105,用于使用所述目标检测模型对待检测图像进行目标检测。
详细地,本申请实施例可以使用所述目标检测模型根据预设目标对象对待检测图像进行检测,并将检测结果反馈给用户。
本申请实施例中所述目标检测模型是一种端到端的轻量级目标检测模型,检测速度较 快,同时采用联合训练方案优化了该模型的准确性,可以实现快速且准确的目标对象检测,能够应用于危险情况及时反应,特别是在安防要求很高的工厂中,可以快速准确地检测出危险情况,如火苗、烟雾等,从而避免险情发生。
如图5所示,是本申请实现基于联邦学习的目标检测方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于联邦学习的目标检测程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于联邦学习的目标检测程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于联邦学习的目标检测程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于联邦学习的目标检测程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
使用所述目标检测模型对待检测图像进行目标检测。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中,所述计算机可读存储介质可以是易失性,也可以是非易失性。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
所述计算机可读存储介质的存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如下步骤:
采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
使用所述目标检测模型对待检测图像进行目标检测。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其他的具体形式实现本申请。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本申请内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。

Claims (20)

  1. 一种基于联邦学习的目标检测方法,其中,所述方法应用联邦学习的参与方中,包括:
    采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
    基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
    接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
    使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
    使用所述目标检测模型对待检测图像进行目标检测。
  2. 如权利要求1所述的基于联邦学习的目标检测方法,其中,所述采用随机权重对预构建的初始目标检测模型进行剪枝处理,包括:
    获取所述初始目标检测模型中各卷积层的权重;
    根据所述权重确定各卷积层的优先级;
    根据各卷积层的优先级进行剪枝,得到剪枝后的初始目标检测模型;
    计算所述剪枝后的初始目标检测模型的目标函数;
    返回上述根据所述权重确定各卷积层的优先级的步骤,直到所述目标函数满足预设的停止条件时停止剪枝。
  3. 如权利要求2所述的基于联邦学习的目标检测方法,其中,所述根据各卷积层的优先级进行剪枝,包括:
    将所述各卷积层的优先级与预设阈值进行比较;
    当所述优先级小于所述阈值时,将所述优先级对应的卷积层在所述初始目标检测模型中删除。
  4. 如权利要求1所述的基于联邦学习的目标检测方法,其中,所述基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,包括:
    将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果;
    利用预设的损失函数计算所述输出结果的损失值;
    根据所述损失值对所述轻量级目标检测模型的参数进行调整,直到所述损失值维持不变时,将所述轻量级目标检测模型的参数确定为模型梯度参数。
  5. 如权利要求4所述的基于联邦学习的目标检测方法,其中,所述将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果,包括:
    将所述本地数据集进行均匀分块,得到多个特征块;
    提取每个所述特征块中的特征数据,并根据所述特征数据生成多个预测边框;
    对所述多个预测边框进行目标识别,输出预测目标类别以及与所述预测目标类别对应的预测概率。
  6. 如权利要求5所述的基于联邦学习的目标检测方法,其中,所述利用预设的损失函数计算所述输出结果的损失值,包括:
    根据所述输出结果计算边框坐标位置误差、预测准确度误差和预测类别误差;
    利用预设的损失函数根据所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差计算得到损失值。
  7. 如权利要求1至6中任意一项所述的基于联邦学习的目标检测方法,其中,所述 联邦平均算法包括:
    Figure PCTCN2020131986-appb-100001
    其中,W是全局梯度参数,W k是模型梯度参数,p是参与方的总数量。
  8. 一种基于联邦学习的目标检测装置,其中,所述装置包括:
    剪枝模块,用于采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
    本地训练模块,用于基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
    参数融合模块,用于接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
    参数更新模块,用于使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
    检测模块,用于使用所述目标检测模型对待检测图像进行目标检测。
  9. 一种电子设备,其中,所述电子设备包括:
    至少一个处理器;以及,
    与所述至少一个处理器通信连接的存储器;其中,
    所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如下步骤:
    采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
    基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
    接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
    使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
    使用所述目标检测模型对待检测图像进行目标检测。
  10. 如权利要求9所述的电子设备,其中,所述采用随机权重对预构建的初始目标检测模型进行剪枝处理,包括:
    获取所述初始目标检测模型中各卷积层的权重;
    根据所述权重确定各卷积层的优先级;
    根据各卷积层的优先级进行剪枝,得到剪枝后的初始目标检测模型;
    计算所述剪枝后的初始目标检测模型的目标函数;
    返回上述根据所述权重确定各卷积层的优先级的步骤,直到所述目标函数满足预设的停止条件时停止剪枝。
  11. 如权利要求10所述的电子设备,其中,所述根据各卷积层的优先级进行剪枝,包括:
    将所述各卷积层的优先级与预设阈值进行比较;
    当所述优先级小于所述阈值时,将所述优先级对应的卷积层在所述初始目标检测模型中删除。
  12. 如权利要求9所述的电子设备,其中,所述基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,包括:
    将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的 输出结果;
    利用预设的损失函数计算所述输出结果的损失值;
    根据所述损失值对所述轻量级目标检测模型的参数进行调整,直到所述损失值维持不变时,将所述轻量级目标检测模型的参数确定为模型梯度参数。
  13. 如权利要求12所述的电子设备,其中,所述将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果,包括:
    将所述本地数据集进行均匀分块,得到多个特征块;
    提取每个所述特征块中的特征数据,并根据所述特征数据生成多个预测边框;
    对所述多个预测边框进行目标识别,输出预测目标类别以及与所述预测目标类别对应的预测概率。
  14. 如权利要求13所述的电子设备,其中,所述利用预设的损失函数计算所述输出结果的损失值,包括:
    根据所述输出结果计算边框坐标位置误差、预测准确度误差和预测类别误差;
    利用预设的损失函数根据所述边框坐标位置误差、所述预测准确度误差和所述预测类别误差计算得到损失值。
  15. 如权利要求9至14中任意一项所述的电子设备,其中,所述联邦平均算法包括:
    Figure PCTCN2020131986-appb-100002
    其中,W是全局梯度参数,W k是模型梯度参数,p是参与方的总数量。
  16. 一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如下步骤:
    采用随机权重对预构建的初始目标检测模型进行剪枝处理,得到轻量级目标检测模型;
    基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,并将所述模型梯度参数发送给服务端;
    接收所述服务端根据联邦平均算法将所述模型梯度参数进行融合得到的全局梯度参数;
    使用所述全局梯度参数对所述初始目标检测模型进行更新,并返回上述基于本地数据集对所述轻量级目标检测模型进行训练的步骤,直到所述轻量级目标检测模型满足预设的终止条件,得到训练完成的目标检测模型;
    使用所述目标检测模型对待检测图像进行目标检测。
  17. 如权利要求16所述的计算机可读存储介质,其中,所述采用随机权重对预构建的初始目标检测模型进行剪枝处理,包括:
    获取所述初始目标检测模型中各卷积层的权重;
    根据所述权重确定各卷积层的优先级;
    根据各卷积层的优先级进行剪枝,得到剪枝后的初始目标检测模型;
    计算所述剪枝后的初始目标检测模型的目标函数;
    返回上述根据所述权重确定各卷积层的优先级的步骤,直到所述目标函数满足预设的停止条件时停止剪枝。
  18. 如权利要求17所述的计算机可读存储介质,其中,所述根据各卷积层的优先级进行剪枝,包括:
    将所述各卷积层的优先级与预设阈值进行比较;
    当所述优先级小于所述阈值时,将所述优先级对应的卷积层在所述初始目标检测模型中删除。
  19. 如权利要求16所述的计算机可读存储介质,其中,所述基于本地数据集对所述轻量级目标检测模型进行训练,得到对应的多个模型梯度参数,包括:
    将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果;
    利用预设的损失函数计算所述输出结果的损失值;
    根据所述损失值对所述轻量级目标检测模型的参数进行调整,直到所述损失值维持不变时,将所述轻量级目标检测模型的参数确定为模型梯度参数。
  20. 如权利要求19所述的计算机可读存储介质,其中,所述将所述本地数据集输入至所述轻量级目标检测模型,得到所述轻量级目标检测模型的输出结果,包括:
    将所述本地数据集进行均匀分块,得到多个特征块;
    提取每个所述特征块中的特征数据,并根据所述特征数据生成多个预测边框;
    对所述多个预测边框进行目标识别,输出预测目标类别以及与所述预测目标类别对应的预测概率。
PCT/CN2020/131986 2020-10-20 2020-11-27 基于联邦学习的目标检测方法、装置、设备及存储介质 WO2021189906A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011125718.5A CN112257774B (zh) 2020-10-20 2020-10-20 基于联邦学习的目标检测方法、装置、设备及存储介质
CN202011125718.5 2020-10-20

Publications (1)

Publication Number Publication Date
WO2021189906A1 true WO2021189906A1 (zh) 2021-09-30

Family

ID=74245443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/131986 WO2021189906A1 (zh) 2020-10-20 2020-11-27 基于联邦学习的目标检测方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN112257774B (zh)
WO (1) WO2021189906A1 (zh)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836819A (zh) * 2021-01-26 2021-05-25 北京奇艺世纪科技有限公司 一种神经网络模型生成方法及装置
CN113950046A (zh) * 2021-10-19 2022-01-18 北京工商大学 一种基于联邦学习的异构拓扑网络可信加密定位方法
CN114077901A (zh) * 2021-11-23 2022-02-22 山东大学 一种基于聚类的图联邦学习的用户位置预测框架
CN114117926A (zh) * 2021-12-01 2022-03-01 南京富尔登科技发展有限公司 一种基于联邦学习的机器人协同控制算法
CN114169412A (zh) * 2021-11-23 2022-03-11 北京邮电大学 面向大规模产业链隐私计算的联邦学习模型训练方法
CN114187006A (zh) * 2021-11-03 2022-03-15 杭州未名信科科技有限公司 一种基于区块链监管的联邦学习方法
CN114219147A (zh) * 2021-12-13 2022-03-22 南京富尔登科技发展有限公司 一种基于联邦学习的配电站故障预测方法
CN114332832A (zh) * 2021-12-31 2022-04-12 杭州电子科技大学 一种基于联邦学习的驾驶员的分心行为识别方法
CN114373144A (zh) * 2021-12-08 2022-04-19 上海海洋大学 一种用于高速视频中圆形标识点的自动识别方法
CN114547658A (zh) * 2022-03-02 2022-05-27 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及计算机可读存储介质
CN114553869A (zh) * 2022-02-11 2022-05-27 新智我来网络科技有限公司 基于联合学习的确定资源贡献度的方法、装置和电子设备
CN114595888A (zh) * 2022-03-10 2022-06-07 广西中烟工业有限责任公司 一种烟草制丝生产线的工艺控制参数的预测方法及装置
CN114707634A (zh) * 2022-03-09 2022-07-05 大连理工大学 联邦学习卷积神经网络模型聚合方法、装置及存储介质
CN114764601A (zh) * 2022-05-05 2022-07-19 北京瑞莱智慧科技有限公司 一种梯度数据融合方法、装置及存储介质
CN114841364A (zh) * 2022-04-14 2022-08-02 北京理工大学 一种满足个性化本地差分隐私需求的联邦学习方法
CN114998251A (zh) * 2022-05-30 2022-09-02 天津理工大学 一种基于联邦学习的空中多视觉平台地面异常检测方法
CN115017351A (zh) * 2022-05-31 2022-09-06 杭州卷积云科技有限公司 基于联邦小样本学习的轻量工业图片分类方法及系统
CN115081014A (zh) * 2022-05-31 2022-09-20 西安翔迅科技有限责任公司 一种基于联邦学习的目标检测标签自动标注方法
CN115186937A (zh) * 2022-09-09 2022-10-14 闪捷信息科技有限公司 基于多方数据协同的预测模型训练、数据预测方法和装置
CN115410190A (zh) * 2022-11-02 2022-11-29 平安银行股份有限公司 车牌图像角点检测模型训练方法、车牌脱敏方法及其设备
CN115577858A (zh) * 2022-11-21 2023-01-06 山东能源数智云科技有限公司 基于区块链的碳排放量预测方法、装置及电子设备
CN115694877A (zh) * 2022-08-30 2023-02-03 电子科技大学长三角研究院(衢州) 一种基于联邦偏好学习的空间众包任务分配方法
CN115834516A (zh) * 2022-11-28 2023-03-21 超聚变数字技术有限公司 数据处理方法、设备及服务器
CN116032431A (zh) * 2023-02-06 2023-04-28 哈尔滨工业大学(深圳) 针对分布式学习的通信压缩方法以及相关设备
CN116132184A (zh) * 2023-02-17 2023-05-16 中国工商银行股份有限公司 分布式拒绝服务攻击的检测方法、装置和服务器
CN116258420A (zh) * 2023-05-11 2023-06-13 中南大学 一种产品质量检测方法、装置、终端设备及介质
CN116432867A (zh) * 2023-06-09 2023-07-14 日照鲁光电子科技有限公司 一种二极管制备控制优化方法及系统
CN116503420A (zh) * 2023-04-26 2023-07-28 佛山科学技术学院 一种基于联邦学习的图像分割方法及相关设备
CN116596865A (zh) * 2023-05-05 2023-08-15 深圳市大数据研究院 缺陷检测方法、系统及机器人
CN116756764A (zh) * 2023-05-04 2023-09-15 浙江大学 一种面向光刻热点检测的模型分块聚合隐私保护方法
CN117237804A (zh) * 2023-09-15 2023-12-15 江苏三棱智慧物联发展股份有限公司 基于联邦学习的烟火识别系统及方法
CN117575423A (zh) * 2024-01-10 2024-02-20 湖南工商大学 基于联邦学习系统的工业产品质量检测方法及相关设备
CN117579399A (zh) * 2024-01-17 2024-02-20 北京智芯微电子科技有限公司 异常流量检测模型的训练方法和系统、异常流量检测方法
WO2024037393A1 (zh) * 2022-08-17 2024-02-22 北京智芯微电子科技有限公司 拓扑识别模型的压缩方法、装置、电子设备及介质
CN117688425A (zh) * 2023-12-07 2024-03-12 重庆大学 面向Non-IID图数据的多任务图分类模型构建方法及系统
CN118095579A (zh) * 2024-04-26 2024-05-28 宁德时代新能源科技股份有限公司 制程参数的确定方法、装置及系统、电子设备和存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379708A (zh) * 2021-02-26 2021-09-10 山东大学 一种基于联邦学习的空调外机外观检测方法及系统
CN113179244B (zh) * 2021-03-10 2022-12-23 上海大学 一种面向工业互联网边界安全的联邦深度网络行为特征建模方法
CN113033652B (zh) * 2021-03-23 2023-03-24 电子科技大学 一种基于区块链与联邦学习的图像识别系统及方法
CN113139662B (zh) * 2021-04-23 2023-07-14 深圳市大数据研究院 联邦学习的全局及局部梯度处理方法、装置、设备和介质
CN113344221A (zh) * 2021-05-10 2021-09-03 上海大学 一种基于神经网络架构搜索的联邦学习方法及系统
CN113364543B (zh) * 2021-06-03 2022-03-15 厦门大学 一种基于联邦强化学习的边缘计算模型训练方法
CN114241305A (zh) * 2021-12-07 2022-03-25 中原动力智能机器人有限公司 目标检测模型的更新方法及装置
CN114339252B (zh) * 2021-12-31 2023-10-31 深圳大学 一种数据压缩方法及装置
CN114782738B (zh) * 2022-03-25 2024-06-25 苏州浪潮智能科技有限公司 联邦学习安全检测方法、装置、电子设备及可读存储介质
CN114782758B (zh) * 2022-06-21 2022-09-02 平安科技(深圳)有限公司 图像处理模型训练方法、系统、计算机设备及存储介质
CN116523081B (zh) * 2023-04-07 2024-02-13 花瓣云科技有限公司 数据标准化方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309847A (zh) * 2019-04-26 2019-10-08 深圳前海微众银行股份有限公司 一种模型压缩方法及装置
CN111126627A (zh) * 2019-12-25 2020-05-08 四川新网银行股份有限公司 基于分离度指数的模型训练系统
CN111310932A (zh) * 2020-02-10 2020-06-19 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、装置、设备及可读存储介质
CN111382706A (zh) * 2020-03-10 2020-07-07 深圳前海微众银行股份有限公司 基于联邦学习的预测方法、装置、存储介质及遥感设备
CN111461291A (zh) * 2020-03-13 2020-07-28 西安科技大学 基于YOLOv3剪枝网络和深度学习去雾模型的长输管线巡检方法
US20200258006A1 (en) * 2017-11-07 2020-08-13 Huawei Technologies Co., Ltd. Prediction method, terminal, and server
CN111598238A (zh) * 2020-07-17 2020-08-28 支付宝(杭州)信息技术有限公司 深度学习模型的压缩方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961009B (zh) * 2019-02-15 2023-10-31 平安科技(深圳)有限公司 基于深度学习的行人检测方法、系统、装置及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200258006A1 (en) * 2017-11-07 2020-08-13 Huawei Technologies Co., Ltd. Prediction method, terminal, and server
CN110309847A (zh) * 2019-04-26 2019-10-08 深圳前海微众银行股份有限公司 一种模型压缩方法及装置
CN111126627A (zh) * 2019-12-25 2020-05-08 四川新网银行股份有限公司 基于分离度指数的模型训练系统
CN111310932A (zh) * 2020-02-10 2020-06-19 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、装置、设备及可读存储介质
CN111382706A (zh) * 2020-03-10 2020-07-07 深圳前海微众银行股份有限公司 基于联邦学习的预测方法、装置、存储介质及遥感设备
CN111461291A (zh) * 2020-03-13 2020-07-28 西安科技大学 基于YOLOv3剪枝网络和深度学习去雾模型的长输管线巡检方法
CN111598238A (zh) * 2020-07-17 2020-08-28 支付宝(杭州)信息技术有限公司 深度学习模型的压缩方法及装置

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836819A (zh) * 2021-01-26 2021-05-25 北京奇艺世纪科技有限公司 一种神经网络模型生成方法及装置
CN112836819B (zh) * 2021-01-26 2023-07-25 北京奇艺世纪科技有限公司 一种神经网络模型生成方法及装置
CN113950046A (zh) * 2021-10-19 2022-01-18 北京工商大学 一种基于联邦学习的异构拓扑网络可信加密定位方法
CN114187006A (zh) * 2021-11-03 2022-03-15 杭州未名信科科技有限公司 一种基于区块链监管的联邦学习方法
CN114077901A (zh) * 2021-11-23 2022-02-22 山东大学 一种基于聚类的图联邦学习的用户位置预测框架
CN114169412A (zh) * 2021-11-23 2022-03-11 北京邮电大学 面向大规模产业链隐私计算的联邦学习模型训练方法
CN114077901B (zh) * 2021-11-23 2024-05-24 山东大学 一种基于聚类的图联邦学习的用户位置预测方法
CN114117926B (zh) * 2021-12-01 2024-05-14 南京富尔登科技发展有限公司 一种基于联邦学习的机器人协同控制算法
CN114117926A (zh) * 2021-12-01 2022-03-01 南京富尔登科技发展有限公司 一种基于联邦学习的机器人协同控制算法
CN114373144A (zh) * 2021-12-08 2022-04-19 上海海洋大学 一种用于高速视频中圆形标识点的自动识别方法
CN114219147A (zh) * 2021-12-13 2022-03-22 南京富尔登科技发展有限公司 一种基于联邦学习的配电站故障预测方法
CN114219147B (zh) * 2021-12-13 2024-06-07 南京富尔登科技发展有限公司 一种基于联邦学习的配电站故障预测方法
CN114332832A (zh) * 2021-12-31 2022-04-12 杭州电子科技大学 一种基于联邦学习的驾驶员的分心行为识别方法
CN114553869A (zh) * 2022-02-11 2022-05-27 新智我来网络科技有限公司 基于联合学习的确定资源贡献度的方法、装置和电子设备
CN114547658B (zh) * 2022-03-02 2024-06-04 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及计算机可读存储介质
CN114547658A (zh) * 2022-03-02 2022-05-27 深圳前海微众银行股份有限公司 数据处理方法、装置、设备及计算机可读存储介质
CN114707634A (zh) * 2022-03-09 2022-07-05 大连理工大学 联邦学习卷积神经网络模型聚合方法、装置及存储介质
CN114595888A (zh) * 2022-03-10 2022-06-07 广西中烟工业有限责任公司 一种烟草制丝生产线的工艺控制参数的预测方法及装置
CN114841364A (zh) * 2022-04-14 2022-08-02 北京理工大学 一种满足个性化本地差分隐私需求的联邦学习方法
CN114764601B (zh) * 2022-05-05 2024-01-30 北京瑞莱智慧科技有限公司 一种梯度数据融合方法、装置及存储介质
CN114764601A (zh) * 2022-05-05 2022-07-19 北京瑞莱智慧科技有限公司 一种梯度数据融合方法、装置及存储介质
CN114998251A (zh) * 2022-05-30 2022-09-02 天津理工大学 一种基于联邦学习的空中多视觉平台地面异常检测方法
CN115017351A (zh) * 2022-05-31 2022-09-06 杭州卷积云科技有限公司 基于联邦小样本学习的轻量工业图片分类方法及系统
CN115081014A (zh) * 2022-05-31 2022-09-20 西安翔迅科技有限责任公司 一种基于联邦学习的目标检测标签自动标注方法
CN115017351B (zh) * 2022-05-31 2024-05-10 杭州卷积云科技有限公司 基于联邦小样本学习的轻量工业图片分类方法及系统
WO2024037393A1 (zh) * 2022-08-17 2024-02-22 北京智芯微电子科技有限公司 拓扑识别模型的压缩方法、装置、电子设备及介质
CN115694877A (zh) * 2022-08-30 2023-02-03 电子科技大学长三角研究院(衢州) 一种基于联邦偏好学习的空间众包任务分配方法
CN115694877B (zh) * 2022-08-30 2023-08-15 电子科技大学长三角研究院(衢州) 一种基于联邦偏好学习的空间众包任务分配方法
CN115186937A (zh) * 2022-09-09 2022-10-14 闪捷信息科技有限公司 基于多方数据协同的预测模型训练、数据预测方法和装置
CN115410190B (zh) * 2022-11-02 2023-04-14 平安银行股份有限公司 车牌图像角点检测模型训练方法、车牌脱敏方法及其设备
CN115410190A (zh) * 2022-11-02 2022-11-29 平安银行股份有限公司 车牌图像角点检测模型训练方法、车牌脱敏方法及其设备
CN115577858A (zh) * 2022-11-21 2023-01-06 山东能源数智云科技有限公司 基于区块链的碳排放量预测方法、装置及电子设备
CN115834516A (zh) * 2022-11-28 2023-03-21 超聚变数字技术有限公司 数据处理方法、设备及服务器
CN116032431B (zh) * 2023-02-06 2023-09-12 哈尔滨工业大学(深圳) 针对分布式学习的通信压缩方法以及相关设备
CN116032431A (zh) * 2023-02-06 2023-04-28 哈尔滨工业大学(深圳) 针对分布式学习的通信压缩方法以及相关设备
CN116132184A (zh) * 2023-02-17 2023-05-16 中国工商银行股份有限公司 分布式拒绝服务攻击的检测方法、装置和服务器
CN116503420B (zh) * 2023-04-26 2024-05-14 佛山科学技术学院 一种基于联邦学习的图像分割方法及相关设备
CN116503420A (zh) * 2023-04-26 2023-07-28 佛山科学技术学院 一种基于联邦学习的图像分割方法及相关设备
CN116756764A (zh) * 2023-05-04 2023-09-15 浙江大学 一种面向光刻热点检测的模型分块聚合隐私保护方法
CN116756764B (zh) * 2023-05-04 2024-06-04 浙江大学 一种面向光刻热点检测的模型分块聚合隐私保护方法
CN116596865A (zh) * 2023-05-05 2023-08-15 深圳市大数据研究院 缺陷检测方法、系统及机器人
CN116596865B (zh) * 2023-05-05 2024-04-16 深圳市大数据研究院 缺陷检测方法、系统及机器人
CN116258420A (zh) * 2023-05-11 2023-06-13 中南大学 一种产品质量检测方法、装置、终端设备及介质
CN116258420B (zh) * 2023-05-11 2023-08-01 中南大学 一种产品质量检测方法、装置、终端设备及介质
CN116432867A (zh) * 2023-06-09 2023-07-14 日照鲁光电子科技有限公司 一种二极管制备控制优化方法及系统
CN117237804B (zh) * 2023-09-15 2024-02-13 江苏三棱智慧物联发展股份有限公司 基于联邦学习的烟火识别系统及方法
CN117237804A (zh) * 2023-09-15 2023-12-15 江苏三棱智慧物联发展股份有限公司 基于联邦学习的烟火识别系统及方法
CN117688425A (zh) * 2023-12-07 2024-03-12 重庆大学 面向Non-IID图数据的多任务图分类模型构建方法及系统
CN117575423B (zh) * 2024-01-10 2024-04-16 湖南工商大学 基于联邦学习系统的工业产品质量检测方法及相关设备
CN117575423A (zh) * 2024-01-10 2024-02-20 湖南工商大学 基于联邦学习系统的工业产品质量检测方法及相关设备
CN117579399A (zh) * 2024-01-17 2024-02-20 北京智芯微电子科技有限公司 异常流量检测模型的训练方法和系统、异常流量检测方法
CN117579399B (zh) * 2024-01-17 2024-05-14 北京智芯微电子科技有限公司 异常流量检测模型的训练方法和系统、异常流量检测方法
CN118095579A (zh) * 2024-04-26 2024-05-28 宁德时代新能源科技股份有限公司 制程参数的确定方法、装置及系统、电子设备和存储介质

Also Published As

Publication number Publication date
CN112257774B (zh) 2024-03-15
CN112257774A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
WO2021189906A1 (zh) 基于联邦学习的目标检测方法、装置、设备及存储介质
WO2021151345A1 (zh) 识别模型的参数获取方法、装置、电子设备及存储介质
WO2021208735A1 (zh) 行为检测方法、装置及计算机可读存储介质
WO2021189904A1 (zh) 数据异常检测方法、装置、电子设备及存储介质
WO2022116424A1 (zh) 交通流预测模型训练方法、装置、电子设备及存储介质
US20180174062A1 (en) Root cause analysis for sequences of datacenter states
CN112801718B (zh) 用户行为预测方法、装置、设备及介质
WO2022105179A1 (zh) 生物特征图像识别方法、装置、电子设备及可读存储介质
WO2021217938A1 (zh) 基于大数据的资源推荐方法、装置、计算机设备及存储介质
WO2022048209A1 (zh) 车牌识别方法、装置、电子设备及存储介质
WO2021135474A1 (zh) 多数据来源的数据融合方法、装置、电子设备及存储介质
WO2021208701A1 (zh) 代码变更的注释生成方法、装置、电子设备及存储介质
CN112137591B (zh) 基于视频流的目标物位置检测方法、装置、设备及介质
WO2022227192A1 (zh) 图像分类方法、装置、电子设备及介质
WO2022141858A1 (zh) 行人检测方法、装置、电子设备及存储介质
CN112269875B (zh) 文本分类方法、装置、电子设备及存储介质
CN113157739B (zh) 跨模态检索方法、装置、电子设备及存储介质
WO2023159755A1 (zh) 虚假新闻检测方法、装置、设备及存储介质
WO2021238563A1 (zh) 基于配置算法的企业运行数据分析方法、装置、电子设备及介质
WO2022095519A1 (zh) 通关检验方法、装置、电子设备及计算机可读存储介质
CN111783982A (zh) 攻击样本的获取方法、装置、设备及介质
WO2023040145A1 (zh) 基于人工智能的文本分类方法、装置、电子设备及介质
CN113313211B (zh) 文本分类方法、装置、电子设备及存储介质
CN112069782B (zh) 文档模板生成方法、装置、电子设备及存储介质
CN113591881A (zh) 基于模型融合的意图识别方法、装置、电子设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926470

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926470

Country of ref document: EP

Kind code of ref document: A1