CN113283521A - 一种条件生成对抗网络生成方法及装置 - Google Patents

一种条件生成对抗网络生成方法及装置 Download PDF

Info

Publication number
CN113283521A
CN113283521A CN202110622422.2A CN202110622422A CN113283521A CN 113283521 A CN113283521 A CN 113283521A CN 202110622422 A CN202110622422 A CN 202110622422A CN 113283521 A CN113283521 A CN 113283521A
Authority
CN
China
Prior art keywords
network model
network
images
generated
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110622422.2A
Other languages
English (en)
Other versions
CN113283521B (zh
Inventor
樊昕晔
王鹏
贾雪丽
李钰
田江
向小佳
丁永建
李璠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Everbright Technology Co ltd
Original Assignee
Everbright Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Everbright Technology Co ltd filed Critical Everbright Technology Co ltd
Priority to CN202110622422.2A priority Critical patent/CN113283521B/zh
Publication of CN113283521A publication Critical patent/CN113283521A/zh
Application granted granted Critical
Publication of CN113283521B publication Critical patent/CN113283521B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种条件生成对抗网络生成方法及装置,其中,该方法包括:基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将该条件生成对抗网络中的判别网络模型建立在各子节点上;通过该生成网络模型生成的多个图像对该各子节点的判别网络模型进行训练,可以解决相关技术中各节点各自训练生成对抗网络,要求各节点提供相同的图像标签,若各节点图像标签不同,则会大大降低模型效果的问题,通过联邦学习与条件生成对抗网络的结合,在各子节点通过生成网络模型生成的多个图像训练判别网络模型,无需各节点的图像标签相同,提高了模型训练的效率和效果。

Description

一种条件生成对抗网络生成方法及装置
技术领域
本发明涉及人工智能领域,具体而言,涉及一种条件生成对抗网络生成方法及装置。
背景技术
条件生成对抗网络(Conditional Generative Adversarial Network,简称为CGAN)在人工智能领域应用颇为广泛,例如机构利用CGAN进行数据增强,以提高自动驾驶算法对各场景的泛化能力,但该技术对数据的数量和质量要求甚高。理想状态下,各机构可通过交易实现数据共享,但现在的市场对于数据安全、隐私保护的要求日趋严格,各机构之间无法互传数据,这也导致了许多技术遇到了瓶颈。
Mohammad Rasouli等在FedGAN:Federated Generative Adversarial Networksfor Distributed Data中,提出各机构节点在本地训练自己的生成对抗网络,并将参数传递至中心服务器。中心服务器对各机构传来的参数求得平均数,并将平均数回传至各机构节点,各机构依据此平均数更新自己的模型。该方案只是实现了多方共享参数,并且多个生成对抗网络的局限性较大,要求各机构提供相同的图像标签。如果各机构图像数据的标签不同,则会大大降低模型效果。
针对相关技术中各节点各自训练生成对抗网络,要求各节点提供相同的图像标签,若各节点图像标签不同,则会大大降低模型效果的问题,尚未提出解决方案。
发明内容
本发明实施例提供了一种条件生成对抗网络生成方法及装置,以至少解决相关技术中各节点各自训练生成对抗网络,要求各节点提供相同的图像标签,若各节点图像标签不同,则会大大降低模型效果的问题。
根据本发明的一个实施例,提供了一种条件生成对抗网络生成方法,包括:
基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
可选地,通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练包括:
通过所述生成网络模型生成所述多个图像;
将所述多个图像传输到所述各子节点上;
在所述各子节点上基于所述多个图像与本地图像对所述判别网络模型进行训练。
可选地,通过所述生成网络模型生成所述多个图像包括:
获取在所述中心节点上预先设置的目标图像标签集;
通过所述生成网络模型生成图像标签与所述目标图像标签集内任意标签一致的所述多个图像。
可选地,将所述多个图像传输到所述各子节点上包括:
获取所述本地图像的本地图像标签;
筛选出图像标签与所述本地图像标签一致的所述多个图像;
将所述多个图像传输到所述各子节点。
可选地,在所述各子节点上基于所述多个图像与所述本地图像对所述判别网络模型进行训练之后,所述方法还包括:
获取所述判别网络模型反馈的模型参数;
根据所述模型参数对所述判别网络模型的参数进行更新。
可选地,在所述各子节点上基于所述多个图像与所述本地图像对所述判别网络模型进行训练之后,所述方法还包括:
通过所述判别网络模型将生成网络模型模型梯度回传至所述中心节点上;
根据所述生成网络模型模型梯度对所述生成网络模型的参数进行更新。
可选地,所述生成网络模型为卷积神经网络模型,其中,所述卷积神经网络模型至少包括:卷积层、全连接层、激活层、嵌入层、批量标准化层。
根据本发明的另一个实施例,还提供了一种条件生成对抗网络生成装置,包括:
建立模块,用于基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
训练模块,用于通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
可选地,所述训练模块包括:
生成子模块,用于通过所述生成网络模型生成所述多个图像;
传输子模块,用于将所述多个图像传输到所述各子节点上;
训练子模块,用于在所述各子节点上基于所述多个图像与本地图像对所述判别网络模型进行训练。
可选地,所述生成子模块包括:
第一获取单元,用于获取在所述中心节点上预先设置的目标图像标签集;
生成单元,用于通过所述生成网络模型生成图像标签与所述目标图像标签集内任意标签一致的所述多个图像。
可选地,所述传输子模块包括:
第二获取单元,用于获取所述本地图像的本地图像标签;
筛选单元,用于筛选出图像标签与所述本地图像标签一致的所述多个图像;
传输单元,用于将所述多个图像传输到所述各子节点。
可选地,所述装置还包括:
获取模块,用于获取所述判别网络模型反馈的模型参数;
第一更新模块,用于根据所述模型参数对所述判别网络模型的参数进行更新。
可选地,所述装置还包括:
回传模块,用于通过所述判别网络模型将生成网络模型模型梯度回传至所述中心节点上;
第二更新模块,用于根据所述生成网络模型模型梯度对所述生成网络模型的参数进行更新。
可选地,所述生成网络模型为卷积神经网络模型,其中,所述卷积神经网络模型至少包括:卷积层、全连接层、激活层、嵌入层、批量标准化层。
根据本发明的又一个实施例,还提供了一种计算机可读的存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明,基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练,可以解决相关技术中各节点各自训练生成对抗网络,要求各节点提供相同的图像标签,若各节点图像标签不同,则会大大降低模型效果的问题,通过联邦学习与条件生成对抗网络的结合,在各子节点通过生成网络模型生成的多个图像训练判别网络模型,无需各节点的图像标签相同,提高了模型训练的效率和效果。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明实施例的条件生成对抗网络生成方法的移动终端的硬件结构框图;
图2是根据本发明实施例的条件生成对抗网络生成方法的流程图;
图3是根据本发明实施例的Fed-CGAN的结构示意图;
图4是根据本发明实施例的Fed-CGAN的模型更新的示意图;
图5是根据本发明实施例的Fed-CGAN的模型示意图;
图6是根据本发明实施例的条件生成对抗网络生成装置的框图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
实施例1
本申请实施例一所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。以运行在移动终端上为例,图1是本发明实施例的条件生成对抗网络生成方法的移动终端的硬件结构框图,如图1所示,移动终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储数据的存储器104,可选地,上述移动终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述移动终端的结构造成限定。例如,移动终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本发明实施例中的条件生成对抗网络生成方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至移动终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括移动终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
在本实施例中提供了一种运行于上述移动终端或网络架构的条件生成对抗网络生成方法,图2是根据本发明实施例的条件生成对抗网络生成方法的流程图,如图2所示,该流程包括如下步骤:
步骤S202,基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
本发明实施例中,上述的生成网络模型具体可以为卷积神经网络模型,其中,所述卷积神经网络模型至少包括:卷积层、全连接层、激活层、嵌入层、批量标准化层。
步骤S204,通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
通过上述步骤S202至S204,基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练,可以解决相关技术中各节点各自训练生成对抗网络,要求各节点提供相同的图像标签,若各节点图像标签不同,则会大大降低模型效果的问题,通过联邦学习与条件生成对抗网络的结合,在各子节点通过生成网络模型生成的多个图像训练判别网络模型,无需各节点的图像标签相同,提高了模型训练的效率和效果。
本发明实施例中,上述步骤S204具体可以包括:
S2041,通过所述生成网络模型生成所述多个图像;
进一步的,上述步骤S2041具体可以包括:获取在所述中心节点上预先设置的目标图像标签集;通过所述生成网络模型生成图像标签与所述目标图像标签集内任意标签一致的所述多个图像。可以预先选定标签,并让模型生成该标签的图像,这一特点让模型生成的结果变得可控。
S2042,将所述多个图像传输到所述各子节点上;
进一步的,上述步骤S2042具体可以包括:获取所述本地图像的本地图像标签;筛选出图像标签与所述本地图像标签一致的所述多个图像;将所述多个图像传输到所述各子节点。本发明实施例利用CGAN(Conditional Generative Adversarial Network)中具备条件变量的特性,设置筛选机制,通过该机制有选择性地从中心服务器向各机构节点传输生成的图像数据。
S2043,在所述各子节点上基于所述多个图像与本地图像对所述判别网络模型进行训练。
本发明实现了CGAN结构的联邦化,即各机构维护各自的判别网络,中心服务器维护唯一的生成网络。且中心服务器在向各机构节点传递生成的图像数据时,需要经过一道筛选过滤。本发明实施例的模型不再要求各机构提供相同的图像标签,没有了相同标签的限制,本发明针对的业务场景更为合理和广泛。
在一可选的实施例中,在步骤S204之后,获取所述判别网络模型反馈的模型参数;根据所述模型参数对所述判别网络模型的参数进行更新,通过判别网络的参数更新,使判别网络尽可能地区分出图像是真实数据还是生成的虚假数据。
在另一可选的实施例中,在步骤S204之后,通过所述判别网络模型将生成网络模型模型梯度回传至所述中心节点上;根据所述生成网络模型模型梯度对所述生成网络模型的参数进行更新。生成网络依此决定自身下一轮的参数更新,生成网络的参数更新目标是生成越来越逼真的图像。
本发明实施例提出联邦学习下的CGAN结构,称之为Fed-CGAN(FederatedConditional Generative Adversarial Network),图3是根据本发明实施例的Fed-CGAN的结构示意图,如图3所示,中心节点维护Fed-CGAN的生成网络,各子节点维护Fed-CGAN的判别网络。
生成对抗网络中的判别网络需要以真实的图像数据作为输入,为了防止数据泄露,将判别网络建在各子节点。这样一来,各机构的数据只需在本地进行判别网络的训练,而不需要向外输出。数据始终停留在各机构本地,保证了隐私性和安全性。
通过各机构共享模型参数,可以训练出一个更加强大、全能的生成装置,将生成网络建立在中心节点。中心节点生成的图像可以被不同子节点的判别网络进行修正,进而不断强化该生成网络的能力。
首先中心节点生成多张图像,并将生成的图像传向各子节点。图像在到达各子节点前会经过筛选装置,该装置会对数据进行过滤,阻挡与机构本地图像标签不同的生成图像;当且仅当生成的图像与机构本地图像标签一致时,才会允许生成的图像通过,并到达子节点。此时,各子节点同时具备了来自中心节点的生成图像,和自己本地的真实图像,基于这两部分数据判别网络进行训练。
本发明实施例中的筛选装置本质上就是一个开关,它决定了生成网络生成的图像是否可以传递到判别网络。当且仅当生成的图像标签与判别网络训练集的图像标签一致时,才会传输,即允许生成的图像传递至相应的判别网络;其余情况下,均处于关闭状态,不允许传输。
当生成的图像标签与判别网络训练集的图像标签不一致时,如果生成的图像被不加判断地传至子节点,该子节点可以通过构建卷积神经网络,分析并提取这部分标签不一致的图像,进而推断出其他子节点的图像标签信息。通过筛选机制,则阻止了这部分标签信息的泄露。
当判别网络回传生成网络模型梯度时,生成网络其实只需要标签一致下的这部分判别网络的梯度反馈。筛选机制的引入,过滤掉了标签不一致下的梯度回传,减少了节点间的通信,提高了模型训练的效率;此外,标签不一致下的梯度实质上是一种噪声,它会干扰模型的训练。所以当加入筛选机制后,会消除这部分噪声的干扰,进而提高模型的效果。
如图3所示,子节点_1的数据集是狗的图像,并维护判别网络_1;子节点_2的数据集是猫的图像,并维护判别网络_2;子节点_n的数据集是人的图像,并维护判别网络_n。基于这些数据集,生成网络可以生成相应标签的图像,例如生成狗、猫、人等图像,中心节点将生成的图像传至各子节点。经过筛选装置,各子节点只会接收到与本地数据集标签相同的生成图像,例如子节点_1只会接收到狗类别的生成图像,各子节点基于生成的虚假图像和本地的真实图像训练自身的判别网络。
图4是根据本发明实施例的Fed-CGAN的模型更新的示意图,如图4所示,当判别网络接收到生成网络生成的图像,并结合本地真实的图像进行训练后,判别网络会得到模型效果反馈,依据此反馈对自身参数进行更新,判别网络的参数更新目标是尽可能地区分出图像是真实数据还是生成的虚假数据。判别网络完成每轮训练后会将模型梯度回传至中心节点的生成网络,生成网络依此决定自身下一轮的参数更新,生成网络的参数更新目标是生成越来越逼真的图像。
图5是根据本发明实施例的Fed-CGAN的模型示意图,如图5所示,以两个子节点为例,图5底部的model_1和model_2为两个子节点各自的判别网络模型,图5中其余部分均为中心节点的生成网络模型。以生成网络模型为例,使用神经网络中的卷积层(Conv2D)、全连接层(Dense)、激活层(LeakyReLU)、嵌入层(Embedding)、批量标准化层(BatchNormalization)等,各层的作用如下:
卷积层:用于提取图像特征;
全连接层:连接所有的特征;
激活层:用于加入非线性因素;
嵌入层:将图像的标签转换为固定大小的向量;
批量标准化层:通过规范化的手段,将越来越偏的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收敛速度,避免梯度消失的问题。
实施例2
根据本发明的另一个实施例,还提供了一种条件生成对抗网络生成装置,图6是根据本发明实施例的条件生成对抗网络生成装置的框图,如图6所示,包括:
建立模块62,用于基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
训练模块64,用于通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
可选地,所述训练模块64包括:
生成子模块,用于通过所述生成网络模型生成所述多个图像;
传输子模块,用于将所述多个图像传输到所述各子节点上;
训练子模块,用于在所述各子节点上基于所述多个图像与本地图像对所述判别网络模型进行训练。
可选地,所述生成子模块包括:
第一获取单元,用于获取在所述中心节点上预先设置的目标图像标签集;
生成单元,用于通过所述生成网络模型生成图像标签与所述目标图像标签集内任意标签一致的所述多个图像。
可选地,所述传输子模块包括:
第二获取单元,用于获取所述本地图像的本地图像标签;
筛选单元,用于筛选出图像标签与所述本地图像标签一致的所述多个图像;
传输单元,用于将所述多个图像传输到所述各子节点。
可选地,所述装置还包括:
获取模块,用于获取所述判别网络模型反馈的模型参数;
第一更新模块,用于根据所述模型参数对所述判别网络模型的参数进行更新。
可选地,所述装置还包括:
回传模块,用于通过所述判别网络模型将生成网络模型模型梯度回传至所述中心节点上;
第二更新模块,用于根据所述生成网络模型模型梯度对所述生成网络模型的参数进行更新。
可选地,所述生成网络模型为卷积神经网络模型,其中,所述卷积神经网络模型至少包括:卷积层、全连接层、激活层、嵌入层、批量标准化层。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
实施例3
本发明的实施例还提供了一种计算机可读的存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
S2,通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
实施例4
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
S2,通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种条件生成对抗网络生成方法,其特征在于,包括:
基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
2.根据权利要求1所述的方法,其特征在于,通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练包括:
通过所述生成网络模型生成所述多个图像;
将所述多个图像传输到所述各子节点上;
在所述各子节点上基于所述多个图像与本地图像对所述判别网络模型进行训练。
3.根据权利要求2所述的方法,其特征在于,通过所述生成网络模型生成所述多个图像包括:
获取在所述中心节点上预先设置的目标图像标签集;
通过所述生成网络模型生成图像标签与所述目标图像标签集内任意标签一致的所述多个图像。
4.根据权利要求2所述的方法,其特征在于,将所述多个图像传输到所述各子节点上包括:
获取所述本地图像的本地图像标签;
筛选出图像标签与所述本地图像标签一致的所述多个图像;
将所述多个图像传输到所述各子节点。
5.根据权利要求2所述的方法,其特征在于,在所述各子节点上基于所述多个图像与所述本地图像对所述判别网络模型进行训练之后,所述方法还包括:
获取所述判别网络模型反馈的模型参数;
根据所述模型参数对所述判别网络模型的参数进行更新。
6.根据权利要求2所述的方法,其特征在于,在所述各子节点上基于所述多个图像与所述本地图像对所述判别网络模型进行训练之后,所述方法还包括:
通过所述判别网络模型将生成网络模型模型梯度回传至所述中心节点上;
根据所述生成网络模型模型梯度对所述生成网络模型的参数进行更新。
7.根据权利要求1至6中任一项所述的方法,其特征在于,
所述生成网络模型为卷积神经网络模型,其中,所述卷积神经网络模型至少包括:卷积层、全连接层、激活层、嵌入层、批量标准化层。
8.一种条件生成对抗网络生成装置,其特征在于,包括:
建立模块,用于基于联邦学习将条件生成对抗网络中的生成网络模型建立在中心节点上,并将所述条件生成对抗网络中的判别网络模型建立在各子节点上;
训练模块,用于通过所述生成网络模型生成的多个图像对所述各子节点的判别网络模型进行训练。
9.一种计算机可读的存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至7任一项中所述的方法。
10.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至7中任一项所述的方法。
CN202110622422.2A 2021-06-03 2021-06-03 一种条件生成对抗网络生成方法及装置 Active CN113283521B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110622422.2A CN113283521B (zh) 2021-06-03 2021-06-03 一种条件生成对抗网络生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110622422.2A CN113283521B (zh) 2021-06-03 2021-06-03 一种条件生成对抗网络生成方法及装置

Publications (2)

Publication Number Publication Date
CN113283521A true CN113283521A (zh) 2021-08-20
CN113283521B CN113283521B (zh) 2023-09-01

Family

ID=77283333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110622422.2A Active CN113283521B (zh) 2021-06-03 2021-06-03 一种条件生成对抗网络生成方法及装置

Country Status (1)

Country Link
CN (1) CN113283521B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222705A (zh) * 2019-04-23 2019-09-10 华为技术有限公司 一种网络模型的训练方法以及相关装置
CN111563841A (zh) * 2019-11-13 2020-08-21 南京信息工程大学 一种基于生成对抗网络的高分辨率图像生成方法
WO2021004551A1 (zh) * 2019-09-26 2021-01-14 深圳前海微众银行股份有限公司 纵向联邦学习系统优化方法、装置、设备及可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222705A (zh) * 2019-04-23 2019-09-10 华为技术有限公司 一种网络模型的训练方法以及相关装置
WO2021004551A1 (zh) * 2019-09-26 2021-01-14 深圳前海微众银行股份有限公司 纵向联邦学习系统优化方法、装置、设备及可读存储介质
CN111563841A (zh) * 2019-11-13 2020-08-21 南京信息工程大学 一种基于生成对抗网络的高分辨率图像生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENYOU FAN 等: "Federated Generative Adversarial Learning", 《ARXIV》, pages 1 - 13 *
冯霁 等: "联邦学习下对抗训练样本表示的研究", 《CNKI 网络首发》, pages 1 - 12 *
魏雅婷;王智勇;周舒悦;陈为;: "联邦可视化:一种隐私保护的可视化新模型", 智能科学与技术学报, no. 04, pages 415 - 420 *

Also Published As

Publication number Publication date
CN113283521B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
DE112005000202T5 (de) Verfahren und System zum Berechnen und Verifizieren der Integrität von Daten in einem Datenübertragungssystem
CN110061871A (zh) 基站开站方法、装置、计算机存储介质及设备
CN107741899A (zh) 处理终端数据的方法、装置及系统
CN111833372A (zh) 一种前景目标提取方法及装置
CN114611634B (zh) 一种行为类型的确定方法、装置、存储介质及电子装置
CN112327643A (zh) 智能家居的控制方法和装置、存储介质、电子装置
CN112380955A (zh) 动作的识别方法及装置
CN109063576A (zh) 用于航班动作节点的管理方法及装置
CN112884168A (zh) 用于跨站点学习的系统和方法
CN112116652A (zh) 物品信息的发送方法及装置、存储介质、电子装置
CN115835185A (zh) 一种人工智能模型下载方法、装置及系统
CN110795558B (zh) 标签获取方法和装置、存储介质及电子装置
CN107944758A (zh) 一种智能警情处理方法及系统
Gad et al. Joint self-organizing maps and knowledge distillation-based communication-efficient federated learning for resource-constrained UAV-IoT systems
DE102021129420A1 (de) Ein vertrauenswürdiges, kontextabhängiges, selbstlernendes verfahren für ein in-vehicle network intrusion detection system, das entwickelt wurde, um die verbreitung der kalibrierung und die entwicklungskosten zu begrenzen
CN113283521A (zh) 一种条件生成对抗网络生成方法及装置
CN110472537B (zh) 一种自适应识别方法、装置、设备及介质
CN110162957A (zh) 智能设备的鉴权方法和装置、存储介质、电子装置
Malandrino et al. Toward node liability in federated learning: Computational cost and network overhead
CN117332374A (zh) 一种ai芯片的计算和通信的融合方法、装置及ai芯片
CN117373638A (zh) 面向野外手术及救治保障的信息传输装置
CN115563069B (zh) 基于人工智能的数据共享处理方法、系统及云平台
CN115481746B (zh) 模型训练方法及相关系统、存储介质
CN207969534U (zh) 一种基于树莓派的动物识别智能投食系统
CN110895670B (zh) 场景的识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant