CN113221948A - 基于对抗生成网络和弱监督学习的数字切片图像分类方法 - Google Patents

基于对抗生成网络和弱监督学习的数字切片图像分类方法 Download PDF

Info

Publication number
CN113221948A
CN113221948A CN202110391347.3A CN202110391347A CN113221948A CN 113221948 A CN113221948 A CN 113221948A CN 202110391347 A CN202110391347 A CN 202110391347A CN 113221948 A CN113221948 A CN 113221948A
Authority
CN
China
Prior art keywords
network
discriminator
generator
countermeasure generation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110391347.3A
Other languages
English (en)
Other versions
CN113221948B (zh
Inventor
高哲尧
庄吓海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110391347.3A priority Critical patent/CN113221948B/zh
Publication of CN113221948A publication Critical patent/CN113221948A/zh
Application granted granted Critical
Publication of CN113221948B publication Critical patent/CN113221948B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,包括如下步骤:S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像和未标注图像;S2:构建对抗生成网络,包括生成器网络和判别器网络,获取损失函数;S3:循环迭代,优化获取对抗生成网络的最优参数;S4:构建图像分类网络,将训练的生成器网络产生的生成图像以及真实正样本图像输入至所述的图像分类网络中;S5:循环迭代训练,获取图像分类网络的最优参数;S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。与现有技术相比,本发明泛化能力强,所需训练数据少,分类结果准确可靠。

Description

基于对抗生成网络和弱监督学习的数字切片图像分类方法
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种基于对抗生成网络和弱监督学习的数字切片图像分类方法。
背景技术
在医学影像领域,医学图像的精确对于许多临床应用有着十分重要的辅助作用,在临床上,全视野数字切片图像已被广泛使用。然而,手动标注切片图像上的病理区域十分耗时耗力,而且不同医师的诊断结果之间也存在着差异。为了减轻工作量,帮助医师快速诊断疾病,计算机自动化的标注就显得尤为重要。
目前,基于对抗生成网络的弱监督分类的方法中,均使用有标注的数据作为网络的训练数据。该策略通过引入标签映射模块,使得生成器能够根据输入的标签生成特定类别的图像。然而这种方法需要大量的有标注数据,通常情况下,有标签的数据量较少,难以训练出优质的分类器,且该方法的泛化能力较差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于对抗生成网络和弱监督学习的数字切片图像分类方法。
本发明的目的可以通过以下技术方案来实现:
一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,所述的生成器网络用于生成正样本图像Xgp和负样本图像Xgn,所述的判别器网络用于区分Xp、Xu、Xgp、Xgp,获取对抗生成网络的损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至所述的图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。
优选地,
所述的生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成正样本图像Xgn;
所述的判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
优选地,所述的生成器网络和判别器网络采用卷积神经网络。
优选地,所述的生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,所述的自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,所述的自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。
优选地,所述的自注意力模块表示为:
Figure BDA0003016855680000021
h(xi)=Whxi
Figure BDA0003016855680000022
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure BDA0003016855680000023
Figure BDA0003016855680000024
表示
Figure BDA0003016855680000031
维矩阵,
Figure BDA0003016855680000032
表示
Figure BDA0003016855680000033
维矩阵,
Figure BDA0003016855680000034
为降维后的通道数,i=1,2……,N,j=1,2……,N。
优选地,步骤S2中对抗生成网络的目标函数为:
Figure BDA0003016855680000035
其中,
Figure BDA0003016855680000036
为对抗生成网络的目标函数,
Figure BDA0003016855680000037
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure BDA0003016855680000038
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
优选地,
Figure BDA0003016855680000039
Figure BDA00030168556800000310
通过如下方式获得:
Figure BDA00030168556800000311
Figure BDA00030168556800000312
其中,
Figure BDA00030168556800000313
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure BDA00030168556800000314
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure BDA00030168556800000315
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure BDA00030168556800000316
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure BDA00030168556800000317
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000318
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000319
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000320
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
优选地,
Figure BDA00030168556800000321
Figure BDA00030168556800000322
具体表达如下:
Figure BDA00030168556800000323
Figure BDA00030168556800000324
Figure BDA00030168556800000325
Figure BDA00030168556800000326
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
优选地,步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
优选地,所述的图像分类网络采用卷积神经网络。
与现有技术相比,本发明具有如下优点:
(1)本发明构建对抗生成网络,使用无标签的数据训练该网络,可以产生接近真实数据分布的有标签数据,用该方法产生的数据结合少量有标签数据即可训练出高性能的分类网络;
(2)本发明使用了一种多任务训练的策略,使得对抗网络的训练过程更加稳定,更容易实现预期效果;
(3)本发明使用了自注意力机制,使得生成器和判别器在训练过程中能够充分地利用图像的全局信息,训练后的生成器能够产生高质量的图像。
附图说明
图1为本发明一种基于对抗生成网络和弱监督学习的数字切片图像分类方法的流程框图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。注意,以下的实施方式的说明只是实质上的例示,本发明并不意在对其适用物或其用途进行限定,且本发明并不限定于以下的实施方式。
实施例
如图1所示,本实施例提供一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,生成器网络用于生成正样本图像Xgp和负样本图像Xgn,判别器网络用于区分Xp、Xu、Xgp、Xgp,获取对抗生成网络的损失函数,具体包括S21、生成器网络生成有标签数据,S22判别器区分真假产生损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。
生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成正样本图像Xgn;
判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
生成器网络、判别器网络和图像分类网络均采用卷积神经网络。其中,生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。本实施例中各生成器和判别器设置5层卷积层和2层自注意力模块,其中1个自注意力模块设置在第3层卷积层和第4层卷积层之间,另1个自注意力模块设置在第4层卷积层和第5层卷积层之间。
自注意力模块表示为:
Figure BDA0003016855680000051
h(xi)=Whxi
Figure BDA0003016855680000052
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure BDA0003016855680000061
Figure BDA0003016855680000062
表示
Figure BDA0003016855680000063
维矩阵,
Figure BDA0003016855680000064
表示
Figure BDA0003016855680000065
维矩阵,
Figure BDA0003016855680000066
为降维后的通道数,i=1,2……,N,j=1,2……,N。
步骤S2中对抗生成网络的目标函数为:
Figure BDA0003016855680000067
其中,
Figure BDA0003016855680000068
为对抗生成网络的目标函数,
Figure BDA0003016855680000069
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure BDA00030168556800000610
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
Figure BDA00030168556800000611
Figure BDA00030168556800000612
通过如下方式获得:
Figure BDA00030168556800000613
Figure BDA00030168556800000614
其中,
Figure BDA00030168556800000615
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure BDA00030168556800000616
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure BDA00030168556800000617
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure BDA00030168556800000618
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure BDA00030168556800000619
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000620
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000621
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure BDA00030168556800000622
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
Figure BDA00030168556800000623
Figure BDA00030168556800000624
具体表达如下:
Figure BDA00030168556800000625
Figure BDA00030168556800000626
Figure BDA00030168556800000627
Figure BDA00030168556800000628
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
需要说明的是:上述所有目标函数是损失函数的优化目标,是在循环迭代优化后得到的。
步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
本发明有如下几个重要特点:
(1)构建对抗生成网络,使用无标签的数据训练该网络,可以产生接近真实数据分布的有标签数据,用该方法产生的数据结合少量有标签数据即可训练出高性能的分类网络;
(2)使用了多任务训练的策略,使得对抗网络的训练过程更加稳定,更容易实现预期效果;
(3)使用自注意力机制,使得生成器和判别器在训练过程中能够充分地利用图像的全局信息,训练后的生成器能够产生高质量的图像;
总而言之,本发明提出一种特殊的对抗生成网络用于弱监督的分类任务,该方法训练所需数据少,简单快速,泛化能力强,同时具有全自动、计算时间短、实现方便等优势。
上述实施方式仅为例举,不表示对本发明范围的限定。这些实施方式还能以其它各种方式来实施,且能在不脱离本发明技术思想的范围内作各种省略、置换、变更。

Claims (10)

1.一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,所述的生成器网络用于生成正样本图像Xgp和负样本图像Xgn,所述的判别器网络用于区分Xp、Xu、Xgp、Xgp,获取对抗生成网络的损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至所述的图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。
2.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,
所述的生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成正样本图像Xgn;
所述的判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
3.根据权利要求2所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的生成器网络和判别器网络采用卷积神经网络。
4.根据权利要求3所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,所述的自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,所述的自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。
5.根据权利要求4所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的自注意力模块表示为:
Figure FDA0003016855670000021
h(xi)=Whxi
Figure FDA0003016855670000022
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure FDA0003016855670000023
Figure FDA0003016855670000024
表示
Figure FDA0003016855670000025
维矩阵,
Figure FDA0003016855670000026
表示
Figure FDA0003016855670000027
维矩阵,
Figure FDA0003016855670000028
为降维后的通道数,i=1,2……,N,j=1,2……,N。
6.根据权利要求2所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,步骤S2中对抗生成网络的目标函数为:
Figure FDA0003016855670000029
其中,
Figure FDA00030168556700000210
为对抗生成网络的目标函数,
Figure FDA00030168556700000211
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure FDA00030168556700000212
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
7.根据权利要求6所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,
Figure FDA00030168556700000213
Figure FDA00030168556700000214
通过如下方式获得:
Figure FDA00030168556700000215
Figure FDA00030168556700000216
其中,
Figure FDA00030168556700000217
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure FDA00030168556700000218
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure FDA00030168556700000219
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure FDA00030168556700000220
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure FDA00030168556700000221
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure FDA0003016855670000031
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure FDA0003016855670000032
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure FDA0003016855670000033
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
8.根据权利要求7所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,
Figure FDA0003016855670000034
Figure FDA0003016855670000035
具体表达如下:
Figure FDA0003016855670000036
Figure FDA0003016855670000037
Figure FDA0003016855670000038
Figure FDA0003016855670000039
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
9.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
10.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的图像分类网络采用卷积神经网络。
CN202110391347.3A 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法 Active CN113221948B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110391347.3A CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110391347.3A CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Publications (2)

Publication Number Publication Date
CN113221948A true CN113221948A (zh) 2021-08-06
CN113221948B CN113221948B (zh) 2022-08-05

Family

ID=77087295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110391347.3A Active CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Country Status (1)

Country Link
CN (1) CN113221948B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546848A (zh) * 2022-10-26 2022-12-30 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
CN116152577A (zh) * 2023-04-19 2023-05-23 深圳须弥云图空间科技有限公司 图像分类方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN108961272A (zh) * 2018-07-02 2018-12-07 浙江工业大学 一种基于深度卷积对抗生成网络的皮肤病图像的生成方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN111899203A (zh) * 2020-07-10 2020-11-06 贵州大学 基于标注图在无监督训练下的真实图像生成方法及存储介质
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN108961272A (zh) * 2018-07-02 2018-12-07 浙江工业大学 一种基于深度卷积对抗生成网络的皮肤病图像的生成方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN111899203A (zh) * 2020-07-10 2020-11-06 贵州大学 基于标注图在无监督训练下的真实图像生成方法及存储介质
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘磊: "基于生成式对抗网络与异质集成学习的文本情感分类研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王丹: "基于无监督与半监督框架的医学图像分类关键技术研究", 《中国博士学位论文全文数据库 医药卫生科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546848A (zh) * 2022-10-26 2022-12-30 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
CN115546848B (zh) * 2022-10-26 2024-02-02 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
CN116152577A (zh) * 2023-04-19 2023-05-23 深圳须弥云图空间科技有限公司 图像分类方法及装置
CN116152577B (zh) * 2023-04-19 2023-08-29 深圳须弥云图空间科技有限公司 图像分类方法及装置

Also Published As

Publication number Publication date
CN113221948B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
Xu et al. A deep convolutional neural network for classification of red blood cells in sickle cell anemia
Cordeiro et al. A survey on deep learning with noisy labels: How to train your model when you cannot trust on the annotations?
Khojaste-Sarakhsi et al. Deep learning for Alzheimer's disease diagnosis: A survey
CN113221948B (zh) 基于对抗生成网络和弱监督学习的数字切片图像分类方法
CN112508953B (zh) 基于深度神经网络的脑膜瘤快速分割定性方法
Khajehnejad et al. Alzheimer’s disease early diagnosis using manifold-based semi-supervised learning
Pacal et al. Deep learning-based approaches for robust classification of cervical cancer
CN114549470B (zh) 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法
CN116310343A (zh) 一种基于特征解耦的多模态脑肿瘤mri分割方法
CN113707278B (zh) 一种基于空间编码的脑ct医学报告生成方法
Li et al. Automatic bone age assessment of adolescents based on weakly-supervised deep convolutional neural networks
Abbas et al. Assist-dermo: A lightweight separable vision transformer model for multiclass skin lesion classification
CN114580501A (zh) 骨髓细胞分类方法、系统、计算机设备及存储介质
CN117393098A (zh) 基于视觉先验和跨模态对齐网络的医疗影像报告生成方法
Park et al. Deep convolutional generative adversarial networks-based data augmentation method for classifying class-imbalanced defect patterns in wafer bin map
Schutera et al. Methods for the frugal labeler: Multi-class semantic segmentation on heterogeneous labels
Lu et al. Image recognition algorithm based on improved AlexNet and shared parameter transfer learning
Dheeraj et al. Plant leaf diseases identification using deep learning approach for sustainable agriculture
Li et al. StereoCell enables highly accurate single-cell segmentation for spatial transcriptomics
CN113177602B (zh) 图像分类方法、装置、电子设备和存储介质
Cao et al. A convolutional neural network-based COVID-19 detection method using chest CT images
CN112489012A (zh) 一种用于ct图像识别的神经网络架构方法
Tarando et al. Cascade of convolutional neural networks for lung texture classification: overcoming ontological overlapping
CN112785559A (zh) 基于深度学习的多个异构模型相互组合的骨龄预测方法
Srinivasan et al. To pretrain or not? A systematic analysis of the benefits of pretraining in diabetic retinopathy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant