CN113221948B - 基于对抗生成网络和弱监督学习的数字切片图像分类方法 - Google Patents

基于对抗生成网络和弱监督学习的数字切片图像分类方法 Download PDF

Info

Publication number
CN113221948B
CN113221948B CN202110391347.3A CN202110391347A CN113221948B CN 113221948 B CN113221948 B CN 113221948B CN 202110391347 A CN202110391347 A CN 202110391347A CN 113221948 B CN113221948 B CN 113221948B
Authority
CN
China
Prior art keywords
network
generator
discriminator
countermeasure generation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110391347.3A
Other languages
English (en)
Other versions
CN113221948A (zh
Inventor
高哲尧
庄吓海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110391347.3A priority Critical patent/CN113221948B/zh
Publication of CN113221948A publication Critical patent/CN113221948A/zh
Application granted granted Critical
Publication of CN113221948B publication Critical patent/CN113221948B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,包括如下步骤:S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像和未标注图像;S2:构建对抗生成网络,包括生成器网络和判别器网络,获取损失函数;S3:循环迭代,优化获取对抗生成网络的最优参数;S4:构建图像分类网络,将训练的生成器网络产生的生成图像以及真实正样本图像输入至所述的图像分类网络中;S5:循环迭代训练,获取图像分类网络的最优参数;S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。与现有技术相比,本发明泛化能力强,所需训练数据少,分类结果准确可靠。

Description

基于对抗生成网络和弱监督学习的数字切片图像分类方法
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种基于对抗生成网络和弱监督学习的数字切片图像分类方法。
背景技术
在医学影像领域,医学图像的精确对于许多临床应用有着十分重要的辅助作用,在临床上,全视野数字切片图像已被广泛使用。然而,手动标注切片图像上的病理区域十分耗时耗力,而且不同医师的诊断结果之间也存在着差异。为了减轻工作量,帮助医师快速诊断疾病,计算机自动化的标注就显得尤为重要。
目前,基于对抗生成网络的弱监督分类的方法中,均使用有标注的数据作为网络的训练数据。该策略通过引入标签映射模块,使得生成器能够根据输入的标签生成特定类别的图像。然而这种方法需要大量的有标注数据,通常情况下,有标签的数据量较少,难以训练出优质的分类器,且该方法的泛化能力较差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于对抗生成网络和弱监督学习的数字切片图像分类方法。
本发明的目的可以通过以下技术方案来实现:
一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,所述的生成器网络用于生成正样本图像Xgp和负样本图像Xgn,所述的判别器网络用于区分Xp、Xu、Xgp、Xgn,获取对抗生成网络的损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至所述的图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。
优选地,
所述的生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成负样本图像Xgn;
所述的判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
优选地,所述的生成器网络和判别器网络采用卷积神经网络。
优选地,所述的生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,所述的自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,所述的自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。
优选地,所述的自注意力模块表示为:
Figure GDA0003592529560000021
h(xi)=Whxi
Figure GDA0003592529560000022
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure GDA0003592529560000023
表示
Figure GDA0003592529560000031
维矩阵,
Figure GDA0003592529560000032
表示
Figure GDA0003592529560000033
维矩阵,
Figure GDA0003592529560000034
为降维后的通道数,i=1,2……,N,j=1,2……,N。
优选地,步骤S2中对抗生成网络的目标函数为:
Figure GDA0003592529560000035
其中,
Figure GDA0003592529560000036
为对抗生成网络的目标函数,
Figure GDA0003592529560000037
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure GDA0003592529560000038
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
优选地,
Figure GDA0003592529560000039
Figure GDA00035925295600000310
通过如下方式获得:
Figure GDA00035925295600000311
Figure GDA00035925295600000312
其中,
Figure GDA00035925295600000313
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure GDA00035925295600000314
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure GDA00035925295600000315
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure GDA00035925295600000316
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure GDA00035925295600000317
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000318
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000319
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000320
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
优选地,
Figure GDA00035925295600000321
Figure GDA00035925295600000322
具体表达如下:
Figure GDA00035925295600000323
Figure GDA00035925295600000324
Figure GDA00035925295600000325
Figure GDA00035925295600000326
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
优选地,步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
优选地,所述的图像分类网络采用卷积神经网络。
与现有技术相比,本发明具有如下优点:
(1)本发明构建对抗生成网络,使用无标签的数据训练该网络,可以产生接近真实数据分布的有标签数据,用该方法产生的数据结合少量有标签数据即可训练出高性能的分类网络;
(2)本发明使用了一种多任务训练的策略,使得对抗网络的训练过程更加稳定,更容易实现预期效果;
(3)本发明使用了自注意力机制,使得生成器和判别器在训练过程中能够充分地利用图像的全局信息,训练后的生成器能够产生高质量的图像。
附图说明
图1为本发明一种基于对抗生成网络和弱监督学习的数字切片图像分类方法的流程框图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。注意,以下的实施方式的说明只是实质上的例示,本发明并不意在对其适用物或其用途进行限定,且本发明并不限定于以下的实施方式。
实施例
如图1所示,本实施例提供一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,生成器网络用于生成正样本图像Xgp和负样本图像Xgn,判别器网络用于区分Xp、Xu、Xgp、Xgn,获取对抗生成网络的损失函数,具体包括S21、生成器网络生成有标签数据,S22判别器区分真假产生损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果。
生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成负样本图像Xgn;
判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
生成器网络、判别器网络和图像分类网络均采用卷积神经网络。其中,生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。本实施例中各生成器和判别器设置5层卷积层和2层自注意力模块,其中1个自注意力模块设置在第3层卷积层和第4层卷积层之间,另1个自注意力模块设置在第4层卷积层和第5层卷积层之间。
自注意力模块表示为:
Figure GDA0003592529560000051
h(xi)=Whxi
Figure GDA0003592529560000052
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure GDA0003592529560000061
表示
Figure GDA0003592529560000062
维矩阵,
Figure GDA0003592529560000063
表示
Figure GDA0003592529560000064
维矩阵,
Figure GDA0003592529560000065
为降维后的通道数,i=1,2……,N,j=1,2……,N。
步骤S2中对抗生成网络的目标函数为:
Figure GDA0003592529560000066
其中,
Figure GDA0003592529560000067
为对抗生成网络的目标函数,
Figure GDA0003592529560000068
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure GDA0003592529560000069
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
Figure GDA00035925295600000610
Figure GDA00035925295600000611
通过如下方式获得:
Figure GDA00035925295600000612
Figure GDA00035925295600000613
其中,
Figure GDA00035925295600000614
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure GDA00035925295600000615
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure GDA00035925295600000616
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure GDA00035925295600000617
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure GDA00035925295600000618
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000619
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000620
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure GDA00035925295600000621
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
Figure GDA00035925295600000622
Figure GDA00035925295600000623
具体表达如下:
Figure GDA00035925295600000624
Figure GDA00035925295600000625
Figure GDA00035925295600000626
Figure GDA00035925295600000627
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
需要说明的是:上述所有目标函数是损失函数的优化目标,是在循环迭代优化后得到的。
步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
本发明有如下几个重要特点:
(1)构建对抗生成网络,使用无标签的数据训练该网络,可以产生接近真实数据分布的有标签数据,用该方法产生的数据结合少量有标签数据即可训练出高性能的分类网络;
(2)使用了多任务训练的策略,使得对抗网络的训练过程更加稳定,更容易实现预期效果;
(3)使用自注意力机制,使得生成器和判别器在训练过程中能够充分地利用图像的全局信息,训练后的生成器能够产生高质量的图像;
总而言之,本发明提出一种特殊的对抗生成网络用于弱监督的分类任务,该方法训练所需数据少,简单快速,泛化能力强,同时具有全自动、计算时间短、实现方便等优势。
上述实施方式仅为例举,不表示对本发明范围的限定。这些实施方式还能以其它各种方式来实施,且能在不脱离本发明技术思想的范围内作各种省略、置换、变更。

Claims (9)

1.一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,该方法包括如下步骤:
S1:获取有掩码标注和无掩码标注的数字切片图像并将其切分成补丁图像作为源数据,形成真实正样本图像Xp和未标注图像Xu;
S2:构建对抗生成网络,包括生成器网络和判别器网络,所述的生成器网络用于生成正样本图像Xgp和负样本图像Xgn,所述的判别器网络用于区分Xp、Xu、Xgp、Xgn,获取对抗生成网络的损失函数;
S3:循环迭代,利用优化器获取对抗生成网络的最优参数;
S4:构建图像分类网络,将训练的生成器网络产生的Xgp、Xgn以及真实正样本图像Xp输入至所述的图像分类网络中;
S5:循环迭代训练,获取图像分类网络的最优参数;
S6:应用时,将目标切片图像切分成补丁图像输入至图像分类网络,输出分类结果;
所述的生成器网络包括:
第一生成器Gp:用于生成正样本图像Xgp;
第二生成器Gn:用于生成负样本图像Xgn;
所述的判别器网络包括:
第一判别器Dp:用于区分Xp和Xgp;
第二判别器Dn:用于区分Xp和Xgn;
第三判别器Du:用于区分Xu、Xgp和Xgn。
2.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的生成器网络和判别器网络采用卷积神经网络。
3.根据权利要求2所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的生成器网络和判别器网络中的各生成器和判别器均包括多个卷积层,还包括自注意力模块,所述的自注意力模块设置一个或多个,单个自注意力模块串联在相邻的卷积层之间,所述的自注意力模块的输出和上一层卷积层的输出相加后作为下一层卷积层的输入。
4.根据权利要求3所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的自注意力模块表示为:
Figure FDA0003592529550000021
h(xi)=Whxi
Figure FDA0003592529550000022
sij=f(xi)Tg(xj)
f(X)=WfX,g(X)=WgX,v(X)=WvX
其中,xi、xj分别表示上一层卷积层的输出x的第i和j列数据,x∈RC×N,RC×N表示C×N维矩阵,C为通道数,N为空间维度,oj表示自注意力模块的第j列输出,βj,i表示自注意力分值,f(X)、g(X)、v(X)分别表示以自变量X为输入的函数,Wg、Wf、Wh、Wv为待学习的参数矩阵,Wg,Wf
Figure FDA0003592529550000023
Figure FDA0003592529550000024
表示
Figure FDA0003592529550000025
维矩阵,
Figure FDA0003592529550000026
表示
Figure FDA0003592529550000027
维矩阵,
Figure FDA0003592529550000028
为降维后的通道数,i=1,2……,N,j=1,2……,N。
5.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,步骤S2中对抗生成网络的目标函数为:
Figure FDA0003592529550000029
其中,
Figure FDA00035925295500000210
为对抗生成网络的目标函数,
Figure FDA00035925295500000211
为更新第一生成器Gp、第一判别器Dp和第三判别器Du时的目标函数,
Figure FDA00035925295500000212
为更新第二生成器Gn、第二判别器Dn和第三判别器Du时的目标函数,πp和πn为先验参数。
6.根据权利要求5所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,
Figure FDA00035925295500000213
Figure FDA00035925295500000214
通过如下方式获得:
Figure FDA00035925295500000215
Figure FDA00035925295500000216
其中,
Figure FDA00035925295500000217
为更新第一生成器Gp和第一判别器Dp的损失函数,
Figure FDA00035925295500000218
为更新第一生成器Gp和第三判别器Du的损失函数,
Figure FDA00035925295500000219
为更新第二生成器Gn和第三判别器Du的损失函数,
Figure FDA00035925295500000220
为更新第二生成器Gn和第二判别器Dn的损失函数,λp、λu和λn为超参数,
Figure FDA00035925295500000221
表示由第一生成器Gp和第一判别器Dp组成的常规对抗生成网络的目标函数,
Figure FDA00035925295500000222
表示由第一生成器Gp和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure FDA00035925295500000223
表示由第二生成器Gn和第三判别器Du组成的常规对抗生成网络的目标函数,
Figure FDA0003592529550000031
表示由第二生成器Gn和第二判别器Dn组成的常规对抗生成网络的目标函数。
7.根据权利要求6所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,
Figure FDA0003592529550000032
Figure FDA0003592529550000033
具体表达如下:
Figure FDA0003592529550000034
Figure FDA0003592529550000035
Figure FDA0003592529550000036
Figure FDA0003592529550000037
其中,p(z)为标准正态分布,pp(x)为正样本数据分布,pu(x)为未标注样本图像分布,Gp()表示第一生成器的输出函数,Gn()表示第二生成器的输出函数,Dp()表示第一判别器的输出函数,Dn()表示第二判别器的输出函数,Du()表示第三判别器的输出函数,E表示数学期望。
8.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,步骤S3在对抗生成网络的一个循环迭代训练过程中首先将真实数据与生成器网络的生成数据输入判别器网络进行有监督训练,然后固定判别器网络,通过最大化或最小化相应目标函数获得生成器网络的优化参数,直至循环迭代结束获取最优训练结果。
9.根据权利要求1所述的一种基于对抗生成网络和弱监督学习的数字切片图像分类方法,其特征在于,所述的图像分类网络采用卷积神经网络。
CN202110391347.3A 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法 Active CN113221948B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110391347.3A CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110391347.3A CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Publications (2)

Publication Number Publication Date
CN113221948A CN113221948A (zh) 2021-08-06
CN113221948B true CN113221948B (zh) 2022-08-05

Family

ID=77087295

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110391347.3A Active CN113221948B (zh) 2021-04-13 2021-04-13 基于对抗生成网络和弱监督学习的数字切片图像分类方法

Country Status (1)

Country Link
CN (1) CN113221948B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115546848B (zh) * 2022-10-26 2024-02-02 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统
CN116152577B (zh) * 2023-04-19 2023-08-29 深圳须弥云图空间科技有限公司 图像分类方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961272B (zh) * 2018-07-02 2021-10-26 浙江工业大学 一种基于深度卷积对抗生成网络的皮肤病图像的生成方法
CN111899203B (zh) * 2020-07-10 2023-06-20 贵州大学 基于标注图在无监督训练下的真实图像生成方法及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN109949317A (zh) * 2019-03-06 2019-06-28 东南大学 基于逐步对抗学习的半监督图像实例分割方法
CN110110745A (zh) * 2019-03-29 2019-08-09 上海海事大学 基于生成对抗网络的半监督x光图像自动标注
CN110097103A (zh) * 2019-04-22 2019-08-06 西安电子科技大学 基于生成对抗网络的半监督图像分类方法
CN110689086A (zh) * 2019-10-08 2020-01-14 郑州轻工业学院 基于生成式对抗网络的半监督高分遥感图像场景分类方法
CN111476294A (zh) * 2020-04-07 2020-07-31 南昌航空大学 一种基于生成对抗网络的零样本图像识别方法及系统
CN112052893A (zh) * 2020-09-01 2020-12-08 西安电子科技大学 基于生成对抗网络的半监督图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于无监督与半监督框架的医学图像分类关键技术研究;王丹;《中国博士学位论文全文数据库 医药卫生科技辑》;20200515;全文 *
基于生成式对抗网络与异质集成学习的文本情感分类研究;刘磊;《中国优秀硕士学位论文全文数据库 信息科技辑》;20200815;全文 *

Also Published As

Publication number Publication date
CN113221948A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
Xu et al. A deep convolutional neural network for classification of red blood cells in sickle cell anemia
Stringer et al. Cellpose: a generalist algorithm for cellular segmentation
Maqsood et al. Transfer learning assisted classification and detection of Alzheimer’s disease stages using 3D MRI scans
Guibas et al. Synthetic medical images from dual generative adversarial networks
Knapič et al. Explainable artificial intelligence for human decision support system in the medical domain
Cordeiro et al. A survey on deep learning with noisy labels: How to train your model when you cannot trust on the annotations?
Khojaste-Sarakhsi et al. Deep learning for Alzheimer's disease diagnosis: A survey
CN113221948B (zh) 基于对抗生成网络和弱监督学习的数字切片图像分类方法
Khajehnejad et al. Alzheimer’s disease early diagnosis using manifold-based semi-supervised learning
CN111242233B (zh) 一种基于融合网络的阿尔兹海默病分类方法
Wang et al. Ensemble of 3D densely connected convolutional network for diagnosis of mild cognitive impairment and Alzheimer’s disease
CN112508953B (zh) 基于深度神经网络的脑膜瘤快速分割定性方法
Pacal et al. Deep learning-based approaches for robust classification of cervical cancer
Donovan-Maiye et al. A deep generative model of 3D single-cell organization
Tushar et al. Classification of multiple diseases on body CT scans using weakly supervised deep learning
Abbas et al. Assist-dermo: A lightweight separable vision transformer model for multiclass skin lesion classification
Park et al. Deep convolutional generative adversarial networks-based data augmentation method for classifying class-imbalanced defect patterns in wafer bin map
Peng et al. Automatic unsupervised fabric defect detection based on self-feature comparison
CN117393098A (zh) 基于视觉先验和跨模态对齐网络的医疗影像报告生成方法
Li et al. StereoCell enables highly accurate single-cell segmentation for spatial transcriptomics
Schutera et al. Methods for the frugal labeler: Multi-class semantic segmentation on heterogeneous labels
Tsao et al. AutoVP: An Automated Visual Prompting Framework and Benchmark
CN113177602B (zh) 图像分类方法、装置、电子设备和存储介质
Cao et al. A convolutional neural network-based COVID-19 detection method using chest CT images
Liauchuk et al. Detection of lung pathologies using deep convolutional networks trained on large X-ray chest screening database

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant