CN112767328B - 基于对抗学习和适应性分析的医学图像病灶跨域检测方法 - Google Patents

基于对抗学习和适应性分析的医学图像病灶跨域检测方法 Download PDF

Info

Publication number
CN112767328B
CN112767328B CN202110025559.XA CN202110025559A CN112767328B CN 112767328 B CN112767328 B CN 112767328B CN 202110025559 A CN202110025559 A CN 202110025559A CN 112767328 B CN112767328 B CN 112767328B
Authority
CN
China
Prior art keywords
domain
feature vector
adaptability
detection
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110025559.XA
Other languages
English (en)
Other versions
CN112767328A (zh
Inventor
黄悦
丁兴号
陈超奇
郑泽镖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202110025559.XA priority Critical patent/CN112767328B/zh
Publication of CN112767328A publication Critical patent/CN112767328A/zh
Application granted granted Critical
Publication of CN112767328B publication Critical patent/CN112767328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

基于对抗学习和适应性分析的医学图像病灶跨域检测方法,属于医学图像处理领域。针对医学图像中有标签的数据少、难获得,且不同数据库样本分布差异大,跨数据库检测时泛化性能差等实际问题,包括以下步骤:A、将对抗学习引入深度学习病灶检测框架中构建无监督域适应病灶检测模型;B、局部适应性分析与特征选择;C、全局适应性分析与图像选择。可以有效利用已有的带标签数据,能有效提高跨域病灶检测的性能,提高跨数据库测试时的准确率和召回率,能改善利用深度学习模型进行医学图像病灶检测时的泛化性能,提高跨数据库测试时的准确率和召回率,满足实际应用的需求。

Description

基于对抗学习和适应性分析的医学图像病灶跨域检测方法
技术领域
本发明属于医学图像处理领域,具体是涉及一种基于对抗学习和适应性分析的医学图像病灶跨域检测方法。
背景技术
近年来,得益于计算能力的大幅提升与机器学习的快速发展,利用计算机辅助对医学图像进行病灶检测已愈加普遍。利用计算机智能辅助诊断系统能够在保证一定的准确率前提下,极大的提高对病灶的诊断速度,缓解医生的诊断压力,提高对疾病的检测效率。目前绝大多数智能辅助诊断系统的算法设计都是基于深度学习,深度学习利用其强大的非线性拟合能力,能够抽象出图像高级的语义特征,从而实现特定的任务。
深度学习模型需要利用大量有标签的数据来训练,否则很容易出现过拟合的情况,即能够在训练数据上取得较好的测试结果,但是如果换一个数据库进行测试,往往测试的结果会大幅度下降甚至没有判别能力。然而相较于自然场景的图像,医学图像的数据更加难以获得、图像数量少,并且对医学图像进行标注则需要花费大量的时间和精力,因此带有标签的医学图像更是少之又少,利用这些少量的医学图像训练出来的深度学习模型极大程度上对训练数据过拟合,泛化性能差,没有实际的效用;因此,利用数量有限的带标签的医学图像数据,训练出一个泛化性能良好的深度学习模型具有重要的现实意义。目前主流的基于深度学习的医学图像病灶检测方法都没有考虑到跨数据库的测试性能,泛化性能较差。
发明内容
本发明的目的在于针对医学图像中有标签的数据少、难获得,且不同数据库样本分布差异大,跨数据库检测时泛化性能差等实际问题,提供能够充分利用有限的标签数据,得到一个鲁棒的模型,在跨数据库检测时也能保持良好测试性能,提高跨数据库测试时的准确率和召回率的一种基于对抗学习和适应性分析的医学图像病灶跨域检测方法。
本发明包括以下步骤:
A、将对抗学习引入深度学习病灶检测框架中构建无监督域适应病灶检测模型;
B、局部适应性分析与特征选择;
C、全局适应性分析与图像选择。
第一步:将特征向量f送入全局域判别器Dg中,输出一个二值标签dg,该标签表示输入的医学图像所属的域类别的概率,用于域适应的对抗训练,以生成域不变的全局特征向量。
第二步:与局部适应性分析相同,对于相似的图像,易于迁移,适应性好,应当提升权重;对于不相似的图像,不易迁移,适应性差,要抑制其权重。利用信息熵公式得到d1对应的该医学图像的适应性。
第三步:根据所得到的适应性,对该图像进行动态加权。在深度学习框架中,对图像加权的本质上是对损失函数进行加权。目标检测中有两类损失函数,回归框损失函数和类别损失函数,这里仅对类别损失函数进行加权。对于目标域没有标签的数据,参考文献(Grandvalet Y,Bengio Y.Semi-supervised Learning by Entropy Minimization[C]//Advances in Neural Information Processing Systems 17[Neural InformationProcessing Systems,NIPS 2004,December 13-18,2004,Vancouver,British Columbia,Canada].MIT Press,2004)的方法,使用最小化熵来代替类别损失函数。
在步骤A中,所述将对抗学习引入深度学习病灶检测框架中构建无监督域适应病灶检测模型的具体步骤为:
(1):将基线模型分为两部分,特征生成器G和目标生成器F;检测任务的流程可看作:将医学图像送入特征生成器G中,生成特征向量f,再将特征向量f送入目标生成器F中,输出一系列预测的目标框以及每个框对应的类别和置信程度;
(2):额外引入一个域判别器网络D,该网络的输入为步骤(1)中生成的特征向量f,输出一个二值标签,该标签表示输入的医学图像所属的域类别的概率,即源域和目标域的概率;
(3):结合步骤(1)和(2),得检测的损失函数为LDet(G,F),域分类器的对抗损失函数为Ladv(G,D);模型的目标函数为:
Figure BDA0002890199990000021
进一步,可以写为:
Figure BDA0002890199990000022
其中,λ用于权衡检测损失和域分类对抗损失的比例。
在步骤B中,所述局部适应性分析与特征选择的具体步骤可为:
(1)将医学图像送入特征生成器G1生成特征向量f1,引入一个局部域判别器D1来判别特征向量f1上每一个点的域类别;具体是将特征向量f1送入局部域判别器D1,输入一个与特征向量f1相同大小的特征矩阵d1,该矩阵上每一点的值表示该点对应区域属于目标域的概率,每点值的范围在[0,1],若该点值小于0.5,则表示在源域,否则在目标域;
(2)基于局部域分类器D1给出的每个区域的值,得到每个区域的适应性程度;对于相似的区域,局部域分类器给出的结果在0.5左右,表示不能很确定是属于源域还是目标域,这类区域是适应性好的,易迁移的,需要提升这部些区域的权重;反之,对于不相似的区域,局部域分类器给出的结果接近0或1,表示较为确定这些区域是属于源域还是目标域,这类区域是适应性差的,不易迁移的,需要抑制这部些区域的权重;利用信息熵计算方式如下:
Figure BDA0002890199990000031
其中,pi表示域分类器的分类结果。
对于较为确定的信息,信息熵H(U)值较小;对于不太确定的信息,信息熵值H(U)较大;与想要的加权方式相符;因此,对于特征矩阵d1上的每个点,都利用信息熵的公式计算其适应性,最后会得到与特征向量f1相同大小的加权矩阵W1,再将特征向量f1与加权矩阵W1相乘,得到加权后的特征向量,输入到之后的特征生成器Gg
在步骤C中,所述全局适应性分析与图像选择的具体步骤可为:
(1)将特征向量f送入全局域判别器Dg中,输出一个二值标签dg,该标签表示输入的医学图像所属的域类别的概率,用于域适应的对抗训练,以生成域不变的全局特征向量;
(2)与局部适应性分析相同,对于相似的图像,易于迁移,适应性好,应当提升权重;对于不相似的图像,不易迁移,适应性差,要抑制其权重;利用信息熵公式得到d1对应的该医学图像的适应性;
(3)根据所得到的适应性,对该图像进行动态加权;目标检测中对类别损失函数进行加权;对于目标域没有标签的数据,使用最小化熵来代替类别损失函数。
与现有技术相比,本发明具有以下优点:
1)提出在医学图像病灶检测中引入基于对抗学习的域适应方法,来提高病灶检测模型的鲁棒性,达到在不同的医学图像库中都能有较好的病灶检测性能。使用目标检测算法Faseter-RCNN作为基线模型,并将基于对抗学习的无监督域适应方法引入到基线模型中,使得模型能够提取出域不变的特征,用于后续的检测任务。
2)提出基于域分类结果的适应性评估方法,并根据局部区域和全局图像的适应性,动态地调整区域、图像的权重比例。
3)本发明可以有效利用已有的带标签数据,提高跨域检测的性能。
4)本发明能有效提高模型的泛化能力和跨域病灶检测的性能。
3)本发明能改善利用深度学习模型进行医学图像病灶检测时的泛化性能,提高跨数据库测试时的准确率和召回率,满足实际应用的需求。
附图说明
图1为跨域病灶检测的整体网络框架。
图2为全局(图像)适应性分析的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下实施例将结合附图对本发明作进一步地详细描述。
本发明实施例包括以下步骤:
A、将对抗学习引入深度学习病灶检测框架中构建无监督域适应病灶检测模型;
B、局部适应性分析与特征选择;
C、全局适应性分析与图像选择。
步骤A的具体步骤为下:
实际应用中,会获得一定数量的有标签医学图像以及有不同数据分布的无标签的医学图像,这里称有标签的数据域为源域,无标签的数据域为目标域。因此,在源域数据上训练出来的模型能够在目标域数据上有着良好的检测性能。
本发明提出在医学图像病灶检测中引入基于对抗学习的域适应方法,来提高病灶检测模型的鲁棒性,达到在不同的医学图像库中都能有较好的病灶检测性能。不失一般性,使用最为流行的目标检测算法Faseter-RCNN(Ren S,He K,Girshick R,et al.Faster R-CNN:Towards Real-Time 0bject Detection with Region Proposal Networks[J].IEEETransactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149)作为基线模型,并将基于对抗学习的无监督域适应方法(Ganin,Yaroslav,Lempitsky,Victor.Unsupervised Domain Adaptation by Backpropagation[J])引入到基线模型中,使得模型能够提取出域不变的特征,用于后续的检测任务。该方法的具体步骤如下:
第一步:将基线模型分为两部分,特征生成器G和目标生成器F。因此检测任务的流程可以看作:将医学图像送入特征生成器G中,生成特征向量f,再将特征向量f送入目标生成器F中,输出一系列预测的目标框以及每个框对应的类别和置信程度。
第二步:额外引入一个域判别器网络D,该网络的输入为第一步中生成的特征向量f,输出一个二值标签,该标签表示输入的医学图像所属的域类别的概率,即源域和目标域的概率。
第三步:结合第一步和第二步,可以写出检测的损失函数为LDet(G,F),域分类器的对抗损失函数为Ladv(G,D)。对于检测任务而言,特征生成器G和目标生成器F都是要让预测标签和真实标签靠近,检测损失函数LDet(G,F)减小;对于域分类任务而言,域判别器网络D要能够准确的判断特征向量f所属的域类别,因此要使域分类对抗损失Ladv(G,D)减小,同时,特征生成器G能够生成域不变的特征,即对于源域和目标域,模型都能生成相同分布的特征向量f,这样目标生成器F才能有域不变的生成结果,有良好的鲁棒性,因此,特征生成器G要使域分类对抗损失Ladv(G,D)增大。综上,模型的目标函数为:
Figure BDA0002890199990000051
进一步,可以写为:
Figure BDA0002890199990000052
其中λ用于权衡检测损失和域分类对抗损失的比例。
步骤B的具体步骤为下:
整体特征对齐并不能保证合理的局部特征对齐。这在医学图像中更为严格,因为病变通常只占整个图像的一小部分,因此将特征生成器G再分为两部分,G1和Gg。医学图像通过特征生成器G1生成特征向量f1,f1再通过特征生成器Gg生成特征向量f。对于特征向量f1,其中每个点的值都对应原始图像的一个局部区域,对每一个值都进行域分类对抗训练,让局部特征对齐。此外,并非所有的局部区域都适合进行对齐,如果强行将不易对齐的区域进行对齐,则往往会有负迁移的情况发生,导致性能反而下降,因此对每个局部区域进行适应性分析,提升那些易迁移的、适应性好的区域的权重,抑制不易迁移的、适应性差的区域。该方法的具体步骤如下:
第一步:将医学图像送入特征生成器G1生成特征向量f1,此时引入一个局部域判别器D1来判别特征向量f1上每一个点的域类别。具体而言是将特征向量f1送入局部域判别器D1,输入一个与特征向量f1相同大小的特征矩阵d1,该矩阵上每一点的值表示该点对应区域属于目标域的概率,每点值的范围在[0,1],若该点值小于0.5则表示在源域,否则在目标域。
第二步:基于局部域分类器D1给出的每个区域的值,可以得到每个区域的适应性程度。对于那些相似的区域,局部域分类器给出的结果应该在0.5左右,表示不能很确定是属于源域还是目标域,对于这类区域,是适应性好的,易迁移的,因此需要提升这部些区域的权重;反之对于那些不相似的区域,局部域分类器给出的结果应该是接近0或1,表示较为确定这些区域是属于源域还是目标域,这类区域是适应性差的,不易迁移的,因此需要抑制这部些区域的权重。这里参考信息熵的计算方式,即:
Figure BDA0002890199990000061
其中,pi表示域分类器的分类结果。
对于较为确定的信息,信息熵H(U)值较小;对于不太确定的信息,信息熵值H(U)较大;与想要的加权方式相符。因此,对于特征矩阵d1上的每个点,都利用信息熵的公式计算其适应性,最后会得到与特征向量f1相同大小的加权矩阵W1,再将特征向量f1与加权矩阵W1相乘,得到加权后的特征向量,输入到之后的特征生成器Gg
步骤C的具体步骤为下:
对于全局的特征向量f,与局部特征向量的域适应方式和适应性分析相似。
第一步:将特征向量f送入全局域判别器Dg中,输出一个二值标签dg,该标签表示输入的医学图像所属的域类别的概率,用于域适应的对抗训练,以生成域不变的全局特征向量。
第二步:与局部适应性分析相同,对于相似的图像,易于迁移,适应性好,应当提升权重;对于不相似的图像,不易迁移,适应性差,要抑制其权重。利用信息熵公式得到d1对应的该医学图像的适应性。
第三步:根据所得到的适应性,对该图像进行动态加权。在深度学习框架中,对图像加权的本质上是对损失函数进行加权。目标检测中有两类损失函数,回归框损失函数和类别损失函数,这里仅对类别损失函数进行加权。对于目标域没有标签的数据,参考文献(Grandvalet Y,Bengio Y.Semi-supervised Learning by Entropy Minimization[C]//Advances in Neural Information Processing Systems 17[Neural InformationProcessing Systems,NIPS 2004,December 13-18,2004,Vancouver,British Columbia,Canada].MIT Press,2004)的方法,使用最小化熵来代替类别损失函数。
本发明能够容易地移植到大部分的医学图像病灶检测框架中,提高跨域病灶检测的性能。
图1为本发明提出的基于对抗学习和适应性分析的医学图像病灶跨域检测方法的总体框架。具体步骤为:
1、将源域或目标域图像送入网络中;
2、图像通过特征生成器G1生成特征向量f1
3、将特征向量f1送入局部域判别器D1,输入一个与特征向量f1相同大小的特征矩阵d1,该矩阵上每一点的值表示该点对应区域属于目标域的概率,每点值的范围在[0,1],若该点值小于0.5,则表示在源域,否则表示在目标域;
4、假设特征矩阵d1的大小为H×W,矩阵中每个点的值表示为
Figure BDA0002890199990000071
对应的标签为
Figure BDA0002890199990000072
则局部域分类器的对抗损失函数为:
Figure BDA0002890199990000073
5、对特征矩阵d1中每个点
Figure BDA0002890199990000074
利用信息熵公式计算适应性权重
Figure BDA0002890199990000075
得到权重矩阵W1,与特征向量f1相乘得到加权后的特征向量r1
6、将特征向量r1通过特征生成器Gg得到全局的特征向量f;
7、将全局特征向量f送入全局域判别器Dg中,输出一个域预测二值标签dg,其对应的标签为yg,这里引入聚焦损失函数[4]来计算域分类损失。首先定义准确率Pt
Figure BDA0002890199990000076
则损失函数为:
Lg(Gl,Gg,Dg)=-(1-Pt)γlog Pt
8、对于域预测二值标签dg,利用信息熵计算适应性权重wg
9、全局的特征向量f经过RPN模块与目标生成器F得到最终预测的坐标和类别概率。对于源域有标签图像,则可以计算其回归损失Lreg(Gl,Gg,F)和分类损失Lc(Gl,Gg,F)。再将适应性权重wg与分类损失Lc(Gl,Gg,F)相乘,得到最终的加权分类损失Lcls(Gl,Gg,F),即:
Lcls(Gl,Gg,F)=wg×Lc(Gl,Gg,F)
10、对于没有标签的目标域图像,使用最小化熵来代替类别损失函数,再乘上适应性权重wg得到最终的损失函数。记网络输出的类别概率为Pc,则最小化熵损失函数为:
Lem(Gl,Gg,F)=-wg×Pclog Pc
11、最终的目标函数Ltotal为:
Ltotal=Lcls+Lreg1Lem2(Ll+Lg)
其中,λ1和λ2为权衡检测损失和最小化熵损失、域分类对抗损失的权重。
完整框架以及具体流程如上,本发明步骤A、B、C并不局限于Faseter-RCNN基线模型,可以用于任何的医学图像病灶检测模型中,且不需对原模型进行修改,易于移植,并提高病灶检测模型的鲁棒性,具有相当的实用价值。
图2给出全局适应性的分析。左边4张和右边4张医学图像分别来自源域和目标域,方框和三角为其在特征空间中的分布,黑色曲线为域分类判别器的分类边界,曲线的附近的样本为域分类判别器较难区分的样本,这些样本在特征空间中较为相似,易于迁移、适应性好,应当加权;而远离曲线的样本为域分类判别器容易区分的样本,这些样本差异大,不易迁移、适应性差,若强行对齐这些样本容易导致负迁移的情况,因此对这类样本需要减权。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。

Claims (2)

1.基于对抗学习和适应性分析的医学图像病灶跨域检测方法,其特征在于包括以下步骤:
A、将对抗学习引入深度学习病灶检测框架中构建无监督域适应病灶检测模型,具体步骤为:
(1):将基线模型分为两部分,特征生成器G和目标生成器F;检测任务的流程看作:将医学图像送入特征生成器G中,生成特征向量f,再将特征向量f送入目标生成器F中,输出一系列预测的目标框以及每个框对应的类别和置信程度;
(2):额外引入一个域判别器网络D,该网络的输入为步骤(1)中生成的特征向量f,输出一个二值标签,该标签表示输入的医学图像所属的域类别的概率,即源域和目标域的概率;
(3):结合步骤(1)和(2),得检测的损失函数为LDet(G,F),域分类器的对抗损失函数为Ladv(G,D);模型的目标函数为:
Figure FDA0003601877040000011
进一步,写为:
Figure FDA0003601877040000012
其中,λ用于权衡检测损失和域分类对抗损失的比例;
B、局部适应性分析与特征选择,具体步骤为:
(1)将医学图像送入特征生成器Gl生成特征向量fl,引入一个局部域判别器Dl来判别特征向量fl上每一个点的域类别;具体是将特征向量fl送入局部域判别器Dl,输入一个与特征向量fl相同大小的特征矩阵dl,该矩阵上每一点的值表示该点对应区域属于目标域的概率,每点值的范围在[0,1],若该点值小于0.5,则表示在源域,否则在目标域;
(2)基于局部域判别器Dl给出的每个区域的值,得到每个区域的适应性程度;对于相似的区域,局部域分类器给出的结果在0.5左右,表示不能很确定是属于源域还是目标域,这类区域是适应性好的,易迁移的,需要提升这部些区域的权重;反之,对于不相似的区域,局部域分类器给出的结果接近0或1,表示较为确定这些区域是属于源域还是目标域,这类区域是适应性差的,不易迁移的,需要抑制这部些区域的权重;利用信息熵计算方式如下:
Figure FDA0003601877040000021
其中,pi表示域分类器的分类结果;
对于较为确定的信息,信息熵H(U)值较小;对于不太确定的信息,信息熵值H(U)较大;与想要的加权方式相符;因此,对于特征矩阵dl上的每个点,都利用信息熵的公式计算其适应性,最后会得到与特征向量fl相同大小的加权矩阵Wl,再将特征向量fl与加权矩阵Wl相乘,得到加权后的特征向量,输入到之后的特征生成器Gg
C、全局适应性分析与图像选择。
2.如权利要求1所述基于对抗学习和适应性分析的医学图像病灶跨域检测方法,其特征在于在步骤C中,所述全局适应性分析与图像选择的具体步骤为:
(1)将特征向量f送入全局域判别器Dg中,输出一个二值标签dg,该标签表示输入的医学图像所属的域类别的概率,用于域适应的对抗训练,以生成域不变的全局特征向量;
(2)与局部适应性分析相同,对于相似的图像,易于迁移,适应性好,应当提升权重;对于不相似的图像,不易迁移,适应性差,要抑制其权重;利用信息熵公式得到dl对应的该医学图像的适应性;
(3)根据所得到的适应性,对该图像进行动态加权;目标检测中对类别损失函数进行加权;对于目标域没有标签的数据,使用最小化熵来代替类别损失函数。
CN202110025559.XA 2021-01-08 2021-01-08 基于对抗学习和适应性分析的医学图像病灶跨域检测方法 Active CN112767328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110025559.XA CN112767328B (zh) 2021-01-08 2021-01-08 基于对抗学习和适应性分析的医学图像病灶跨域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110025559.XA CN112767328B (zh) 2021-01-08 2021-01-08 基于对抗学习和适应性分析的医学图像病灶跨域检测方法

Publications (2)

Publication Number Publication Date
CN112767328A CN112767328A (zh) 2021-05-07
CN112767328B true CN112767328B (zh) 2022-06-14

Family

ID=75701107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110025559.XA Active CN112767328B (zh) 2021-01-08 2021-01-08 基于对抗学习和适应性分析的医学图像病灶跨域检测方法

Country Status (1)

Country Link
CN (1) CN112767328B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221916B (zh) * 2021-05-08 2023-07-07 哈尔滨工业大学(深圳) 一种基于跨域快速迁移的视觉拣选方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062753A (zh) * 2017-12-29 2018-05-22 重庆理工大学 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN110097559A (zh) * 2019-04-29 2019-08-06 南京星程智能科技有限公司 基于深度学习的眼底图像病灶区域标注方法
CN110837850A (zh) * 2019-10-23 2020-02-25 浙江大学 一种基于对抗学习损失函数的无监督域适应方法
CN111046900A (zh) * 2019-10-25 2020-04-21 重庆邮电大学 基于局部流形正则化的半监督生成对抗网络图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062753A (zh) * 2017-12-29 2018-05-22 重庆理工大学 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN109829391A (zh) * 2019-01-10 2019-05-31 哈尔滨工业大学 基于级联卷积网络和对抗学习的显著性目标检测方法
CN110097559A (zh) * 2019-04-29 2019-08-06 南京星程智能科技有限公司 基于深度学习的眼底图像病灶区域标注方法
CN110837850A (zh) * 2019-10-23 2020-02-25 浙江大学 一种基于对抗学习损失函数的无监督域适应方法
CN111046900A (zh) * 2019-10-25 2020-04-21 重庆邮电大学 基于局部流形正则化的半监督生成对抗网络图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
chaoqi chen et al..Harmonizing Transferability and Discriminability for Adapting Object Detectors.《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》.2020, *
liyan sun et al..An Adversarial Learning Approach to Medical Image Synthesis for Lesion Detection.《IEEE Journal of Biomedical and Health Informatics》.2020, *
王勇超 等.基于对抗学习和全局知识信息的关系检测技术研究.《计算机应用研究》.2020, *

Also Published As

Publication number Publication date
CN112767328A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN111476294B (zh) 一种基于生成对抗网络的零样本图像识别方法及系统
Li et al. Semi-supervised region metric learning for person re-identification
Tomašev et al. Hubness-based fuzzy measures for high-dimensional k-nearest neighbor classification
Wu et al. Hierarchical attention for part-aware face detection
CN113177549B (zh) 一种基于动态原型特征融合的少样本目标检测方法及系统
Zhao et al. Uncertainty-optimized deep learning model for small-scale person re-identification
Zhao et al. An image thresholding approach based on Gaussian mixture model
Wang et al. A general transfer learning-based Gaussian mixture model for clustering
Zhu et al. Progressface: Scale-aware progressive learning for face detection
CN112767328B (zh) 基于对抗学习和适应性分析的医学图像病灶跨域检测方法
Deng et al. A noisy label and negative sample robust loss function for DNN-based distant supervised relation extraction
Jin et al. ROBY: Evaluating the adversarial robustness of a deep model by its decision boundaries
Wei et al. An automated detection model of threat objects for X-ray baggage inspection based on depthwise separable convolution
Li et al. MM-FSOD: Meta and metric integrated few-shot object detection
He et al. A cross-modality feature transfer method for target detection in SAR images
Yang et al. HeadPose-Softmax: Head pose adaptive curriculum learning loss for deep face recognition
Li et al. Feature reconstruction and metric based network for few-shot object detection
Yang et al. A feature learning approach for face recognition with robustness to noisy label based on top-N prediction
Wang et al. Enhancing representation learning by exploiting effective receptive fields for object detection
CN113011513A (zh) 一种基于通用域自适应的图像大数据分类方法
CN116582309A (zh) 一种基于GAN-CNN-BiLSTM的网络入侵检测方法
Zhang et al. VESC: a new variational autoencoder based model for anomaly detection
Guan et al. Dual-level contrastive learning network for generalized zero-shot learning
Fang et al. Multi-layer adversarial domain adaptation with feature joint distribution constraint
Shan et al. Prediction of common labels for universal domain adaptation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant