CN111738315B - 基于对抗融合多源迁移学习的图像分类方法 - Google Patents
基于对抗融合多源迁移学习的图像分类方法 Download PDFInfo
- Publication number
- CN111738315B CN111738315B CN202010521228.0A CN202010521228A CN111738315B CN 111738315 B CN111738315 B CN 111738315B CN 202010521228 A CN202010521228 A CN 202010521228A CN 111738315 B CN111738315 B CN 111738315B
- Authority
- CN
- China
- Prior art keywords
- domain
- sample
- network
- classifier
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013526 transfer learning Methods 0.000 title claims abstract description 11
- 230000004927 fusion Effects 0.000 title claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000003042 antagnostic effect Effects 0.000 claims 1
- 239000002131 composite material Substances 0.000 claims 1
- 238000002474 experimental method Methods 0.000 description 19
- 230000006978 adaptation Effects 0.000 description 6
- 238000013508 migration Methods 0.000 description 6
- 230000005012 migration Effects 0.000 description 6
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000512668 Eunectes Species 0.000 description 1
- 101100059652 Mus musculus Cetn1 gene Proteins 0.000 description 1
- 101100059655 Mus musculus Cetn2 gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于对抗融合多源迁移学习的图像分类方法,主要解决现有技术图像分类准确率低的问题。其实现方案是:1)建立特征提取网络,从原始图像文件中提取图像特征;2)将图像特征输入特定的域判别器及分类器,计算得到域判别损失及目标域数据的伪标记、源域数据的分类损失;3)利用目标域样本伪标记与源域样本标记,计算得到源域与目标域中所有类别的MMD距离之和;4)利用域判别损失、分类损失及MMD距离之和对特征提取网络、域判别器及分类器进行训练;5)将待测样本依次输入到训练后的特征提取网络、域判别器及分类器,输出待测样本的类别标记。本发明能有效提高各类图像的分类准确率,可用于训练数据标记缺失下的图像分类。
Description
技术领域
本发明属于图像识别领域,特别涉及一种图像分类方法,可用于训练数据标记缺失下的图像分类。
背景技术
迁移学习是把在一个领域中学习到的知识、经验“迁移”到另外一个不同但相关的领域,以提高模型的学习效率,而不用重新开始学。一般把待分类或待预测的领域称为“目标域”;把有大量标记数据的辅助域称为“源域”,二者是存在域差异的。利用迁移学习研究图像分类问题在国内外已取得了显著的成效。现有的迁移学习方法可分为基于样本、基于特征和基于模型的方法。
受到博弈论中二人零和博弈的启发,有学者提出生成式对抗网络GAN,其包含一对互相对抗的模块,分别是生成式模型和判别式模型,可简称为生成器和判别器。生成器可以生成数据,其原始输入是随机噪声数据,目的是尽可能逼近真实数据;判别器的目的是尽可能的区分出生成数据和真实数据。
受GAN中对抗思想的启发,有研究人员提出基于对抗思想进行迁移学习。在基于对抗思想的迁移学习方法中,生成器与GAN中生成样本这一目标不同,其不再真正生成数据,而是对原始数据进行特征提取,使得判别器无法对两个领域进行分辨,此时生成器可以称为特征提取器。基于对抗的迁移学习核心思想是训练两个神经网络:一个试图区分源域和目标域特征的判别网络,一个试图迷惑判别网络使其无法区分源域和目标域特征的特征提取网络,基于这样的领域对抗思想,特征提取器最终能够提取到判别器无法区分的域不变特征,即可迁移特征,因此基于这种可迁移特征训练的分类器可以直接用来分类目标域的数据。
多源迁移方法,是利用基分类器加权来进行多个源域的迁移,利用多个源域训练得到的多个分类器对目标域数据进行预测,结果加权得到目标域数据的最终标记。如A-SVM方法提出了一个自适应的支持向量机模型,其利用多个源域分类器集成得到一个目标域的支持向量机分类模型,但是该方法认为所有源域分类器对目标域的贡献相同,并未考虑到不同源域之间的差异。MultiSourceTrAdaBoost方法利用样本加权的方式来对多个源域进行迁移,该方法在每个源域和目标域组合上学习一个分类器,然后计算多个弱分类器的分类误差并进行权值更新。MultiSourceTrAdaBoost方法中源域样本的权值更新策略类似于TrAdaBoost算法,目标域样本的权值更新策略类似于AdaBoost算法,最终利用训练好的加权分类器对目标域样本预测。Sun等人提出两级多源迁移学习方法,分别基于边缘分布和条件分布进行加权,使得源域和目标域分布更相近。
随着深度神经网络和生成对抗网络的发展,基于深度网络的多源域适应方法近两年也得到了国内外学者们的关注,如多源域对抗网络MDAN,该方法使用对抗策略学习多个源域的具有域不变性和任务判别性的特征;Xu R等人提出把所有的源域和目标域数据映射到一个公共的特征空间,以学习可迁移的域不变特征。
上述方法虽能实现目标域数据标记缺失下的图像分类工作,但其由于使用同一网络对源域数据进行特征提取,导致源域数据丧失部分有效特征,影响最终分类效果。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于对抗融合多源迁移学习的图像分类方法,以提高训练数据标记缺失下的图像分类准确率。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)建立由域共享子网络F与域特定子网络Fj构成的特征提取网络;
(2)使用特征提取网络从原始图像文件中提取图像特征:
(3)将(2)中得到的最终特征输入到域判别器Dj中,得到输出Dj(Fj(F(xi;θF);θFj);θDj),利用该输出计算得到Dj的域判别损失LjD(θF,θFj,θDj),其中θDj表示Dj的网络参数;
(4)将(2)中得到的最终特征输入到分类器Cj中,得到不同的输出:
对于来自目标域的图像,所有的分类器都被激活,输出N个P维预测向量,取每个P维向量中最大元素对应的类别标记,即可得到N个伪标记,其中,P表示目标域数据的类别总数;
(7)将待测样本输入到训练后的特征提取网络、域判别器及分类器中,通过特征提取网络从待测样本中提取图像特征,并将该特征作为域判别器及分类器的输入进行域判别及分类,最终得到该待测样本的N个P维预测向量;
(8)计算每个P维预测向量的熵,并利用该熵值计算得到目标域样本的最终类别标记。
本发明与现有方法相比具有如下优点:
第一,本发明建立了由域共享子网络F及域特定子网络Fj构成的特征提取网络,通过域共享子网络提取各个域共有的数据特征,通过域特定子网络提取各个域特有的数据特征,使得提取到的最终特征保留了各个源域的特性。
第二,本发明通过最小化MMD距离使源域数据与目标域数据在整体分布对齐的基础上实现了条件分布对齐,提高了目标域数据的分类准确率。
第三,本发明通过熵值融合各个源域分类器的分类结果,提高了目标域数据的分类正确率。
附图说明
图1为本发明的实现流程图;
图2为本发明中训练及测试实验时使用的Office-31数据集部分示例图;
图3为本发明中训练及测试实验时使用的Office-Caltech10数据集部分示例图;
图4为本发明中训练及测试实验时使用的Office-Home数据集部分示例图。
具体实施方式
下面结合附图,对本发明的实施例和效果做进一步的详细描述。
参照图1,其中,S1...SN表示N个源域,T表示目标域,F及F1...FN分别表示域共享子网络及N个域特定子网络,D1...DN表示N个域判别器,C1...CN表示N个分类器,具体实现步骤如下:
步骤1,建立由域共享子网络F与域特定子网络Fj构成的特征提取网络。
域共享子网络F是由何恺明等人提出的残差神经网络ResNet50,该网络由卷积层后接4个残差块构成,旨在提取所有域共享的底层特征;
域特定子网络共有N个,每个子网络是由卷积层、批标准化层及relu激活函数构成的多层神经网络,该网络旨在提取与特定域相关的高层特征;
将域特定子网络Fj与域共享子网络F相连接,构成特征提取网络。
步骤2,使用特征提取网络从原始图像文件中提取图像特征。
所述原始图像文件,分别来自目标域及N个源域,其图像特征提取如下:
2.1)原始图像文件,首先经过域共享子网络F,提取得到图像初步特征,即:
2.2)将2.1)中得到的两类初步特征均输入到第j个源域特有的域特定子网络Fj中,得到原始图像的最终特征Fj(F(xq;θF);θFj),其中θFj表示Fj的网络参数,xq表示输入域特定子网络的第q个样本,
3.1)将步骤2中得到的最终特征输入到域判别器Dj中,得到输出Dj(Fj(F(xi;θF);θFj);θDj);
所述域判别器共有N个,每个域判别器均由全连接层构成,其中判别器Dj用于区分样本来自源域j还是目标域,设定源域数据的域标签为0,目标域数据的域标签为1,对于源域数据,输出Dj(Fj(F(xi;θF);θFj);θDj)为0,对于目标域数据,输出Dj(Fj(F(xi;θF);θFj);θDj)为1;
步骤4,利用最终特征获取源域样本分类损失及目标域样本的伪标记。
4.1)将步骤2中得到的最终特征输入到分类器Cj中,得到不同的输出:
所述分类器共有N个,每个分类器均由全连接层后接softmax函数构成;
对于来自目标域的图像,所有的分类器都被激活,输出N个P维预测向量,取每个P维向量中最大元素对应的类别标记,即可得到N个伪标记;
步骤5,利用目标域样本的伪标记与源域j中的样本标记,计算源域j与目标域中所有类别的MMD距离之和。
5.1)计算源域j与目标域中同类别数据的最大均值差异MMD距离:
其中,为源域j中标记为k的样本数据与目标域中伪标记为k的样本数据的最大均值差异,是源域j中类别为k的第i个样本,为该源域j中类别为k的样本数目,为目标域中类别为k的第m个样本,为目标域中类别伪标记为k的样本数目;
其中,P表示类别总数。
步骤6,对特征提取网络、域判别器及分类器进行训练。
6.1)将域判别损失反传到特征提取网络及域判别器中,通过最大化更新特征提取网络中的域共享子网络参数θF和域特定子网络参数θFj,同时通过最小化更新域判别器Dj的网络参数θDj,使得特征提取网络与域判别器产生对抗,此时特征提取网络能够提取到具有域不变特性的样本数据特征;
步骤7,通过训练后的网络获得待测样本的N个P维预测向量。
7.1)将待测样本输入到训练后的特征提取网络、域判别器及分类器中,通过特征提取网络从待测样本中提取出图像特征;
7.2)将7.1)中所得图像特征作为域判别器及分类器的输入进行域判别及分类,最终得到该待测样本的N个P维预测向量。
步骤8,通过待测样本的N个P维预测向量获得待测样本的最终类别标记。
8.1)计算每个P维预测向量的熵,公式如下:
8.2)利用熵值计算得到待测样本的最终预测向量如下:
其中,表示测试样本的最终预测向量,θF *为更新后的域共享子网络参数,θFj *为更新后的域特定子网络参数,θCj *为更新后分类器的网络参数,ωj为测试样本经过分类器Cj所得预测结果的权重,ωj的计算方式为:
本发明的效果可通过以下实验做进一步说明。
一.实验条件
实验环境:本实验在集成Python环境的Anaconda下基于Pytorch搭建,算法逻辑与神经网络利用Python实现。
参数设置:初始域共享子网络F参数θF为ResNet50中的参数值,域特定子网络Fj的网络参数θFj,域判别器Dj的网络参数θDj,分类器Cj的网络参数θCj通过随机初始化得到。
实验数据选取及设置:本实验在Office-31、Office-Caltech10和Office-Home三个不同规模的公开数据集上评估本发明方法的分类性能。
所述Office-31是物体识别数据集,包括3个子集,分别为Amazon、Webcam和Dslr,这三个子集分布存在差异,其区别在于,Amazon数据集中的图像是直接从因特网中下载的,分辨率中等;Webcam是使用网络摄像头采集的图像,是低分辨率的;Dslr则是在实际环境中用数字相机采集的高分辨率图像,存在有噪声。这三个子集均包括31类图像,其中,Amazon数据集包括2817幅图像,Webcam数据集包括795幅图像,Dslr数据集包括498幅图像。该数据集部分示例如图2所示,其中前两列是Amazon数据集中的部分图像示例,中间两列是Dslr数据集中的部分示例,最后两列是Webcam中的部分图像。
所述Office-Caltech10数据集是由Office-31数据集和Caltech-256数据集中10个公共类别图像组成的数据集,包括四个子集,分别是Amazon、Webcam、Dslr和Caltech,可分别缩写为Ama、Web、Dsl、Cal,其中,Ama包含958幅图像,Web包含295幅图像,Dsl包含157幅图像,Cal包含1123幅图像。Office-Caltech10数据集中的部分图像如图3所示,图3中每一行代表不同的子集,从上往下依次是Ama,Calt,Dsl和Web。
所述Office-Home数据集包含4个不同子集,分别是Artistic images,Clip Art,Product images和Real-World images,可分别缩写为Art,Cli,Pro,Rea。每个子集均包含65个类别的图像,其中Art包含2427幅图像,Cli包含4365幅图像,Pro包含4439幅图像,Rea包含4357幅图像。Office-Home数据集中的部分图像示例如图4所示,图4中每一行代表不同的子集,从上往下依次是Art子集,Cli子集,Pro子集和Rea子集。
实验开始前首先进行简单的数据预处理,原始数据集里的图像数据大小不一,本实验中将所有图像的尺寸标准化为256*256,然后随机剪裁为224*224的图像块,特征提取网络的输入为224*224*3。
实验方法设置:实验中将本发明方法与已有方法进行比较,体现本发明方法的分类性能,已有方法包括以下6种:
1.深度域混淆方法DDC,
2.深度域适应方法DAN,
3.对抗域适应方法RevGrad,
4.多特征空间适应方法MFSAN,
5.矩匹配多源域适应方法M3SDA,
6.深度混合域适应方法DCTN。
二.实验内容
实验1:在Office-31数据集上采用本发明和现有的DDC、DAN、RevGrad、DCTN、MFSAN方法分别进行三个迁移任务上的图像分类实验,结果如表1所示:
表1在Office-31数据集上的实验结果
表1中Amazon、Dslr→Webcam表示以Amazon、Dslr为源域,以Webcam为目标域进行实验,Average表示各分类方法在三个任务上的平均分类准确率。
实验2:在Office-Caltech10数据集上采用本发明方法和现有的DDC、DAN、DCTN、M3SDA方法分别进行四个迁移任务上的图像分类实验,结果如表2所示:
表2在Office-Caltech 10数据集上的实验结果
表2中Ama、Web、Dsl→Cal表示以Ama、Web、Dsl为源域,以Cal为目标域进行实验,Average表示各分类方法在四个任务上的平均分类准确率。
实验3:在Office-Home数据集上采用本发明和现有DDC、DAN、RevGrad、M3SDA方法分别在四个迁移任务上进行图像分类实验,结果如表3所示:
表3在Office-Home数据集上的实验结果
表3中Art、Cli、Pro→Rea表示以Art、Cli、Pro为源域,以Rea为目标域进行实验,Average表示各分类方法在四个任务上的平均分类准确率。
上述实验1,实验2,实验3的结果表明,本发明方法在Office-31、Office-Caltech10和Office-Home这三个数据集中各个迁移任务上的分类准确率均优于现有方法。验证了本发明方法在进行图像分类时由于考虑到各个域特有的数据特征、源域数据和目标域数据的条件分布及利用熵值融合各个源域分类器的分类结果,因而有助于提高目标域数据的分类准确率。
Claims (10)
1.一种基于对抗融合多源迁移学习的图像分类方法,其特征在于,包括如下:
(1)建立由域共享子网络F与域特定子网络Fj构成的特征提取网络;
(2)使用特征提取网络从原始图像文件中提取图像特征:
(4)将(2)中得到的最终特征输入到分类器Cj中,得到不同的输出:
对于来自目标域的图像,所有的分类器都被激活,输出N个P维预测向量,取每个P维向量中最大元素对应的类别标记,即可得到N个伪标记,其中,P表示目标域数据的类别总数;
(7)将待测样本输入到训练后的特征提取网络、域判别器及分类器中,通过特征提取网络从待测样本中提取图像特征,并将该特征作为域判别器及分类器的输入进行域判别及分类,最终得到该待测样本的N个P维预测向量;
(8)计算每个P维预测向量的熵,并利用该熵值计算得到目标域样本的最终类别标记。
2.根据权利要求1所述的方法,其特征在于:(1)中的域共享子网络F是由卷积层后接4个残差块构成的残差神经网络。
3.根据权利要求1所述的方法,其特征在于:(1)中的域特定子网络共有N个,每个子网络是由卷积层、批标准化层及relu激活函数构成的多层神经网络。
4.根据权利要求1所述的方法,其特征在于:(3)中域判别器共有N个,每个域判别器均由全连接层构成。
6.根据权利要求1所述的方法,其特征在于:(4)中分类器共有N个,每个分类器均由全连接层后接softmax函数构成,其输出为P维预测向量。
10.根据权利要求1所述的方法,其特征在于:(8)中通过计算各个P维预测向量的熵,并利用该熵值计算得到待测样本的最终类别标记,实现如下:
8a)P维预测向量的熵计算如下:
8b)利用熵值计算得到待测样本的最终预测向量如下:
其中,表示测试样本的最终预测向量,θF *为更新后的域共享子网络参数,θFj *为更新后的域特定子网络参数,θCj *为更新后分类器的网络参数,ωj为测试样本经过分类器Cj所得预测结果的权重,ωj的计算公式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010521228.0A CN111738315B (zh) | 2020-06-10 | 2020-06-10 | 基于对抗融合多源迁移学习的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010521228.0A CN111738315B (zh) | 2020-06-10 | 2020-06-10 | 基于对抗融合多源迁移学习的图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738315A CN111738315A (zh) | 2020-10-02 |
CN111738315B true CN111738315B (zh) | 2022-08-12 |
Family
ID=72648514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010521228.0A Active CN111738315B (zh) | 2020-06-10 | 2020-06-10 | 基于对抗融合多源迁移学习的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111738315B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330625B (zh) * | 2020-11-03 | 2023-03-24 | 杭州迪英加科技有限公司 | 免疫组化核染色切片细胞定位多域共适应训练方法 |
CN112836795B (zh) * | 2021-01-27 | 2023-08-18 | 西安理工大学 | 一种多源非均衡域自适应方法 |
CN113011487B (zh) * | 2021-03-16 | 2022-11-18 | 华南理工大学 | 一种基于联合学习与知识迁移的开放集图像分类方法 |
CN113011513B (zh) * | 2021-03-29 | 2023-03-24 | 华南理工大学 | 一种基于通用域自适应的图像大数据分类方法 |
CN113157678B (zh) * | 2021-04-19 | 2022-03-15 | 中国人民解放军91977部队 | 一种多源异构数据关联方法 |
CN113076927B (zh) * | 2021-04-25 | 2023-02-14 | 华南理工大学 | 基于多源域迁移的指静脉识别方法及系统 |
CN113361566B (zh) * | 2021-05-17 | 2022-11-15 | 长春工业大学 | 用对抗性学习和判别性学习来迁移生成式对抗网络的方法 |
CN113378904B (zh) * | 2021-06-01 | 2022-06-14 | 电子科技大学 | 一种基于对抗域自适应网络的图像分类方法 |
CN113591366B (zh) * | 2021-06-23 | 2024-07-16 | 清华大学 | 一种通勤数据生成方法及系统 |
CN113378981B (zh) * | 2021-07-02 | 2022-05-13 | 湖南大学 | 基于域适应的噪音场景图像分类方法及系统 |
CN113591736A (zh) * | 2021-08-03 | 2021-11-02 | 北京百度网讯科技有限公司 | 特征提取网络、活体检测模型的训练方法和活体检测方法 |
CN113538413B (zh) * | 2021-08-12 | 2023-11-24 | 泰康保险集团股份有限公司 | 图像检测方法及装置、电子设备和存储介质 |
CN113873024B (zh) * | 2021-09-23 | 2022-09-23 | 中国科学院上海微系统与信息技术研究所 | 一种边缘雾网络中数据差分化下载方法 |
CN114020879B (zh) * | 2022-01-04 | 2022-04-01 | 深圳佑驾创新科技有限公司 | 多源跨领域的文本情感分类网络的训练方法 |
CN114511737B (zh) * | 2022-01-24 | 2022-09-09 | 北京建筑大学 | 图像识别域泛化模型的训练方法 |
CN114783072B (zh) * | 2022-03-17 | 2022-12-30 | 哈尔滨工业大学(威海) | 一种基于远域迁移学习的图像识别方法 |
CN114694150B (zh) * | 2022-05-31 | 2022-10-21 | 成都考拉悠然科技有限公司 | 一种提升数字图像分类模型泛化能力的方法及系统 |
CN115578248B (zh) * | 2022-11-28 | 2023-03-21 | 南京理工大学 | 一种基于风格引导的泛化增强图像分类算法 |
CN116758353B (zh) * | 2023-06-20 | 2024-01-23 | 大连理工大学 | 基于域特定信息滤除的遥感图像目标分类方法 |
CN117152563B (zh) * | 2023-10-16 | 2024-05-14 | 华南师范大学 | 混合目标域自适应模型的训练方法、装置及计算机设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10832166B2 (en) * | 2016-12-20 | 2020-11-10 | Conduent Business Services, Llc | Method and system for text classification based on learning of transferable feature representations from a source domain |
CN109753992B (zh) * | 2018-12-10 | 2020-09-01 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
CN110135579A (zh) * | 2019-04-08 | 2019-08-16 | 上海交通大学 | 基于对抗学习的无监督领域适应方法、系统及介质 |
CN110837850B (zh) * | 2019-10-23 | 2022-06-21 | 浙江大学 | 一种基于对抗学习损失函数的无监督域适应方法 |
-
2020
- 2020-06-10 CN CN202010521228.0A patent/CN111738315B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111738315A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738315B (zh) | 基于对抗融合多源迁移学习的图像分类方法 | |
CN111368896B (zh) | 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法 | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
Hao et al. | An end-to-end architecture for class-incremental object detection with knowledge distillation | |
CN109583322B (zh) | 一种人脸识别深度网络训练方法和系统 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN110569886A (zh) | 一种双向通道注意力元学习的图像分类方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN109993201A (zh) | 一种图像处理方法、装置和可读存储介质 | |
CN108052959A (zh) | 一种提高深度学习图片识别算法鲁棒性的方法 | |
CN110598759A (zh) | 一种基于多模态融合的生成对抗网络的零样本分类方法 | |
CN110569780A (zh) | 一种基于深度迁移学习的高精度人脸识别方法 | |
CN114329031B (zh) | 一种基于图神经网络和深度哈希的细粒度鸟类图像检索方法 | |
CN112232395B (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN114387473A (zh) | 一种基于基类样本特征合成的小样本图像分类方法 | |
CN115690541A (zh) | 提高小样本、小目标识别准确率的深度学习训练方法 | |
CN110414626A (zh) | 一种猪只品种识别方法、装置和计算机可读存储介质 | |
CN107528824A (zh) | 一种基于二维度稀疏化的深度信念网络入侵检测方法 | |
Xue et al. | Region comparison network for interpretable few-shot image classification | |
CN116452862A (zh) | 基于领域泛化学习的图像分类方法 | |
CN112084897A (zh) | 一种gs-ssd的交通大场景车辆目标快速检测方法 | |
CN114187506B (zh) | 视点意识的动态路由胶囊网络的遥感图像场景分类方法 | |
Li et al. | Adversarial domain adaptation via category transfer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |