CN111814871B - 一种基于可靠权重最优传输的图像分类方法 - Google Patents
一种基于可靠权重最优传输的图像分类方法 Download PDFInfo
- Publication number
- CN111814871B CN111814871B CN202010645952.4A CN202010645952A CN111814871B CN 111814871 B CN111814871 B CN 111814871B CN 202010645952 A CN202010645952 A CN 202010645952A CN 111814871 B CN111814871 B CN 111814871B
- Authority
- CN
- China
- Prior art keywords
- sample
- domain
- target
- prototype
- target domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000005540 biological transmission Effects 0.000 title claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 claims abstract description 33
- 238000002372 labelling Methods 0.000 claims abstract description 13
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 230000008602 contraction Effects 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 52
- 239000011159 matrix material Substances 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 29
- 238000009826 distribution Methods 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000013508 migration Methods 0.000 claims description 12
- 230000005012 migration Effects 0.000 claims description 12
- 238000012512 characterization method Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 4
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000006978 adaptation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- AYIRNRDRBQJXIF-NXEZZACHSA-N (-)-Florfenicol Chemical compound CS(=O)(=O)C1=CC=C([C@@H](O)[C@@H](CF)NC(=O)C(Cl)Cl)C=C1 AYIRNRDRBQJXIF-NXEZZACHSA-N 0.000 description 2
- 235000014653 Carica parviflora Nutrition 0.000 description 2
- 241000243321 Cnidaria Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 229960003760 florfenicol Drugs 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- HJVCHYDYCYBBQX-HLTLHRPFSA-N (2s,3s,4e,6e,8s,9s)-3-amino-9-methoxy-2,6,8-trimethyl-10-phenyldeca-4,6-dienoic acid Chemical compound OC(=O)[C@@H](C)[C@@H](N)/C=C/C(/C)=C/[C@H](C)[C@@H](OC)CC1=CC=CC=C1 HJVCHYDYCYBBQX-HLTLHRPFSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013524 data verification Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- PBLZLIFKVPJDCO-UHFFFAOYSA-N omega-Aminododecanoic acid Natural products NCCCCCCCCCCCC(O)=O PBLZLIFKVPJDCO-UHFFFAOYSA-N 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本发明公开了一种基于可靠权重最优传输的图像分类方法,首先对源域数据进行预处理,使得深度神经网络拟合源域样本图像的样本标签;然后进行图片标注,给目标域数据样本打上伪标签,再进行节点配对,实现源域和目标域中的相关联的图片的配对,最后通过特征提取器和自适应判别器实现自动分析,对图像进行分类。本发明提出了一种利用空间原型信息和域内结构动态测量样本域间差异的子空间可靠性方法。该方法可作为现有领域自适应技术的预处理步骤,大大提高了效率。本发明将收缩子空间可靠性与最优运输策略相结合,可以使深度特征更加明显,增强模型的鲁棒性和有效性。本发明的深度神经网络在各种数据集上工作稳定,性能优于现有方法。
Description
技术领域
本发明涉及图像分类领域,尤其涉及一种基于可靠权重最优传输的图像分类方法。
背景技术
深度学习是计算机视觉领域中的重要方法,通过训练学习样本数据的内在规律和表示层次,在图像分类,目标检测和语义分割等领域被广泛使用。传统监督学习需要大量人工标注数据,非常费时费力。为避免机械重复的贴标签工作,无监督领域自适应(Unsupervised Domain Adaptation,UDA)方法旨在将某个领域学习好的知识或模式应用到到新的不同但相关的领域中,用拥有丰富的监督信息的源域(Source Domain)来提升无标签或者只有少量标签的目标域(Target Domain)模型的性能。其中,最优传输(OptimalTransport)是一种较好的实现域间特征对齐的方法。但是,大多数基于最佳运输的现有工程都忽略了域内结构,仅实现粗略的成对匹配,很容易将分布在聚类边缘或远离对应类中心的目标样本误分类。
对于无监督的领域自适应(UDA),传统方法是利用域中不变特征训练的方法进行域迁移,相关的域不变特征度量方法有:
a)最大均值差异Maximum Mean Discrepancy(MMD)
最大均值差异(MMD)是目前使用最广泛的一种损失函数,主要用来度量两个不同但相关的分布的距离。两个分布的距离定义为:
H表示这个距离是由φ()将数据映射到再生希尔伯特空间(RKHS)中进行度量的。
b)Correlation Alignment(CORAL)
CORAL的方法,通过对source domain和target domain进行线性变换来将他们各自的的二阶统计量对齐(对齐均值与协方差矩阵)。
表示第j维度下source(target)domain数据中的第i个样本。用CS(CT)表示特征的协方差矩阵。|| ||F为矩阵的Frobenius范数,d为数据维度。
c)相对熵Kullback-Leibler_divergence(KL)
相对熵,又被称为KL散度,是用来衡量两个概率分布之间的不同程度。设P(x),Q(x)是两个概率分布
利用对抗训练(adversarial training)的方法进行域迁移
d)域对抗神经网络Domain-Adversarial Neural Networks(DANN)
DANN提出的体系结构包括一个特征提取器(绿色)和一个标签预测器(蓝色),它们共同构成一个标准的前馈神经网络。在基于反向传播的训练过程中,通过梯度反转层将梯度乘以一定的负常数,将一个域分类器(红色)连接到特征提取器,实现无监督域自适应。梯度反转确保了两个域上的特征分布是相似的(对于域分类器来说,尽可能难以区分),从而产生域不变的特征。
e)对抗判别领域自适应Adversarial Discriminative Domain Adaption(ADDA)
i.首先使用带标签的源域数据预训练源域编码器(一个卷积神经网络)。
ii.下一步,通过训练一个目标域编码器(同样也是一个卷积神经网络),使得用于分类样例来自于源域还是目标域的分类器不能可靠地分类,达到对抗性适应的目的。
在测试的过程中,目标域的图像通过目标编码器的编码,映射导到共享特征空间,并且使用i.中预训练的分类器进行分类。
现有技术存在以下缺点:
1.缺乏对潜在语义信息的挖掘。
在无监督领域自适应技术的研究中,通常采用最优传输技术来获取源域和目标域的联合表征。而两个领域分布之间的差异是无监督领域自适应技术的关键,但是在刻画这种差异时,现有的研究中往往忽略了原型信息和域内结构信息,导致缺乏对于潜在语义信息的挖掘。
2.负迁移。
现有技术在最优传输过程中,由于源域和目标域的不相似性,或由于迁移学习方法没有找到可迁移的成分,可能导致在源域上学习到的知识,对于目标域上的学习产生负面作用,即负迁移(negative transfer)。
3.聚类特征不够显著。
源域和目标域中数据来源的不一致导致了不同域之间存在巨大的差异,而缩小差异的一个办法就是学习领域中不变的特征表示。现有技术挖掘的深度聚类特征不够显著,鲁棒性和效果都不够好。
发明内容
本发明目的在于针对现有技术的不足,提出一种利用空间原型信息和域内结构动态测量样本域间差异的子空间可靠性方法和基于收缩子空间可靠性的加权最优运输策略。通过学习有监督源域中不同类别的空间原型来为目标域中的样本预测一个伪标签,然后在训练中利用原型距离和预测器预测两者的有机混合。考虑到由于目标样本位于聚类边缘造成的负迁移,通过缩小子空间可能性,即通过可信的伪标签来衡量不同领域之间的差异,包括空间原型信息和领域内结构信息,从而挖掘更多潜在的语义信息。这种技术可以被用作一种领域自适应的预处理方式,将大大提高效率。并向最优传输技术中引入可靠的语义信息,构建带权重的最优传输技术,解决了高维度匹配的不稳定性问题,加强了配对的可靠性。本发明根据同类别样本在特征空间中应当距离较近的思想,利用聚类和度量学习策略,聚类相似的样本,增强样本的度量性,从而得到更加显著的聚类特征。
本发明的目的是通过以下技术方案来实现的:一种基于可靠权重最优传输的图像分类方法,该方法包括以下步骤:
(1)对源域数据进行预处理,使得深度神经网络拟合源域样本图像的样本标签;具体如下:
(1.1)将源域Ds中的样本图像输入到深度神经网络中,所述深度神经网络由特征提取器Gf和自适应判别器Gy构成;
(1.2)样本图像经过特征提取器Gf得到DS中样本图像相应的样本特征;
(1.3)样本特征通过自适应判别器Gy计算得到有监督的样本标签;
(2)利用可靠权重最优传输和可靠性度量,聚合源域DS和目标域Dt最匹配的图像,可以实现配对、标注和分析;
(2.1)图片标注;给目标域数据样本打上伪标签
(2.1.1)使用子空间可靠收缩方法,通过步骤(1)中的深度神经网络优化每一个样本的传输交叉熵损失,为源域和目标域建立空间原型(prototype)信息的度量方式。具体过程如下:
a.判别性空间原型探索:用于量化源域与目标域之间的原型信息(protypicalinformation)。其中原型信息指对于一个确定的分类c所找到的能表征该类特征的信息空间位置。对每个分类c定义了一个“类别中心”,记为Cs,Cs是一个源域空间上的样本点,该空间为C×d维实数域空间,其中C是源域中所有的图像类别总数,d是在深度神经网络中特征生成器Gf输出的特征层的维度。记录空间原型的矩阵D通过下式表示:
其中代表第i个的目标域的样本,/>代表第i个的源域的样本,/>代表在源域中第k个类别的原型,/>代表在目标域中第k个类别的原型。/>代表目标样本/>和源域中第k个类别中心/>的距离,k=1,2,3...,C;其中分子部分的d函数表示了目标域样本图像经过特征生成器Gf变换后与当前第k类的样本中心的距离,分母部分将该样本距离C类别中各类别中心的距离进行求和,从而归一化不同类别的距离结果,使得训练过程更加稳定。
b.用于距离度量的函数d可以基于不同的距离定义,使用多种内核降低测试误差,从而实现一种用于最佳原型距离表示的方法。因此,多核公式如下:
且其中K的形式为半正定(PSD)核,具有以下形式:
Ku代表集合中的每一个核,K是所有多核在一起作用之后的总结果。u是一个遍历的参数并满足所有核函数的总权重是1。m为多个高斯核的个数,κ作为一个所有核函数的总集合,代表了多种用于空间距离度量的原型核函数的集合,其中每个核Ku的权重为对应的βu,对参数{βu}的范围限制是可以保证计算出的多核K是具有特征性质的。
c.将目标域图像利用特征提取器Gf和自适应判别器Gy的输出作为预测器伪标签。目标域不存在已知的标签,因此采用锐化(Sharpen)概率表征矩阵来表征伪标签的预测概率,为保证输出的矩阵是一个概率矩阵,使用了softmax函数进行了基于概率的归一化。锐化概率表征矩阵M定义如下:
M(i,k)代表了目标样本i属于目标类别k的概率,τ是需要预先设置的超参数,通过计算可以获得较高准确度的判别概率。
d.通过上述过程得到的子空间可靠性收缩SSR优化所需要的损失函数的所有信息,将SSR的损失矩阵Q定义如下:
其中Q(i,k)代表目标样本i属于类别k的概率值,dA(k)表示源域为第k类和目标域中预测器伪标签为第k类的样本之间的A-距离(A-distance)。ε(hk)是判别器hk判别/>和/>的错误率。
(2.1.2)对于源域和目标域的图像,利用特征提取器Gf的输出计算类中心,基于该类中心(原型),在目标域Dt上使用如步骤(2.1.1)子步骤b中核函数距离度量手段,将输入样本距离最近的原型Cs所对应的样本作为原型伪标签;
(2.1.3)将预测器伪标签和原型伪标签通过损失矩阵Q来统一,得到可信任伪标签;判别性质心损失函数Lp让源域中属于同一类的样本和目标域中属于同一类可信任伪标签的样本在特征空间中应尽可能接近,具体如下:
n代表每一轮训练的样本数量。λ代表超参数,根据实验调参确定,ν是约束余量,用于控制配对的不同样本类别原型之间的距离,需要提前给定。为源域中第i个样本图像对应的标签值,/>表示该标签值对应的原型,其中类中心的公式如下:
当时,/>否则/>k=1,2...,C;。
(2.2)节点配对;实现源域和目标域中的相关联的图片的配对
(2.2.1)通过最小化Z矩阵(即带权距离定义矩阵)与Kantorovich问题中的γ算子的弗罗比尼乌斯内积获得最优概率分布γ*;具体如下:
其中,表示源域/>和目标域/>的联合概率分布,/>表示两个配对样本之间所带的权重,xt表示目标域中的样本,xs表示源域中的样本,y(xs)源域中的样本标签,/>表示样本从源域至目标域的欧氏距离,在当前度量下,取得最优的匹配结果,亦即找到一对最符合最优的匹配结果的源域-目标域样本对。由于样本是离散可数的,因此上式的离散形式如下:
(2.2.2)维度越高则最优传输得到的结果的鲁棒性也随之下降。因此有必要在做最优传输的过程中施加一定的约束。此时利用损失矩阵Q来评估当前目标域的样本到底是哪个标签。当源域和目标域的匹配的时候,不仅仅考虑其特征空间的欧式距离,同时也考虑两者预测标签的一致性,这样给最优传输增强权重之后,得到更好更鲁棒的效果。实现最优传输的匹配策略,优化Z矩阵;所述Z矩阵的离散公式定义如下:
其中为最优传输的过程中的约束条件;通过Z矩阵计算最优传输则可以得到源域-目标域样本对。
(2.2.3)根据步骤(2.2.2)计算出距离损失Lg的值;
其中F1为交叉熵损失函数。
(2.3)自动分析
实现对源域数据分布以及目标域数据分布的自动分析,评估迁移效果,挑选离群点,具体实施步骤如下:
(2.3.1)从已有数据库中导入源域数据样本与目标域数据样本至步骤(1)的深度神经网络中。
(2.3.2)计算源域数据样本每一类别的空间原型,通过空间原型给目标域数据样本按(2.1)所述方法打上原型伪标签。
(2.3.3)使源域数据样本与目标域数据样本通过特征生成器Gf产生相应特征分布,再通过自适应判别器Gy得到预测器伪标签。
(2.3.4)利用损失矩阵Q将原型伪标签和预测器伪标签统一得到可信任伪标签。
(2.3.5)根据已经配好的源域-目标域样本对两个之间的欧式距离计算源域-目标域样本对在最优传输中贡献度的大小并排序,欧式距离越小贡献度越大,根据预先设定的配对距离阈值挑选出配对距离阈值以上的点作为离群点并舍弃该源域-目标域样本对。
(3)将步骤(2.3.5)中保留下来的源域-目标域样本对输入到深度神经网络中进行图像的分类,具体如下:
(3.1)将损失LP与LG标准分类损失函数Lcls加权相加,最终得到需要优化的损失函数;具体如下;
其中α,β为超参数,用来在不同数据集下用来平衡Lp和Lg损失函数,以保证深度神经网络训练的稳定性。
标准分类损失函数如下:
(3.2)计算模型网络参数下两个对应样本得到的损失函数值,并通过反向传播方法根据计算得到的局部梯度向后依次对网络参数进行更新,优化网络;
(3.3)总损失函数的值下降到一根据需求精度设定的可接受阈值后,即可停止训练,通过训练得到的深度神经网络中的Gf及Gy输出样本图像的样本标签,根据样本标签对图像进行分类。
进一步地,特征提取器Gf通过深度特征网络的卷积及展开计算得到源域和目标域相应的样本特征。
进一步地,步骤(2.1.1)中,空间原型(prototype)信息的度量方式为欧式空间下的距离度量。
进一步地,步骤(2.1.1)中,所述判别器hk为线性SVM分类器。
本发明的有益效果:
(1)本发明提出了一种利用空间原型信息和域内结构动态测量样本域间差异的子空间可靠性方法。该方法可作为现有领域自适应技术的预处理步骤,大大提高了效率。
(2)本发明设计了一种基于收缩子空间可靠性的加权最优运输策略,实现了精确的两两最优运输过程,减少了目标域决策边界附近样本带来的负迁移。提出了一种判别形心利用策略来学习深层判别特征。
(3)本发明将收缩子空间可靠性与最优运输策略相结合,可以使深度特征更加明显,增强模型的鲁棒性和有效性。实验结果表明,本发明的深度神经网络在各种数据集上工作稳定,性能优于现有方法。
附图说明
图1为Domain Adaptation by Backpropagation Network结构示意图,本发明方法中利用梯度反向传播策略(GRL)实现源域和目标域的对齐过程。
图2为Adversarial Discriminative Domain Adaptation架构示意图,本发明方法中利用多阶段策略实现稳定地源域和目标域的对齐。
图3为Easy Transfer Learning流程示意图;
图4为本发明神经网络结构示意图;
图5为本发明方法流程示意图。
具体实施方式
以下结合附图对本发明具体实施方式作进一步详细说明。
如图1-5所示,本发明提供的1、一种基于可靠权重最优传输的图像分类方法,其特征在于,该方法包括以下步骤:
(1)对源域数据进行预处理,使得深度神经网络拟合源域样本图像的样本标签;具体如下:
(1.1)将源域DS中的样本图像输入到深度神经网络中,所述深度神经网络由特征提取器Gf和自适应判别器Gy构成;
(1.2)样本图像经过特征提取器Gf通过深度特征网络的卷积及展开计算得到DS中样本图像相应的样本特征;
(1.3)样本特征通过自适应判别器Gy计算得到有监督的样本标签;
(2)利用可靠权重最优传输和可靠性度量,聚合源域DS和目标域Dt最匹配的图像,可以实现配对、标注和分析;
(2.1)图片标注;给目标域数据样本打上伪标签
(2.1.1)使用子空间可靠收缩方法,通过步骤(1)中的深度神经网络优化每一个样本的传输交叉熵损失,为源域和目标域建立空间原型(prototype)信息的度量方式(欧式空间下的距离度量)。具体过程如下:
a.判别性空间原型探索:用于量化源域与目标域之间的原型信息(protypicalinformation)。其中原型信息指对于一个确定的分类c所找到的能表征该类特征的信息空间位置。对每个分类c定义了一个“类别中心”,记为Cs,Cs是一个源域空间上的样本点,该空间为C×d维实数域空间,其中C是源域中所有的图像类别总数,d是在深度神经网络中特征生成器Gf输出的特征层的维度。记录空间原型的矩阵D通过下式表示:
其中代表第i个的目标域的样本,/>代表第i个的源域的样本,/>代表在源域中第k个类别的原型,/>代表在目标域中第k个类别的原型。/>代表目标样本/>和源域中第k个类别中心/>的距离,k=1,2,3...,C;其中分子部分的d函数表示了目标域样本图像经过特征生成器Gf变换后与当前第k类的样本中心的距离,分母部分将该样本距离C类别中各类别中心的距离进行求和,从而归一化不同类别的距离结果,使得训练过程更加稳定。
b.用于距离度量的函数d可以基于不同的距离定义,使用多种内核降低测试误差,从而实现一种用于最佳原型距离表示的方法。因此,多核公式如下:
且其中K的形式为半正定(PSD)核,具有以下形式:
Ku代表集合中的每一个核,K是所有多核在一起作用之后的总结果。u是一个遍历的参数并满足所有核函数的总权重是1。m为多个高斯核的个数,κ作为一个所有核函数的总集合,代表了多种用于空间距离度量的原型核函数的集合,其中每个核Ku的权重为对应的βu,对参数{βu}的范围限制是可以保证计算出的多核K是具有特征性质的。
c.将目标域图像利用特征提取器Gf和自适应判别器Gy的输出作为预测器伪标签。目标域不存在已知的标签,因此采用锐化(Sharpen)概率表征矩阵来表征伪标签的预测概率,为保证输出的矩阵是一个概率矩阵,使用了softmax函数进行了基于概率的归一化。锐化概率表征矩阵M定义如下:
M(i,k)代表了目标样本i属于目标类别k的概率,τ是需要预先设置的超参数,通过计算可以获得较高准确度的判别概率。
d.通过上述过程得到的子空间可靠性收缩SSR优化所需要的损失函数的所有信息,将SSR的损失矩阵Q定义如下:
其中Q(i,k)代表目标样本i属于类别k的概率值,dA(k)表示源域为第k类和目标域中预测器伪标签为第k类的样本之间的A-距离(A-distance)。ε(hk)是判别器hk判别/>和/>的错误率,所述判别器hk为线性SVM分类器。
(2.1.2)对于源域和目标域的图像,利用特征提取器Gf的输出计算类中心,基于该类中心(原型),在目标域Dt上使用如步骤(2.1.1)子步骤b中核函数距离度量手段,将输入样本距离最近的原型Cs所对应的样本作为原型伪标签;
(2.1.3)将预测器伪标签和原型伪标签通过损失矩阵Q来统一,得到可信任伪标签;判别性质心损失函数Lp让源域中属于同一类的样本和目标域中属于同一类可信任伪标签的样本在特征空间中应尽可能接近,具体如下:
n代表每一轮训练的样本数量。λ代表超参数,根据实验调参确定,ν是约束余量,用于控制配对的不同样本类别原型之间的距离,需要提前给定。为源域中第i个样本图像对应的标签值,/>表示该标签值对应的原型,其中类中心的公式如下:
当时,/>否则/>k=1,2...,C;。
(2.2)节点配对;实现源域和目标域中的相关联的图片的配对
(2.2.1)通过最小化Z矩阵(即带权距离定义矩阵)与Kantorovich问题中的γ算子的弗罗比尼乌斯内积获得最优概率分布γ*;具体如下:
其中,表示源域/>和目标域/>的联合概率分布,/>表示两个配对样本之间所带的权重,xt表示目标域中的样本,xs表示源域中的样本,y(xs)源域中的样本标签,/>表示样本从源域至目标域的欧氏距离,在当前度量下,取得最优的匹配结果,亦即找到一对最符合最优的匹配结果的源域-目标域样本对。由于样本是离散可数的,因此上式的离散形式如下:
(2.2.2)维度越高则最优传输得到的结果的鲁棒性也随之下降。因此有必要在做最优传输的过程中施加一定的约束。此时利用损失矩阵Q来评估当前目标域的样本到底是哪个标签。当源域和目标域的匹配的时候,不仅仅考虑其特征空间的欧式距离,同时也考虑两者预测标签的一致性,这样给最优传输增强权重之后,得到更好更鲁棒的效果。实现最优传输的匹配策略,优化Z矩阵;所述Z矩阵的离散公式定义如下:
其中为最优传输的过程中的约束条件;通过Z矩阵计算最优传输则可以得到源域-目标域样本对。
(2.2.3)根据步骤(2.2.2)计算出距离损失Lg的值;
其中F1为交叉熵损失函数。
(2.3)自动分析
实现对源域数据分布以及目标域数据分布的自动分析,评估迁移效果,挑选离群点,具体实施步骤如下:
(2.3.1)从已有数据库中导入源域数据样本与目标域数据样本至步骤(1)的深度神经网络中。
(2.3.2)计算源域数据样本每一类别的空间原型,通过空间原型给目标域数据样本按(2.1)所述方法打上原型伪标签。
(2.3.3)使源域数据样本与目标域数据样本通过特征生成器Gf产生相应特征分布,再通过自适应判别器Gy得到预测器伪标签。
(2.3.4)利用损失矩阵Q将原型伪标签和预测器伪标签统一得到可信任伪标签。
(2.3.5)根据已经配好的源域-目标域样本对两个之间的欧式距离计算源域-目标域样本对在最优传输中贡献度的大小并排序,欧式距离越小贡献度越大,根据预先设定的配对距离阈值挑选出配对距离阈值以上的点作为离群点并舍弃该源域-目标域样本对。
(3)将步骤(2.3.5)中保留下来的源域-目标域样本对输入到深度神经网络中进行图像的分类,具体如下:
(3.1)将损失LP与LG标准分类损失函数Lcls加权相加,最终得到需要优化的损失函数;具体如下;
其中α,β为超参数,用来在不同数据集下用来平衡Lp和Lg损失函数,以保证深度神经网络训练的稳定性。
标准分类损失函数如下:
(3.2)计算模型网络参数下两个对应样本得到的损失函数值,并通过反向传播方法根据计算得到的局部梯度向后依次对网络参数进行更新,优化网络;
(3.3)总损失函数的值下降到一根据需求精度设定的可接受阈值后,即可停止训练,通过训练得到的深度神经网络中的Gf及Gy输出样本图像的样本标签,根据样本标签对图像进行分类。
如图4所示,其中Gf为特征生成器,Gy为自适应判别器,Lg为基于SSR的权重最优传输损失函数,Lp为判别质心损失函数,Lcls为标准交叉熵损失函数,α和β为超参数,SSR损失矩阵Q旨在在训练过程中动态平衡空间原型信息和域内结构的贡献。
源域数据样本从Source位置传入,经过特征生成器Gf深度特征网络的卷积及展开计算得到相应的样本特征,通过自适应判别器Gy计算得到有监督的样本标签和分类损失Lcls。通过对应源域数据样本取得伪标签对应的目标域数据样本从Target位置传入,通过结构和参数与Gf完全相同的特征生成器后结合对应Source样本输入得到的特征张量计算出SSR损失矩阵Q,并根据Q的信息计算得到两个损失函数最优传输损失Lg及判别质心损失Lp,将这两个损失与源域数据样本得到的分类损失Lcls加权相加,最终得到需要优化的损失函数。计算当前网络参数下两个对应样本得到的损失函数值,并通过深度神经网络中最基础的反向传播技术根据计算得到的局部梯度向后依次对网络参数进行更新,从而优化该网络,通过足够多的源域样本和对应目标域样本输入,总损失函数的值下降到一可接受阈值后,对于未在训练集中的数据验证准确率提高到可接受水平,即可停止训练,将训练得到的模型Gf及Gy投入应用。
本发明方法在多个领域进行了进行了测试,包括数字识别迁移学习(MNIST,USPS,SVHN数据集),Office-31数据集(包括Amazon,Webcam,DSLR三部分),基于ImageNet-1000和Caltech-256构建的ImageNet-Caltech数据集,Office-Home数据集,VisDA-2017数据集。
对于网络的构建,本发明方法实施例采用了PyTorch作为网络模型构建工具,对于Office-31和VISDA数据集,使用了ResNet-50作为特征提取网络Gf,并在ImageNet上进行了预训练。对于数字识别任务,本发明方法使用了LeNet作为特征提取网络Gf。在本发明深度神经网络模型的构建中,实施例使用了高斯核函数,并对其中的标准差超参数σ在2-8至28范围内以21/2的步长进行了超参数设置。
在神经网络训练方面,实施例采用了批量随机梯度下降(SGD)优化器,其中动量初始化为0.9,批次大小初始化为128,超参数λ被初始化为0.001,v被初始化为50,另一代表温度的超参数常量τ被初始化为0.5,类中心计算中的超参数m被设置为4。在实施例的实验中,α∈[10-3,1]以及β∈[10-2,1]均是可行的,样例中选用了α=0.01,β=0.1应用于所有任务中,且实验发现,在上述范围内,模型的效果随着两参数的增加先增加后下降。
数据随机打乱后按批次大小依次输入模型内,模型基于数据和现有参数进行前向计算及反向传播,进行多个循环的计算以优化网络参数至准确率稳定。
通过以上设置及足够长时间的训练(直到模型的准确率不再大幅度变化),可以得到结果显示该方法在Office-31数据集任务上的平均准确率为90.8%,在ImageNet-Caltech上的平均准确率为95.3%,在VisDA-2017上的平均准确率为84.0%,在数字识别迁移任务上的凭据准确率达到了98.3%,这些结果相较于本领域的其他方法均达到了更高的迁移识别效果。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (4)
1.一种基于可靠权重最优传输的图像分类方法,其特征在于,该方法包括以下步骤:
(1)对源域数据进行预处理,使得深度神经网络拟合源域样本图像的样本标签;具体如下:
(1.1)将源域DS中的样本图像输入到深度神经网络中,所述深度神经网络由特征提取器Gf和自适应判别器Gy构成;
(1.2)样本图像经过特征提取器Gf得到DS中样本图像相应的样本特征;
(1.3)样本特征通过自适应判别器Gy计算得到有监督的样本标签;
(2)利用可靠权重最优传输和可靠性度量,聚合源域Ds和目标域Dt最匹配的图像,可以实现配对、标注和分析;
(2.1)图片标注;给目标域数据样本打上伪标签
(2.1.1)使用子空间可靠收缩方法,通过步骤(1)中的深度神经网络优化每一个样本的传输交叉熵损失,为源域和目标域建立空间原型(prototype)信息的度量方式;具体过程如下:
a.判别性空间原型探索:用于量化源域与目标域之间的原型信息(protypicalinformation);其中原型信息指对于一个确定的分类c所找到的能表征该类特征的信息空间位置;对每个分类c定义了一个“类别中心”,记为Cs,Cs是一个源域空间上的样本点,该空间为C×d维实数域空间,其中C是源域中所有的图像类别总数,d是在深度神经网络中特征生成器Gf输出的特征层的维度;记录空间原型的矩阵D通过下式表示:
其中代表第i个的目标域的样本,/>代表第i个的源域的样本,/>代表在源域中第k个类别的原型,/>代表在目标域中第k个类别的原型;/>代表目标样本/>和源域中第k个类别中心/>的距离,k=1,2,3...,C;其中分子部分的d函数表示了目标域样本图像经过特征生成器Gf变换后与当前第k类的样本中心的距离,分母部分将该样本距离C类别中各类别中心的距离进行求和,从而归一化不同类别的距离结果,使得训练过程更加稳定;
b.用于距离度量的函数d可以基于不同的距离定义,使用多种内核降低测试误差,从而实现一种用于最佳原型距离表示的方法;因此,多核公式如下:
且其中K的形式为半正定(PSD)核,具有以下形式:
Ku代表集合中的每一个核,K是所有多核在一起作用之后的总结果;u是一个遍历的参数并满足所有核函数的总权重是1;m为多个高斯核的个数,κ作为一个所有核函数的总集合,代表了多种用于空间距离度量的原型核函数的集合,其中每个核Ku的权重为对应的βu,对参数{βu}的范围限制是可以保证计算出的多核K是具有特征性质的;
c.将目标域图像利用特征提取器Gf和自适应判别器Gy的输出作为预测器伪标签;目标域不存在已知的标签,因此采用锐化(Sharpen)概率表征矩阵来表征伪标签的预测概率,为保证输出的矩阵是一个概率矩阵,使用了softmax函数进行了基于概率的归一化;锐化概率表征矩阵M定义如下:
M(i,k)代表了目标样本i属于目标类别k的概率,τ是需要预先设置的超参数,通过计算可以获得较高准确度的判别概率;
d.通过上述过程得到的子空间可靠性收缩SSR优化所需要的损失函数的所有信息,将SSR的损失矩阵Q定义如下:
其中Q(i,k)代表目标样本i属于类别k的概率值,dA(k)表示源域为第k类和目标域中预测器伪标签为第k类的样本之间的A-距离(A-distance);ε(hk)是判别器hk判别/>和/>的错误率;
(2.1.2)对于源域和目标域的图像,利用特征提取器Gf的输出计算类中心,基于该类中心,即原型,在目标域Dt上使用如步骤(2.1.1)子步骤b中核函数距离度量手段,将输入样本距离最近的原型Cs所对应的样本作为原型伪标签;
(2.1.3)将预测器伪标签和原型伪标签通过损失矩阵Q来统一,得到可信任伪标签;判别性质心损失函数Lp让源域中属于同一类的样本和目标域中属于同一类可信任伪标签的样本在特征空间中应尽可能接近,具体如下:
n代表每一轮训练的样本数量;λ代表超参数,根据实验调参确定,ν是约束余量,用于控制配对的不同样本类别原型之间的距离,需要提前给定;为源域中第i个样本图像对应的标签值,/>表示该标签值对应的原型,其中类中心的公式如下:
当yi s=k时,否则/>
(2.2)节点配对;实现源域和目标域中的相关联的图片的配对
(2.2.1)通过最小化Z矩阵,即带权距离定义矩阵与Kantorovich问题中的γ算子的弗罗比尼乌斯内积获得最优概率分布γ*;具体如下:
其中,表示源域/>和目标域/>的联合概率分布,/>表示两个配对样本之间所带的权重,xt表示目标域中的样本,xs表示源域中的样本,y(xs)源域中的样本标签,/>表示样本从源域至目标域的欧氏距离,在当前度量下,取得最优的匹配结果,亦即找到一对最符合最优的匹配结果的源域-目标域样本对;由于样本是离散可数的,因此上式的离散形式如下:
(2.2.2)维度越高则最优传输得到的结果的鲁棒性也随之下降;因此有必要在做最优传输的过程中施加一定的约束;此时利用损失矩阵Q来评估当前目标域的样本到底是哪个标签;当源域和目标域的匹配的时候,不仅仅考虑其特征空间的欧式距离,同时也考虑两者预测标签的一致性,这样给最优传输增强权重之后,得到更好更鲁棒的效果;实现最优传输的匹配策略,优化Z矩阵;所述Z矩阵的离散公式定义如下:
其中为最优传输的过程中的约束条件;通过Z矩阵计算最优传输则可以得到源域-目标域样本对;
(2.2.3)根据步骤(2.2.2)计算出距离损失Lg的值;
其中F1为交叉熵损失函数;
(2.3)自动分析
实现对源域数据分布以及目标域数据分布的自动分析,评估迁移效果,挑选离群点,具体实施步骤如下:
(2.3.1)从已有数据库中导入源域数据样本与目标域数据样本至步骤(1)的深度神经网络中;
(2.3.2)计算源域数据样本每一类别的空间原型,通过空间原型给目标域数据样本按(2.1)所述方法打上原型伪标签;
(2.3.3)使源域数据样本与目标域数据样本通过特征生成器Gf产生相应特征分布,再通过自适应判别器Gy得到预测器伪标签;
(2.3.4)利用损失矩阵Q将原型伪标签和预测器伪标签统一得到可信任伪标签;
(2.3.5)根据已经配好的源域-目标域样本对两个之间的欧式距离计算源域-目标域样本对在最优传输中贡献度的大小并排序,欧式距离越小贡献度越大,根据预先设定的配对距离阈值挑选出配对距离阈值以上的点作为离群点并舍弃该源域-目标域样本对;
(3)将步骤(2.3.5)中保留下来的源域-目标域样本对输入到深度神经网络中进行图像的分类,具体如下:
(3.1)将损失LP与LG标准分类损失函数Lcls加权相加,最终得到需要优化的损失函数;具体如下;
其中α,β为超参数,用来在不同数据集下用来平衡Lp和Lg损失函数,以保证深度神经网络训练的稳定性;
标准分类损失函数如下:
(3.2)计算模型网络参数下两个对应样本得到的损失函数值,并通过反向传播方法根据计算得到的局部梯度向后依次对网络参数进行更新,优化网络;
(3.3)总损失函数的值下降到一根据需求精度设定的可接受阈值后,即可停止训练,通过训练得到的深度神经网络中的Gf及Gy输出样本图像的样本标签,根据样本标签对图像进行分类。
2.根据权利要求1所述的一种基于可靠权重最优传输的图像分类方法,其特征在于,特征提取器Gf通过深度特征网络的卷积及展开计算得到源域和目标域相应的样本特征。
3.根据权利要求1所述的一种基于可靠权重最优传输的图像分类方法,其特征在于,步骤(2.1.1)中,空间原型(prototype)信息的度量方式为欧式空间下的距离度量。
4.根据权利要求1所述的一种基于可靠权重最优传输的图像分类方法,其特征在于,步骤(2.1.1)中,所述判别器hk为线性SVM分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/347,546 US20210390355A1 (en) | 2020-06-13 | 2021-06-14 | Image classification method based on reliable weighted optimal transport (rwot) |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010538943 | 2020-06-13 | ||
CN2020105389435 | 2020-06-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111814871A CN111814871A (zh) | 2020-10-23 |
CN111814871B true CN111814871B (zh) | 2024-02-09 |
Family
ID=72842578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010645952.4A Active CN111814871B (zh) | 2020-06-13 | 2020-07-07 | 一种基于可靠权重最优传输的图像分类方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210390355A1 (zh) |
CN (1) | CN111814871B (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200067631A (ko) * | 2018-12-04 | 2020-06-12 | 삼성전자주식회사 | 영상 처리 장치 및 그 동작방법 |
CN111143577B (zh) * | 2019-12-27 | 2023-06-16 | 北京百度网讯科技有限公司 | 数据标注方法、装置和系统 |
CN112396097B (zh) * | 2020-11-09 | 2022-05-17 | 中山大学 | 基于加权最优传输的无监督域自适应视觉目标检测方法 |
CN112580733B (zh) * | 2020-12-25 | 2024-03-05 | 北京百度网讯科技有限公司 | 分类模型的训练方法、装置、设备以及存储介质 |
CN112801179A (zh) * | 2021-01-27 | 2021-05-14 | 北京理工大学 | 面向跨领域复杂视觉任务的孪生分类器确定性最大化方法 |
CN112990371B (zh) * | 2021-04-27 | 2021-09-10 | 之江实验室 | 一种基于特征扩增的无监督夜间图像分类方法 |
CN113159199B (zh) * | 2021-04-27 | 2022-12-27 | 广东工业大学 | 一种基于结构特征增强和类中心匹配的跨域图像分类方法 |
CN112991355B (zh) * | 2021-05-13 | 2021-08-31 | 南京应用数学中心 | 基于最优传输的3d大脑病变分割方法 |
CN113221905B (zh) * | 2021-05-18 | 2022-05-17 | 浙江大学 | 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质 |
CN113378904B (zh) * | 2021-06-01 | 2022-06-14 | 电子科技大学 | 一种基于对抗域自适应网络的图像分类方法 |
CN113436197B (zh) * | 2021-06-07 | 2022-10-04 | 华东师范大学 | 基于生成对抗和类特征分布的域适应无监督图像分割方法 |
CN113409351B (zh) * | 2021-06-30 | 2022-06-24 | 吉林大学 | 基于最优传输的无监督领域自适应遥感图像分割方法 |
CN113628640A (zh) * | 2021-07-15 | 2021-11-09 | 河南工业大学 | 一种基于样本均衡和最大均值差异的跨库语音情感识别方法 |
CN113537403A (zh) * | 2021-08-14 | 2021-10-22 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法和装置及预测方法和装置 |
CN114332787A (zh) * | 2021-12-30 | 2022-04-12 | 福州大学 | 无源域无监督域自适应车辆再识别方法 |
CN114444605B (zh) * | 2022-01-30 | 2024-04-05 | 南京邮电大学 | 一种基于双重不平衡场景下的无监督域适应方法 |
CN114548165B (zh) * | 2022-02-18 | 2024-04-02 | 中国科学技术大学 | 一种可跨用户的肌电模式分类方法 |
CN114239753B (zh) * | 2022-02-23 | 2022-07-22 | 山东力聚机器人科技股份有限公司 | 可迁移的图像识别方法及装置 |
CN114580415B (zh) * | 2022-02-25 | 2024-03-22 | 华南理工大学 | 一种面向教育考试的跨域图匹配实体识别方法 |
CN114578967B (zh) * | 2022-03-08 | 2023-04-25 | 天津理工大学 | 一种基于脑电信号的情感识别方法及系统 |
CN114783072B (zh) * | 2022-03-17 | 2022-12-30 | 哈尔滨工业大学(威海) | 一种基于远域迁移学习的图像识别方法 |
CN114419378B (zh) * | 2022-03-28 | 2022-09-02 | 杭州未名信科科技有限公司 | 图像分类的方法、装置、电子设备及介质 |
CN115600134A (zh) * | 2022-03-30 | 2023-01-13 | 南京天洑软件有限公司(Cn) | 基于域动态对抗自适应的轴承迁移学习故障诊断方法 |
CN114936597B (zh) * | 2022-05-20 | 2023-04-07 | 电子科技大学 | 一种局部信息增强子空间真假目标特征提取方法 |
CN114974433A (zh) * | 2022-05-26 | 2022-08-30 | 厦门大学 | 一种基于深度迁移学习的循环肿瘤细胞的快速注释方法 |
CN114998960B (zh) * | 2022-05-28 | 2024-03-26 | 华南理工大学 | 一种基于正负样本对比学习的表情识别方法 |
CN114821198B (zh) * | 2022-06-24 | 2022-09-06 | 齐鲁工业大学 | 基于自监督和小样本学习的跨域高光谱图像分类方法 |
CN114937289B (zh) * | 2022-07-06 | 2024-04-19 | 天津师范大学 | 一种基于异构伪标签学习的跨域行人检索方法 |
CN115410088B (zh) * | 2022-10-10 | 2023-10-31 | 中国矿业大学 | 一种基于虚拟分类器的高光谱图像领域自适应方法 |
CN116128047B (zh) * | 2022-12-08 | 2023-11-14 | 西南民族大学 | 一种基于对抗网络的迁移学习方法 |
CN116070146B (zh) * | 2023-01-10 | 2023-09-26 | 西南石油大学 | 融合迁移学习的孔隙结构分析方法 |
CN116092701B (zh) * | 2023-03-07 | 2023-06-30 | 南京康尔健医疗科技有限公司 | 基于健康数据分析管理平台的控制系统及其方法 |
CN116070796B (zh) * | 2023-03-29 | 2023-06-23 | 中国科学技术大学 | 柴油车排放等级评估方法及系统 |
CN116563957B (zh) * | 2023-07-10 | 2023-09-29 | 齐鲁工业大学(山东省科学院) | 一种基于傅里叶域适应的人脸伪造视频检测方法 |
CN117218783A (zh) * | 2023-09-12 | 2023-12-12 | 广东云百科技有限公司 | 物联网安全管理系统及方法 |
CN116910571B (zh) * | 2023-09-13 | 2023-12-08 | 南京大数据集团有限公司 | 一种基于原型对比学习的开集域适应方法及系统 |
CN116957045B (zh) * | 2023-09-21 | 2023-12-22 | 第六镜视觉科技(西安)有限公司 | 基于最优传输理论的神经网络量化方法、系统及电子设备 |
CN117408997B (zh) * | 2023-12-13 | 2024-03-08 | 安徽省立医院(中国科学技术大学附属第一医院) | 非小细胞肺癌组织学图像egfr基因突变的辅助检测系统 |
CN117688472A (zh) * | 2023-12-13 | 2024-03-12 | 华东师范大学 | 一种基于因果结构的无监督域适应多元时间序列分类方法 |
CN117456312B (zh) * | 2023-12-22 | 2024-03-12 | 华侨大学 | 一种面向无监督图像检索的模拟抗污伪标签增强方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280396A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度多特征主动迁移网络的高光谱图像分类方法 |
CN110321926A (zh) * | 2019-05-24 | 2019-10-11 | 北京理工大学 | 一种基于深度残差修正网络的迁移方法及系统 |
CN110378366A (zh) * | 2019-06-04 | 2019-10-25 | 广东工业大学 | 一种基于耦合知识迁移的跨域图像分类方法 |
CN111275175A (zh) * | 2020-02-20 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、图像分类方法、设备和介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10289909B2 (en) * | 2017-03-06 | 2019-05-14 | Xerox Corporation | Conditional adaptation network for image classification |
US20190130220A1 (en) * | 2017-10-27 | 2019-05-02 | GM Global Technology Operations LLC | Domain adaptation via class-balanced self-training with spatial priors |
-
2020
- 2020-07-07 CN CN202010645952.4A patent/CN111814871B/zh active Active
-
2021
- 2021-06-14 US US17/347,546 patent/US20210390355A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280396A (zh) * | 2017-12-25 | 2018-07-13 | 西安电子科技大学 | 基于深度多特征主动迁移网络的高光谱图像分类方法 |
CN110321926A (zh) * | 2019-05-24 | 2019-10-11 | 北京理工大学 | 一种基于深度残差修正网络的迁移方法及系统 |
CN110378366A (zh) * | 2019-06-04 | 2019-10-25 | 广东工业大学 | 一种基于耦合知识迁移的跨域图像分类方法 |
CN111275175A (zh) * | 2020-02-20 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、图像分类方法、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111814871A (zh) | 2020-10-23 |
US20210390355A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814871B (zh) | 一种基于可靠权重最优传输的图像分类方法 | |
CN110321926B (zh) | 一种基于深度残差修正网络的迁移方法及系统 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN109034205B (zh) | 基于直推式半监督深度学习的图像分类方法 | |
US11816183B2 (en) | Methods and systems for mining minority-class data samples for training a neural network | |
CN110580496A (zh) | 一种基于熵最小化的深度迁移学习系统及方法 | |
CN109740676B (zh) | 基于相似目标的物体检测迁移方法 | |
CN111047182A (zh) | 一种基于深度无监督学习的空域复杂度评估方法 | |
CN112069310B (zh) | 基于主动学习策略的文本分类方法及系统 | |
CN113326731A (zh) | 一种基于动量网络指导的跨域行人重识别算法 | |
CN109581339B (zh) | 一种基于头脑风暴自动调整自编码网络的声呐识别方法 | |
CN110647907B (zh) | 利用多层分类和字典学习的多标签图像分类算法 | |
CN113255573B (zh) | 基于混合簇中心标签学习的行人重识别方法和存储介质 | |
Sefidian et al. | Estimating missing data using novel correlation maximization based methods | |
CN110555459A (zh) | 基于模糊聚类和支持向量回归的成绩预测方法 | |
CN111062510A (zh) | 一种基于迁移学习的民航发动机叶片裂纹预测方法 | |
Chu et al. | Co-training based on semi-supervised ensemble classification approach for multi-label data stream | |
CN110830291B (zh) | 一种基于元路径的异质信息网络的节点分类方法 | |
Pan et al. | MIML-GAN: A GAN-based algorithm for multi-instance multi-label learning on overlapping signal waveform recognition | |
CN111797935A (zh) | 基于群体智能的半监督深度网络图片分类方法 | |
CN111950652A (zh) | 一种基于相似度的半监督学习数据分类算法 | |
CN114357221B (zh) | 一种基于图像分类的自监督主动学习方法 | |
CN112257787B (zh) | 基于生成式双重条件对抗网络结构的图像半监督分类方法 | |
Qin et al. | The balanced loss curriculum learning | |
CN113139464B (zh) | 一种电网故障检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |