CN112446423A - 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 - Google Patents
一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 Download PDFInfo
- Publication number
- CN112446423A CN112446423A CN202011258357.1A CN202011258357A CN112446423A CN 112446423 A CN112446423 A CN 112446423A CN 202011258357 A CN202011258357 A CN 202011258357A CN 112446423 A CN112446423 A CN 112446423A
- Authority
- CN
- China
- Prior art keywords
- domain
- attention
- order
- fast
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013526 transfer learning Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 39
- 230000003044 adaptive effect Effects 0.000 claims abstract description 32
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 230000003042 antagnostic effect Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000012546 transfer Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000005065 mining Methods 0.000 claims description 4
- 230000008485 antagonism Effects 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000013508 migration Methods 0.000 abstract description 13
- 230000005012 migration Effects 0.000 abstract description 13
- 230000006978 adaptation Effects 0.000 description 16
- 238000013459 approach Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 5
- 238000012733 comparative method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及基于迁移学习的快速混合高阶注意力域对抗网络的方法,包括:设计用于待处理图像数据集的快速混合高阶注意力和域对抗自适应网络;对源域和目标域进行预处理;将预处理的源域和目标域依次分批量导入所设计的网络,经过快速混合高阶注意力网络得到加权的特征图,然后将这些加权的精细特征图输入到域对抗自适应网络中训练,最后经全连接层进行概率运算;分别计算出源域和目标域的图像平均分类准确率;经过反向传播中梯度反转层取反梯度方向形成对抗训练,再进行迭代训练,利用在源域上训练好的快速混合高阶注意力和域对抗自适应网络,直接应用在目标域上进行图像分类。本发明提高了迁移学习中无监督域自适应网络的识别率和迁移能力。
Description
技术领域
本发明涉及一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,属于神经网络深度学习技术领域。
背景技术
到目前为止,采用完全标注数据进行模型训练的监督学习方法已经取得了巨大的成功,并且成功地应用于许多实际应用中,例如图像识别,语音识别等。但在实际场景中收集足够的训练数据通常很昂贵,耗时并涉及大量的人力资源甚至不切实际。针对这个问题,目前一种常用的解决办法是利用容易标注的源领域中的丰富知识来促进多个标签稀缺目标领域的有效模型学习,被称为领域适应。通常,域适应包括有监督的适应(其中少量标记的目标数据可用于训练)和无监督的适应(其中不存在标记的目标数据)。在应用场景下,目标域无标签的情况更加普遍,并且针对这种情况下的无监督方法近年来也获得了一些重大的进展。因此,本文专注于处理无监督域自适应问题,该问题更具挑战性和解决现实世界中的问题实用性。
无监督域自适应专门解决有全部标记的源域数据和只包含未标记的目标域数据可在训练期间使用的情况。解决无监督域自适应的主要挑战是如何减少域不一致,这也称为域差异。域不一致是一个非常普遍的问题,它是由多种因素引起的,例如自然场景理解中存在的数据捕获角度,照明和图像质量,背景,分辨率等等。为此,在早期基于浅层模型提出了深层领域混淆方法,通过引入适应层和最大均值差域混淆损失来学习域不变表示。深度适应网络方法将任务特定的层嵌入到再现的内核希尔伯特空间中,以增强特征的可传递性。测地流核网络采用KL散度来估计域差异,并整合有限个子空间来发现新的特征表示。然而想要学习到深层模型的可迁移特征,普遍采用基于域分布间统计特性的一种方法是引入对抗学习。
近年来,对抗训练已经被引入来学习领域不变特征,并大大提高了无监督域自适应的性能。已有提出域对抗自适应(DANN)方法建议适用于域自适应的特征应具有判别性和域不变性,并增加了在特征提取器的末尾进行领域分类,以学习领域不变特征。协作与对抗网络提出使用DANN学习领域不变特征后,目标领域数据中的某些特征信息可能会丢失。因此,协作与对抗网络将一组域分类器引入到多个块中,以学习较低层块的域信息表示和较高层块的域非信息表示。对抗性区分域适应网络学习源域的表示,然后通过域对抗损失将目标数据映射到同一空间。多对抗域自适应通过捕获多模态信息来实现多对抗学习,从而基于多个域识别符实现跨域数据分布的细粒度匹配。条件域对抗网络是一种新颖的条件对抗学习框架,它以标签分类器输出中传递的区分性信息为条件,来对抗对抗传递模型,从而实现多模式结构的细粒度对齐。
尽管域对抗自适应方法已经取得了显著的成果,但它们仍然面临着一个主要的瓶颈:尽管对抗域自适应有了显著的改进,但没有考虑不同图像区域的复杂空间属性。显然,图像的不同区域不能平等地迁移。图像中的某些区域,如背景,虽然可以在特征空间中跨域对齐,但可能对域自适应贡献不大。此外,某些在特征空间中跨域明显不同的图像不应跨域强行对齐,否则可能容易受到无关知识的负面转移的影响。为此,有研究人员建议把注意力加入到对抗自适应中,提出自注意力生成对抗网络方法将自注意力加到生成对抗网络框架中,有助于对跨图像区域进行远程和多级依赖性建模.之后,在领域适应性转移注意模型中,部署了多个区域级域标识符以生成可转移的局部注意力,而单个图像级域标识符则用于生成可转移的全局注意力以强调可转移的图像。虽然,领域适应性转移注意考虑到不同图像可转移性的差异性,探索跨域更相似的图像,但是这些常用的注意力方法(即空间和通道注意力)是基于一阶空间分布判别mask,仅限于挖掘简单和粗糙的信息,它们不足以捕获复杂的高阶显著性信息。
为了解决这一局限性,在本发明中,探索使用高阶统计信息进行域匹配的好处,由于高阶统计量可以近似更复杂的非高斯分布,因此高阶矩张量匹配有望实现全面的域对齐。
发明内容
本发明的目的是针对上述已有技术存在的不足和缺陷,提供一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,增强特征的可迁移性以提高模型在无监督图像分类任务中的迁移泛化能力和准确的,避免出现负迁移,解决迁移学习中无监督自适应的域不一致的问题。
本发明的技术方案是:一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,所述方法包括如下步骤:
Step1:将待处理的图像数据集划分为源域和目标域;
Step2:设计用于待处理图像数据集的快速混合高阶注意力和域对抗自适应网络FHAN,该快速混合高阶注意力包括通道注意力和高阶空间注意力,域对抗自适应网络包括特征提取器G、域鉴别器D、分类器C;
Step3:对源域和目标域在输入快速混合高阶注意力和域对抗自适应网络前进行预处理;
Step4:将预处理的源域和目标域依次分批量导入所设计的快速混合高阶注意力和域对抗自适应网络,经过快速混合高阶注意力网络得到加权的特征图,然后将这些加权的精细特征图输入到域对抗自适应网络中训练,最后经全连接层进行概率运算;
Step5:分别计算出源域和目标域的图像平均分类准确率;
Step6:经过反向传播中梯度反转层取反梯度方向形成对抗训练,然后进行迭代训练,最后,利用在源域上训练好的快速混合高阶注意力和域对抗自适应网络,直接应用在目标域上进行图像分类。
进一步地,所述快速混合高阶注意力和域对抗自适应网络的详细训练步骤如下:给定一个通过ResNet-50提取的特征图F∈RC×H×W网络,这里C,H,W仅分别表示F的通道数,高度和宽度,将其输入卷积层,为了利用特征的通道间关系,应分别使用两个不同的空间上下文描述符AvgPool(F)和MaxPool(F)汇总输入特征的空间尺寸,然后将两个描述符作为具有一个隐藏层的多层感知器MLP转发到共享网络,以生成通道注意掩码Mc(F),将共享网络应用于每个描述符后,使用逐元素求和合并输出特征向量;最后,通过S形函数获得每个像素值的重要值;简而言之,通道注意力映射的计算公式为:
Mc(F)=sigmoid(K1×H×W*(AvgPool(F)+maxPool(F))) (1)
把得到通道注意力映射加权传播到特征图F上,最终通道注意力为:
从空间角度来看,通道注意力是全局性应用的,而空间注意力是局部性的,但是,这些掩模只能由空间特征的一阶统计量表示,这仅限于挖掘简单和粗糙的信息,也不足以捕获复杂的高级表示,因此,进一步采用高阶空间注意Mh(F)∈R1×H×W,以获得特征对齐的详细高阶统计量;首先,在f∈RC的高阶统计量f的顶部定义一个线性多项式预测变量,它表示在f的特定空间位置的局部描述符为:
其中<·,·>表示两个相同大小的张量的内积,r是阶数,表示r阶次的外积,其中每个外积包含f中的度R单项式,而wr是要学习的r阶张量,它包含f中阶r变量组合的权重,Dr为r组1×1卷积滤波器,αr为权重向量,αr,d为秩一张量的关联权重向量,多项式特征向量,s为源域的向量阶数,d目标源的向量阶数,f为高阶统计量,zr为r阶特征向量图,高阶空间注意力映射计算公式为:
Mh(F)=sigmoid([m(f);f∈F])
=(hσ(m(f));f∈F) (4)
给定中间特征映射F∈RC×H×W作为输入,依次推断出一个一维通道注意力映射Mc∈RC×1×1和一个二维的空间注意力映射Ms∈R1×H×W,整个快速混合注意力计算公式为:
为此,致力于通过组合复杂的高阶统计量来建模空间注意力机制,以捕获精确零件之间的更复杂和更高级的信息,从而使特征提取器产生更高层次的信息可传递性并区分出精细特征。
进一步地,在Step4中,利用学习到的加权的特征图和分类器C预测作为条件训练域判别器,这里采用min-max策略计算域对抗自适应损失通过如下计算公式:
其中,Ly表示交叉熵损失函数,Ld表示为域判别器损失函数,D表示域判别器,C表示分类器,α表示平衡参数,Ds为源域,Dt为目标域,yi为源域样本个数,di为目标域样本个数,xi表示为域判别器判别正确的样本个数,Fh(xi)表示快速混合高阶注意力的特征向量,训练收敛后,快速混合高阶注意力/域判别器和C分类器三者对应的参数θf,θd,θc将传递函数对抗自适应损失公式的鞍点:
进一步地,在Step3中,所述对源域和目标域图像在输入训练快速混合注意力和域对抗自适应网络前进行预处理方法如下:首先对每张图像缩放到固定的尺寸大小,然后对于源域和目标域图像,每张图像进行归一化处理,最后,对图像的每个通道的像素值缩放到[0,1]区间。
进一步地,在Step4中,分批量导入的源域和目标域批大小均为64,训练时,目标域批大小为16。
本发明的有益效果是:
本发明在无监督域自适应图像分类过程中,有效的提高了特征的可迁移性,同时极大的提高了模型的泛化能力和分类准确度,避免了负迁移。
附图说明
图1是本发明的快速混合高阶注意力域对抗自适应网络模型;
图2是本发明的快速高阶空间注意力示意图;
图3是本发明和其他对比方法在迁移任务MNIST→USPS上的测试误差曲线。
具体实施方式
实施例1:结合附图和在数据集Digits上的无监督域自适应对发明内容做进一步说明,一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,图1是本发明一个实施例的快速混合高阶注意力和域对抗自适应模型框图;
所述方法包括如下步骤:
Step1:将待处理的图像数据集划分为源域和目标域;
Step2:设计用于待处理图像数据集的快速混合高阶注意力和域对抗自适应网络FHAN,该快速混合高阶注意力包括通道注意力和高阶空间注意力,域对抗自适应网络包括特征提取器G、域鉴别器D、分类器C;
Step3:对源域和目标域在输入快速混合高阶注意力和域对抗自适应网络前进行预处理;
Step4:将预处理的源域和目标域依次分批量导入所设计的快速混合高阶注意力和域对抗自适应网络,经过快速混合高阶注意力网络得到加权的特征图,然后将这些加权的精细特征图输入到域对抗自适应网络中训练,最后经全连接层进行概率运算;
Step5:分别计算出源域和目标域的图像平均分类准确率;
Step6:经过反向传播中梯度反转层取反梯度方向形成对抗训练,然后进行迭代训练,最后,利用在源域上训练好的快速混合高阶注意力和域对抗自适应网络,直接应用在目标域上进行图像分类。
本发明设计用于待处理图像数据集的快速混合高阶注意力和域对抗自适应网络,利用ResNet-50基本网络提取图像的特征,然后把这些特征传输到快速混合高阶注意力网络,得到加权的精细特征图;最后把这些加权的精细特征图送给域对抗自适应网络进行训练,通过不断的迭代训练,得到能够直接应用在目标域上进行图像分类模型。
进一步地,所述快速混合高阶注意力和域对抗自适应网络的详细训练步骤如下:给定一个通过ResNet-50提取的特征图F∈RC×H×W网络,这里C,H,W仅分别表示F的通道数,高度和宽度,将其输入卷积层,为了利用特征的通道间关系,应分别使用两个不同的空间上下文描述符AvgPool(F)和MaxPool(F)汇总输入特征的空间尺寸,然后将两个描述符作为具有一个隐藏层的多层感知器MLP转发到共享网络,以生成通道注意掩码Mc(F),将共享网络应用于每个描述符后,使用逐元素求和合并输出特征向量;最后,通过S形函数获得每个像素值的重要值;简而言之,通道注意力映射的计算公式为:
Mc(F)=sigmoid(K1×H×W*(AvgPool(F)+maxPool(F))) (1)
把得到通道注意力映射加权传播到特征图F上,最终通道注意力为:
图2是本发明的快速高阶空间注意力示意图,从空间角度来看,通道注意力是全局性应用的,而空间注意力是局部性的,但是,这些掩模只能由空间特征的一阶统计量表示,这仅限于挖掘简单和粗糙的信息,也不足以捕获复杂的高级表示,因此,进一步采用高阶空间注意Mh(F)∈R1×H×W,以获得特征对齐的详细高阶统计量;首先,在f∈RC的高阶统计量f的顶部定义一个线性多项式预测变量,它表示在f的特定空间位置的局部描述符为:
其中<·,·>表示两个相同大小的张量的内积,r是阶数,表示r阶次的外积,其中每个外积包含f中的度R单项式,而wr是要学习的r阶张量,它包含f中阶r变量组合的权重,Dr为r组1×1卷积滤波器,αr为权重向量,αr,d为秩一张量的关联权重向量,多项式特征向量,s为源域的向量阶数,d目标源的向量阶数,f为高阶统计量,zr为r阶特征向量图,高阶空间注意力映射计算公式为:
Mh(F)=sigmoid([m(f);f∈F])
=(hσ(m(f));f∈F) (4)
给定中间特征映射F∈RC×H×W作为输入,依次推断出一个一维通道注意力映射Mc∈RC×1×1和一个二维的空间注意力映射Ms∈R1×H×W,整个快速混合注意力计算公式为:
为此,致力于通过组合复杂的高阶统计量来建模空间注意力机制,以捕获精确零件之间的更复杂和更高级的信息,从而使特征提取器产生更高层次的信息可传递性并区分出精细特征。
进一步地,在Step4中,利用学习到的加权的特征图和分类器C预测作为条件训练域判别器,这里采用min-max策略计算域对抗自适应损失通过如下计算公式:
其中,Ly表示交叉熵损失函数,Ld表示为域判别器损失函数,D表示域判别器,C表示分类器,α表示平衡参数,Ds为源域,Dt为目标域,yi为源域样本个数,di为目标域样本个数,xi表示为域判别器判别正确的样本个数,Fh(xi)表示快速混合高阶注意力的特征向量,训练收敛后,快速混合高阶注意力/域判别器和C分类器三者对应的参数θf,θd,θc将传递函数对抗自适应损失公式的鞍点:
进一步地,在Step3中,所述对源域和目标域图像在输入训练快速混合注意力和域对抗自适应网络前进行预处理方法如下:首先对每张图像缩放到固定的尺寸大小,然后对于源域和目标域图像,每张图像进行归一化处理,最后,对图像的每个通道的像素值缩放到[0,1]区间,以此提高网络训练时的准确率。
进一步地,在Step4中,分批量导入的源域和目标域批大小均为64,训练时,目标域批大小为16。
本发明主要是一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,其将设计的快速混合高阶注意力与域对抗自适应网络结合。该方法采用混合高阶注意力机制对提取的特征进行加权,从而可以有效地消除不可转让特征的影响。该方法仅匹配从整个图像中提取的特征跨域通过考虑不同区域或图像的可传递性,进一步开发了复杂的多峰结构信息,以实现更精细的特征匹配。对Digits基准数据集的实验证明了该方法的可行性和有效性。
本发明有着广泛的应用领域,例如在迁移学习,应用于不同数据集跨域迁移下的任务训练中,通过对源域数据集学习权重的更新保存,可以实现跨域数据集的迁移,提升迁移的有效性,同时这些跨域任务的学习是无监督的,能减少了海量的数据标注成本。在未来人工智能时代下,对“智慧”大脑的发展也有所帮助,减少神经网络冗余复杂的麻烦,一个神经网络能学习多个知识并把学到知识迁移到另一个领域。本发明的实验过程中,使用系统Ubuntu18.04,采用硬件CPU为i78700k 3.7GHz×6,编程语言为python3.6,显卡为英伟达GeForce RTX 2070,深度学习框架为Pytorch1.2。
该实施所述模型在数字Digits数据集上验证本发明的有效性,Digits数据集:数字手写体(MNIST),邮政数字(USPS)和街景房门号码(SVHN)是一个用于图像识别域自适应的标准数据集。这三个数据集都包含10个类别的数字,范围从0到9。和USPS分别包含28×28和16×16灰度图像,SVHN由32×32彩色图像组成,每个图像中可能包含多个数字。采用具有三个迁移任务的评估协议:USPS→MNIST,MNIST→USPS,SVHN→MNIST。
图3是本发明和其他对比方法在迁移任务MNIST→USPS上的测试误差曲线。可以看出,提出的HMAN-1的收敛速度比DAN快,而HMAN-3的性能优于HMAN-1。值得注意的是,在对抗训练开始时,HMAN-3的性能具有与HMAN-6类似的稳定收敛性能,而HMAN-6的性能明显优于HMAN-3在整个收敛过程中。因此,随着阶数的上升训练的进行,逐渐在源域和目标域之间学习了更细粒度的特征,并且HMAN-6的性能优于其他方法。以上发现证实本发明的模型可以平稳,快速地实现最小的测试误差,从而实现更好的域传输。
表1为本发明和其他比较方法在Digits数据集上的实验结果。本发明在大多数域自适应任务上取得了最好的准确率,清楚地观察到在实验中,本发明的方法在MNIST→USPS,USPS→MNIST和SVHN→MNIST上的性能明显优于基本模型DANN,提高到14.9%,9%,和19.7%。从结果可以看出,本发明的方法可以胜过最新的方法3CATN。本发明分别在MNIST→USPS,USPS→MNIST和SVHN→MNIST上实现了0.9\%,0.4\%和1.1\%的精度改进。平均值就准确性而言,与最新的3CATN方法相比,本发明可以提高1.2\%。本发明的模型从图像中提取出前景中关键目标的精细特征,训练方法进一步学习了可以传递和区分的更精细的特征表示,这进一步证明了本发明在迁移任务过程中学习更多可迁移特征的有效性。
表1为本发明和其他比较方法在Digits数据集上的实验结果
综上,根据本发明实施例的一种基于迁移学习的快速混合高阶注意力域对抗网络的方法是一种具有混合式高阶注意力机制的新型对抗学习方法。与以前的方法不同,它仅匹配跨域的全局要素表示,这可能导致负迁移。该方法利用混合的高阶注意力机制对提取的特征进行加权,可以有效消除不可转移特征的影响。在这种方法中,只有从整个图像中提取的特征才跨域匹配。通过考虑不同区域或图像的传递性,可以进一步开发复杂的多峰结构信息,以实现更精确的特征匹配。在基准数据集上的综合实验表明了该方法的可行性和有效性。
与现有的其他方法相比,本例的实施通过使用对抗增量聚类动态路由网络的模型,然后通过对旋转任务的训练进行参数调整,找到使得训练精度最高的参数。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (5)
1.一种基于迁移学习的快速混合高阶注意力域对抗网络的方法,其特征在于:所述方法包括如下步骤:
Step1:将待处理的图像数据集划分为源域和目标域;
Step2:设计用于待处理图像数据集的快速混合高阶注意力和域对抗自适应网络,该快速混合高阶注意力包括通道注意力和高阶空间注意力,域对抗自适应网络包括特征提取器G、域鉴别器D、分类器C;
Step3:对源域和目标域在输入快速混合高阶注意力和域对抗自适应网络前进行预处理;
Step4:将预处理的源域和目标域依次分批量导入所设计的快速混合高阶注意力和域对抗自适应网络,经过快速混合高阶注意力网络得到加权的特征图,然后将这些加权的精细特征图输入到域对抗自适应网络中训练,最后经全连接层进行概率运算;
Step5:分别计算出源域和目标域的图像平均分类准确率;
Step6:经过反向传播中梯度反转层取反梯度方向形成对抗训练,然后进行迭代训练,最后,利用在源域上训练好的快速混合高阶注意力和域对抗自适应网络,直接应用在目标域上进行图像分类。
2.根据权利要求1所述的基于迁移学习的快速混合高阶注意力域对抗网络的方法,其特征在于:所述快速混合高阶注意力和域对抗自适应网络的详细训练步骤如下:给定一个通过ResNet-50提取的特征图F∈RC×H×W网络,这里C,H,W仅分别表示F的通道数,高度和宽度,将其输入卷积层,为了利用特征的通道间关系,应分别使用两个不同的空间上下文描述符AvgPool(F)和MaxPool(F)汇总输入特征的空间尺寸,然后将两个描述符作为具有一个隐藏层的多层感知器MLP转发到共享网络,以生成通道注意掩码Mc(F),将共享网络应用于每个描述符后,使用逐元素求和合并输出特征向量;最后,通过S形函数获得每个像素值的重要值;简而言之,通道注意力映射的计算公式为:
Mc(F)=sigmoid(K1×H×W*(AvgPool(F)+maxPool(F))) (1)
把得到通道注意力映射加权传播到特征图F上,最终通道注意力为:
从空间角度来看,通道注意力是全局性应用的,而空间注意力是局部性的,但是,这些掩模只能由空间特征的一阶统计量表示,这仅限于挖掘简单和粗糙的信息,也不足以捕获复杂的高级表示,因此,进一步采用高阶空间注意Mh(F)∈R1×H×W,以获得特征对齐的详细高阶统计量;首先,在f∈RC的高阶统计量f的顶部定义一个线性多项式预测变量,它表示在f的特定空间位置的局部描述符为:
其中<·,·>表示两个相同大小的张量的内积,r是阶数,表示r阶次的外积,其中每个外积包含f中的度R单项式,而wr是要学习的r阶张量,它包含f中阶r变量组合的权重,Dr为r组1×1卷积滤波器,αr为权重向量,αr,d为秩一张量的关联权重向量,多项式特征向量,s为源域的向量阶数,d目标源的向量阶数,f为高阶统计量,zr为r阶特征向量图,高阶空间注意力映射计算公式为:
Mh(F)=sigmoid([m(f);f∈F])
=(hσ(m(f));f∈F) (4)
给定中间特征映射F∈RC×H×W作为输入,依次推断出一个一维通道注意力映射Mc∈RC×1×1和一个二维的空间注意力映射Ms∈R1×H×W,整个快速混合注意力计算公式为:
为此,致力于通过组合复杂的高阶统计量来建模空间注意力机制,以捕获精确零件之间的更复杂和更高级的信息,从而使特征提取器产生更高层次的信息可传递性并区分出精细特征。
3.根据权利要求1所述的基于迁移学习的快速混合高阶注意力域对抗网络的方法,其特征在于:在Step4中,利用学习到的加权的特征图和分类器C预测作为条件训练域判别器,这里采用min-max策略计算域对抗自适应损失通过如下计算公式:
其中,Ly表示交叉熵损失函数,Ld表示为域判别器损失函数,D表示域判别器,C表示分类器,α表示平衡参数,Ds为源域,Dt为目标域,yi为源域样本个数,di为目标域样本个数,xi表示为域判别器判别正确的样本个数,Fh(xi)表示快速混合高阶注意力的特征向量,训练收敛后,快速混合高阶注意力/域判别器和C分类器三者对应的参数θf,θd,θc将传递函数对抗自适应损失公式的鞍点:
4.根据权利要求1所述的基于迁移学习的快速混合高阶注意力域对抗网络的方法,其特征在于:在Step3中,所述对源域和目标域图像在输入训练快速混合注意力和域对抗自适应网络前进行预处理方法如下:首先对每张图像缩放到固定的尺寸大小,然后对于源域和目标域图像,每张图像进行归一化处理,最后,对图像的每个通道的像素值缩放到[0,1]区间。
5.根据权利要求1所述的基于迁移学习的快速混合高阶注意力域对抗网络的方法,其特征在于:在Step4中,分批量导入的源域和目标域批大小均为64,训练时,目标域批大小为16。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011258357.1A CN112446423B (zh) | 2020-11-12 | 2020-11-12 | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011258357.1A CN112446423B (zh) | 2020-11-12 | 2020-11-12 | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112446423A true CN112446423A (zh) | 2021-03-05 |
CN112446423B CN112446423B (zh) | 2023-01-17 |
Family
ID=74736869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011258357.1A Active CN112446423B (zh) | 2020-11-12 | 2020-11-12 | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446423B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326378A (zh) * | 2021-06-16 | 2021-08-31 | 山西财经大学 | 一种基于参数迁移和注意力共享机制的跨领域文本情感分类方法 |
CN113436197A (zh) * | 2021-06-07 | 2021-09-24 | 华东师范大学 | 基于生成对抗和类特征分布的域适应无监督图像分割方法 |
CN114529766A (zh) * | 2022-02-18 | 2022-05-24 | 厦门大学 | 基于域适应的异质异源sar目标识别方法 |
CN114638964A (zh) * | 2022-03-07 | 2022-06-17 | 厦门大学 | 基于深度学习的跨域三维点云分割方法、存储介质 |
CN114743013A (zh) * | 2022-03-25 | 2022-07-12 | 中国科学院自动化研究所 | 局部描述子生成方法、装置、电子设备和计算机程序产品 |
CN115830548A (zh) * | 2023-02-17 | 2023-03-21 | 天津大学 | 一种无监督多领域融合的自适应行人重识别方法 |
CN116384448A (zh) * | 2023-04-10 | 2023-07-04 | 中国人民解放军陆军军医大学 | 基于混合高阶非对称卷积网络的cd严重程度分级系统 |
CN116630679A (zh) * | 2023-03-29 | 2023-08-22 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN117011718A (zh) * | 2023-10-08 | 2023-11-07 | 之江实验室 | 一种基于多元损失融合的植物叶片细粒度识别方法和系统 |
CN117113061A (zh) * | 2023-09-14 | 2023-11-24 | 中国人民解放军军事科学院系统工程研究院 | 跨接收机辐射源指纹识别方法和装置 |
CN117131424A (zh) * | 2023-10-25 | 2023-11-28 | 中国移动通信集团设计院有限公司 | 一种训练方法、流量检测方法、装置、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095175A1 (en) * | 2017-09-22 | 2019-03-28 | Fujitsu Limited | Arithmetic processing device and arithmetic processing method |
CN109753992A (zh) * | 2018-12-10 | 2019-05-14 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
CN110555060A (zh) * | 2019-09-09 | 2019-12-10 | 山东省计算中心(国家超级计算济南中心) | 基于成对样本匹配的迁移学习方法 |
CN111242157A (zh) * | 2019-11-22 | 2020-06-05 | 北京理工大学 | 联合深度注意力特征和条件对抗的无监督域自适应方法 |
CN111325319A (zh) * | 2020-02-02 | 2020-06-23 | 腾讯云计算(北京)有限责任公司 | 一种神经网络模型的检测方法、装置、设备及存储介质 |
CN111429355A (zh) * | 2020-03-30 | 2020-07-17 | 新疆大学 | 一种基于生成对抗网络的图像超分辨率重建方法 |
CN111768342A (zh) * | 2020-09-03 | 2020-10-13 | 之江实验室 | 基于注意力机制和多级反馈监督的人脸超分辨方法 |
-
2020
- 2020-11-12 CN CN202011258357.1A patent/CN112446423B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095175A1 (en) * | 2017-09-22 | 2019-03-28 | Fujitsu Limited | Arithmetic processing device and arithmetic processing method |
CN109753992A (zh) * | 2018-12-10 | 2019-05-14 | 南京师范大学 | 基于条件生成对抗网络的无监督域适应图像分类方法 |
CN110555060A (zh) * | 2019-09-09 | 2019-12-10 | 山东省计算中心(国家超级计算济南中心) | 基于成对样本匹配的迁移学习方法 |
CN111242157A (zh) * | 2019-11-22 | 2020-06-05 | 北京理工大学 | 联合深度注意力特征和条件对抗的无监督域自适应方法 |
CN111325319A (zh) * | 2020-02-02 | 2020-06-23 | 腾讯云计算(北京)有限责任公司 | 一种神经网络模型的检测方法、装置、设备及存储介质 |
CN111429355A (zh) * | 2020-03-30 | 2020-07-17 | 新疆大学 | 一种基于生成对抗网络的图像超分辨率重建方法 |
CN111768342A (zh) * | 2020-09-03 | 2020-10-13 | 之江实验室 | 基于注意力机制和多级反馈监督的人脸超分辨方法 |
Non-Patent Citations (2)
Title |
---|
姚鲁等: "混合阶通道注意力网络的单图像超分辨率重建", 《计算机应用》 * |
王波: "基于对抗学习与注意力机制的图像语义分割", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436197A (zh) * | 2021-06-07 | 2021-09-24 | 华东师范大学 | 基于生成对抗和类特征分布的域适应无监督图像分割方法 |
CN113326378B (zh) * | 2021-06-16 | 2022-09-06 | 山西财经大学 | 一种基于参数迁移和注意力共享机制的跨领域文本情感分类方法 |
CN113326378A (zh) * | 2021-06-16 | 2021-08-31 | 山西财经大学 | 一种基于参数迁移和注意力共享机制的跨领域文本情感分类方法 |
CN114529766A (zh) * | 2022-02-18 | 2022-05-24 | 厦门大学 | 基于域适应的异质异源sar目标识别方法 |
CN114638964A (zh) * | 2022-03-07 | 2022-06-17 | 厦门大学 | 基于深度学习的跨域三维点云分割方法、存储介质 |
CN114743013A (zh) * | 2022-03-25 | 2022-07-12 | 中国科学院自动化研究所 | 局部描述子生成方法、装置、电子设备和计算机程序产品 |
CN115830548A (zh) * | 2023-02-17 | 2023-03-21 | 天津大学 | 一种无监督多领域融合的自适应行人重识别方法 |
CN115830548B (zh) * | 2023-02-17 | 2023-05-05 | 天津大学 | 一种无监督多领域融合的自适应行人重识别方法 |
CN116630679B (zh) * | 2023-03-29 | 2024-06-04 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN116630679A (zh) * | 2023-03-29 | 2023-08-22 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN116384448A (zh) * | 2023-04-10 | 2023-07-04 | 中国人民解放军陆军军医大学 | 基于混合高阶非对称卷积网络的cd严重程度分级系统 |
CN116384448B (zh) * | 2023-04-10 | 2023-09-12 | 中国人民解放军陆军军医大学 | 基于混合高阶非对称卷积网络的cd严重程度分级系统 |
CN117113061A (zh) * | 2023-09-14 | 2023-11-24 | 中国人民解放军军事科学院系统工程研究院 | 跨接收机辐射源指纹识别方法和装置 |
CN117113061B (zh) * | 2023-09-14 | 2024-02-23 | 中国人民解放军军事科学院系统工程研究院 | 跨接收机辐射源指纹识别方法和装置 |
CN117011718A (zh) * | 2023-10-08 | 2023-11-07 | 之江实验室 | 一种基于多元损失融合的植物叶片细粒度识别方法和系统 |
CN117011718B (zh) * | 2023-10-08 | 2024-02-02 | 之江实验室 | 一种基于多元损失融合的植物叶片细粒度识别方法和系统 |
CN117131424A (zh) * | 2023-10-25 | 2023-11-28 | 中国移动通信集团设计院有限公司 | 一种训练方法、流量检测方法、装置、设备及介质 |
CN117131424B (zh) * | 2023-10-25 | 2024-02-20 | 中国移动通信集团设计院有限公司 | 一种训练方法、流量检测方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112446423B (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112446423B (zh) | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 | |
WO2021042828A1 (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
Ma et al. | TS-LSTM and temporal-inception: Exploiting spatiotemporal dynamics for activity recognition | |
Wang et al. | Deep visual domain adaptation: A survey | |
Zhai et al. | Multiple expert brainstorming for domain adaptive person re-identification | |
Guo et al. | Deep clustering with convolutional autoencoders | |
He et al. | Neural factorization machines for sparse predictive analytics | |
Wang et al. | Beyond frame-level CNN: saliency-aware 3-D CNN with LSTM for video action recognition | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN113298189A (zh) | 一种基于无监督域自适应的跨域图像分类方法 | |
CN112668482B (zh) | 人脸识别训练方法、装置、计算机设备及存储介质 | |
CN113821668A (zh) | 数据分类识别方法、装置、设备及可读存储介质 | |
CN110659663A (zh) | 一种无监督的双向重建领域自适应方法 | |
Gao et al. | Hierarchical feature disentangling network for universal domain adaptation | |
CN114048843A (zh) | 一种基于选择性特征迁移的小样本学习网络 | |
CN116758379B (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN117456267A (zh) | 一种基于相似原型回放的类增量学习方法 | |
Si et al. | Regularized hypothesis-induced wasserstein divergence for unsupervised domain adaptation | |
Guo et al. | JAC-Net: Joint learning with adaptive exploration and concise attention for unsupervised domain adaptive person re-identification | |
CN114529908A (zh) | 一种离线手写化学反应式图像识别技术 | |
Wang et al. | Adaptive face recognition using adversarial information network | |
Saurav et al. | A dual‐channel ensembled deep convolutional neural network for facial expression recognition in the wild | |
Dong et al. | Asymmetric mutual mean-teaching for unsupervised domain adaptive person re-identification | |
Ngo et al. | Multiple Tasks-Based Multi-Source Domain Adaptation Using Divide-and-Conquer Strategy | |
Swarnkar et al. | A paradigm shift for computational excellence from traditional machine learning to modern deep learning-based image steganalysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |