CN112749734A - 一种基于可迁移注意力机制的领域自适应的目标检测方法 - Google Patents
一种基于可迁移注意力机制的领域自适应的目标检测方法 Download PDFInfo
- Publication number
- CN112749734A CN112749734A CN202011594833.7A CN202011594833A CN112749734A CN 112749734 A CN112749734 A CN 112749734A CN 202011594833 A CN202011594833 A CN 202011594833A CN 112749734 A CN112749734 A CN 112749734A
- Authority
- CN
- China
- Prior art keywords
- domain
- feature map
- attention
- channel
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 11
- 238000013508 migration Methods 0.000 description 10
- 230000005012 migration Effects 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 4
- 238000013526 transfer learning Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005622 photoelectricity Effects 0.000 description 1
- OLBCVFGFOZPWHH-UHFFFAOYSA-N propofol Chemical compound CC(C)C1=CC=CC(C(C)C)=C1O OLBCVFGFOZPWHH-UHFFFAOYSA-N 0.000 description 1
- 229960004134 propofol Drugs 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于可迁移注意力机制的领域自适应的目标检测方法,包括:输入源域图片及目标域图片;通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;将增强后的特征输入检测头,完成域自适应的目标检测。该基于可迁移注意力机制的领域自适应的目标检测方法的目的是解决现有针对缩小源域和目标域分布之间差异的解决方法的效果比较差的问题。
Description
技术领域
本发明涉及光电技术领域,具体涉及一种基于可迁移注意力机制的领域自适应的目标检测方法。
背景技术
目前我们处于一个信息爆炸的社会,每时每刻都会产生大量数据。数据标注是一个极其耗费人力物力的任务,而且从头开始训练一个模型的代价也非常高昂。如何利用现有的有标签数据训练能够适用于无标签数据的模型成为当前研究的热门问题。迁移学习就是解决这一问题的重要方法之一。
迁移学习是一种通过已有的知识来学习新知识的方法,核心是利用已有知识和新知识之间的相似性。在迁移学习中,我们已有的知识叫做源域,需要学习的新知识叫做目标域,源域和目标域不同但具有某种关联,我们需要尽量缩小源域和目标域之间的分布差异。按照迁移学习的方式,常用的迁移学习方法可分为基于样本的迁移,基于特征的迁移,基于模型的迁移和基于关系的迁移等。
领域自适应(Domain Adaption)是迁移学习中的一个重要的研究方向,对于一个有标签的源域和无标签的目标域,它们提取的特征和预测类别相同但特征的分布不同。针对如何缩小源域和目标域分布之间的差异的问题,目前常用的解决思路有如下几种:
概率分布适配,该方法从数据分布的角度最小化概率分布的距离,大多数方法基于MMD距离进行优化求解。目前使用较多的是基于深度学习的分布适配方法,如DDC,DAN等。
特征选择,选择源域和目标域的公共特征建立统一的模型,同时适用于源域和目标域。
特征变换,该思路把源域和目标域变换到相同的特征子空间中,采用子空间学习法。
有鉴于此,本领域技术人员亟待提供一种基于可迁移注意力机制的领域自适应的目标检测方法用于解决上述问题。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种基于可迁移注意力机制的领域自适应的目标检测方法,以解决现有针对缩小源域和目标域分布之间差异的解决方法的效果比较差的技术问题。
(二)技术方案
本发明提供了一种基于可迁移注意力机制的领域自适应的目标检测方法,该方法包括以下步骤:
输入源域图片及目标域图片;
通过主干网络分别提取所述源域图片的第一特征图、所述目标域图片的第二特征图;
分别对所述第一特征图及所述第二特征图进行基于位置、通道的可迁移注意力的特征增强;
将增强后的特征输入检测头,完成域自适应的目标检测。
进一步地,所述第一特征图、所述第二特征图均为最顶层特征图。
进一步地,对所述第一特征图及所述第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
为所述第一特征图及所述第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个所述第一域判别器负责匹配对应区域中源域和目标域的数据;
采用熵函数刻画每一个所述区域的域分类的不确定性;
根据可迁移注意力将每一个所述区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征。
进一步地,所述K个区域的第一域判别器总体损失Lposition为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,Gf代表特征提取器,fi k=Gf(xi)k是第K个区域的特征表示,di是点xi的域标签,Ld是域判别器的交叉熵损失函数,k=1,2,…,K。
进一步地,对所述第一特征图及所述第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
对K个通道进行全局平均池化,获得每一个通道特征总体的表示;
利用第二域判别器对所述每一个通道的特征进行分类,判断所述每一个通道的特征的域;
依据所述第二域判别器输出结果的熵刻画该通道的可迁移性;
根据可迁移注意力将所述每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
进一步地,所述K个通道的第二域判别器总体损失Lchannel为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,nk i为平均池化后的第i张图片提取特征的第k个通道mk i,Di为点xi的域标签,Lc为第二域判别器Gc k的交叉熵损失函数,k=1,2,…,K。
(三)有益效果
本发明提供的基于可迁移注意力机制的领域自适应的目标检测方法,包括:输入源域图片及目标域图片;通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;将增强后的特征输入检测头,完成域自适应的目标检测。该检测方法是利用基于域判别器输出结果的熵判断特征图中不同区域可迁移的程度,熵越大说明该区域可迁移性越强,需要赋给该区域更大的权重增强该区域特征,通过把域判别器输出结果的熵看成一种可转移的注意力机制,分别在不同位置和通道上对主干网络提取的特征进行增强,从而有效提升域自适应目标检测的效果。
附图说明
图1是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法的流程示意图;
图2是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法在foggy cityscapes数据集上的实验结果示意图;
图3是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法在watercolor数据集上的实验结果示意图。
具体实施方式
以下结合附图对本发明的具体实施方式做出详细说明。
根据本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法,如图1所示,该方法包括以下步骤:
S1、输入源域图片及目标域图片;
S2、通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;
S3、分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;
S4、将增强后的特征输入检测头,完成域自适应的目标检测。
在上述实施方式中,网络的输入是源域和目标域图片,经过一个共享参数的主干网络后得到尺度为C*H*W的最顶层特征图。在该顶层特征图上分别连接k个区域的域判别器和k个通道的域判别器对特征进行域对齐,然后从位置和通道两个方面进行基于可迁移注意力的特征增强,再将增强后的特征输入检测头,完成域自适应的目标检测。
具体地,本发明的具体应用对象是基于迁移学习的无监督目标检测系统,其软件代码采用python编程实现。
本发明针对无标注场景下的物体检测问题,设计一种基于域自适应迁移学习的物体检测算法,可以利用已有的有标签数据集作为源域训练网络,使网络能够检测无标签的目标域图片中的物体。
以下对本检测方法的参数设置进行详细描述,介绍一下实验的库的构成以及实验参数的设置:
(1)对于cityscapes->foggy cityscapes的转换,把原始cityscapes中的图像利用模拟雾的光学模型进行转换,得到有雾的数据集foggy cityscapes;训练集有2975张无标注有雾图像,测试集有500张有标注有雾图像,图像的分辨率是1920*1080;
(2)对于pascal voc->watercolor的转换,watercolor数据集是pascal voc通过CycleGAN进行转换后的到的数据集,数据集包含2000张图片,分辨率与pascal voc中的数据相同;
(3)输入图片的短边放缩为600个像素,采用的优化器是Adam优化器。
本发明实施例解决领域自适应目标检测问题的思路是基于深度学习的对抗学习方法,通过训练域判别器让分类器和主干网络的参数进行对抗学习,从而实现源域和目标域分布的对齐。
传统的自注意力机制关注图像中与键值key相似度较大的位置的值,可迁移注意力机制则是不仅关注源域上的位置,还能把关注的重点从源域转移到目标域上。可迁移注意力机制主要用来判断一个区域或一个通道是否容易迁移,并给容易迁移的位置或通道赋更大的权重。在本发明的实施例中,可迁移注意力机制分为两种:基于位置的可迁移注意力机制和基于通道的可迁移注意力机制。
在一些可选的实施例中,第一特征图、第二特征图均为最顶层特征图。
在一些可选的实施例中,在步骤S3中,对第一特征图及第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
S301、为第一特征图及第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个第一域判别器负责匹配对应区域中源域和目标域的数据;
S302、采用熵函数刻画每一个区域的域分类的不确定性;
S303、根据可迁移注意力将每一个区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征。
在上述实施方式中,图像中并非所有区域的可迁移程度都相同,某些区域比其他区域更容易迁移。因此我们为图像中的K个区域分别训练一个域判别器Gp k。每个域判别器负责匹配对应区域中源域和目标域的数据。
在一些可选的实施例中,K个区域的第一域判别器总体损失Lposition为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,Gf代表特征提取器,fi k=Gf(xi)k是第K个区域的特征表示,di是点xi的域标签,Ld是域判别器的交叉熵损失函数,k=1,2,…,K。
在上述实施方式中,我们采用熵函数来刻画一个区域域分类的不确定性。一个区域域分类不确定性越强说明越容易迁移,对于第K个区域,它的注意力权重为了避免不合理的注意力权重损害网络性能,我们加入一个残差路径直接连接输入和输出。综上,经过位置可迁移注意力增强之后的特征为:这样,就可以给容易迁移的区域更大的权重,使得域自适应模型更加关注容易迁移的重要区域。
在一些可选的实施例中,在步骤S3中,对第一特征图及第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
S304、对K个通道进行全局平均池化,获得每一个通道特征总体的表示;
S305、利用第二域判别器对每一个通道的特征进行分类,判断每一个通道的特征的域;
S306、依据第二域判别器输出结果的熵刻画该通道的可迁移性;
S307、根据可迁移注意力将每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
在上述实施方式中,对于神经网络提取的特征,不同的通道特征具有不同的意义,不同通道特征的可迁移性也具有一定的差异。我们可以先对不同通道进行全局平均池化,获得该通道特征总体的表示,然后对所有通道的特征都用一个域判别器进行分类,判断该特征属于源域还是目标域。这样,利用域判别器损失函数的监督能够对源域和目标域不同通道的特征进行对齐,再根据域判别器输出结果的熵刻画该通道的可迁移性。熵越大说明该通道越容易迁移,也会被赋予更大的权重。对于第i张图片提取特征的第k个通道mk i,平均池化后的表示为nk i,其对应的域判别器为Gc k,域标签为Di,域判别器Gc k的交叉熵损失函数是Lc。
既能够用通道域判别器让特征在通道维度上实现源域和目标域之间的对齐,又能够根据通道可迁移的程度对通道进行加权,获得表达能力更强,更容易迁移的特征。
在一些可选的实施例中,K个通道的第二域判别器总体损失Lchannel为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,nk i为平均池化后的第i张图片提取特征的第k个通道mk i,Di为点xi的域标签,Lc为第二域判别器Gc k的交叉熵损失函数,k=1,2,…,K。
在上述实施方式中,对于每个通道,反映其可迁移性的指标为熵函数 表示域判别器的输出概率。熵函数越大说明该通道越不容易被域判别器分类,也就是更加容易迁移。基于熵函数我们提出了通道可迁移注意力把所有的通道根据可迁移注意力进行加权,再加入一个shortcut层,该shortcut层的作用是增加一个输入与输出之间直接连接的通路,有利于梯度传递,可以保证在不会因为加入注意力模块深度增加导致难以训练就能够实现特征的通道增强。
具体地,该网络的损失函数包括特征层上的基于位置和基于通道的域判别器损失Lpositon和Lchannel,检测头部的域判别器损失Lproposal和检测器的定位和回归损失Ldet。因此网络总体的损失函数为:
L=λ(Lposition+Lchannel)+γLproposal+Ldet;
式中λ和γ表示基于特征的域判别器和基于proposal的域判别器损失的权重系数,取λ=γ=1。
图2显示的是算法在foggy cityscapes数据集上的实验结果。可以发现利用提出的算法进行域自适应迁移学习后,检测框架能够把在原始cityscapes数据集上学习的知识迁移到foggy cityscapes数据集上,在有雾数据集上有效检测街景中的车辆行人等。
图3显示的是算法在watercolor数据集上的实验结果,算法能够有效地把pascalvoc数据集上的知识迁移到基于CycleGAN生成的物体检测数据集上。
以上所述的实施例只是本发明较优选的具体实施方式,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。
本发明未详细描述内容为本领域技术人员公知技术。
Claims (8)
1.一种基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,该方法包括以下步骤:
输入源域图片及目标域图片;
通过主干网络分别提取所述源域图片的第一特征图、所述目标域图片的第二特征图;
分别对所述第一特征图及所述第二特征图进行基于位置、通道的可迁移注意力的特征增强;
将增强后的特征输入检测头,完成域自适应的目标检测。
2.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述第一特征图、所述第二特征图均为最顶层特征图。
3.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,对所述第一特征图及所述第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
为所述第一特征图及所述第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个所述第一域判别器负责匹配对应区域中源域和目标域的数据;
采用熵函数刻画每一个所述区域的域分类的不确定性;
根据可迁移注意力将每一个所述区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征。
6.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,对所述第一特征图及所述第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
对K个通道进行全局平均池化,获得每一个通道特征总体的表示;
利用第二域判别器对所述每一个通道的特征进行分类,判断所述每一个通道的特征的域;
依据所述第二域判别器输出结果的熵刻画该通道的可迁移性;
根据可迁移注意力将所述每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011594833.7A CN112749734B (zh) | 2020-12-29 | 2020-12-29 | 一种基于可迁移注意力机制的领域自适应的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011594833.7A CN112749734B (zh) | 2020-12-29 | 2020-12-29 | 一种基于可迁移注意力机制的领域自适应的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112749734A true CN112749734A (zh) | 2021-05-04 |
CN112749734B CN112749734B (zh) | 2024-01-05 |
Family
ID=75647709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011594833.7A Active CN112749734B (zh) | 2020-12-29 | 2020-12-29 | 一种基于可迁移注意力机制的领域自适应的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112749734B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724233A (zh) * | 2021-09-02 | 2021-11-30 | 国网安徽省电力有限公司铜陵供电公司 | 基于融合数据生成和迁移学习技术的变电设备外观图像缺陷检测方法 |
CN114596477A (zh) * | 2022-03-16 | 2022-06-07 | 东南大学 | 基于领域自适应和注意力机制的雾天火车故障检测方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109214399A (zh) * | 2018-10-12 | 2019-01-15 | 清华大学深圳研究生院 | 一种嵌入SENet结构的改进YOLOV3目标识别算法 |
CN109523018A (zh) * | 2019-01-08 | 2019-03-26 | 重庆邮电大学 | 一种基于深度迁移学习的图片分类方法 |
CN110084210A (zh) * | 2019-04-30 | 2019-08-02 | 电子科技大学 | 基于注意力金字塔网络的sar图像多尺度舰船检测方法 |
US20190325299A1 (en) * | 2018-04-18 | 2019-10-24 | Element Ai Inc. | Unsupervised domain adaptation with similarity learning for images |
CN111199550A (zh) * | 2020-04-09 | 2020-05-26 | 腾讯科技(深圳)有限公司 | 图像分割网络的训练方法、分割方法、装置和存储介质 |
CN111242157A (zh) * | 2019-11-22 | 2020-06-05 | 北京理工大学 | 联合深度注意力特征和条件对抗的无监督域自适应方法 |
CN111259982A (zh) * | 2020-02-13 | 2020-06-09 | 苏州大学 | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 |
CN111563414A (zh) * | 2020-04-08 | 2020-08-21 | 西北工业大学 | 一种基于非局部特征增强的sar图像舰船目标检测方法 |
CN111755024A (zh) * | 2019-03-27 | 2020-10-09 | 四川大学 | 一种基于迁移学习的暴恐音频检测方法 |
CN111814854A (zh) * | 2020-06-28 | 2020-10-23 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
CN111931591A (zh) * | 2020-07-15 | 2020-11-13 | 北京百度网讯科技有限公司 | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 |
-
2020
- 2020-12-29 CN CN202011594833.7A patent/CN112749734B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190325299A1 (en) * | 2018-04-18 | 2019-10-24 | Element Ai Inc. | Unsupervised domain adaptation with similarity learning for images |
CN109214399A (zh) * | 2018-10-12 | 2019-01-15 | 清华大学深圳研究生院 | 一种嵌入SENet结构的改进YOLOV3目标识别算法 |
CN109523018A (zh) * | 2019-01-08 | 2019-03-26 | 重庆邮电大学 | 一种基于深度迁移学习的图片分类方法 |
CN111755024A (zh) * | 2019-03-27 | 2020-10-09 | 四川大学 | 一种基于迁移学习的暴恐音频检测方法 |
CN110084210A (zh) * | 2019-04-30 | 2019-08-02 | 电子科技大学 | 基于注意力金字塔网络的sar图像多尺度舰船检测方法 |
CN111242157A (zh) * | 2019-11-22 | 2020-06-05 | 北京理工大学 | 联合深度注意力特征和条件对抗的无监督域自适应方法 |
CN111259982A (zh) * | 2020-02-13 | 2020-06-09 | 苏州大学 | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 |
CN111563414A (zh) * | 2020-04-08 | 2020-08-21 | 西北工业大学 | 一种基于非局部特征增强的sar图像舰船目标检测方法 |
CN111199550A (zh) * | 2020-04-09 | 2020-05-26 | 腾讯科技(深圳)有限公司 | 图像分割网络的训练方法、分割方法、装置和存储介质 |
CN111814854A (zh) * | 2020-06-28 | 2020-10-23 | 北京交通大学 | 一种无监督域适应的目标重识别方法 |
CN111931591A (zh) * | 2020-07-15 | 2020-11-13 | 北京百度网讯科技有限公司 | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 |
Non-Patent Citations (6)
Title |
---|
JUEPENG ZHENG等: "Cross-regional oil palm tree counting and detection via a multi-level attention domain adaptation network", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》, vol. 167, pages 154 - 177 * |
SAMANEH NASIRI等: "Attentive Adversarial Network for Large-Scale Sleep Staging", 《PROCEEDINGS OF MACHINE LEARNING RESEARCH》, vol. 126, pages 1 - 21 * |
汪荣贵等: "注意力迁移的联合平衡领域自适应", 《中国图象图形学报》, vol. 24, no. 7, pages 1116 - 1125 * |
胡滔: "基于深度特征增强的光学遥感目标检测技术研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》, no. 2020, pages 028 - 166 * |
薛丽霞等: "基于多分区注意力的行人 重识别方法", 《光电工程》, vol. 47, no. 11, pages 1 - 10 * |
赖阳文等: "嵌入注意力机制模型的人脸表情迁移学习方法", 《计算机应用研究》, vol. 38, pages 1 - 6 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113724233A (zh) * | 2021-09-02 | 2021-11-30 | 国网安徽省电力有限公司铜陵供电公司 | 基于融合数据生成和迁移学习技术的变电设备外观图像缺陷检测方法 |
CN114596477A (zh) * | 2022-03-16 | 2022-06-07 | 东南大学 | 基于领域自适应和注意力机制的雾天火车故障检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112749734B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
CN111368886B (zh) | 一种基于样本筛选的无标注车辆图片分类方法 | |
CN108399406B (zh) | 基于深度学习的弱监督显著性物体检测的方法及系统 | |
CN109087303B (zh) | 基于迁移学习提升语义分割模型效果的框架 | |
CN110222690B (zh) | 一种基于最大二乘损失的无监督域适应语义分割方法 | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
CN110910391B (zh) | 一种双模块神经网络结构视频对象分割方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN113076994B (zh) | 一种开集域自适应图像分类方法及系统 | |
CN110598018B (zh) | 一种基于协同注意力的草图图像检索方法 | |
CN111008639B (zh) | 一种基于注意力机制的车牌字符识别方法 | |
CN112036447A (zh) | 零样本目标检测系统及可学习语义和固定语义融合方法 | |
CN114692741A (zh) | 基于域不变特征的泛化人脸伪造检测方法 | |
CN112488229A (zh) | 一种基于特征分离和对齐的域自适应无监督目标检测方法 | |
CN112749734B (zh) | 一种基于可迁移注意力机制的领域自适应的目标检测方法 | |
CN111723812B (zh) | 一种基于序列知识蒸馏的实时语义分割方法 | |
CN110705591A (zh) | 一种基于最优子空间学习的异构迁移学习方法 | |
CN111008633A (zh) | 一种基于注意力机制的车牌字符分割方法 | |
CN111401426A (zh) | 基于伪标签学习的小样本高光谱图像分类方法 | |
CN113420775A (zh) | 基于非线性度自适应子域领域适应的极少量训练样本下图片分类方法 | |
CN116452862A (zh) | 基于领域泛化学习的图像分类方法 | |
CN114821152A (zh) | 基于前景-类别感知对齐的域自适应目标检测方法及系统 | |
CN112990120A (zh) | 一种利用相机风格分离域信息的跨域行人重识别方法 | |
CN112750128B (zh) | 图像语义分割方法、装置、终端及可读存储介质 | |
CN116091775A (zh) | 基于多模态和多尺度亲和关系的点云弱监督语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |