CN112749734B - 一种基于可迁移注意力机制的领域自适应的目标检测方法 - Google Patents

一种基于可迁移注意力机制的领域自适应的目标检测方法 Download PDF

Info

Publication number
CN112749734B
CN112749734B CN202011594833.7A CN202011594833A CN112749734B CN 112749734 B CN112749734 B CN 112749734B CN 202011594833 A CN202011594833 A CN 202011594833A CN 112749734 B CN112749734 B CN 112749734B
Authority
CN
China
Prior art keywords
domain
feature map
channel
attention
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011594833.7A
Other languages
English (en)
Other versions
CN112749734A (zh
Inventor
张樯
石春雷
李斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Environmental Features
Original Assignee
Beijing Institute of Environmental Features
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Environmental Features filed Critical Beijing Institute of Environmental Features
Priority to CN202011594833.7A priority Critical patent/CN112749734B/zh
Publication of CN112749734A publication Critical patent/CN112749734A/zh
Application granted granted Critical
Publication of CN112749734B publication Critical patent/CN112749734B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于可迁移注意力机制的领域自适应的目标检测方法,包括:输入源域图片及目标域图片;通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;将增强后的特征输入检测头,完成域自适应的目标检测。该基于可迁移注意力机制的领域自适应的目标检测方法的目的是解决现有针对缩小源域和目标域分布之间差异的解决方法的效果比较差的问题。

Description

一种基于可迁移注意力机制的领域自适应的目标检测方法
技术领域
本发明涉及光电技术领域,具体涉及一种基于可迁移注意力机制的领域自适应的目标检测方法。
背景技术
目前我们处于一个信息爆炸的社会,每时每刻都会产生大量数据。数据标注是一个极其耗费人力物力的任务,而且从头开始训练一个模型的代价也非常高昂。如何利用现有的有标签数据训练能够适用于无标签数据的模型成为当前研究的热门问题。迁移学习就是解决这一问题的重要方法之一。
迁移学习是一种通过已有的知识来学习新知识的方法,核心是利用已有知识和新知识之间的相似性。在迁移学习中,我们已有的知识叫做源域,需要学习的新知识叫做目标域,源域和目标域不同但具有某种关联,我们需要尽量缩小源域和目标域之间的分布差异。按照迁移学习的方式,常用的迁移学习方法可分为基于样本的迁移,基于特征的迁移,基于模型的迁移和基于关系的迁移等。
领域自适应(Domain Adaption)是迁移学习中的一个重要的研究方向,对于一个有标签的源域和无标签的目标域,它们提取的特征和预测类别相同但特征的分布不同。针对如何缩小源域和目标域分布之间的差异的问题,目前常用的解决思路有如下几种:
概率分布适配,该方法从数据分布的角度最小化概率分布的距离,大多数方法基于MMD距离进行优化求解。目前使用较多的是基于深度学习的分布适配方法,如DDC,DAN等。
特征选择,选择源域和目标域的公共特征建立统一的模型,同时适用于源域和目标域。
特征变换,该思路把源域和目标域变换到相同的特征子空间中,采用子空间学习法。
有鉴于此,本领域技术人员亟待提供一种基于可迁移注意力机制的领域自适应的目标检测方法用于解决上述问题。
发明内容
(一)要解决的技术问题
本发明的目的在于提供一种基于可迁移注意力机制的领域自适应的目标检测方法,以解决现有针对缩小源域和目标域分布之间差异的解决方法的效果比较差的技术问题。
(二)技术方案
本发明提供了一种基于可迁移注意力机制的领域自适应的目标检测方法,该方法包括以下步骤:
输入源域图片及目标域图片;
通过主干网络分别提取所述源域图片的第一特征图、所述目标域图片的第二特征图;
分别对所述第一特征图及所述第二特征图进行基于位置、通道的可迁移注意力的特征增强;
将增强后的特征输入检测头,完成域自适应的目标检测。
进一步地,所述第一特征图、所述第二特征图均为最顶层特征图。
进一步地,对所述第一特征图及所述第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
为所述第一特征图及所述第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个所述第一域判别器负责匹配对应区域中源域和目标域的数据;
采用熵函数刻画每一个所述区域的域分类的不确定性;
根据可迁移注意力将每一个所述区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征。
进一步地,所述K个区域的第一域判别器总体损失Lposition为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,fi k=Gf(xi)k是第K个区域的特征表示,Gf代表特征提取器,di是点xi的域标签,Ld是域判别器的交叉熵损失函数,k=1,2,…,K。
进一步地,所述增强后的特征为:/>
式中,为位置注意力权重,/> 为/>的熵函数,/>为第i个图片的第K个区域属于源域的概率。
进一步地,对所述第一特征图及所述第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
对Z个通道进行全局平均池化,获得每一个通道特征总体的表示;
利用第二域判别器对所述每一个通道的特征进行分类,判断所述每一个通道的特征的域;
依据所述第二域判别器输出结果的熵刻画该通道的可迁移性;
根据可迁移注意力将所述每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
进一步地,所述Z个通道的第二域判别器总体损失Lchannel为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,是/>经过全局平均池化后的结果,/>指的是第i张图片在第Z个通道上提取的特征图,Di为点xi的域标签,Lc为第二域判别器/>的交叉熵损失函数,Z=1,2,…,Z。
进一步地,所述增强后的特征为:/>
式中,为通道注意力权重,/> 为/>的熵函数,/>为第二域判别器/>的输出概率。
(三)有益效果
本发明提供的基于可迁移注意力机制的领域自适应的目标检测方法,包括:输入源域图片及目标域图片;通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;将增强后的特征输入检测头,完成域自适应的目标检测。该检测方法是利用基于域判别器输出结果的熵判断特征图中不同区域可迁移的程度,熵越大说明该区域可迁移性越强,需要赋给该区域更大的权重增强该区域特征,通过把域判别器输出结果的熵看成一种可转移的注意力机制,分别在不同位置和通道上对主干网络提取的特征进行增强,从而有效提升域自适应目标检测的效果。
附图说明
图1是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法的流程示意图;
图2是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法在foggy cityscapes数据集上的实验结果示意图;
图3是本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法在watercolor数据集上的实验结果示意图。
具体实施方式
以下结合附图对本发明的具体实施方式做出详细说明。
根据本发明实施例提供的一种基于可迁移注意力机制的领域自适应的目标检测方法,如图1所示,该方法包括以下步骤:
S1、输入源域图片及目标域图片;
S2、通过主干网络分别提取源域图片的第一特征图、目标域图片的第二特征图;
S3、分别对第一特征图及第二特征图进行基于位置、通道的可迁移注意力的特征增强;
S4、将增强后的特征输入检测头,完成域自适应的目标检测。
在上述实施方式中,网络的输入是源域和目标域图片,经过一个共享参数的主干网络后得到尺度为C*H*W的最顶层特征图。在该顶层特征图上分别连接k个区域的域判别器和Z个通道的域判别器对特征进行域对齐,然后从位置和通道两个方面进行基于可迁移注意力的特征增强,再将增强后的特征输入检测头,完成域自适应的目标检测。
具体地,本发明的具体应用对象是基于迁移学习的无监督目标检测系统,其软件代码采用python编程实现。
本发明针对无标注场景下的物体检测问题,设计一种基于域自适应迁移学习的物体检测算法,可以利用已有的有标签数据集作为源域训练网络,使网络能够检测无标签的目标域图片中的物体。
以下对本检测方法的参数设置进行详细描述,介绍一下实验的库的构成以及实验参数的设置:
(1)对于cityscapes->foggy cityscapes的转换,把原始cityscapes中的图像利用模拟雾的光学模型进行转换,得到有雾的数据集foggy cityscapes;训练集有2975张无标注有雾图像,测试集有500张有标注有雾图像,图像的分辨率是1920*1080;
(2)对于pascal voc->watercolor的转换,watercolor数据集是pascal voc通过CycleGAN进行转换后的到的数据集,数据集包含2000张图片,分辨率与pascal voc中的数据相同;
(3)输入图片的短边放缩为600个像素,采用的优化器是Adam优化器。
本发明实施例解决领域自适应目标检测问题的思路是基于深度学习的对抗学习方法,通过训练域判别器让分类器和主干网络的参数进行对抗学习,从而实现源域和目标域分布的对齐。
传统的自注意力机制关注图像中与键值key相似度较大的位置的值,可迁移注意力机制则是不仅关注源域上的位置,还能把关注的重点从源域转移到目标域上。可迁移注意力机制主要用来判断一个区域或一个通道是否容易迁移,并给容易迁移的位置或通道赋更大的权重。在本发明的实施例中,可迁移注意力机制分为两种:基于位置的可迁移注意力机制和基于通道的可迁移注意力机制。
在一些可选的实施例中,第一特征图、第二特征图均为最顶层特征图。
在一些可选的实施例中,在步骤S3中,对第一特征图及第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
S301、为第一特征图及第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个第一域判别器负责匹配对应区域中源域和目标域的数据;
S302、采用熵函数刻画每一个区域的域分类的不确定性;
S303、根据可迁移注意力将每一个区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征。
在上述实施方式中,图像中并非所有区域的可迁移程度都相同,某些区域比其他区域更容易迁移。因此我们为图像中的K个区域分别训练一个域判别器Gp k。每个域判别器负责匹配对应区域中源域和目标域的数据。
在一些可选的实施例中,K个区域的第一域判别器总体损失Lposition为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,fi k=Gf(xi)k是第K个区域的特征表示,Gf代表特征提取器,di是点xi的域标签,Ld是域判别器的交叉熵损失函数,k=1,2,…,K。
在一些可选的实施例中,增强后的特征为:/>
式中,为位置注意力权重,/> 为/>的熵函数,/>为第i个图片的第K个区域属于源域的概率。
在上述实施方式中,我们采用熵函数来刻画一个区域域分类的不确定性。一个区域域分类不确定性越强说明越容易迁移,对于第K个区域,它的注意力权重为了避免不合理的注意力权重损害网络性能,我们加入一个残差路径直接连接输入和输出。综上,经过位置可迁移注意力增强之后的特征/>为:/>这样,就可以给容易迁移的区域更大的权重,使得域自适应模型更加关注容易迁移的重要区域。
在一些可选的实施例中,在步骤S3中,对第一特征图及第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
S304、对Z个通道进行全局平均池化,获得每一个通道特征总体的表示;
S305、利用第二域判别器对每一个通道的特征进行分类,判断每一个通道的特征的域;
S306、依据第二域判别器输出结果的熵刻画该通道的可迁移性;
S307、根据可迁移注意力将每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
在上述实施方式中,对于神经网络提取的特征,不同的通道特征具有不同的意义,不同通道特征的可迁移性也具有一定的差异。我们可以先对不同通道进行全局平均池化,获得该通道特征总体的表示,然后对所有通道的特征都用一个域判别器进行分类,判断该特征属于源域还是目标域。这样,利用域判别器损失函数的监督能够对源域和目标域不同通道的特征进行对齐,再根据域判别器输出结果的熵刻画该通道的可迁移性。熵越大说明该通道越容易迁移,也会被赋予更大的权重。对于第i张图片提取特征的第Z个通道平均池化后的表示为/>其对应的域判别器为/>域标签为Di,域判别器/>的交叉熵损失函数是Lc
既能够用通道域判别器让特征在通道维度上实现源域和目标域之间的对齐,又能够根据通道可迁移的程度对通道进行加权,获得表达能力更强,更容易迁移的特征。
在一些可选的实施例中,Z个通道的第二域判别器总体损失Lchannel为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,是/>经过全局平均池化后的结果,/>指的是第i张图片在第Z个通道上提取的特征图,Di为点xi的域标签,Lc为第二域判别器/>的交叉熵损失函数,Z=1,2,…,Z。
在上述实施方式中,对于每个通道,反映其可迁移性的指标为熵函数 表示域判别器/>的输出概率。熵函数越大说明该通道越不容易被域判别器分类,也就是更加容易迁移。基于熵函数我们提出了通道可迁移注意力/>把所有的通道根据可迁移注意力进行加权,再加入一个shortcut层,该shortcut层的作用是增加一个输入与输出之间直接连接的通路,有利于梯度传递,可以保证在不会因为加入注意力模块深度增加导致难以训练就能够实现特征的通道增强。
在一些可选的实施例中,增强后的特征为:/>
式中,为通道注意力权重,/> 为/>的熵函数,/>为第二域判别器/>的输出概率。
具体地,该网络的损失函数包括特征层上的基于位置和基于通道的域判别器损失Lpositon和Lchannel,检测头部的域判别器损失Lproposal和检测器的定位和回归损失Ldet。因此网络总体的损失函数为:
L=λ(Lposition+Lchannel)+γLproposal+Ldet
式中λ和γ表示基于特征的域判别器和基于proposal的域判别器损失的权重系数,取λ=γ=1。
图2显示的是算法在foggy cityscapes数据集上的实验结果。可以发现利用提出的算法进行域自适应迁移学习后,检测框架能够把在原始cityscapes数据集上学习的知识迁移到foggy cityscapes数据集上,在有雾数据集上有效检测街景中的车辆行人等。
图3显示的是算法在watercolor数据集上的实验结果,算法能够有效地把pascalvoc数据集上的知识迁移到基于CycleGAN生成的物体检测数据集上。
以上所述的实施例只是本发明较优选的具体实施方式,本领域的技术人员在本发明技术方案范围内进行的通常变化和替换都应包含在本发明的保护范围内。
本发明未详细描述内容为本领域技术人员公知技术。

Claims (6)

1.一种基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,该方法包括以下步骤:
输入源域图片及目标域图片;
通过主干网络分别提取所述源域图片的第一特征图、所述目标域图片的第二特征图;
分别对所述第一特征图及所述第二特征图进行基于位置、通道的可迁移注意力的特征增强;
将增强后的特征输入检测头,完成域自适应的目标检测;
对所述第一特征图及所述第二特征图进行基于位置的可迁移注意力的特征增强,具体包括如下步骤:
为所述第一特征图及所述第二特征图中的K个区域分别训练各自的第一域判别器;其中,每个所述第一域判别器负责匹配对应区域中源域和目标域的数据;
采用熵函数刻画每一个所述区域的域分类的不确定性;
根据可迁移注意力将每一个所述区域分别进行加权后加入残差路径直接连接输入和输出,获取增强后的特征;
对所述第一特征图及所述第二特征图进行基于通道的可迁移注意力的特征增强,具体包括如下步骤:
对Z个通道进行全局平均池化,获得每一个通道特征总体的表示;
利用第二域判别器对所述每一个通道的特征进行分类,判断所述每一个通道的特征的域;
依据所述第二域判别器输出结果的熵刻画该通道的可迁移性;
根据可迁移注意力将所述每一个通道分别进行加权后加入shortcut层,获取增强后的特征。
2.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述第一特征图、所述第二特征图均为最顶层特征图。
3.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述K个区域的第一域判别器总体损失Lposition为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,fi k=Gf(xi)k是第K个区域的特征表示,Gf代表特征提取器,di是点xi的域标签,Ld是域判别器的交叉熵损失函数,k=1,2,…,K。
4.根据权利要求3所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述增强后的特征为:/>
式中,为位置注意力权重,/>为/>的熵函数,/>为第i个图片的第K个区域属于源域的概率。
5.根据权利要求1所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述Z个通道的第二域判别器总体损失Lchannel为:
式中,Ds代表源域,DT代表目标域,n表示源域和目标域的数据总数,是/>经过全局平均池化后的结果,/>指的是第i张图片在第Z个通道上提取的特征图,Di为点xi的域标签,Lc为第二域判别器/>的交叉熵损失函数,Z=1,2,…,Z。
6.根据权利要求5所述的基于可迁移注意力机制的领域自适应的目标检测方法,其特征在于,所述增强后的特征为:/>
式中,为通道注意力权重,/>为/>的熵函数,/>为第二域判别器/>的输出概率。
CN202011594833.7A 2020-12-29 2020-12-29 一种基于可迁移注意力机制的领域自适应的目标检测方法 Active CN112749734B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011594833.7A CN112749734B (zh) 2020-12-29 2020-12-29 一种基于可迁移注意力机制的领域自适应的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011594833.7A CN112749734B (zh) 2020-12-29 2020-12-29 一种基于可迁移注意力机制的领域自适应的目标检测方法

Publications (2)

Publication Number Publication Date
CN112749734A CN112749734A (zh) 2021-05-04
CN112749734B true CN112749734B (zh) 2024-01-05

Family

ID=75647709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011594833.7A Active CN112749734B (zh) 2020-12-29 2020-12-29 一种基于可迁移注意力机制的领域自适应的目标检测方法

Country Status (1)

Country Link
CN (1) CN112749734B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724233B (zh) * 2021-09-02 2022-10-11 国网安徽省电力有限公司铜陵供电公司 基于融合数据生成和迁移学习技术的变电设备外观图像缺陷检测方法
CN114596477A (zh) * 2022-03-16 2022-06-07 东南大学 基于领域自适应和注意力机制的雾天火车故障检测方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214399A (zh) * 2018-10-12 2019-01-15 清华大学深圳研究生院 一种嵌入SENet结构的改进YOLOV3目标识别算法
CN109523018A (zh) * 2019-01-08 2019-03-26 重庆邮电大学 一种基于深度迁移学习的图片分类方法
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN111199550A (zh) * 2020-04-09 2020-05-26 腾讯科技(深圳)有限公司 图像分割网络的训练方法、分割方法、装置和存储介质
CN111242157A (zh) * 2019-11-22 2020-06-05 北京理工大学 联合深度注意力特征和条件对抗的无监督域自适应方法
CN111259982A (zh) * 2020-02-13 2020-06-09 苏州大学 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN111563414A (zh) * 2020-04-08 2020-08-21 西北工业大学 一种基于非局部特征增强的sar图像舰船目标检测方法
CN111755024A (zh) * 2019-03-27 2020-10-09 四川大学 一种基于迁移学习的暴恐音频检测方法
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法
CN111931591A (zh) * 2020-07-15 2020-11-13 北京百度网讯科技有限公司 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10956817B2 (en) * 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214399A (zh) * 2018-10-12 2019-01-15 清华大学深圳研究生院 一种嵌入SENet结构的改进YOLOV3目标识别算法
CN109523018A (zh) * 2019-01-08 2019-03-26 重庆邮电大学 一种基于深度迁移学习的图片分类方法
CN111755024A (zh) * 2019-03-27 2020-10-09 四川大学 一种基于迁移学习的暴恐音频检测方法
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN111242157A (zh) * 2019-11-22 2020-06-05 北京理工大学 联合深度注意力特征和条件对抗的无监督域自适应方法
CN111259982A (zh) * 2020-02-13 2020-06-09 苏州大学 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN111563414A (zh) * 2020-04-08 2020-08-21 西北工业大学 一种基于非局部特征增强的sar图像舰船目标检测方法
CN111199550A (zh) * 2020-04-09 2020-05-26 腾讯科技(深圳)有限公司 图像分割网络的训练方法、分割方法、装置和存储介质
CN111814854A (zh) * 2020-06-28 2020-10-23 北京交通大学 一种无监督域适应的目标重识别方法
CN111931591A (zh) * 2020-07-15 2020-11-13 北京百度网讯科技有限公司 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Attentive Adversarial Network for Large-Scale Sleep Staging;Samaneh Nasiri等;《Proceedings of Machine Learning Research》;126;第1-21页 *
Cross-regional oil palm tree counting and detection via a multi-level attention domain adaptation network;Juepeng Zheng等;《ISPRS Journal of Photogrammetry and Remote Sensing》;第167卷;第154-177页 *
基于多分区注意力的行人 重识别方法;薛丽霞等;《光电工程》;第47卷(第11期);第1-10页 *
基于深度特征增强的光学遥感目标检测技术研究;胡滔;《中国优秀硕士学位论文全文数据库 工程科技II辑》(第(2020)02期);C028-166 *
嵌入注意力机制模型的人脸表情迁移学习方法;赖阳文等;《计算机应用研究》;第38卷;第1-6页 *
注意力迁移的联合平衡领域自适应;汪荣贵等;《中国图象图形学报》;第24卷(第7期);第1116-1125页 *

Also Published As

Publication number Publication date
CN112749734A (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN110111335B (zh) 一种自适应对抗学习的城市交通场景语义分割方法及系统
CN111723693B (zh) 一种基于小样本学习的人群计数方法
CN111008633B (zh) 一种基于注意力机制的车牌字符分割方法
CN112749734B (zh) 一种基于可迁移注意力机制的领域自适应的目标检测方法
CN110598018B (zh) 一种基于协同注意力的草图图像检索方法
CN112036276B (zh) 一种人工智能视频问答方法
CN111008639B (zh) 一种基于注意力机制的车牌字符识别方法
CN111242061B (zh) 一种基于注意力机制的合成孔径雷达舰船目标检测方法
CN111797814A (zh) 基于通道融合和分类器对抗的无监督跨域动作识别方法
CN112488229A (zh) 一种基于特征分离和对齐的域自适应无监督目标检测方法
CN109800714A (zh) 一种基于人工智能的船舶检测系统及方法
CN112766056B (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN111723812B (zh) 一种基于序列知识蒸馏的实时语义分割方法
CN116452862A (zh) 基于领域泛化学习的图像分类方法
CN110490189A (zh) 一种基于双向消息链路卷积网络的显著性物体的检测方法
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN112070174A (zh) 一种基于深度学习的自然场景下文本检测方法
CN114821152A (zh) 基于前景-类别感知对齐的域自适应目标检测方法及系统
CN113537110A (zh) 一种融合帧内帧间差异的虚假视频检测方法
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
CN112750128B (zh) 图像语义分割方法、装置、终端及可读存储介质
CN115331460B (zh) 一种基于深度强化学习的大规模交通信号控制方法及装置
CN115797684A (zh) 一种基于上下文信息的红外小目标检测方法及系统
Li et al. Enhancing Feature Fusion Using Attention for Small Object Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant