CN112949673A - 一种基于全局注意力的特征融合目标检测与识别方法 - Google Patents

一种基于全局注意力的特征融合目标检测与识别方法 Download PDF

Info

Publication number
CN112949673A
CN112949673A CN201911270269.0A CN201911270269A CN112949673A CN 112949673 A CN112949673 A CN 112949673A CN 201911270269 A CN201911270269 A CN 201911270269A CN 112949673 A CN112949673 A CN 112949673A
Authority
CN
China
Prior art keywords
feature
convolution
global
features
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911270269.0A
Other languages
English (en)
Other versions
CN112949673B (zh
Inventor
吴晓红
吴稳稳
何小海
刘强
陈洪刚
卿粼波
吴小强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201911270269.0A priority Critical patent/CN112949673B/zh
Publication of CN112949673A publication Critical patent/CN112949673A/zh
Application granted granted Critical
Publication of CN112949673B publication Critical patent/CN112949673B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于全局注意力的特征融合目标检测与识别方法。包括以下步骤:首先由卷积神经网络提取六层不同尺度大小的特征图,然后采用多级特征融合的方法,将浅层和深层特征的语义信息相结合,提高特征图的表达能力。接着引入全局注意力模块来结合上下文信息,增强有效特征和抑制冗余特征。此外,在多任务损失函数的基础上,增加一项额外的惩罚项来平衡正负样本。最后通过训练,不断优化网络参数得到最终的检测模型。本发明所提方法在检测的精度和速度上都有一定的提高,并提升了小目标物体的检测效果,在人机交互、人脸识别、计算摄影、自动驾驶、视频监控等各个方面都有着重要的研究价值和应用前景。

Description

一种基于全局注意力的特征融合目标检测与识别方法
技术领域
本发明涉及一种基于全局注意力的特征融合目标检测与识别方法,属于计算机视觉与智能信息处理领域。
背景技术
目标检测是计算机视觉研究的主要领域之一,其主要任务是在一幅含有多目标物体的图像中,预测不同目标的类别标签与位置坐标。在实际生活中,目标检测已引起广泛关注,并已成功应用于许多领域,包括人机交互、人脸识别、计算摄影、自动驾驶、视频监控等各个方面。
早期的检测方法利用手工制作的特征和分类器,特征表达能力非常有限。由于CNN的应用,基于CNN的检测器能有效地提取图像目标的特征,也使得AlexNet、GoogLeNet、ResNet和VGGNet等大型卷积神经网络模型得到了训练,实现了CNN强大的特征表达能力。基于深度学习的目标检测方法可分为两阶段检测方法和一阶段检测方法两类。两阶段检测方法将检测问题划分为两个过程,首先通过选择性搜索生成一组候选框,然后根据各候选区域的特征,采用卷积网络进行分类和回归,预测对象的位置和相应的类别标签。最具代表性的两阶段检测方法有R-CNN,FastR-CNN、FasterR-CNN等。以R-CNN方法为代表的两阶段检测方法虽然检测精度越来越高,但是其速度却遇到瓶颈,很难满足部分场景实时性的需求,因此出现了一种基于回归方法的一阶段检测方法。相较于两阶段检测方法,一阶段检测方法直接将目标框定位问题转化为回归问题,仅仅使用一个CNN网络预测不同目标的类别标签与位置坐标,在保证一定准确率的前提下,速度得到极大提升,经典的一阶段检测方法有YOLO和SSD等。虽然一阶段检测方法凭借高效率的优势近年来引起了更多关注,但是由于一阶段检测方法在小目标检测上有局限性,并且大多数现有方法为了提高精度引入复杂网络而牺牲了速度,为了克服性能和复杂性之间取舍的矛盾,本发明提出了一种基于全局注意力的特征融合目标检测与识别方法,在提升小目标物体检测效果的同时,平衡了检测的速度。
发明内容
本发明提出了一种基于全局注意力的特征融合目标检测与识别方法,目的在于结合全局注意力模块和特征融合的方法得到表达能力更强的特征,在提高对小目标的检测效果的同时,平衡检测速度。
本发明通过以下技术方案来实现上述目的:
(1)使用基准网络VGG-16作为特征抽取网络,末端辅以一系列卷积层,再结合空洞卷积RFB模块,初步得到多尺度的卷积特征层。
(2)采用多级特征融合方法,将初步得到的第1、2、3层特征进行融合到第1层特征图上,通过将深层和浅层的特征语义信息相结合,得到更加有效的特征。
(3)将融合得到的特征图和其他与特征层结合全局注意力模块,捕捉特征图像素之间的关系,自适应地标定通道响应,从而提高特征图的表达能力。
(4)在多任务损失函数的基础上引入了Focal loss来调整正负样本的平衡。然后将上述处理后的特征进行分类和边框回归操作,通过训练,不断优化网络参数,再通过NMS过滤重复检测的边框得到最终的检测模型。
附图说明
图1为本发明基于全局注意力的特征融合目标检测与识别方法网络框架图。
图2为本发明基于多级特征融合模块结构图。
图3为本发明基于注意力模块结构图。
具体实施方式
下面结合附图对本发明作进一步说明:
构建多级特征融合模块方法如下:
本发明提出多级特征融合方法,将较深层特征融合到浅层特征上,使浅层特征得到更多的语义信息补充,最后得到感受野合适而又不缺乏语义信息的特征,从而更好的检测到小目标。构建多级特征融合模块如图2所示。
首先,对第1层特征进行卷积操作,得到尺寸大小不变、通道为原来通道的1/3的特征,然后对第2、3层特征进行卷积和上采样操作,得到尺寸和第1层尺寸相同、通道为原第1层特征通道的1/3的特征,接着对经过处理的特征进行融合操作,得到感受野合适而又不缺乏语义信息的特征,用于更好的检测小目标。经过语义融合得到的特征图可以表示为
Figure BDA0002312601100000031
其中xi表示第i层特征图,xi∈RH×W×C,H、W和C分别表示特征图的长、宽和通道,
Figure BDA0002312601100000032
表示对特征图进行卷积或上采样一系列操作,将x1、x2和x3变换到指定尺寸和通道后进行Concate融合,接着经过卷积Wk和ReLU操作得到更有效的特征。
构建全局注意力模块方法如下:
全局注意力模块的结构图如图3所示。本发明中全局注意力模块分为三个部分,分别是Context Modeling、Transform和Fusion。
Context Modeling是上下文建模部分,采用1×1卷积wk和Softmax等操作来获取注意力的权值,将全局上下文建模为所有位置特征的加权平均值,然后聚集全局上下文特征到每个位置的特征上,定义x为输入的特征图,特征图的宽和高分别为W和H,
Figure BDA0002312601100000033
xi和xj分别表示某一位置的像素值,xi经过Context Modeling得到的表达为
Figure BDA0002312601100000034
其中Np为特征图的位置数量,Np=H·W,αj用来计算位置i和所有可能关联的位置j之间的关系,获取全局上下文信息的权重,
Figure BDA0002312601100000035
i表示该特征图中具体位置的索引,j是所有可能的位置的索引,位置i和j两点之间的相似性关联函数通过exp(Wkxj)表征;Wk是1×1卷积操作,这里看作是一个线性转换矩阵。
Transform是特征转换部分,如图3所示,它通过卷积、Global pooling和ReLU等操作实现,用来捕获通道间的依赖关系,经过Transform模块得到的特征表示为
s=xc·σ{Wuδ{LN[WrFg(xc)]}} (3)
其中xc是对ContextModeling模块的输出进行变换和卷积Wv操作得到的特征,δ是ReLU操作,σ是Sigmoid操作。接着在xc的每个通道上执行全局平均池化,在空间维度上对特征进行压缩,使其具有全局的感受野,池化的过程Fg表示为
Figure BDA0002312601100000041
Fg操作将特征空间上所有点的信息平均成了一个值,表征在特征通道上响应的全局分布,因为要利用通道间的相关性,就需要基于通道的整体信息计算,增加了全局平均池化屏蔽空间分布的相关性而突出通道间的相关性。接着通过Wr卷积操作减少通道数从而降低计算量,加入LayerNorm作为正则化提高泛化性;然后通过Wu卷积操作恢复到原通道大小,以学习的方式为每个特征通道生成权重,来显式地建模特征通道间的相关性;最后经过Sigmoid激活函数层,获得0~1之间归一化的权重,通过乘法逐通道将归一化后的权重加权到原来的特征上,完成在通道维度上的对原始特征的重标定。综合来看,Transform以特征通道之间的关系为出发点,让网络利用全局信息,显式地建模特征通道之间的依赖关系,通过学习自动获取每个特征通道的重要性,选择性地增强重要的通道特征并抑制不重要的通道特征,从而达到特征通道自适应校准的目的。
Fusion是特征融合部分,用于将处理得到的全局上下文特征聚合到原始特征上,得到最终输出特征的表达式为
z=x+s (5)
优化的损失函数的模块如下:
在多任务损失函数的基础上,加入了Focal loss惩罚项,对损失函数进行了改进,改善了单级探测器所面临的类别不平衡的问题,总目标损失函数由每个默认框的定位损失与分类损失的加权和构成,即
Figure BDA0002312601100000042
其中,定位损失Lloc采用的是Smooth L1 Loss,分类损失Lconf采用的是多类别信息交叉熵,分类损失Lf-l表示Focal loss,N为与真实物体框所匹配的默认框数量,x为默认框与真实物体框的匹配结果,l为预测结果的位置信息,s为类别置信度;g为真实物体框个数;η和β参数用于调整两种分类损失的比例,且η+β=1。Lfl表示Focal loss惩罚项,用于平衡正负样本。通过实验验证η=0.95,β=0.05时,可取较好的检测效果。Lfl计算公式为
Figure BDA0002312601100000051
其中,y是真实样本的标签(1为正样本,0为负样本),
Figure BDA0002312601100000052
是经过Sigmoid激活函数的预测输出(数值在0-1之间)。平衡因子α用来平衡正负样本本身的数量比例不均,这里的两个参数α和γ协调来控制,本方法采用α=0.25,γ=2可以达到最好的实验效果。虽然只添加α可以平衡正负样本的重要性,但不能解决简单和难分样本的问题,因此针对难分样本的γ也必不可少,γ调节简单样本权重降低的速率,当γ为0时,即为交叉熵损失函数,当γ增加时,调整因子的影响也在增加。
为了验证本发明所述基于全局注意力的特征融合目标检测与识别方法的有效性,在PASCAL VOC 2007和PASCAL VOC 2012两个数据集中开展实验。本文的实验的硬件环境为Inter(R)Xeon(R)CPUE5-2686的中央处理器,Nvidia GTX 1080Ti的显卡,16GB的RAM的PC机;软件环境为Ubuntu16.04.5系统,OpenCV和Pytorch深度学习开发框架,加速库为CUDA8.0和CUDNN6.0。采用VGG-16用作基础网络,采用SGD对得到的模型进行微调,学习率初始化为0.006,权重衰减为0.0005,动量为0.9,所有的卷积层使用“Xavier”方法进行初始化。检测精度的评价指标为mAP(mean Average Precision),检测时间性能的评价指标为FPS(Frames Per Second)。
对于VOC 2007数据集,使用VOC 2007trainval和VOC 2012 trainval共16551张图像作训练集,用VOC 2007 test的4952张图像作测试集,所有这些图像都用类标签和真实边界框注释,通过迭代计算400个epoch,得到最终检测模型。实验结果由表1所示,当输入图像大小为300×300时,本发明的方法mAP为80.48%,比RFBNet300高0.76%,领先于两阶段和YOLO,YOLOv2检测方法的同时,相较于SSD、RSSD和DSSD一阶段检测方法精度分别提高了6.16%、1.96%和1.86%;由于本发明只引入轻量级的计算,提升检测精度的同时降低了时间成本,速度达到81.7fps,比RFBNet300略低。同样的,当输入图像尺寸为512×512时,与其他检测方法相比,精度和速度均有不同程度的提升,充分证明了本发明的有效性。
对于VOC 2012数据集,使用VOC 2007 trainval和VOC 2012 trainval中的图像做训练集,用VOC 2012 test的10991张图像用于测试集,没有公共ground-truth边界框可用,所有方法的测试结果提交给PASCAL VOC的评估服务器评估。如表2所示,提供了每个类别的平均精度(AP)的详细比较,可以看到本发明增强了区分不同类别对象的模型能力,从而提高了大多数类别对象的检测准确性。
表1 VOC 2007数据集实验结果
Figure BDA0002312601100000061
表2 VOC 2012数据集实验结果
Figure BDA0002312601100000071

Claims (5)

1.一种基于全局注意力的特征融合目标检测与识别方法,其特征在于包括以下步骤:
(1)使用基准网络VGG-16作为特征抽取网络,末端辅以一系列卷积和池化层,再结合空洞卷积模块,初步得到多尺度的卷积特征层;
(2)构建多级特征融合模块,将第1、2、3层特征图进行融合,将深层和浅层的特征语义信息相结合,从而得到更加有效的特征;
(3)构建全局注意力增强模块获取较远位置的像素点之间的依赖关系,并对通道间特征进行建模,自适应地重新标定通道特征响应,以提高特征图的表达能力;
(4)在多任务损失函数的基础引入了Focal loss来调整正负样本的平衡,然后将上述处理后的特征进行分类和边框回归操作,通过训练模型,不断优化网络参数,最后通过NMS过滤重复检测边框得到最终的检测模型。
2.根据权利要求1所述的方法,其特征在于(1)中获取多尺度的卷积特征层,获取方法如下:
本发明采用VGG16作为基础网络,将VGG16后的两个全连接层FC6和FC7转换成普通的卷积层Conv6和Conv7,之后又添加多个卷积和池化层,然后从后面新增的卷积层中选取Conv7,Conv8_2,Conv9_2,Conv10_2,Conv11_2加上Conv4_3层共6个特征图作为检测所用的特征图,并将Conv4_3、Conv7、Conv8_2和Conv9_2通过空洞卷积模块,初步得到多尺度的卷积特征层。
3.根据权利要求1所述的方法,其特征在于(2)中多级特征融合模块,融合方法如下:
本发明将初步得到的第1、2、3层特征图进行卷积或上采样操作,分别将该3层特征变换到指定大小的尺寸和通道后进行Concate融合,再经过卷积Wk和ReLU操作得到融合后的特征图,经过多级特征融合得到的特征图可以表示为
Figure FDA0002312601090000011
其中xi表示第i层特征图,xi∈RH×W×C,H、W和C分别表示特征图的长、宽和通道,
Figure FDA0002312601090000012
表示对对特征图进行卷积和上采样操作。
4.根据权利要求1所述的方法,其特征在于(3)中构建全局注意力增强模块,构建方法如下:
全局注意力模块分为三个部分,分别是Context Modeling、Transform和Fusion;Context Modeling是上下文建模部分,采用卷积和Softmax操作来获取注意力的权值,将全局上下文建模为所有位置特征的加权平均值,然后聚集全局上下文特征到每个位置的特征上,定义x为输入的特征图,特征图的宽和高分别为W和H,
Figure FDA0002312601090000021
xi和xj分别表示某一位置的像素值,xi经过Context Modeling得到的表达为
Figure FDA0002312601090000022
式中Np为特征图的位置数量,Np=H·W,αj用来计算位置i和所有可能关联的位置j之间的关系,获取全局上下文信息的权重,
Figure FDA0002312601090000023
i表示该特征图中具体位置的索引,j是所有可能的位置的索引,位置i和j两点之间的相似性关联函数通过exp(wkxj)表征,Wk是1×1的卷积操作,这里看做是一个线性转换矩阵;Transform是特征转换部分,它通过卷积、Global pooling和ReLU等操作实现,用来捕获通道间的依赖关系,该过程可以表式为
s=xc·σ{Wuδ{LN[WrFg(xc)]}} (3)
其中xc是对ContextModeling模块的输出进行变换和卷积Wv操作得到的特征,δ是ReLU操作,σ是Sigmoid操作;接着在xc的每个通道上执行全局平均池化,在空间维度上对特征进行压缩,使其具有全局的感受野,池化的过程Fg表示为
Figure FDA0002312601090000024
Fg操作将特征空间上所有点的信息平均成了一个值,表征在特征通道上响应的全局分布;接着通过Wr卷积操作减少通道数从而降低计算量,加入LayerNorm作为正则化提高泛化性;然后通过Wu卷积操作恢复到原通道大小,以学习的方式为每个特征通道生成权重,来显式地建模特征通道间的相关性;最后经过Sigmoid激活函数层,获得0~1之间归一化的权重,通过乘法逐通道将归一化后的权重加权到原来的特征上,完成在通道维度上的对原始特征的重标定;Fusion是特征融合部分,用于将处理得到的全局上下文特征聚合到原始特征上,得到最终输出特征的表达式为
z=x+s (5) 。
5.根据权利要求1所述的方法,其特征在于(4)中损失函数的优化,优化方法如下:
本发明在多任务损失函数的基础上,加入了Focal loss惩罚项,对损失函数进行了改进,改善了单级探测器所面临的类别不平衡的问题,总目标损失函数由每个默认框的定位损失与分类损失的加权和构成,即
Figure FDA0002312601090000031
其中,定位损失Lloc采用的是Smooth L1 Loss,分类损失Lconf采用的是多类别信息交叉熵,增加的惩罚项分类损失Lf-l采用Focal loss,N为与真实物体框所匹配的默认框数量,x为默认框与真实物体框的匹配结果,l为预测结果的位置信息,c为预测的类别标签,s为类别置信度;g为真实物体框个数,η和β参数用于调整两种分类损失的比例。
CN201911270269.0A 2019-12-11 2019-12-11 一种基于全局注意力的特征融合目标检测与识别方法 Active CN112949673B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911270269.0A CN112949673B (zh) 2019-12-11 2019-12-11 一种基于全局注意力的特征融合目标检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911270269.0A CN112949673B (zh) 2019-12-11 2019-12-11 一种基于全局注意力的特征融合目标检测与识别方法

Publications (2)

Publication Number Publication Date
CN112949673A true CN112949673A (zh) 2021-06-11
CN112949673B CN112949673B (zh) 2023-04-07

Family

ID=76234314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911270269.0A Active CN112949673B (zh) 2019-12-11 2019-12-11 一种基于全局注意力的特征融合目标检测与识别方法

Country Status (1)

Country Link
CN (1) CN112949673B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408546A (zh) * 2021-06-21 2021-09-17 武汉工程大学 基于相互全局上下文注意力机制的单样本目标检测方法
CN113469099A (zh) * 2021-07-13 2021-10-01 北京航科威视光电信息技术有限公司 目标检测模型的训练方法、检测方法、装置、设备及介质
CN113554125A (zh) * 2021-09-18 2021-10-26 四川翼飞视科技有限公司 结合全局与局部特征的目标检测装置、方法和存储介质
CN113627258A (zh) * 2021-07-12 2021-11-09 河南理工大学 一种苹果叶部病理检测方法
CN113743505A (zh) * 2021-09-06 2021-12-03 辽宁工程技术大学 基于自注意力和特征融合的改进ssd目标检测方法
CN113947600A (zh) * 2021-12-20 2022-01-18 湖南工商大学 一种数字孪生宏观场景的多目标检测方法及装置
CN113962281A (zh) * 2021-08-20 2022-01-21 北京工业大学 基于Siamese-RFB的无人机目标跟踪方法
CN114429524A (zh) * 2022-04-07 2022-05-03 深圳市城市交通规划设计研究中心股份有限公司 单目视觉下的三维目标检测模型的构建方法及检测方法
CN114463677A (zh) * 2022-01-19 2022-05-10 北京工业大学 一种基于全局注意力的安全帽配戴检测方法
CN114677517A (zh) * 2022-05-30 2022-06-28 山东巍然智能科技有限公司 一种无人机用语义分割网络模型及图像分割识别方法
CN114724012A (zh) * 2022-06-10 2022-07-08 天津大学 基于时空跨尺度注意力融合热带不稳定波预警方法及装置
CN115063833A (zh) * 2022-05-16 2022-09-16 国网冀北电力有限公司信息通信分公司 一种基于图像分层视觉的机房人员检测方法
CN115205292A (zh) * 2022-09-15 2022-10-18 合肥中科类脑智能技术有限公司 一种配电线路树障检测方法
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017080929A1 (en) * 2015-11-12 2017-05-18 Philips Lighting Holding B.V. Image processing system
CN107608943A (zh) * 2017-09-08 2018-01-19 中国石油大学(华东) 融合视觉注意力和语义注意力的图像字幕生成方法及系统
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN109858547A (zh) * 2019-01-29 2019-06-07 东南大学 一种基于bssd的目标检测方法与装置
US10430946B1 (en) * 2019-03-14 2019-10-01 Inception Institute of Artificial Intelligence, Ltd. Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques
CN110348423A (zh) * 2019-07-19 2019-10-18 西安电子科技大学 一种基于深度学习的实时人脸检测方法
US10453197B1 (en) * 2019-02-18 2019-10-22 Inception Institute of Artificial Intelligence, Ltd. Object counting and instance segmentation using neural network architectures with image-level supervision
CN110378205A (zh) * 2019-06-06 2019-10-25 西安电子科技大学 一种基于改进型cnn网络的复杂雷达辐射源识别算法
CN110414600A (zh) * 2019-07-27 2019-11-05 西安电子科技大学 一种基于迁移学习的空间目标小样本识别方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017080929A1 (en) * 2015-11-12 2017-05-18 Philips Lighting Holding B.V. Image processing system
CN107608943A (zh) * 2017-09-08 2018-01-19 中国石油大学(华东) 融合视觉注意力和语义注意力的图像字幕生成方法及系统
CN108510012A (zh) * 2018-05-04 2018-09-07 四川大学 一种基于多尺度特征图的目标快速检测方法
CN109858547A (zh) * 2019-01-29 2019-06-07 东南大学 一种基于bssd的目标检测方法与装置
US10453197B1 (en) * 2019-02-18 2019-10-22 Inception Institute of Artificial Intelligence, Ltd. Object counting and instance segmentation using neural network architectures with image-level supervision
US10430946B1 (en) * 2019-03-14 2019-10-01 Inception Institute of Artificial Intelligence, Ltd. Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques
CN110378205A (zh) * 2019-06-06 2019-10-25 西安电子科技大学 一种基于改进型cnn网络的复杂雷达辐射源识别算法
CN110348423A (zh) * 2019-07-19 2019-10-18 西安电子科技大学 一种基于深度学习的实时人脸检测方法
CN110414600A (zh) * 2019-07-27 2019-11-05 西安电子科技大学 一种基于迁移学习的空间目标小样本识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YANG JIA: ""High-Order Statistical Modeling Based on a Decision Tree for Distributed Video Coding"", 《 IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
何小海 等: ""基于注意力掩模融合的目标检测算法"", 《液晶与显示》 *
单倩文 等: ""基于改进多尺度特征图的目标快速检测与识别算法"", 《激光与光电子学进展》 *
张松 等: ""一种多特征融合的运动目标检测算法"" *
沈旭 等: ""结合视觉注意力机制基于尺度自适应局部对比度增强的红外弱小目标检测算法"", 《红外技术》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408546B (zh) * 2021-06-21 2023-03-07 武汉工程大学 基于相互全局上下文注意力机制的单样本目标检测方法
CN113408546A (zh) * 2021-06-21 2021-09-17 武汉工程大学 基于相互全局上下文注意力机制的单样本目标检测方法
CN113627258A (zh) * 2021-07-12 2021-11-09 河南理工大学 一种苹果叶部病理检测方法
CN113627258B (zh) * 2021-07-12 2023-09-26 河南理工大学 一种苹果叶部病理检测方法
CN113469099A (zh) * 2021-07-13 2021-10-01 北京航科威视光电信息技术有限公司 目标检测模型的训练方法、检测方法、装置、设备及介质
CN113469099B (zh) * 2021-07-13 2024-03-15 北京航科威视光电信息技术有限公司 目标检测模型的训练方法、检测方法、装置、设备及介质
CN113962281A (zh) * 2021-08-20 2022-01-21 北京工业大学 基于Siamese-RFB的无人机目标跟踪方法
CN113743505A (zh) * 2021-09-06 2021-12-03 辽宁工程技术大学 基于自注意力和特征融合的改进ssd目标检测方法
CN113554125A (zh) * 2021-09-18 2021-10-26 四川翼飞视科技有限公司 结合全局与局部特征的目标检测装置、方法和存储介质
CN113554125B (zh) * 2021-09-18 2021-12-17 四川翼飞视科技有限公司 结合全局与局部特征的目标检测装置、方法和存储介质
CN113947600A (zh) * 2021-12-20 2022-01-18 湖南工商大学 一种数字孪生宏观场景的多目标检测方法及装置
CN114463677A (zh) * 2022-01-19 2022-05-10 北京工业大学 一种基于全局注意力的安全帽配戴检测方法
CN114463677B (zh) * 2022-01-19 2024-03-22 北京工业大学 一种基于全局注意力的安全帽配戴检测方法
CN114429524A (zh) * 2022-04-07 2022-05-03 深圳市城市交通规划设计研究中心股份有限公司 单目视觉下的三维目标检测模型的构建方法及检测方法
CN114429524B (zh) * 2022-04-07 2022-09-23 深圳市城市交通规划设计研究中心股份有限公司 单目视觉下的三维目标检测模型的构建方法及检测方法
CN115063833A (zh) * 2022-05-16 2022-09-16 国网冀北电力有限公司信息通信分公司 一种基于图像分层视觉的机房人员检测方法
CN114677517A (zh) * 2022-05-30 2022-06-28 山东巍然智能科技有限公司 一种无人机用语义分割网络模型及图像分割识别方法
CN114677517B (zh) * 2022-05-30 2022-08-26 山东巍然智能科技有限公司 一种无人机用语义分割网络模型及图像分割识别方法
CN114724012A (zh) * 2022-06-10 2022-07-08 天津大学 基于时空跨尺度注意力融合热带不稳定波预警方法及装置
CN115205292A (zh) * 2022-09-15 2022-10-18 合肥中科类脑智能技术有限公司 一种配电线路树障检测方法
CN115205300A (zh) * 2022-09-19 2022-10-18 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN115205300B (zh) * 2022-09-19 2022-12-09 华东交通大学 基于空洞卷积和语义融合的眼底血管图像分割方法与系统
CN117765378A (zh) * 2024-02-22 2024-03-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置
CN117765378B (zh) * 2024-02-22 2024-04-26 成都信息工程大学 多尺度特征融合的复杂环境下违禁物品检测方法和装置

Also Published As

Publication number Publication date
CN112949673B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN112949673B (zh) 一种基于全局注意力的特征融合目标检测与识别方法
US20220019855A1 (en) Image generation method, neural network compression method, and related apparatus and device
CN108133188B (zh) 一种基于运动历史图像与卷积神经网络的行为识别方法
CN112733749B (zh) 融合注意力机制的实时行人检测方法
CN111291809B (zh) 一种处理装置、方法及存储介质
CN113221905B (zh) 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质
CN112069868A (zh) 一种基于卷积神经网络的无人机实时车辆检测方法
CN111460968B (zh) 基于视频的无人机识别与跟踪方法及装置
CN112150821B (zh) 轻量化车辆检测模型构建方法、系统及装置
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN111723829B (zh) 一种基于注意力掩模融合的全卷积目标检测方法
CN108830254B (zh) 一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
CN111898432A (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
WO2021175278A1 (zh) 一种模型更新方法以及相关装置
CN108416795B (zh) 基于排序池化融合空间特征的视频动作识别方法
CN115294563A (zh) 一种基于Transformer的增强了局部语义学习能力的3D点云分析方法及装置
KR20200071865A (ko) 차원 축소에 기반한 영상 객체 인식 시스템 및 방법
WO2023179593A1 (zh) 数据处理方法及装置
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN114022705B (zh) 一种基于场景复杂度预分类的自适应目标检测方法
Li et al. Research on YOLOv3 pedestrian detection algorithm based on channel attention mechanism
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
Guo et al. ANMS: attention-based non-maximum suppression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant