CN111222562A - 空间自注意力机制及目标检测方法 - Google Patents
空间自注意力机制及目标检测方法 Download PDFInfo
- Publication number
- CN111222562A CN111222562A CN202010002235.XA CN202010002235A CN111222562A CN 111222562 A CN111222562 A CN 111222562A CN 202010002235 A CN202010002235 A CN 202010002235A CN 111222562 A CN111222562 A CN 111222562A
- Authority
- CN
- China
- Prior art keywords
- matrix
- attention mechanism
- self
- basic network
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Pure & Applied Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种空间自注意力机制及目标检测方法,对特征图F进行自适应平均池化得到特征图F′;对特征图F′进行两次降维映射,得到f(F′)与g(F′)并按行展开,得到矩阵M和矩阵N;将矩阵M和矩阵N进行相乘,得到矩阵Z;对矩阵Z通过行卷积得到特征图Y;再使用sigmoid激活并进行拓展,得到特征图Q;对特征图Q进行反自适应平均池化,得到最终空间每个像素的权重,将所述权重与特征图F进行点乘,以获得最终特征图R作为下一个卷积层的输入。本发明基于空间自注意力机制,能够更好地提高目标检测方法的精度,本发明简单高效,且计算量较低,可应用到任意卷积网络的前向过程中,为特征图提供全局信息指导,提高卷积网络的表达能力。
Description
技术领域
本发明涉及一种空间自注意力机制及目标检测方法,属于计算机视觉领域。
背景技术
目标检测是计算机视觉任务中最基础,同时也是最具有挑战性的任务。它旨在对图像中的目标进行定位与分类。近年来,随着深度学习技术的迅猛发展,目标检测的技术的效果得到了很大的提高。基于深度学习的目标检测技术主要分为三个步骤:首先,采用卷积网络对目标提取特征;随着卷积网络深度的加深,网络表征能力越强,但同时小目标与位置信息损失越大。然后,采用不同大小比率的滑动窗口对整幅图像进行遍历;一方面,尽管滑窗能够遍历整幅图像,但仍不能保证特殊形状的存在不会影响最终检测效果;另一方面,滑窗遍历整幅图像导致计算量增加以及正负样本的不平衡,影响检测效果。最后,对所提取的特征进行分类并使包围框回归,同时对预测出来的结果进行非极大值抑制操作,以得到最终结果。
近年来,通过注意力机制来增强网络的表征能力的方法层出不穷。SENet提出了基于通道间的注意力机制,通过两个全连接层计算通道间的重要程度,再对原特征图进行加权求值。CBAM将基于通道间的注意力机制与基于空间中的注意力机制进行融合,使用最大池化与平均池化对特征图进行压缩,再使用1*1卷积得到每个通道的重要程度,最后对原特征图进行加权求值。这些注意力机制只考虑了特征图中的一阶池化作用,没有考虑全局信息对该位置影响。所以在确定该位置重要程度时,需要添加全局信息的指导,以使得目标检测的精确度提高。专利CN201910738932.9公开了一种基于自注意力机制的多尺度空间自注意力机制及目标检测方法,其中所涉及到的空间注意力模块只是对特征图进行降维压缩,没有考虑到其他像素点对该像素点的位置影响程度,即丢失了全局信息的指导。
有鉴于此,确有必要提出一种空间自注意力机制及目标检测方法,以解决上述问题。
发明内容
本发明的目的在于提供一种空间自注意力机制及目标检测方法,更好地提高网络检测的精度,提高卷积网络的表达能力。
为实现上述目的,本发明提供了一种空间自注意力机制,主要包括以下步骤:
步骤1、对特征图F∈RC×H×W进行自适应平均池化得到特征图F′;
步骤2、对特征图F′进行两次降维映射,得到f(F′)与g(F′),将f(F′)与g(F′)按行展开,得到矩阵M和矩阵N;
步骤3、将矩阵M和矩阵N进行相乘,得到矩阵Z=MT×N;
步骤4、对矩阵Z通过行卷积得到特征图Y;
步骤5、对特征图Y使用sigmoid激活并进行拓展,得到特征图Q;
步骤6、对特征图Q进行反自适应平均池化,得到最终空间每个像素的权重,将所述权重与特征图F进行点乘,以获得最终特征图R;
步骤7、将最终特征图R作为下一个卷积层的输入。
可选的,步骤1中,特征图F′=AdaptiveAvgPool2d(F),此时F′的大小为C×H′×W′。
可选的,步骤2中,所述矩阵M=reshape(f(F′)),N=reshape(g(F′)),且M,N的大小为C′×H′W′。
可选的,步骤3中,所述矩阵Z的大小为H′W′×H′W′,其中,矩阵Z的第i行第j列元素表示j像素对i像素的影响程度。
可选的,步骤4中,特征图Y的大小为H′W′×1。
可选的,步骤5中,特征图Q的大小为H′×W′。
为实现上述目的,本发明还提供了一种目标检测方法,应用上述的空间自注意力机制,主要包括以下步骤:
步骤S1、获取原始数据集,搭建基础网络框架,以提取图像的卷积特征;
步骤S2、构造目标检测模型,并将基础网络框架的上采样层与下采样层进行特征融合,应用空间自注意力机制,作为下一个卷积层的输入;
步骤S3、将训练后的原始数据集作为基础网络框架的输入,采用Adam优化器对目标检测模型进行训练优化,以得到最终的目标检测模型。
可选的,所述步骤S1具体包括以下步骤:
步骤S11、获取原始数据集,将原始数据集通过数据增强进行扩充;
步骤S12、选取Hourglass-54作为基础网络框架,用于提取图像的卷积特征。
可选的,所述步骤S12具体包括:
步骤S121、缩放原始数据集,作为基础网络框架的输入;
步骤S122、基础网络框架包含六层下采样层与五层上采样层,将对应的上采样层与下采样层进行特征融合之后,应用空间自注意力机制,作为下一个卷积层的输入;
步骤S123、在基础网络框架的最后一层添加检测层,所述检测层采用CenterNet检测层模块。
可选的,所述步骤S3具体包括以下步骤:
步骤S31、初始化基础网络框架参数,对其余层采用随机初始化;
步骤S32、将训练后的原始数据集作为基础网络框架的输入,采用Adam优化器对目标检测模型进行训练优化,并不断更新基础网络框架中的参数。
本发明的有益效果是:本发明基于空间自注意力机制,能够更好地提高网络检测的精度,本发明简单高效,且计算量较低,可应用到任意卷积网络的前向过程中,为特征图提供全局信息指导,提高卷积网络的表达能力。
附图说明
图1是本发明空间自注意力机制的步骤流程图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,本发明揭示了一种空间自注意力机制,主要包括以下步骤:
步骤1、对特征图F∈RC×H×W进行自适应平均池化得到特征图F′;
步骤2、对特征图F′进行两次降维映射,得到f(F′)与g(F′),将f(F′)与g(F′)按行展开,得到矩阵M和矩阵N;
步骤3、将矩阵M和矩阵N进行相乘,得到矩阵Z=MT×N;
步骤4、对矩阵Z通过行卷积得到特征图Y;
步骤5、对特征图Y使用sigmoid激活并进行拓展,得到特征图Q;
步骤6、对特征图Q进行反自适应平均池化,得到最终空间每个像素的权重,将所述权重与特征图F进行点乘,以获得最终特征图R;
步骤7、将最终特征图R作为下一个卷积层的输入。
以下将对步骤1-步骤7进行详细说明。
步骤1中,特征图F′=AdaptiveAvgPool2d(F),此时F′的大小为C×H′×W′。
步骤2中,对特征图F′进行两次降维映射至128维,得到f(F′)与g(F′),此时f(F′)与g(F′)的大小为128×H′×W′,再将f(F′)与g(F′)按行展开,得到128×H′W′大小的矩阵M和矩阵N,其中,M=reshape(f(F′)),N=reshape(g(F′)),且M,N的大小为C′×H′W′。
步骤3中,将矩阵M和矩阵N进行相乘,得到H′W′×H′W′大小的矩阵Z=MT×N,其中,矩阵Z的第i行第j列元素表示j像素对i像素的影响程度,矩阵Z的第i行的元素表示特征图上所有像素对i像素的影响。
步骤4中,特征图Y的大小为H′W′×1,特征图中的元素表示其在全局信息之中的重要性。
步骤5中,特征图Q的大小为H′×W′。
步骤7中,最终特征图R可作为下一个卷积层的输入,以获得全局位置信息,提高检测精度。
相应地,本发明还提供了一种应用上述空间自注意力机制的目标检测方法,主要包括以下步骤:
步骤S1、获取原始数据集,搭建基础网络框架,以提取图像的卷积特征;
步骤S2、构造目标检测模型,并将基础网络框架的上采样层与下采样层进行特征融合之后,应用空间自注意力机制,作为下一个卷积层的输入;
步骤S3、将训练后的原始数据集作为基础网络框架的输入,采用Adam优化器对目标检测模型进行训练优化,以得到最终的目标检测模型。
以下将对步骤S1-S3进行详细说明。
步骤S1的具体步骤包括:
步骤S11、获取原始数据集,将原始数据集通过数据增强进行扩充,数据增强方法包括:随机翻转、随机缩放(0.6到1.3之间)、裁剪和颜色抖动。
步骤S12、选取Hourglass-54作为基础网络框架,用于提取图像的卷积特征。
步骤S12具体为:
步骤S121、缩放原始数据集至384*384*3,作为基础网络框架的输入;
步骤S122、Hourglass-54基础网络框架包含六层下采样层与五层上采样层,其中,下采样层的特征图信息为128*128*256,64*64*256,32*32*384,16*16*384,8*8*384,4*4*512;上采样层的特征图信息为8*8*384,16*16*384,32*32*384,64*64*256,128*128*256,将对应的上采样层与下采样层进行特征融合之后,应用空间自注意力机制,作为下一个卷积层的输入。
步骤S123、在基础网络框架的最后一层添加检测层,用于类别检测和位置检测,该检测层采用CenterNet检测层模块,以检测目标中心点并回归得到目标的长宽。
步骤S2的具体步骤见前述步骤1-步骤7,此处不再说明。
步骤S3的具体步骤包括:
步骤S31、初始化Hourglass-54基础网络框架的参数,加载ExtremeNet中的Hourglass-104的前一半沙漏模块参数进行初始化Hourglass-54基础网络框架的参数,对其余层采用随机初始化。
步骤S32、将训练后的原始数据集作为基础网络框架的输入,通过对基础网络框架进行特征提取与检测,与真实值进行比较以得到误差,采用Adam优化器对目标检测模型进行训练优化,并不断更新基础网络框架中的参数。
为了验证本发明的检测效果,即合理性与有效性,本发明与传统的检测方法以及不同的网络框架进行对比,选取PASCAL VOC 2007和PASCAL VOC 2012标准数据集进行仿真实验,评价指标是IoU阈值为0.5时的平均精度(mAP)。CenterNet目标检测方法是通过检测目标的中心点,回归目标的长宽得到目标的检测框,此类方法不需要人为设定锚框的大小,也不需要像CornerNet之类的目标检测方法对关键点进行分组。
本实施例选取Hourglass-54为基础网络框架,Hourglass-54网络框架采用的是对称的上采样层与下采样层结合的网络,其中,上采样层与下采样层通过特征融合之后,应用空间自注意力机制,以在卷积网络的前向过程中,获得全局信息的指导。本实施例是加载ExtremeNet中的Hourglass-104网络前一半沙漏模块参数进行预训练,设置学习率为1.25e-05,分别在30epoch,50epoch学习率下降0.1。
结果如下表1所示,从该表中可以看出:本发明提出的空间自注意力机制及目标检测方法精度高且计算速度快,能够有效的提高网络检测的精度。
表1不同空间自注意力机制在PASCAL VOC 2007测试集上的对比
分辨率 | mAP@0.5 | FPS | |
Faster RCNN | 600*1000 | 76.4 | 5 |
R-FCN | 600*1000 | 80.5 | 9 |
YoloV2 | 544*544 | 78.6 | 40 |
SSD | 513*513 | 78.9 | 19 |
DSSD | 513*513 | 81.5 | 5.5 |
CenterNet-Res18 | 384*384 | 72.6 | 142 |
CenterNet-Res18 | 512*512 | 75.7 | 100 |
CenterNet-Res101 | 384*384 | 77.6 | 45 |
CenterNet-Res101 | 512*512 | 78.7 | 30 |
本发明 | 384*384 | 81.95 | 35 |
综上所述,本发明基于空间自注意力机制,能够更好地提高网络检测的精度,本发明简单高效,且计算量较低,可应用到任意卷积网络的前向过程中,为特征图提供全局信息指导,提高卷积网络的表达能力。
以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种空间自注意力机制,其特征在于,主要包括以下步骤:
步骤1、对特征图F∈RC×H×W进行自适应平均池化得到特征图F′;
步骤2、对特征图F′进行两次降维映射,得到f(F′)与g(F′),将f(F′)与g(F′)按行展开,得到矩阵M和矩阵N;
步骤3、将矩阵M和矩阵N进行相乘,得到矩阵Z=MT×N;
步骤4、对矩阵Z通过行卷积得到特征图Y;
步骤5、对特征图Y使用sigmoid激活并进行拓展,得到特征图Q;
步骤6、对特征图Q进行反自适应平均池化,得到最终空间每个像素的权重,将所述权重与特征图F进行点乘,以获得最终特征图R;
步骤7、将最终特征图R作为下一个卷积层的输入。
2.根据权利要求1所述的空间自注意力机制,其特征在于:步骤1中,特征图F′=AdaptiveAvgPool2d(F),此时F′的大小为C×H′×W′。
3.根据权利要求1所述的空间自注意力机制,其特征在于:步骤2中,所述矩阵M=reshape(f(F′)),N=reshape(g(F′)),且M,N的大小为C′×H′W′。
4.根据权利要求1所述的空间自注意力机制,其特征在于:步骤3中,所述矩阵Z的大小为H′W′×H′W′,其中,矩阵Z的第i行第j列元素表示j像素对i像素的影响程度。
5.根据权利要求1所述的空间自注意力机制,其特征在于:步骤4中,特征图Y的大小为H′W′×1。
6.根据权利要求1所述的空间自注意力机制,其特征在于:步骤5中,特征图Q的大小为H′×W′。
7.一种目标检测方法,其特征在于,应用权利要求1-6中任一项所述的空间自注意力机制,主要包括以下步骤:
步骤S1、获取原始数据集,搭建基础网络框架,以提取图像的卷积特征;
步骤S2、构造目标检测模型,并将基础网络框架的上采样层与下采样层进行特征融合,应用空间自注意力机制,作为下一个卷积层的输入;
步骤S3、将训练后的原始数据集作为基础网络框架的输入,采用Adam优化器对目标检测模型进行训练优化,以得到最终的目标检测模型。
8.根据权利要求7所述的目标检测方法,其特征在于,所述步骤S1具体包括以下步骤:
步骤S11、获取原始数据集,将原始数据集通过数据增强进行扩充;
步骤S12、选取Hourglass-54作为基础网络框架,用于提取图像的卷积特征。
9.根据权利要求8所述的目标检测方法,其特征在于,所述步骤S12具体包括:
步骤S121、缩放原始数据集,作为基础网络框架的输入;
步骤S122、基础网络框架包含六层下采样层与五层上采样层,将对应的上采样层与下采样层进行特征融合之后,应用空间自注意力机制,作为下一个卷积层的输入;
步骤S123、在基础网络框架的最后一层添加检测层,所述检测层采用CenterNet检测层模块。
10.根据权利要求7所述的目标检测方法,其特征在于,所述步骤S3具体包括以下步骤:
步骤S31、初始化基础网络框架参数,对其余层采用随机初始化;
步骤S32、将训练后的原始数据集作为基础网络框架的输入,采用Adam优化器对目标检测模型进行训练优化,并不断更新基础网络框架中的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002235.XA CN111222562B (zh) | 2020-01-02 | 2020-01-02 | 基于空间自注意力机制的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010002235.XA CN111222562B (zh) | 2020-01-02 | 2020-01-02 | 基于空间自注意力机制的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111222562A true CN111222562A (zh) | 2020-06-02 |
CN111222562B CN111222562B (zh) | 2022-04-08 |
Family
ID=70831040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010002235.XA Active CN111222562B (zh) | 2020-01-02 | 2020-01-02 | 基于空间自注意力机制的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111222562B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233096A (zh) * | 2020-10-19 | 2021-01-15 | 哈尔滨市科佳通用机电股份有限公司 | 一种车辆裙板故障检测方法 |
CN112418020A (zh) * | 2020-11-09 | 2021-02-26 | 南京信息工程大学 | 一种基于注意力机制的YOLOv3违法广告牌智能检测方法 |
CN112434723A (zh) * | 2020-07-23 | 2021-03-02 | 之江实验室 | 一种基于注意力网络的日/夜间图像分类及物体检测方法 |
CN113033579A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113421222A (zh) * | 2021-05-21 | 2021-09-21 | 西安科技大学 | 一种轻量化煤矸目标检测方法 |
CN113627245A (zh) * | 2021-07-02 | 2021-11-09 | 武汉纺织大学 | Crts目标检测方法 |
CN116071836A (zh) * | 2023-03-09 | 2023-05-05 | 山东科技大学 | 基于深度学习的船员异常行为检测与身份识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859106A (zh) * | 2019-01-28 | 2019-06-07 | 桂林电子科技大学 | 一种基于自注意力的高阶融合网络的图像超分辨率重建方法 |
CN110136122A (zh) * | 2019-05-17 | 2019-08-16 | 东北大学 | 一种基于注意力深度特征重建的脑mr图像分割方法 |
CN110533084A (zh) * | 2019-08-12 | 2019-12-03 | 长安大学 | 一种基于自注意力机制的多尺度目标检测方法 |
US20190392319A1 (en) * | 2017-05-23 | 2019-12-26 | Google Llc | Attention-based sequence transduction neural networks |
-
2020
- 2020-01-02 CN CN202010002235.XA patent/CN111222562B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190392319A1 (en) * | 2017-05-23 | 2019-12-26 | Google Llc | Attention-based sequence transduction neural networks |
CN109859106A (zh) * | 2019-01-28 | 2019-06-07 | 桂林电子科技大学 | 一种基于自注意力的高阶融合网络的图像超分辨率重建方法 |
CN110136122A (zh) * | 2019-05-17 | 2019-08-16 | 东北大学 | 一种基于注意力深度特征重建的脑mr图像分割方法 |
CN110533084A (zh) * | 2019-08-12 | 2019-12-03 | 长安大学 | 一种基于自注意力机制的多尺度目标检测方法 |
Non-Patent Citations (5)
Title |
---|
CHEN, K.ET.AL: "Exploiting Transfer Learning With Attention for In-Domain Top-N Recommendation", 《IEEE ACCESS》 * |
YE, L.,ET.AL: "Cross-modal self-attention network for referring image segmentation", 《IN PROCEEDINGS OF THE IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
刘昱: "基于深度生成模型的图像修复研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
程序员-图哥: "注意力机制详解", 《HTTPS://BLOG.CSDN.NET/WEIXIN_45250844/ARTICLE/DETAILS/102633696》 * |
陈可佳: "基于主动相关反馈的图像检索方法", 《模式识别与人工智能》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112434723A (zh) * | 2020-07-23 | 2021-03-02 | 之江实验室 | 一种基于注意力网络的日/夜间图像分类及物体检测方法 |
CN112233096A (zh) * | 2020-10-19 | 2021-01-15 | 哈尔滨市科佳通用机电股份有限公司 | 一种车辆裙板故障检测方法 |
CN112418020A (zh) * | 2020-11-09 | 2021-02-26 | 南京信息工程大学 | 一种基于注意力机制的YOLOv3违法广告牌智能检测方法 |
CN113033579A (zh) * | 2021-03-31 | 2021-06-25 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN113421222A (zh) * | 2021-05-21 | 2021-09-21 | 西安科技大学 | 一种轻量化煤矸目标检测方法 |
CN113627245A (zh) * | 2021-07-02 | 2021-11-09 | 武汉纺织大学 | Crts目标检测方法 |
CN113627245B (zh) * | 2021-07-02 | 2024-01-19 | 武汉纺织大学 | Crts目标检测方法 |
CN116071836A (zh) * | 2023-03-09 | 2023-05-05 | 山东科技大学 | 基于深度学习的船员异常行为检测与身份识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111222562B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111222562B (zh) | 基于空间自注意力机制的目标检测方法 | |
CN110232394B (zh) | 一种多尺度图像语义分割方法 | |
CN111259930B (zh) | 自适应注意力指导机制的一般性目标检测方法 | |
CN108596258B (zh) | 一种基于卷积神经网络随机池化的图像分类方法 | |
CN108509978B (zh) | 基于cnn的多级特征融合的多类目标检测方法及模型 | |
CN109035149B (zh) | 一种基于深度学习的车牌图像去运动模糊方法 | |
CN110991311B (zh) | 一种基于密集连接深度网络的目标检测方法 | |
CN108921877B (zh) | 一种基于宽度学习的长期目标跟踪方法 | |
CN109784372B (zh) | 一种基于卷积神经网络的目标分类方法 | |
CN105657402A (zh) | 一种深度图恢复方法 | |
CN110659664B (zh) | 一种基于ssd的高精度识别小物体的方法 | |
CN111126278B (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN111832228B (zh) | 基于cnn-lstm的振动传递系统 | |
CN112365514A (zh) | 基于改进PSPNet的语义分割方法 | |
CN107491793B (zh) | 一种基于稀疏散射全卷积的极化sar图像分类方法 | |
CN105005798B (zh) | 一种基于局部相似结构统计匹配的目标识别方法 | |
CN103473755A (zh) | 基于变化检测的sar图像稀疏去噪方法 | |
CN111914726B (zh) | 基于多通道自适应注意力机制的行人检测方法 | |
CN110782430A (zh) | 一种小目标的检测方法、装置、电子设备及存储介质 | |
CN110991563B (zh) | 一种基于特征融合的胶囊网络随机路由方法 | |
CN115830596A (zh) | 基于融合金字塔注意力的遥感图像语义分割方法 | |
CN106845550B (zh) | 一种基于多模板的图像识别方法 | |
CN106846366B (zh) | 使用gpu硬件的tld视频运动目标跟踪方法 | |
CN110910332B (zh) | 一种视觉slam系统动态模糊处理方法 | |
CN112133100B (zh) | 一种基于r-cnn的车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |