CN112364979B - 一种基于GoogLeNet的红外图像识别方法 - Google Patents

一种基于GoogLeNet的红外图像识别方法 Download PDF

Info

Publication number
CN112364979B
CN112364979B CN202011223719.3A CN202011223719A CN112364979B CN 112364979 B CN112364979 B CN 112364979B CN 202011223719 A CN202011223719 A CN 202011223719A CN 112364979 B CN112364979 B CN 112364979B
Authority
CN
China
Prior art keywords
convolution
inclusion
branches
data set
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011223719.3A
Other languages
English (en)
Other versions
CN112364979A (zh
Inventor
张岩
李坡
武艳伟
刘光宏
李雨泽
丛明煜
于鲲
杨春玲
陈臻炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
CETC Information Science Research Institute
Original Assignee
Harbin Institute of Technology
CETC Information Science Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology, CETC Information Science Research Institute filed Critical Harbin Institute of Technology
Priority to CN202011223719.3A priority Critical patent/CN112364979B/zh
Publication of CN112364979A publication Critical patent/CN112364979A/zh
Application granted granted Critical
Publication of CN112364979B publication Critical patent/CN112364979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于GoogLeNet的红外图像识别方法,属于图像识别技术领域。通过数据增强扩充训练数据集,降低了对数据集大小的依赖。通过改进GoogLeNet的网络结构提高模型对于尺度变化的鲁棒性。将在ImageNet典型数据集上训练好的GoogLeNet模型参数进行迁移学习,在红外数据集上进行参数微调,提高训练速度。本发明解决了目标尺度变化问题、样本不均衡问题、训练样本不足的问题。同时提升了训练的稳定性,有效提高了红外图像的识别准确率,提升了模型的泛化性和鲁棒性。

Description

一种基于GoogLeNet的红外图像识别方法
技术领域
本发明涉及一种基于GoogLeNet的红外图像识别方法,属于图像识别技术领域。
背景技术
图像识别,是指对图像进行对象识别,以识别各种不同模式的目标和对象的技术。它涵盖图像匹配、图像分类、图像检索、人脸检测、行人检测等技术,在互联网搜索引擎、自动驾驶、医学分析、遥感分析等领域具有广泛的应用价值。
现有的图像识别技术主要分为基于特征提取的传统算法和基于卷积神经网络的深度学习算法。传统的特征提取算法针对不同应用场景难以选取稳定有效的特征。基于卷积神经网络的图像识别算法对训练集的大小要求严格,难以应对红外场景中数据缺乏的问题。此外,这种卷积神经网络不具备尺度不变性,一定程度上限制了图像识别技术的进一步发展。本发明使用迁移学习的方法,通过改进GoogLeNet的网络结构,解决尺度变化和训练集缺乏的问题。
发明内容
本发明的目的是提出一种基于GoogLeNet的红外图像识别方法,使用迁移学习的方法,通过改进GoogLeNet的网络结构,以解决尺度变化和训练集缺乏的问题。
一种基于GoogLeNet的红外图像识别方法,所述红外图像识别方法包括以下步骤:
步骤一、数据增强:对红外数据集进行数据增强,包括像素级调整、模拟对象遮挡以及多图像拼接;
步骤二、改进GoogLeNet基本单元结构,搭建浅层Inception结构和深层Inception结构;
步骤三、引入空间注意力机制:使用空间注意力机制,牺牲少量的计算时间来提高模型的分类准确率;
步骤四、引入特征金字塔融合:将浅层特征图和深层特征图进行加权融合,提高网络的识别精度和对于不同尺度目标的识别能力;
步骤五、引入Focal loss损失函数,并加入L1正则项:
loss=-ya(1-y')γlogy'-(1-y)(1-a)y'γlog(1-y')+λ(||W||+||b||)
式中y为标签值,y'为预测值,a是平衡因子,用于平衡正负样本本身的比例不均,γ负责控制难易样本的权重,λ为正则化系数;
步骤六、引入Mish激活函数:使用Mish激活函数替换ReLU函数;
步骤七、使用迁移学习:使用ImageNet数据集对模型进行初始化,并将预训练好的模型参数迁移到红外数据集,进行参数微调;
步骤八、进行红外图像识别:使用微调后的网络模型对红外数据集进行识别,得到识别结果。
进一步的,在步骤一中,所述像素级调整包括光度畸变和几何畸变,模拟对象遮挡分为像素级遮挡和区域级遮挡,多图像拼接包括像素级拼接和区域级拼接。
进一步的,所述光度畸变包括调整图像的亮度和加入噪声;所述几何畸变包括随机缩放、剪切、翻转和反旋转;所述像素级遮挡,即随机选择图像中的某一些点,填充一个随机的或互补的零值;所述区域级遮挡,即随机或均匀地选择图像中的多个矩阵区域,并将其全部替换为0;所述像素级拼接,即使用两个图像以不同的系数相乘并叠加,使用该系数值作为标签;所述区域级拼接,即将剪切后的图像覆盖到其他图像的矩阵区域,并根据混合区域的大小调整标签。
进一步的,在步骤二中,引入7*7的卷积核分支,提高网络的感受野大小,使用1*1卷积核进行参数降维,在网络深层结构使用3*1和1*3的卷积组合替换3*3、5*5、7*7的卷积核,实现精度基本不改变的情况下减小参数和计算量。
进一步的,在步骤三中,前一层Inception结构的输出分成两条分支,一条经过两次3×3的卷积操作后,使用Sigmoid激活函数映射到[0,1]区间得到注意力图,另一条分支将Inception输出直接与注意力图进行相乘,得到下一层Inception的输入。
本发明的主要优点是:本发明提供的一种基于GoogLeNet的红外图像识别方法,通过改进GoogLeNet网络结构,解决了目标尺度变化问题。通过引入Focal loss解决了样本不均衡问题。使用数据增强和迁移学习解决训练样本不足的问题。同时,采用Mish替换ReLU激活函数,提升了训练的稳定性。与现有的基于深度学习的图像识别模型相比,改进的GoogLeNet网络模型有效提高了红外图像的识别准确率,提升了模型的泛化性和鲁棒性。
附图说明
图1是网络基本单元--Inception结构图;
图2是空间注意力网络结构示意图;
图3是特征金字塔融合结构图;
图4是基于共享参数的迁移学习示意图;
图5是本发明的一种基于GoogLeNet的红外图像识别方法的方法流程图;
图6是本发明的一种基于GoogLeNet的红外图像识别方法的具体网络结构图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图5所示,一种基于GoogLeNet的红外图像识别方法,所述红外图像识别方法包括以下步骤:
步骤一、数据增强:对红外数据集进行数据增强,包括像素级调整、模拟对象遮挡以及多图像拼接;
步骤二、改进GoogLeNet基本单元结构,搭建浅层Inception结构和深层Inception结构;
步骤三、引入空间注意力机制(SpatialAttentionmodule(SAM)):使用空间注意力机制,牺牲少量的计算时间来提高模型的分类准确率;
步骤四、引入特征金字塔融合,如图3所示。深层网络的特征图尺寸较小,对应于原图的感受野较大,主要提取的是目标的全局特征,缺乏细节特征。而浅层网络的特征图尺寸较大,对应于原图的感受野较小,主要提取的是目标的局部特征。将浅层特征图和深层特征图进行加权融合,提高网络的识别精度和对于不同尺度目标的识别能力;
步骤五、引入Focal loss损失函数,为解决样本不均衡问题并控制容易分类和难分类样本的权重,引入Focal loss损失函数,并加入L1正则项:
loss=-ya(1-y')γlogy'-(1-y)(1-a)y'γlog(1-y')+λ(||W||+||b||)
式中y为标签值,y'为预测值,a是平衡因子,用于平衡正负样本本身的比例不均,γ负责控制难易样本的权重,λ为正则化系数;
步骤六、引入Mish激活函数:相比于ReLU激活函数,Mish的梯度更平滑,能更好地传播信息。使用Mish激活函数替换ReLU函数,可以提升训练的稳定性,提高模型准确率;
步骤七、使用迁移学习:参照图4所示,深度学习需要大量的高质量标注数据,由于红外数据匮乏,需要使用ImageNet数据集对模型进行初始化。并将预训练好的模型参数迁移到红外数据集,进行参数微调;
步骤八、进行红外图像识别:使用微调后的网络模型对红外数据集进行识别,得到识别结果。
进一步的,在步骤一中,所述像素级调整包括光度畸变和几何畸变,模拟对象遮挡分为像素级遮挡和区域级遮挡,多图像拼接包括像素级拼接和区域级拼接。
进一步的,所述光度畸变包括调整图像的亮度和加入噪声;所述几何畸变包括随机缩放、剪切、翻转和反旋转;所述像素级遮挡,即随机选择图像中的某一些点,填充一个随机的或互补的零值;所述区域级遮挡,即随机或均匀地选择图像中的多个矩阵区域,并将其全部替换为0;所述像素级拼接,即使用两个图像以不同的系数相乘并叠加,使用该系数值作为标签;所述区域级拼接,即将剪切后的图像覆盖到其他图像的矩阵区域,并根据混合区域的大小调整标签。
参照图1所示,进一步的,在步骤二中,引入7*7的卷积核分支,提高网络的感受野大小,使用1*1卷积核进行参数降维,在网络深层结构使用3*1和1*3的卷积组合替换3*3、5*5、7*7的卷积核,实现精度基本不改变的情况下减小参数和计算量。
进一步的,在步骤三中,通道注意力机制虽然可以提高分类网络的精度,但同时也大大增加了模型的计算量。这里使用另一种注意力机制——空间注意力机制,牺牲少量的计算时间来提高模型的分类准确率。如图2所示,前一层Inception结构的输出分成两条分支,一条经过两次3×3的卷积操作后,使用Sigmoid激活函数映射到[0,1]区间得到注意力图,另一条分支将Inception输出直接与注意力图进行相乘,得到下一层Inception的输入。
以下为本发明的一具体实施例:
步骤一、对采集到的红外图像集进行数据增强,包括像素级调整、模拟对象遮挡以及多图像拼接。首先进行光度畸变,加入双峰高斯噪声。接着进行几何畸变,添加随机缩放(缩放比例选择0.3-1.3)、旋转(间隔15度)。然后模拟遮挡,随机选择图像中的某个矩形区域(像元数50*20),将其全部填充为0。最后进行图像拼接,使用两类图像进行像素级拼接(系数分别为0.5)和区域级拼接(混合系数0.5),使用该系数作为拼接后的图像标签;
步骤二、改进GoogLeNet的网络结构,如图6所示,包含4层浅层Inception结构和4层深层Inception结构。并引入注意力机制和特征金字塔融合机制。具体改进措施为步骤三至步骤六;
步骤三、构建GoogLeNet基本单元Inception结构,分为浅层Inception和深层Inception,浅层Inception分成5个分支,分别为7*7卷积分支,5*5卷积分支,3*3卷积分支,池化分支,1*1卷积分支,并分别使用1*1卷积核进行参数降维。深层Inception结构使用3个1*3、3*1卷积组合替换7*7卷积核,2个1*3、3*1卷积组合替换5*5卷积核,1个1*3、3*1卷积组合替换3*3卷积核;
步骤四、加入空间注意力机制,前一层Inception结构的输出经过SAM分支得到权重参数(尺寸与输入特征图尺寸完全一样),再与原图相乘,将结果送到下一个Inception结构;
步骤五、引入特征金字塔融合结构,深层网络的特征图尺寸较小,对应于原图的感受野较大,主要提取的是目标的全局特征,缺乏细节特征。而浅层网络的特征图尺寸较大,对应于原图的感受野较小,主要提取的是目标的局部特征。将浅层特征图和深层特征图进行加权融合,提高网络的识别精度和对于不同尺度目标的识别能力;
步骤六、使用Focal Loss损失函数,
loss=-ya(1-y')γlogy'-(1-y)(1-a)y'γlog(1-y')+λ(||W||+||b||)
a根据各类别训练样本比值确定(取值范围为0-1,以二分类为例,当a取0-0.5时,表示负样本占比较大,当a取0.5-1时,表示正样本占比较大),γ取2效果最佳,λ取0.001效果较好;
步骤七、将ReLU替换为Mish激活函数,使得x取负值时,并非完全截断,允许比较小的负梯度流入,从而保证信息流动,
Mish(x)=x×tanh(ln(1+ex));
步骤八、使用ImageNet数据集对搭建好的网络模型进行训练,并将参数迁移到红外数据集,进一步微调;
步骤九、用微调好的网络模型对红外数据集图像进行识别,得到识别结果。
本文提出了一种基于GoogLeNet的红外图像识别方法。通过数据增强扩充训练数据集,降低了对数据集大小的依赖。通过改进GoogLeNet的网络结构提高模型对于尺度变化的鲁棒性。将在ImageNet典型数据集上训练好的GoogLeNet模型参数进行迁移学习,在红外数据集上进行参数微调,提高训练速度。

Claims (5)

1.一种基于GoogLeNet的红外图像识别方法,其特征在于,所述红外图像识别方法包括以下步骤:
步骤一、数据增强:对红外数据集进行数据增强,包括像素级调整、模拟对象遮挡以及多图像拼接;
步骤二、改进GoogLeNet基本单元结构,搭建浅层Inception结构和深层Inception结构,其中,包含4层浅层Inception结构和4层深层Inception结构,
具体的,构建GoogLeNet基本单元Inception结构,分为浅层Inception和深层Inception,浅层Inception分成5个分支,分别为7*7卷积分支,5*5卷积分支,3*3卷积分支,池化分支,1*1卷积分支,并分别使用1*1卷积核进行参数降维,深层Inception结构使用3个1*3、3*1卷积组合替换7*7卷积核,2个1*3、3*1卷积组合替换5*5卷积核,1个1*3、3*1卷积组合替换3*3卷积核;
步骤三、引入空间注意力机制:使用空间注意力机制,牺牲少量的计算时间来提高模型的分类准确率,具体的,前一层Inception结构的输出经过SAM分支得到权重参数,尺寸与输入特征图尺寸完全一样,再与原图相乘,将结果送到下一个Inception结构,从而得到浅层特征图和深层特征图;
步骤四、引入特征金字塔融合:将浅层特征图和深层特征图进行加权融合,提高网络的识别精度和对于不同尺度目标的识别能力;
步骤五、引入Focal loss损失函数,并加入L1正则项:
loss=-ya(1-y')γlogy'-(1-y)(1-a)y'γlog(1-y')+λ(||W||2+||b||2)
式中y为标签值,y'为预测值,a是平衡因子,用于平衡正负样本本身的比例不均,γ负责控制难易样本的权重,λ为正则化系数;
步骤六、引入Mish激活函数:使用Mish激活函数替换ReLU函数;
步骤七、使用迁移学习:使用ImageNet数据集对模型进行初始化,并将预训练好的模型参数迁移到红外数据集,进行参数微调;
步骤八、进行红外图像识别:使用微调后的网络模型对红外数据集进行识别,得到识别结果。
2.根据权利要求1所述的一种基于GoogLeNet的红外图像识别方法,其特征在于,在步骤一中,所述像素级调整包括光度畸变和几何畸变,模拟对象遮挡分为像素级遮挡和区域级遮挡,多图像拼接包括像素级拼接和区域级拼接。
3.根据权利要求2所述的一种基于GoogLeNet的红外图像识别方法,其特征在于,所述光度畸变包括调整图像的亮度和加入噪声;所述几何畸变包括随机缩放、剪切、翻转和反旋转;所述像素级遮挡,即随机选择图像中的某一些点,填充一个随机的或互补的零值;所述区域级遮挡,即随机或均匀地选择图像中的多个矩阵区域,并将其全部替换为0;所述像素级拼接,即使用两个图像以不同的系数相乘并叠加,使用该系数值作为标签;所述区域级拼接,即将剪切后的图像覆盖到其他图像的矩阵区域,并根据混合区域的大小调整标签。
4.根据权利要求1所述的一种基于GoogLeNet的红外图像识别方法,其特征在于,在步骤二中,引入7*7的卷积核分支,提高网络的感受野大小,使用1*1卷积核进行参数降维,在网络深层结构使用3*1和1*3的卷积组合替换3*3、5*5、7*7的卷积核。
5.根据权利要求1所述的一种基于GoogLeNet的红外图像识别方法,其特征在于,在步骤三中,前一层Inception结构的输出分成两条分支,一条经过两次3×3的卷积操作后,使用Sigmoid激活函数映射到[0,1]区间得到注意力图,另一条分支将Inception输出直接与注意力图进行相乘,得到下一层Inception的输入。
CN202011223719.3A 2020-11-05 2020-11-05 一种基于GoogLeNet的红外图像识别方法 Active CN112364979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011223719.3A CN112364979B (zh) 2020-11-05 2020-11-05 一种基于GoogLeNet的红外图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011223719.3A CN112364979B (zh) 2020-11-05 2020-11-05 一种基于GoogLeNet的红外图像识别方法

Publications (2)

Publication Number Publication Date
CN112364979A CN112364979A (zh) 2021-02-12
CN112364979B true CN112364979B (zh) 2022-07-12

Family

ID=74509468

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011223719.3A Active CN112364979B (zh) 2020-11-05 2020-11-05 一种基于GoogLeNet的红外图像识别方法

Country Status (1)

Country Link
CN (1) CN112364979B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011556B (zh) * 2021-02-20 2022-10-11 安徽大学 基于INC-DenseUnet网络识别模型建立方法
CN114648671A (zh) * 2022-02-15 2022-06-21 成都臻识科技发展有限公司 基于深度学习的检测模型生成方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017087583A1 (en) * 2015-11-16 2017-05-26 Campbell Robert Marshal Camera sight device for a weapon
CN109063728A (zh) * 2018-06-20 2018-12-21 燕山大学 一种火灾图像深度学习模式识别方法
CN109447936A (zh) * 2018-12-21 2019-03-08 江苏师范大学 一种红外和可见光图像融合方法
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法
CN110222615A (zh) * 2019-05-28 2019-09-10 上海海事大学 基于InceptionV3网络的被遮挡目标识别方法
CN110245635A (zh) * 2019-06-20 2019-09-17 安徽理工大学 一种煤和矸石的红外图像识别方法
CN111160311A (zh) * 2020-01-02 2020-05-15 西北工业大学 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN111275131A (zh) * 2020-02-21 2020-06-12 北京化工大学 基于红外光谱的化学图像分类识别方法
CN111274999A (zh) * 2020-02-17 2020-06-12 北京迈格威科技有限公司 数据处理、图像处理方法、装置及电子设备
CN111476310A (zh) * 2020-04-16 2020-07-31 中国科学院半导体研究所 一种图像分类方法、装置及设备
CN111639544A (zh) * 2020-05-07 2020-09-08 齐齐哈尔大学 基于多分支跨连接卷积神经网络的表情识别方法
CN111767800A (zh) * 2020-06-02 2020-10-13 华南师范大学 遥感影像场景分类得分融合方法、系统、设备及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10765593B2 (en) * 2007-09-19 2020-09-08 Quiecor Preventative Cardiology Centers Of America Corp. Method and system for treating person suffering from a circulatory disorder
CN108021916B (zh) * 2017-12-31 2018-11-06 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法
US11034357B2 (en) * 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
CN110619352A (zh) * 2019-08-22 2019-12-27 杭州电子科技大学 基于深度卷积神经网络的典型红外目标分类方法
CN110674866B (zh) * 2019-09-23 2021-05-07 兰州理工大学 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法
CN111046967A (zh) * 2019-12-18 2020-04-21 江苏科技大学 一种基于卷积神经网络和注意力机制的水下图像分类方法
CN111563542A (zh) * 2020-04-24 2020-08-21 空间信息产业发展股份有限公司 一种基于卷积神经网络的植物自动分类方法
CN111783558A (zh) * 2020-06-11 2020-10-16 上海交通大学 一种卫星导航干扰信号类型智能识别方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017087583A1 (en) * 2015-11-16 2017-05-26 Campbell Robert Marshal Camera sight device for a weapon
CN109063728A (zh) * 2018-06-20 2018-12-21 燕山大学 一种火灾图像深度学习模式识别方法
CN109447936A (zh) * 2018-12-21 2019-03-08 江苏师范大学 一种红外和可见光图像融合方法
CN110084794A (zh) * 2019-04-22 2019-08-02 华南理工大学 一种基于注意力卷积神经网络的皮肤癌图片识别方法
CN110222615A (zh) * 2019-05-28 2019-09-10 上海海事大学 基于InceptionV3网络的被遮挡目标识别方法
CN110245635A (zh) * 2019-06-20 2019-09-17 安徽理工大学 一种煤和矸石的红外图像识别方法
CN111160311A (zh) * 2020-01-02 2020-05-15 西北工业大学 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN111274999A (zh) * 2020-02-17 2020-06-12 北京迈格威科技有限公司 数据处理、图像处理方法、装置及电子设备
CN111275131A (zh) * 2020-02-21 2020-06-12 北京化工大学 基于红外光谱的化学图像分类识别方法
CN111476310A (zh) * 2020-04-16 2020-07-31 中国科学院半导体研究所 一种图像分类方法、装置及设备
CN111639544A (zh) * 2020-05-07 2020-09-08 齐齐哈尔大学 基于多分支跨连接卷积神经网络的表情识别方法
CN111767800A (zh) * 2020-06-02 2020-10-13 华南师范大学 遥感影像场景分类得分融合方法、系统、设备及存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Congcong Li等."Spatial Attention Pyramid Network for Unsupervised Domain Adaptation".《Computer Vision and Pattern Recognition》.2020,1-17. *
K He 等."Deep residual learning for image recognition".《IEEE》.2016,770-778. *
Yifeng Ding等."Weakly Supervised Attention Pyramid Convolutional Neural Network for Fine-Grained Visual Classification".《Computer Vision and Pattern Recognition》.2020,1-10. *
于鲲 等."空间目标临边探测背景红外成像建模与图像仿真".《红外与激光工程》.2019,第48卷(第09期),52-61. *
徐明远 等."基于改进CNN的公交车内拥挤状态识别".《计算机技术与发展》.2020,第30卷(第05期),32-37. *
肖国麟 等."基于权值交互思想的卷积神经网络量化算法".《电子技术应用》.2020,第46卷(第10期),39-41. *

Also Published As

Publication number Publication date
CN112364979A (zh) 2021-02-12

Similar Documents

Publication Publication Date Title
WO2021244079A1 (zh) 智能家居环境中图像目标检测方法
CN112818903B (zh) 一种基于元学习和协同注意力的小样本遥感图像目标检测方法
CN113298818B (zh) 基于注意力机制与多尺度特征的遥感图像建筑物分割方法
CN108549891B (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
CN107967451A (zh) 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法
Lu et al. Multi-scale strip pooling feature aggregation network for cloud and cloud shadow segmentation
CN112541532B (zh) 基于密集连接结构的目标检测方法
CN112364979B (zh) 一种基于GoogLeNet的红外图像识别方法
CN110633633B (zh) 一种基于自适应阈值的遥感影像道路提取方法
CN111738113A (zh) 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法
CN111582091B (zh) 基于多分支卷积神经网络的行人识别方法
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
Xiang et al. Lightweight fully convolutional network for license plate detection
CN108537121A (zh) 气象环境参数与图像信息融合的自适应遥感场景分类方法
CN114973011A (zh) 一种基于深度学习的高分辨率遥感影像建筑物提取方法
CN113822951A (zh) 图像处理方法、装置、电子设备及存储介质
CN106372597A (zh) 基于自适应上下文信息的cnn交通检测方法
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN116385896A (zh) 一种基于融合级联注意力机制的遥感小目标检测方法、系统、设备及介质
Lin et al. Lateral refinement network for contour detection
CN114187454A (zh) 一种新的基于轻量级网络的显著性目标检测方法
CN117372898A (zh) 一种基于改进yolov8的无人机航拍图像目标检测方法
Guo et al. Salient object detection from low contrast images based on local contrast enhancing and non-local feature learning
CN111695436B (zh) 一种基于目标增强的高空间分辨率遥感图像场景分类方法
CN115063655A (zh) 一种融合超列的类激活映射图生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant