CN112132205A - 一种基于卷积神经网络的遥感图像分类方法 - Google Patents

一种基于卷积神经网络的遥感图像分类方法 Download PDF

Info

Publication number
CN112132205A
CN112132205A CN202010987920.2A CN202010987920A CN112132205A CN 112132205 A CN112132205 A CN 112132205A CN 202010987920 A CN202010987920 A CN 202010987920A CN 112132205 A CN112132205 A CN 112132205A
Authority
CN
China
Prior art keywords
neural network
convolutional neural
remote sensing
module
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010987920.2A
Other languages
English (en)
Other versions
CN112132205B (zh
Inventor
路小波
陈诗坤
曹毅超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN202010987920.2A priority Critical patent/CN112132205B/zh
Publication of CN112132205A publication Critical patent/CN112132205A/zh
Application granted granted Critical
Publication of CN112132205B publication Critical patent/CN112132205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的遥感图像分类方法。本发明提出的卷积神经网络主要包括三个模块:主干网络模块,多尺度融合模块和分类头模块。其中主干网络模块把输入的RGB遥感图像变为不同分辨率的特征图;多尺度融合模块让主干网络产生的特征图之间进行多尺度融合,进一步提取各分辨率特征图中的语义信息;在分类头模块中,高分辨率的特征图被下采样至最低分辨率的特征图,然后将特征图送入池化层与分类器中,得到分类结果。本发明还在卷积神经网络中引入了空间和通道维度的注意力机制,使得分类结果更加准确。本发明公开的分类方法在一个名叫USTC_SmokeRS的公开遥感数据集上取得了迄今最高的分类精度95.25%。

Description

一种基于卷积神经网络的遥感图像分类方法
技术领域
本发明属于视频图像处理领域,涉及一种基于卷积神经网络的遥感图像分类方法。
背景技术
遥感卫星的传感器具有观测范围广、成本低的优点。随着传感器技术的快速发展,遥感数据包含越来越多的信息且每天都能被获取,这些数据已经被用于各种任务中。火灾是一种常见的自然灾害,会对人类的安全和财产造成极大的危害,对火灾的检测和报警具有十分重要的意义。随着遥感技术的可用性和能力的不断提高,火灾监测和探测取得了重大进展。当发生火灾时,卫星会捕捉火灾产生的烟雾。人们把遥感图像中的烟雾当作火灾发生的信号。然而,烟的形状和颜色受到天气和地形等几个因素的影响。遥感数据中的一些场景,如云、霾,与烟雾非常相似,这也会增加烟雾识别的难度。因此,在遥感影像中正确区分不同场景具有重要意义。
分类技术能够识别不同的场景并被广泛的研究。在以前人们从图像中提取低层特征进行场景分类,所谓的低层次特征包括颜色、纹理等。但是,这些方法在区分烟、灰尘、雾霾、云这些颜色与纹理等都很相近的场景时可能并不适用。近年来,随着深度学习的发展,卷积神经网络被广泛应用于场景分类任务中。卷积神经网络具有类似人类大脑的能力,可以提取深层特征并区分不同的场景。大多数卷积神经网络分类模型的结构都是串联的,随着网络的深入,这些网络中特征图的分辨率降低。全连通层是由网络中分辨率最低的特征图生成的。但是,高分辨率特征图包含更多的语义信息。在遥感数据集中,像图像中的烟雾这样的语义信息是决定该图像所属类别的决定性因素。在高分辨率表示和低分辨率表示之间进行多尺度融合将使预测结果在空间上更加精确,并包含更多的语义信息。多尺度融合网络可以聚焦于图像上具有较多语义信息的区域,使预测更加准确。
发明内容
本发明的目的是为了解决上述问题,提供一种基于卷积神经网络的遥感图像分类方法。本发明在卷积神经网络中引入了空间和通道维度的注意力机制,使得分类结果更加准确。
为达到上述目的,本发明采用的方法是:一种基于卷积神经网络的遥感图像分类方法,该方法包括以下步骤:
步骤1:将遥感数据集按一定比例划分为训练集,验证集和测试集。
步骤2:建立卷积神经网络的主干网络。
步骤3:建立卷积神经网络的多尺度融合模块,并在此模块中引入注意力机制。
步骤4:建立卷积神经网络的分类头模块。
步骤5:加载训练集,对卷积神经网络进行训练。
步骤6:通过步骤5训练的网络,对遥感数据集进行分类。
作为本发明的一种改进,所述步骤1遥感数据集是一个名叫USTC_SmokeRS的公开数据集,此数据集共包含有6类场景共计6225张RGB图片。这6类场景分别是:烟,灰尘,雾霾,云,陆地和海岸。其中前四类场景十分相似,后两类场景陆地和海岸是前四类场景被拍摄时的背景。划分后,训练集包含3984张图片,验证集包含999张图片,测试集包含1242张(烟:203张;灰尘:201张;雾霾:200张;云:232张;陆地:205张;海岸:201张)图片。
作为本发明的一种改进,所述步骤2的主干网络模块由四堆嵌入了CBAM的残差网络基本块构成,这四堆分别包含5,6,9和5个嵌入CBAM的残差网络基本块。CBAM中包含空间和通道维度的注意力,这会增强主干网络提取每一类场景特征的能力。这些堆叠的基本块是用来产生四种不同分辨率的特征图,这四种分辨率为:56×56,28×28,14×14和7×7。
作为本发明的一种改进,所述步骤3的多尺度融合模块,其输入是由主干网络产生的分辨率为56×56,28×28,14×14和7×7的四组特征图。在多尺度融合模块中,四组输入的特征图被融合起来产生四组新的特征图,新的四组特征图的分辨率与输入一致,分别是56×56,28×28,14×14和7×7。这种多尺度的融合可以使不同分辨率的特征图包含的信息被充分得提取和利用。本发明在多尺度融合模块中引入通道维度的注意力机制,抑制相对不重要的通道的作用,增强含有更多语义信息的通道的作用。本模块的输出可被表示为:
Figure BDA0002689875940000021
其中,w是注意力权重;In(k)是输入的第k组特征图;wjk的尺寸是N×2(j+5)×1×1;当k大于j时,函数f(·)代表上采样;当k小于j时,f(·)代表下采样;当k等于j时,f(·)是代表恒等映射。
作为本发明的一种改进,所述步骤4分类头模块,此模块的输入是由多尺度融合模块得到的四组不同分辨率的特征图。在分类头模块中,使用尺寸为3×3,步长为2的卷积核将最高分辨率(56×56)的特征图下采样至第二高分辨率(28×28)的尺寸,并将其与第二高分辨率的特征图相加。重复此操作三次得到分辨率是7×7的特征图,并将其送进池化层和分类器中,得到最后的分类结果。
作为本发明的一种改进,所述步骤5加载训练集时,输入的图片以计算出的均值和方差进行归一化并被随机裁剪至224×224的大小,然后被施加水平和竖直的旋转变换。批量处理的大小被设为32,一共训练200个循环,初始的学习率为0.02,并在第100与第150个循环后缩小一半。本发明使用的深度学习框架是Pytorch。
作为本发明的一种改进,所述步骤6在测试集上进行分类的过程中,输入图片以计算出的均值和方差进行归一化并被裁剪至224×224的大小。利用所述步骤5中训练好的神经网络得到分类结果,最终结果显示在测试集中1242张图片中,被正确分类的图片数目为1183张,分类正确率为95.25%;其中203张烟的图片中被正确分类的数目为188;201张灰尘图片中被正确分类的数目为185;200张雾霾的图片中被正确分类的数目为187;232张云的图片中被正确分类的数目为229;205张陆地图片中被正确分类的数目是196;201张海岸图片中被正确分类的数目为198。其中95.25%的正确率是迄今在此数据集上得到的最高的分类正确率。
有益效果:
与现有的技术相比,本发明具有以下优点:
(1)本发明采用基于卷积神经网络的图像分类方法,能够挖掘到图像的深层特征,充分提取遥感数据集中的语义信息。
(2)本发明设计的卷积神经网络,其中多尺度融合模块能够使网络充分利用高分辨率和低分辨率特征图中包含的信息,使预测结果更加准确。
(3)本发明设计的卷积神经网络嵌入了空间和通道维度的注意力机制,使网络关注相对更重要的区域和通道,优化分类效果。
(4)本发明相对于遥感数据更新的周期,可以达到实时的检测速度。
(5)本发明能准确分辨出遥感图像中出现频率极高的场景:烟及与烟非常相似的场景灰尘、雾霾和云等场景。在遥感图像之中烟是火灾发生的信号,结合运行速度的实时性,本发明可被用于利用遥感图像探测火灾。
(6)本发明设计的卷积神经网络在遥感数据集USTC_SmokeRS上取得了目前最高的分类准确率95.25%。
附图说明
图1是本发明的模型整体结构图;
图2是本发明的卷积神经网络模型结构图;
具体实施方式
下面结合具体实施例和说明附图对本发明作进一步说明,本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。此处所描述的优先实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:如图1到图2所示,本发明公开了一种基于卷积神经网络的遥感图像分类方法,该方法包括以下步骤:
步骤1:讲数据集划分成训练集,验证集和测试集。在一个名叫USTC_SmokeRS的公开遥感数据集上,此数据集共包含有6类场景共计6225张RGB图片。这6类场景分别是:烟,灰尘,雾霾,云,陆地和海岸。其中前四类场景十分相似,后两类场景陆地和海岸是前四类场景被拍摄时的背景。划分后,训练集包含3984张图片,验证集包含999张图片,测试集包含1242张(烟:203张;灰尘:201张;雾霾:200张;云:232张;陆地:205张;海岸:201张)图片。
步骤2:建立主干网络模块,主干网络由四堆嵌入了CBAM的残差网络基本块构成,这四堆分别包含5,6,9和5个嵌入CBAM的残差网络基本块。CBAM中包含空间和通道维度的注意力,这会增强主干网络提取每一类场景特征的能力。这些堆叠的基本块是用来产生四种不同分辨率的特征图,这四种分辨率为:56×56,28×28,14×14和7×7。
步骤3:建立多尺度融合模块,多尺度融合模块的输入是由主干网络产生的分辨率为56×56,28×28,14×14和7×7的四组特征图。在多尺度融合模块中,四组输入的特征图被融合起来产生四组新的特征图,新的四组特征图的分辨率与输入一致,分别是56×56,28×28,14×14和7×7。这种多尺度的融合可以使不同分辨率的特征图包含的信息被充分得提取和利用。本发明在多尺度融合模块中引入通道维度的注意力机制,抑制相对不重要的通道的作用,增强含有更多语义信息的通道的作用。本模块的输出可被表示为:
Figure BDA0002689875940000051
其中,w是注意力权重;In(k)是输入的第k组特征图;wjk的尺寸是N×2(j+5)×1×1;当k大于j时,函数f(·)代表上采样;当k小于j时,f(·)代表下采样;当k等于j时,f(·)是代表恒等映射。
步骤4:建立分类头模块。此模块的输入是由多尺度融合模块得到的四组不同分辨率的特征图。在分类头模块中,使用尺寸为3×3,步长为2的卷积核将最高分辨率(56×56)的特征图下采样至第二高分辨率(28×28)的尺寸,并将其与第二高分辨率的特征图相加。重复此操作三次得到分辨率是7×7的特征图,并将其送进池化层和分类器中,得到最后的分类结果。
步骤5:加载训练集,对神经网络进行训练。加载训练集时,输入的图片以计算出的均值和方差进行归一化并被随机裁剪至224×224的大小,然后被施加水平和竖直的旋转变换。批量处理的大小被设为32,一共训练200个循环,初始的学习率为0.02,并在第100与第150个循环后缩小一半。本发明使用的深度学习框架是Pytorch。
步骤6:通过步骤5训练的网络,对遥感数据集进行分类。在测试集上进行分类的过程中,输入图片以计算出的均值和方差进行归一化并被裁剪至224×224的大小。利用所述步骤5中训练好的神经网络得到分类结果,最终结果显示在测试集中1242张图片中,被正确分类的图片数目为1183张,分类正确率为95.25%;其中203张烟的图片中被正确分类的数目为188;201张灰尘图片中被正确分类的数目为185;200张雾霾的图片中被正确分类的数目为187;232张云的图片中被正确分类的数目为229;205张陆地图片中被正确分类的数目是196;201张海岸图片中被正确分类的数目为198。其中95.25%的正确率是迄今在此数据集上得到的最高的分类正确率。
需要说明的是上述实施例仅仅是本发明的较佳实施例,并没有用来限定本发明的保护范围,在上述技术方案基础上做出的等同替换或者替代均属于本发明的保护范围,本发明的保护范围以权利要求书为准。

Claims (8)

1.一种卷积神经网络,其特征在于,主要包括三个模块:主干网络模块,多尺度融合模块和分类头模块,其中主干网络模块利用带有注意力机制的残差模块把输入神经网络的RGB遥感图像变为4种分辨率的特征图,其中四组分辨率的特征图尺度分别为尺度1:(N×64×56×56),尺度2:(N×128×28×28),尺度3:(N×256×14×14),尺度4:(N×512×7×7),这四组特征图将被作为输入送到多尺度融合模块中;多尺度融合模块让主干网络产生的特征图之间进行多尺度融合,高分辨率的特征图被下采样至低分辨率特征图的尺寸,例如尺度1中56×56的特征图将被分别下采样至28×28,14×14,7×7的分辨率,并和相应分辨率的输入特征图相加,低分辨率的特征图将被上采样至高分辨特征图的分辨率并和相应的输入特征图相加,这样可以进一步提取、综合不同分辨率特征图中的语义信息,有助于网络进行分类任务,多尺度融合模块的输出仍是四组不同分辨率的特征图,这些特征图将被作为输入送进分类头模块当中;在分类头模块中,高分辨率的特征图被下采样至最低分辨率的特征图,同时进一步对特征图里的语义信息进行提取,然后将最低分辨率的特征图送入池化层与分类器中,对图像进行分类,得到分类结果。
2.一种基于卷积神经网络的遥感图像分类方法,其特征在于,该方法包括以下步骤:
步骤1:将遥感数据集按一定比例划分为训练集,验证集和测试集;
步骤2:建立卷积神经网络的主干网络;
步骤3:建立卷积神经网络的多尺度融合模块,并在此模块中引入注意力机制;
步骤4:建立卷积神经网络的分类头模块;
步骤5:加载训练集,对卷积神经网络进行训练;
步骤6:通过步骤5训练的网络,对遥感数据集进行分类。
3.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于,所述步骤1的遥感数据集是一个名叫USTC_SmokeRS的公开数据集,此数据集共包含有6类场景共计6225张RGB图片,这6类场景分别是:烟,灰尘,雾霾,云,陆地和海岸。
4.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于,所述步骤2的主干网络由四堆嵌入了CBAM的残差网络基本块构成,这四堆分别包含5,6,9和5个嵌入CBAM的残差网络基本块,CBAM中包含空间和通道维度的注意力,这些堆叠的基本块是用来产生四种不同分辨率的特征图,这四种分辨率为:56×56,28×28,14×14和7×7。
5.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于:所述步骤3中的多尺度融合模块,其输入是由主干网络产生的分辨率为56×56,28×28,14×14和7×7的四组特征图,在多尺度融合模块中,四组输入的特征图被融合起来产生四组新的特征图,新的四组特征图的分辨率与输入一致,分别是56×56,28×28,14×14和7×7,多尺度融合模块的输出可被表示为:
Figure FDA0002689875930000021
其中,w是注意力权重;In(k)是输入的第k组特征图;wjk的尺寸是N×2(j+5)×1×1;当k大于j时,函数f(·)代表上采样;当k小于j时,f(·)代表下采样;当k等于j时,f(·)是代表恒等映射。
6.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于,所述步骤4中分类头模块,此模块的输入是由多尺度融合模块得到的四组不同分辨率的特征图;在分类头模块中,使用尺寸为3×3,步长为2的卷积核将最高分辨率(56×56)的特征图下采样至第二高分辨率(28×28)的尺寸,并将其与第二高分辨率的特征图相加,重复此操作三次得到分辨率是7×7的特征图,并将其送进池化层和分类器中,得到最后的分类结果。
7.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于,所述步骤5中加载训练集时,输入的图片以计算出的均值和方差进行归一化并被随机裁剪至224×224的大小,然后被施加水平和竖直的旋转变换,批量处理的大小被设为32,一共训练200个循环,初始的学习率为0.02,并在第100与第150个循环后缩小一半。本发明使用的深度学习框架是Pytorch。
8.根据权利要求2所述的基于卷积神经网络的遥感图像分类方法,其特征在于,所述步骤6中在测试集上进行分类的过程中,输入图片以计算出的均值和方差进行归一化并被裁剪至224×224的大小。利用所述步骤5中训练好的神经网络得到分类结果,最终结果显示在测试集中1242张图片中,被正确分类的图片数目为1183张,分类正确率为95.25%;其中203张烟的图片中被正确分类的数目为188;201张灰尘图片中被正确分类的数目为185;200张雾霾的图片中被正确分类的数目为187;232张云的图片中被正确分类的数目为229;205张陆地图片中被正确分类的数目是196;201张海岸图片中被正确分类的数目为198。其中95.25%的正确率是迄今在此数据集上得到的最高的分类正确率。
CN202010987920.2A 2020-09-18 2020-09-18 一种基于卷积神经网络的遥感图像分类方法 Active CN112132205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010987920.2A CN112132205B (zh) 2020-09-18 2020-09-18 一种基于卷积神经网络的遥感图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010987920.2A CN112132205B (zh) 2020-09-18 2020-09-18 一种基于卷积神经网络的遥感图像分类方法

Publications (2)

Publication Number Publication Date
CN112132205A true CN112132205A (zh) 2020-12-25
CN112132205B CN112132205B (zh) 2022-11-15

Family

ID=73843065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010987920.2A Active CN112132205B (zh) 2020-09-18 2020-09-18 一种基于卷积神经网络的遥感图像分类方法

Country Status (1)

Country Link
CN (1) CN112132205B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990081A (zh) * 2021-03-30 2021-06-18 武汉大学 一种基于图卷积神经网络的遥感影像小水体提取方法
CN113011304A (zh) * 2021-03-12 2021-06-22 山东大学 一种基于注意力多分辨率网络的人体姿态估计方法及系统
CN113191406A (zh) * 2021-04-19 2021-07-30 金科智融科技(珠海)有限公司 一种基于格拉姆矩阵的动漫图像分类方法
CN113762143A (zh) * 2021-09-05 2021-12-07 东南大学 一种基于特征融合的遥感图像烟探测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728192A (zh) * 2019-09-16 2020-01-24 河海大学 一种基于新型特征金字塔深度网络的高分遥感图像分类方法
CN110728224A (zh) * 2019-10-08 2020-01-24 西安电子科技大学 一种基于注意力机制深度Contourlet网络的遥感图像分类方法
CN111666836A (zh) * 2020-05-22 2020-09-15 北京工业大学 M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728192A (zh) * 2019-09-16 2020-01-24 河海大学 一种基于新型特征金字塔深度网络的高分遥感图像分类方法
CN110728224A (zh) * 2019-10-08 2020-01-24 西安电子科技大学 一种基于注意力机制深度Contourlet网络的遥感图像分类方法
CN111666836A (zh) * 2020-05-22 2020-09-15 北京工业大学 M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张军等: "基于多尺度特征融合的中分辨率遥感场景分类算法", 《河北大学学报(自然科学版)》 *
郑卓等: "高分辨率遥感影像场景的多尺度神经网络分类法", 《测绘学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011304A (zh) * 2021-03-12 2021-06-22 山东大学 一种基于注意力多分辨率网络的人体姿态估计方法及系统
CN112990081A (zh) * 2021-03-30 2021-06-18 武汉大学 一种基于图卷积神经网络的遥感影像小水体提取方法
CN113191406A (zh) * 2021-04-19 2021-07-30 金科智融科技(珠海)有限公司 一种基于格拉姆矩阵的动漫图像分类方法
CN113762143A (zh) * 2021-09-05 2021-12-07 东南大学 一种基于特征融合的遥感图像烟探测方法

Also Published As

Publication number Publication date
CN112132205B (zh) 2022-11-15

Similar Documents

Publication Publication Date Title
CN112132205B (zh) 一种基于卷积神经网络的遥感图像分类方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN110674688B (zh) 用于视频监控场景的人脸识别模型获取方法、系统和介质
CN110956094A (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN108108751B (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN115063573B (zh) 一种基于注意力机制的多尺度目标检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN112581409B (zh) 一种基于端到端的多重信息蒸馏网络的图像去雾方法
CN111738054B (zh) 一种基于时空自编码器网络和时空cnn的行为异常检测方法
CN112287983B (zh) 一种基于深度学习的遥感图像目标提取系统和方法
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法
CN111639580A (zh) 一种结合特征分离模型和视角转换模型的步态识别方法
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN112036520A (zh) 基于深度学习的大熊猫年龄识别方法、装置及存储介质
CN117475216A (zh) 一种基于aglt网络的高光谱与激光雷达数据融合分类方法
CN114492634B (zh) 一种细粒度装备图片分类识别方法及系统
CN115115973A (zh) 一种基于多感受野与深度特征的弱小目标检测方法
CN112990213B (zh) 一种基于深度学习的数字万用表字符识别系统和方法
CN114155165A (zh) 一种基于半监督的图像去雾方法
CN114155556A (zh) 一种基于加入通道混洗模块的堆叠沙漏网络的人体姿态估计方法及系统
Yasser et al. Egyart_classify: an approach to classify outpainted Egyptian monuments images using GAN and ResNet
CN115797970A (zh) 基于YOLOv5模型的密集行人目标检测方法及系统
CN111666819B (zh) 一种融合多元信息的高精度视频异常事件检测方法
US20220405972A1 (en) An imaging sensor, an image processing device and an image processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant