CN112465815A - 一种基于边缘主体融合信息的遥感目标显著性检测方法 - Google Patents
一种基于边缘主体融合信息的遥感目标显著性检测方法 Download PDFInfo
- Publication number
- CN112465815A CN112465815A CN202011494987.9A CN202011494987A CN112465815A CN 112465815 A CN112465815 A CN 112465815A CN 202011494987 A CN202011494987 A CN 202011494987A CN 112465815 A CN112465815 A CN 112465815A
- Authority
- CN
- China
- Prior art keywords
- edge
- information
- encoder
- remote sensing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于边缘主体融合信息的遥感目标显著性检测方法。本发明步骤:1、图像数据预处理;2、网络搭建:网络包括encoder部分和decoder部分;encoder部分包括一个输入卷积层和六个卷积块,其中前四个卷积块采用ResNet34;encoder和decoder之间添加3个3*3的卷积层作为桥接;Decoder部分与encoder部分为对称结构,每个解码块与对应encoder部分concat的同时,还将前一个解码块concat到当前解码块;3、数据输入和训练。本发明有效利用了编码阶段的边缘信息和主体信息,并选择使用多loss融合的模式对U‑net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。
Description
技术领域
本发明属于计算机视觉领域,涉及显著目标检测、遥感图像检测领域。具体涉及一种基于边缘主体融合信息的遥感目标显著性检测方法。
背景技术
随着深度学习、神经网络的飞速发展,计算机视觉领域实现了前所未有的跨越。目标检测作为计算机视觉领域一个经典大类,受到广泛的研究和探讨,在显著目标检测、行人重识别、图像数据评估等各个方向都取得了巨大进步。在生活中,面部扫描、车牌扫描、天网工程等都利用到了目标检测的相关技术。
人类视觉系统在面对自然场景时具有快速搜索和定位感兴趣目标的能力,这种视觉注意机制是人们日常生活中处理视觉信息的重要机制。随着互联网带来的大数据量的传播,如何从海量的图像和视频数据中快速地获取重要信息,已经成为计算机视觉领域一个关键的问题。通过在计算机视觉任务中引入这种视觉注意机制,即视觉显著性,可以为视觉信息处理任务带来一系列重大的帮助和改善。显著性物体检测的目的即是从图像中定位最有吸引力和视觉上独特的物体或区域,大量应用于图像分割、目标重定位、目标图像前景注释等邻域。遥感图像的显著目标检测在检测上又不同于常规显著性检测任务,遥感图像通过航空摄影、航空扫描、微波雷达等手段,以飞机、轮船等交通工具,公路、河流、运动场馆等目标物体为主要分割对象,目标在图像中往往较小且复杂。遥感图像的显著目标检测在自然保护、雷达检测等邻域有巨大作用。
U-Net是现在最为流行的图像分割网络,网络主要包括下采样和上采样两个部分,通过下采样对图片特征进行提取处理,而上采样则可以将特征信息进行还原,使得网络最后输出为一个完整图像。
随着深度神经网络的飞速发展,遥感图像的显著目标检测在检测精度以及检测速度上都有巨大进步,人们也发现在目标检测中加入边缘信息后能够使得检测结果有进一步提升。但是现存的方法只是单纯地将边缘信息加入到主体检测中,几乎没人关注到主体检测和边缘检测的协同优化效果。本文有效利用了边缘信息和主体信息,利用边缘信息指导主体,同时利用主题信息反馈指导边缘,使得显著目标检测,尤其是遥感目标的显著目标检测结果有了巨大提升。
发明内容
针对现有技术存在的问题,本发明提供一种基于边缘主体融合信息的遥感目标显著性检测方法。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1、图像数据预处理,获得预处理后的图像训练集:
训练数据集采用ORSSD图像数据集。对待训练数据集进行图像预处理,首先去除图像相关噪声干扰使数据更加精确,并利用matlab工具获得只含边缘轮廓的图像训练集,然后对获取的图像训练集进行扩增,从而获得更好的训练效果。
步骤2、网络搭建:
网络主要结构如图1,本方法采用encoder-decoder办法,网络结构主体参考U-net,具体的:U-net的encoder部分包括一个输入卷积层和六个卷积块,其中前四个卷积块采用ResNet34,为了得到和传统ResNet34相同的感受野,在四个卷积块后又添加了两个卷积块。为了更好的获得全局信息,在网络的encoder和decoder之间添加3个3*3的卷积层作为桥接。
Decoder部分与encoder部分为对称结构,与传统U-net不同的是,每个解码块除了与对应encoder部分concat之外,还将前一个解码块concat进来从而获得更丰富的全局信息。每个解码块都获得其边缘输出,用loss函数进行约束。
边缘主体融合模块作用于encoder部分,由于底层信息有更丰富的边缘信息,高层信息则含有更丰富的主体信息,因此选择提取第二个卷积块的边缘信息以及第五个卷积块的主体信息进行交互,并用loss进行约束。
边缘主体融合模块作用于decoder部分,一方面:首先对每个解码块的边缘输出进行loss约束,然后对六个解码块和桥接的边缘输出进行loss约束;另一方面:将六个解码块的边缘输出和桥接的边缘输出进行concat,然后输入3层3*3的卷积层当中再用相同的loss函数进行约束。
步骤3、数据输入和训练:
网络采用Adam优化器,学习率设置为0.001,beta=(0.9,0.999),eps=1e-8,weight_decay=0。我们将输入图像resize为256*256,epoch设置为200,batch size为4。
本发明有益效果如下:
本发明有效利用了编码阶段的边缘信息和主体信息,并选择使用多loss融合的模式对U-net解码部分的各个边缘输出进行约束,同时对各个边缘输出进行融合,使得遥感目标的检测取得了显著提升。
附图说明
图1整体网络结构图
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
如图1所示,一种基于边缘主体融合信息的遥感目标显著性检测方法,具体实现步骤如下:
步骤1:对待训练数据集进行图像预处理,数据集选择ORSSD,为了得到较好的训练结果我们通过旋转、翻转将数据集扩充为4800张,同时获得对应边缘轮廓图片,除去不必要的图像噪声使数据更加精确。
步骤2-网络搭建:
网络主要结构如图1,本方法采用encoder-decoder办法,网络结构主体参考U-net,将U-net的encoder部分有一个输入卷积层和六个卷积块组合而成,其中前四个卷积块采用ResNet34,为了得到和传统ResNet34相同的感受野,我们在四个卷积块后又添加了两个卷积块。为了更好的获得全局信息,在网络的encoder和decoder之间我们添加了3个3*3的卷积层作为桥接。
Decoder部分与encoder部分为对称结构,与传统U-net不同的是,每个解码块除了与对应encoder部分联结之外,还将前一个解码块联结进来从而获得更丰富的全局信息。每个解码块我们都获得其边缘输出,用loss函数进行约束。
边缘主体融合模块作用于encoder部分,由于底层信息有更丰富的边缘信息,高层信息则含有更丰富的主体信息,我们利用两个卷积模块(均为三个3*3的conv+bn+relu)分别对第二层的边缘信息和第五层的主体信息进行提取,进行交互后分别利用边缘GT和主体GT进行约束。
值得注意的是在对边缘信息进行约束时,我们只采用ssim loss作为约束,主体则使用联合loss进行约束。
融合模块作用于decoder部分,我们将所有解码块的边缘输出和上文提到的边缘信息进行联结,将其输入到3层3*3的卷积层当中再用相同的loss函数进行约束。
值得注意的是对于每个卷积层,我们都在其后添加了bn层和relu层,使用的loss函数如下:
l=lbce+lssim+liou
其中G(x,y),T(x,y)分别为ground truth和预测结果在各个位置的数值。参数解释,μ和σ分别为均值和标准差,H,W为图片的高和宽,C1=0.012,C2=0.032,用于防止分母为零。
步骤3-数据输入、训练:
网络采用Adam优化器,学习率设置为0.001,beta=(0.9,0.999),eps=1e-8,weight_decay=0。我们将输入图片resize为256*256,epoch设置为200,batch size为4。
本发明充分研究优化了U-net网络的常规结构,充分利用了decoder部分的信息,通过更加丰富的联结手段使每个解码模块获得了更加丰富的全局信息,同时通过添加融合模块,使得小目标检测更加完整,细节部分更加清晰完整。在遥感数据集上取得了显著的效果。
Claims (5)
1.一种基于边缘主体融合信息的遥感目标显著性检测方法,其特征在于包括如下步骤:
步骤1、图像数据预处理,获得预处理后的图像训练集;
步骤2、网络搭建:
网络包括encoder部分和decoder部分;encoder部分包括一个输入卷积层和六个卷积块,其中前四个卷积块采用ResNet34;在网络的encoder和decoder之间添加3个3*3的卷积层作为桥接;
Decoder部分与encoder部分为对称结构,每个解码块与对应encoder部分concat的同时,还将前一个解码块concat到当前解码块,从而获得更丰富的全局信息;
步骤3、数据输入和训练:
网络采用Adam优化器,学习率设置为0.001,beta=(0.9,0.999),eps=1e-8,weight_decay=0;将输入图像resize为256*256,epoch设置为200,batch size为4。
2.根据权利要求1所述的一种基于边缘主体融合信息的遥感目标显著性检测方法,其特征在于步骤1具体实现如下:
图像数据采用ORSSD图像数据集,对待训练图像数据集进行图像预处理,首先去除图像相关噪声干扰使,然后利用matlab工具获得只含边缘轮廓的图像训练集,最后对获取的图像训练集进行扩增,从而获得更好的训练效果。
3.根据权利要求2所述的一种基于边缘主体融合信息的遥感目标显著性检测方法,其特征在于步骤2所述的decoder部分的每个解码块获得其边缘输出后用loss函数进行约束;
边缘主体融合模块作用于encoder部分时,选择提取第二个卷积块的边缘信息以及第五个卷积块的主体信息进行交互,并用loss进行约束;
边缘主体融合模块作用于decoder部分时,一方面:首先对每个解码块的边缘输出进行loss约束,然后对六个解码块和桥接的边缘输出进行loss约束;另一方面:将六个解码块的边缘输出和桥接的边缘输出进行concat,然后输入3层3*3的卷积层当中再用相同的loss函数进行约束。
4.根据权利要求3所述的一种基于边缘主体融合信息的遥感目标显著性检测方法,其特征在于所述的边缘主体融合模块用于融合边缘信息和主体信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494987.9A CN112465815B (zh) | 2020-12-17 | 2020-12-17 | 一种基于边缘主体融合信息的遥感目标显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011494987.9A CN112465815B (zh) | 2020-12-17 | 2020-12-17 | 一种基于边缘主体融合信息的遥感目标显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112465815A true CN112465815A (zh) | 2021-03-09 |
CN112465815B CN112465815B (zh) | 2023-09-19 |
Family
ID=74803768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011494987.9A Active CN112465815B (zh) | 2020-12-17 | 2020-12-17 | 一种基于边缘主体融合信息的遥感目标显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112465815B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861795A (zh) * | 2021-03-12 | 2021-05-28 | 云知声智能科技股份有限公司 | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 |
CN113408350A (zh) * | 2021-05-17 | 2021-09-17 | 杭州电子科技大学 | 一种基于创新边缘特征提取方法的遥感图像显著性检测方法 |
CN114219790A (zh) * | 2021-12-17 | 2022-03-22 | 杭州电子科技大学 | 一种基于边缘信息的钢铁表面缺陷显著性检测方法 |
CN114627299A (zh) * | 2022-04-21 | 2022-06-14 | 杭州电子科技大学 | 一种模仿人类视觉系统对伪装目标检测与分割方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447994A (zh) * | 2018-11-05 | 2019-03-08 | 陕西师范大学 | 结合完全残差与特征融合的遥感图像分割方法 |
WO2019104767A1 (zh) * | 2017-11-28 | 2019-06-06 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN111242138A (zh) * | 2020-01-11 | 2020-06-05 | 杭州电子科技大学 | 一种基于多尺度特征融合的rgbd显著性检测方法 |
-
2020
- 2020-12-17 CN CN202011494987.9A patent/CN112465815B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019104767A1 (zh) * | 2017-11-28 | 2019-06-06 | 河海大学常州校区 | 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法 |
WO2019144575A1 (zh) * | 2018-01-24 | 2019-08-01 | 中山大学 | 一种快速行人检测方法及装置 |
CN109447994A (zh) * | 2018-11-05 | 2019-03-08 | 陕西师范大学 | 结合完全残差与特征融合的遥感图像分割方法 |
CN111242138A (zh) * | 2020-01-11 | 2020-06-05 | 杭州电子科技大学 | 一种基于多尺度特征融合的rgbd显著性检测方法 |
Non-Patent Citations (4)
Title |
---|
JIA-XING ZHAO ET AL: "EGNet: Edge Guidance Network for Salient Object Detection", 《IEEE》, pages 8779 - 8788 * |
ZHE WU ET AL: "Stacked Cross Refinement Network for Edge-Aware Salient Object Detection", 《IEEE》, pages 1 - 10 * |
余春艳 等: "融合去卷积与跳跃嵌套结构的显著性区域检测", 《计算机辅助设计与图形学学报》, vol. 30, no. 11, pages 2150 - 2158 * |
余春艳;徐小丹;钟诗俊;: "融合去卷积与跳跃嵌套结构的显著性区域检测", 计算机辅助设计与图形学学报, no. 11 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112861795A (zh) * | 2021-03-12 | 2021-05-28 | 云知声智能科技股份有限公司 | 基于多尺度特征融合的遥感图像显著目标检测方法及装置 |
CN113408350A (zh) * | 2021-05-17 | 2021-09-17 | 杭州电子科技大学 | 一种基于创新边缘特征提取方法的遥感图像显著性检测方法 |
CN113408350B (zh) * | 2021-05-17 | 2023-09-19 | 杭州电子科技大学 | 一种基于边缘特征提取的遥感图像显著性检测方法 |
CN114219790A (zh) * | 2021-12-17 | 2022-03-22 | 杭州电子科技大学 | 一种基于边缘信息的钢铁表面缺陷显著性检测方法 |
CN114219790B (zh) * | 2021-12-17 | 2023-09-22 | 杭州电子科技大学 | 一种基于边缘信息的钢铁表面缺陷显著性检测方法 |
CN114627299A (zh) * | 2022-04-21 | 2022-06-14 | 杭州电子科技大学 | 一种模仿人类视觉系统对伪装目标检测与分割方法 |
CN114627299B (zh) * | 2022-04-21 | 2023-10-27 | 杭州电子科技大学 | 一种模仿人类视觉系统对伪装目标检测与分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112465815B (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112465815A (zh) | 一种基于边缘主体融合信息的遥感目标显著性检测方法 | |
CN109871798B (zh) | 一种基于卷积神经网络的遥感影像建筑物提取方法 | |
CN111563909B (zh) | 一种复杂街景图像语义分割方法 | |
CN114359130A (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN111524117A (zh) | 一种基于特征金字塔网络的隧道表面缺陷检测方法 | |
CN114241218A (zh) | 一种基于逐级注意力机制的目标显著性检测方法 | |
Cao et al. | MCS-YOLO: A multiscale object detection method for autonomous driving road environment recognition | |
CN114299111A (zh) | 一种基于半监督孪生网络的红外弱小目标跟踪方法 | |
CN115527096A (zh) | 一种基于改进YOLOv5的小目标检测方法 | |
CN111724443A (zh) | 基于生成式对抗网络的统一场景视觉定位方法 | |
CN111191607A (zh) | 确定车辆的转向信息的方法、设备和存储介质 | |
CN114067142A (zh) | 一种实现场景结构预测、目标检测和车道级定位的方法 | |
CN113744185A (zh) | 一种基于深度学习和图像处理的混凝土表观裂缝分割方法 | |
CN114241288A (zh) | 一种选择性边缘信息引导的遥感目标显著性检测方法 | |
CN116310916A (zh) | 一种高分辨率遥感城市图像语义分割方法及系统 | |
CN116342675A (zh) | 一种实时单目深度估计方法、系统、电子设备及存储介质 | |
Zhang et al. | Semantic Segmentation of Traffic Scene Based on DeepLabv3+ and Attention Mechanism | |
CN113392812B (zh) | 基于深度神经网络的道路车道线检测方法及系统 | |
CN111353441B (zh) | 基于位置数据融合的道路提取方法和系统 | |
Lee et al. | Damage Detection and Safety Diagnosis for Immovable Cultural Assets Using Deep Learning Framework | |
Sharma et al. | Effective utilization of a low-cost solution for remote sensing of vehicles and pedestrians | |
CN115294359B (zh) | 一种基于深度学习的高分辨率图像显著性目标检测方法 | |
Li et al. | Infrared Small Target Detection Algorithm Based on ISTD-CenterNet. | |
CN111145178A (zh) | 高分辨率遥感图像多尺度分割方法 | |
Zheng et al. | A Dual Encoder-Decoder Network for Self-supervised Monocular Depth Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |