CN111832502A - 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法 - Google Patents

面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法 Download PDF

Info

Publication number
CN111832502A
CN111832502A CN202010698101.6A CN202010698101A CN111832502A CN 111832502 A CN111832502 A CN 111832502A CN 202010698101 A CN202010698101 A CN 202010698101A CN 111832502 A CN111832502 A CN 111832502A
Authority
CN
China
Prior art keywords
remote sensing
image
sensing image
target
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010698101.6A
Other languages
English (en)
Inventor
夏鲁瑞
董正宏
邓忠杰
杨帆
薛武
王俊锋
李森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Original Assignee
Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peoples Liberation Army Strategic Support Force Aerospace Engineering University filed Critical Peoples Liberation Army Strategic Support Force Aerospace Engineering University
Priority to CN202010698101.6A priority Critical patent/CN111832502A/zh
Publication of CN111832502A publication Critical patent/CN111832502A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,包括以下步骤:S1、通过卫星采集目标的遥感影像;S2、将采集的遥感影像输入至视觉显著计算模型得到频域特征显著图;S3、基于信息熵对频域特征显著图进行过滤,划分出有价值的目标区域影像,剔除遥感背景的伪目标信息;S4、将有价值的目标区域影像作为改进的U‑Net网络模型的输入;S5、通过改进的U‑Net网络模型的训练和处理,搜索出遥感影像的目标区域。本发明基于遥感影像的视觉显著性与改进的U‑Net网络模型结合,进行遥感影像有价值目标区域快速搜索,将视觉显著计算模型提取的显著图作为调整后的U‑Net网络模型的输入,较好地实现了有价值的遥感目标轻量化与快速化的区域搜索。

Description

面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法
技术领域
本发明属于遥感技术领域,具体涉及一种面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法。
背景技术
近年来随着高分辨率遥感影像质量的不断提高,卫星获取的数据量呈现爆发式增长,相关从业人员对于高分辨率地物目标获取难度在逐渐降低,遥感信息应用的范围也不断扩大,诸如飞机舰船等高价值移动目标识别、机场仓库等重要建筑目标检测和山火水灾等紧急自然灾害预警均涉及遥感信息应用。通过卫星平台进行处理解析的遥感影像都是海量大规模数字化影像,遥感影像目标的自动搜索和智能化的切片提取一直是该领域的难点问题。传统的目标搜索方法是规则化影像裁剪,从业人员进行手动标注,导致耗费大量人力成本、时间和财力。
发明内容
本发明的目的在于避免现有技术中的不足而提供一种面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其通过视觉显著计算模型、信息熵过滤和改进的U-Net网络模型可快速、准确且高效地实现了目标区域的搜索,剔除遥感背景干扰信息。
本发明的目的通过以下技术方案实现:提供一种面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,包括以下步骤:
S1、通过卫星采集目标的遥感影像;
S2、将采集的遥感影像输入至视觉显著计算模型得到频域特征显著图;
S3、基于信息熵对频域特征显著图进行过滤,划分出有价值的目标区域影像,剔除遥感背景的伪目标信息;
S4、将有价值的目标区域影像作为改进的U-Net网络模型的输入;
S5、通过改进的U-Net网络模型的训练和处理,搜索出遥感影像的目标区域。
作为进一步的改进,所述步骤S2中视觉显著计算模型为基于融合频域和梯度特征的视觉注意模型,所述视觉注意模型采用数据驱动的自底向上机制。
作为进一步的改进,所述基于融合频域和梯度特征的视觉注意模型通过对遥感影像中的低频信息到高频信息进行若干次带通滤波计算,然后将输出影像归一化合并,得到显著图,其中,低频信息表示遥感影像的结构信息,包括物体轮廓,高频信息表示遥感影像的纹理细节信息,包括噪声和纹理。
作为进一步的改进,所述频域特征显著图的具体计算过程表现为:
1)对输入的遥感影像依次进行高斯滤波和转换公式,变换到Lab空间;
2)求取遥感影像在Lab空间中的特征分量的平均值;
3)计算输入的遥感影像高斯滤波后的影像:
fG=f*G (3)
式中,f为输入的遥感影像,G为高斯滤波器,fG为输入的遥感影像高斯滤波后的影像;
4)计算显著图,定义输入的遥感影像在像素点(x,y)处的显著值为S(x,y):
Figure BDA0002592053410000021
式中,Iμ为输入的遥感影像f的平均特征,使用Lab颜色特征,
Figure BDA0002592053410000022
为像素点(x,y)在高斯平滑后的Lab颜色特征,
Figure BDA0002592053410000023
表示Iμ
Figure BDA0002592053410000024
在Lab颜色空间的欧氏距离。
作为进一步的改进,所述步骤S3的具体内容如下:
S31、对每幅切片影像进行灰度化处理;
S32、使用Otsu分割方法二值化切片;
S33、计算二值化后切片影像的信息熵;
S34、判断二值化后切片影像熵值与最佳鉴别阈值的大小:若二值化后切片影像熵值小于最佳鉴别阈值,则判断二值化后切片影像为有价值的目标区域影像;反之,若二值化后切片影像熵值大于最佳鉴别阈值,则判断二值化后切片影像为伪目标,予以剔除。
作为进一步的改进,所述最佳鉴别阈值的计算公式如下:
Figure BDA0002592053410000031
式中,Sn为目标区域影像切片的熵值,Fn为伪目标切片的熵值,n代表两类切片的序号,ta是统计的目标区域影像和伪目标切片的熵平均值,CS(·)用于统计满足(·)内条件的数量。
作为进一步的改进,所述改进的U-Net网络模型通过不断地微调U-net网络模型的网络参数实现,包括修改U-net网络模型的学习率,和/或采样大小,和/或卷积核数量,和/或模型网络层数。
作为进一步的改进,所述改进的U-net网络模型通过如下过程实现目标区域的提取:当收缩路径时,采用卷积池化的方式提取目标区域的影像特征,其中,两个卷积层后接一个池化层,卷积层中包含64、128、256、512个3*3的卷积核,激活函数采取Relu方式,池化层采取max pooling方式,池化窗口2*2,步长为2;当扩张路径时,采用上采样的方式进行图像恢复,完成目标区域的图像分割工作,即先使用反卷积使特征数量减半,再采用跳跃连接方式,将对应卷积层的特征与反卷积结果叠加,恢复特征图个数,再进行两次3*3的卷积,使整个网络模型的结构保持对称。
本发明将遥感影像的视觉显著性与改进的U-Net网络模型结合,进行遥感影像有价值目标区域快速搜索,应用的视觉显著计算模型是改进了视觉注意机制方法来快速提取遥感影像中的显著区域,本发明将视觉显著计算模型提取的显著图作为调整后的U-Net网络模型的输入,这样可以引导模型更多地去学习遥感影像中的低频模糊信息,该方法较好地实现了有价值的遥感目标轻量化与快速化的区域搜索,可以从包含大量冗余信息的高分辨率遥感图像中快速提取有价值的信息,且鉴于现有的深度学习方法对图像的尺寸要求较高,无法处理宽幅遥感影像,本发明同时亦为遥感影像后续的目标检测和识别提供数据预处理工作,相比现有技术,具体优点如下:
1)影像显著区域自动提取主要是采用数据驱动的自底向上的视觉注意模型,没有任何依靠遥感信息判读的先验知识和期望,且该视觉注意模型融合频域和梯度特征,可获得低频特征更丰富、遥感目标更突出和区域提取更迅速的频域特征显著图;
2)采用了基于信息熵和改进U-Net网络模型的区域搜索方法:该方法利用区域信息熵划分出有价值的区域影像,剔除遥感背景干扰信息,为区域提取改进U-Net网络模型过滤掉无价值信息,保证提取网络模型能够高效地进行目标区域搜索,相比于传统的基于几何学模板匹配的筛选方法,该方法能够获得更高的提取精度;
3)采用了改进U-Net网络模型进行遥感影像目标区域搜索:在获得遥感目标视觉显著性这一搜索影像区域的“关键字”以后,采用改进U-Net网络模型来进行遥感目标的提取,克服了遥感训练样本缺少和输入显著区域过多等问题。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法的流程图。
图2是本发明面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法的原理图。
图3是本发明一实施例中遥感影像目标切片的阈值过滤结果图,其中,1代表舰船目标,2代表非舰船目标,3代表舰船与非舰船熵值的鉴别阈值。
图4是本发明一实施例中改进的U-net网络模型的参数表。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
参见图1和图2,本发明实施例提供的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,包括以下步骤:
S1、通过卫星采集目标的遥感影像;
S2、将采集的遥感影像输入至视觉显著计算模型得到频域特征显著图;需要说明的是,该视觉显著计算模型优选为基于融合频域和梯度特征的视觉注意模型,其采用数据驱动的自底向上机制,通过该设置,不需要任何依靠遥感信息判读的先验知识和期望即可获得了低频特征更丰富、遥感目标更突出和区域提取更迅速的频域特征显著图。鉴于遥感影像在频率域中可以分解为低频信息和高频两部分,低频信息表示整幅影的结构信息,包括物体轮廓,高频域信息表示影像的纹理细节信息,包括噪声,纹理,本发明通过对遥感影像中的低频信息到高频信息进行若干次带通滤波计算,然后将输出影像归一化合并来得到显著图,具体表现为:
1)对输入的遥感影像依次进行高斯滤波和转换公式,变换到Lab空间;
2)求取遥感影像在Lab空间中的特征分量的平均值;
假设输入影像f大小为m×n,计算影像f在Lab颜色空间模型中3个特征分量的平均值:
Iμ=[Lμ,aμ,bμ]T (1)
Figure BDA0002592053410000061
式(1)和(2)中,Iμ表示特征分量的平均值Lμ表示Lab颜色空间中照明度特征分量,aμ表示Lab颜色空间中的a轴(从红色至绿色的范围),bμ表示Lab颜色空间中的b轴(从黄色至蓝色的范围),T表示矩阵转置,i和j分别表示图像矩阵的第i行和第j列,L(i,j)、a(i,j)、b(i,j)分别表示表示对应像素点的照明度值、a轴值和b轴值;
3)计算输入的遥感影像高斯滤波后的影像:
fG=f*G (3)
式中,f为输入的遥感影像,G为高斯滤波器,其尺寸一般选取为2×2或5×5,fG为输入的遥感影像高斯滤波后的影像,其在Lab颜色空间模型中3个特征值为Iμ=[Lμ,aμ,bμ]T
4)计算显著图,定义输入的遥感影像在像素点(x,y)处的显著值为S(x,y):
Figure BDA0002592053410000062
式中,Iμ为输入的遥感影像f的平均特征,使用Lab颜色特征,
Figure BDA0002592053410000063
为像素点(x,y)在高斯平滑后的Lab颜色特征,
Figure BDA0002592053410000071
表示Iμ
Figure BDA0002592053410000072
在Lab颜色空间的欧氏距离。
S3、基于信息熵对频域特征显著图进行过滤,划分出有价值的目标区域影像,剔除遥感背景的伪目标信息;优选地,该步骤S3的具体内容如下:
S31、对每幅切片影像进行灰度化处理;
S32、使用Otsu分割方法(大津阈值分割法)二值化切片;
S33、计算二值化后切片影像的信息熵;
S34、判断二值化后切片影像熵值与最佳鉴别阈值的大小:若二值化后切片影像熵值小于最佳鉴别阈值,则判断二值化后切片影像为有价值的目标区域影像;反之,若二值化后切片影像熵值大于最佳鉴别阈值,则判断二值化后切片影像为伪目标,予以剔除;其中,最佳鉴别阈值的计算公式如下:
Figure BDA0002592053410000073
式中,Sn为目标区域影像切片的熵值,Fn为伪目标切片的熵值,n代表两类切片的序号,ta是统计的目标区域影像和伪目标切片的熵平均值,CS(·)用于统计满足(·)内条件的数量。
下面以舰船目标为例,通过使用500个舰船目标切片和500个伪目标切片进行验证,不同影像切片的熵值计算结果如图3所示,图3中横坐标代表目标切片个数,纵坐标是每幅切片影像的熵值,从中可以看到,使用信息熵计算方法可以有效区分舰船目标和冗余目标,3代表舰船与非舰船熵值的鉴别阈值T,求得该阈值即可有效区分舰船目标与冗余目标。故此,使用信息熵过滤方法无需提前准备目标的样本,也不需要单独分析目标区域切片中的信息,即可直接对整幅切片处理,快速且准确率较高。
S4、将有价值的目标区域影像作为改进的U-Net网络模型的输入;优选地,本发明中改进的U-Net网络模型基于现有技术的U-Net网络模型,现有技术的U-Net网络模型主要由两部分组成:前半部分是收缩路径,采用卷积池化的方式提取目标影像的特征;后半部分是扩张路径,即U型结构图的后半部分,采用上采样的方式进行图像恢复,完成图像目标区域的分割工作。改进的U-Net网络模型与现有技术的U-Net网络模型的差异点即在于网络参数的微调,包括修改U-net网络模型的学习率,和/或采样大小,和/或卷积核数量,和/或模型网络层数,图4即为本发明一实施例改进的U-Net网络模型的参数表。具体地,改进的U-net网络模型通过如下过程实现目标区域的提取:当收缩路径时,采用卷积池化的方式提取目标区域的影像特征,其中,两个卷积层后接一个池化层,卷积层中包含64、128、256、512个3*3的卷积核,激活函数采取Relu(Rectified Linear Unit,修正线性单元)方式,池化层采取max pooling(最大池化)方式,池化窗口2*2,步长为2;当扩张路径时,采用上采样的方式进行图像恢复,完成目标区域的图像分割工作,即先使用反卷积使特征数量减半,再采用跳跃连接方式,将对应卷积层的特征与反卷积结果叠加,恢复特征图个数,再进行两次3*3的卷积,使整个网络模型的结构保持对称。
S5、通过改进的U-Net网络模型的训练和处理,搜索出遥感影像的目标区域。
作为进一步优选的实施方式,本发明步骤S2中,通过带通滤波器DoG对遥感影像中的低频信息到高频信息进行若干次带通滤波计算,带通滤波器DoG的表达公式如下:
Figure BDA0002592053410000081
式中,x和y分别表示基于频域变换的显著图在像素点(x,y)处的DoG值,σ1和σ2均表示对应的高斯标准差,分别计算出Wlc和Whc,Wlc表示遥感影像的低频截止频率
Figure BDA0002592053410000091
Whc表示影像的高频截止频率
Figure BDA0002592053410000092
当σ12=1.6:1时,过滤效果最优。需要说明的是,Whc的值可以根据需要进行调整,为保留完整地获取的全部低频域信息,可以下调Whc的值,为了减少影像的噪声干扰和纹理细节,可以提高Whc的值。
综上所述,本发明提出的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,提供了一种新的思路进行遥感影像目标区域搜索,即将人眼视觉系统能够注意到大范围影像中目标的显著性特征,利用视觉注意机制来快速捕获遥感影像中的显著区域,视觉显著性作为遥感影像最为突出的性质之一,是搜索遥感影像目标区域的“关键字”,在获得遥感目标视觉显著性这一搜索影像区域的“关键字”以后,采用改进的U-Net网络模型来进行遥感目标的提取。遥感影像计算的显著图进行信息熵过滤,然后作为改进U-Net网络模型的输入,通过网络模型的训练和处理,搜索出遥感影像的目标区域。
相比现有技术,本发明具有如下优点:
1)影像显著区域自动提取主要是采用数据驱动的自底向上的视觉注意模型,没有任何依靠遥感信息判读的先验知识和期望,且该视觉注意模型融合频域和梯度特征,可获得低频特征更丰富、遥感目标更突出和区域提取更迅速的频域特征显著图;
2)采用了基于信息熵和改进U-Net网络模型的区域搜索方法:该方法利用区域信息熵划分出有价值的区域影像,剔除遥感背景干扰信息,为区域提取改进U-Net网络模型过滤掉无价值信息,保证提取网络模型能够高效地进行目标区域搜索,相比于传统的基于几何学模板匹配的筛选方法,该方法能够获得更高的提取精度;
3)采用了改进U-Net网络模型进行遥感影像目标区域搜索:在获得遥感目标视觉显著性这一搜索影像区域的“关键字”以后,采用改进U-Net网络模型来进行遥感目标的提取,克服了遥感训练样本缺少和输入显著区域过多等问题。
上面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,不能理解为对本发明保护范围的限制。
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。

Claims (8)

1.面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,包括以下步骤:
S1、通过卫星采集目标的遥感影像;
S2、将采集的遥感影像输入至视觉显著计算模型得到频域特征显著图;
S3、基于信息熵对频域特征显著图进行过滤,划分出有价值的目标区域影像,剔除遥感背景的伪目标信息;
S4、将有价值的目标区域影像作为改进的U-Net网络模型的输入;
S5、通过改进的U-Net网络模型的训练和处理,搜索出遥感影像的目标区域。
2.根据权利要求1所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述步骤S2中视觉显著计算模型为基于融合频域和梯度特征的视觉注意模型,所述视觉注意模型采用数据驱动的自底向上机制。
3.根据权利要求2所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述基于融合频域和梯度特征的视觉注意模型通过对遥感影像中的低频信息到高频信息进行若干次带通滤波计算,然后将输出影像归一化合并,得到显著图,其中,低频信息表示遥感影像的结构信息,包括物体轮廓,高频信息表示遥感影像的纹理细节信息,包括噪声和纹理。
4.根据权利要求3所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述频域特征显著图的具体计算过程表现为:
1)对输入的遥感影像依次进行高斯滤波和转换公式,变换到Lab空间;
2)求取遥感影像在Lab空间中的特征分量的平均值;
3)计算输入的遥感影像高斯滤波后的影像:
fG=f*G (3)
式中,f为输入的遥感影像,G为高斯滤波器,fG为输入的遥感影像高斯滤波后的影像;
4)计算显著图,定义输入的遥感影像在像素点(x,y)处的显著值为S(x,y):
Figure FDA0002592053400000021
式中,Iμ为输入的遥感影像f的平均特征,使用Lab颜色特征,
Figure FDA0002592053400000022
为像素点(x,y)在高斯平滑后的Lab颜色特征,
Figure FDA0002592053400000023
表示Iμ
Figure FDA0002592053400000024
在Lab颜色空间的欧氏距离。
5.根据权利要求4所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述步骤S3的具体内容如下:
S31、对每幅切片影像进行灰度化处理;
S32、使用Otsu分割方法二值化切片;
S33、计算二值化后切片影像的信息熵;
S34、判断二值化后切片影像熵值与最佳鉴别阈值的大小:若二值化后切片影像熵值小于最佳鉴别阈值,则判断二值化后切片影像为有价值的目标区域影像;反之,若二值化后切片影像熵值大于最佳鉴别阈值,则判断二值化后切片影像为伪目标,予以剔除。
6.根据权利要求5所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述最佳鉴别阈值的计算公式如下:
Figure FDA0002592053400000025
式中,Sn为目标区域影像切片的熵值,Fn为伪目标切片的熵值,n代表两类切片的序号,ta是统计的目标区域影像和伪目标切片的熵平均值,CS(·)用于统计满足(·)内条件的数量。
7.根据权利要求6所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述改进的U-Net网络模型通过不断地微调U-net网络模型的网络参数实现,包括修改U-net网络模型的学习率,和/或采样大小,和/或卷积核数量,和/或模型网络层数。
8.根据权利要求7所述的面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法,其特征在于,所述改进的U-net网络模型通过如下过程实现目标区域的提取:当收缩路径时,采用卷积池化的方式提取目标区域的影像特征,其中,两个卷积层后接一个池化层,卷积层中包含64、128、256、512个3*3的卷积核,激活函数采取Relu方式,池化层采取maxpooling方式,池化窗口2*2,步长为2;当扩张路径时,采用上采样的方式进行图像恢复,完成目标区域的图像分割工作,即先使用反卷积使特征数量减半,再采用跳跃连接方式,将对应卷积层的特征与反卷积结果叠加,恢复特征图个数,再进行两次3*3的卷积,使整个网络模型的结构保持对称。
CN202010698101.6A 2020-07-20 2020-07-20 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法 Pending CN111832502A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010698101.6A CN111832502A (zh) 2020-07-20 2020-07-20 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010698101.6A CN111832502A (zh) 2020-07-20 2020-07-20 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法

Publications (1)

Publication Number Publication Date
CN111832502A true CN111832502A (zh) 2020-10-27

Family

ID=72923088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010698101.6A Pending CN111832502A (zh) 2020-07-20 2020-07-20 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法

Country Status (1)

Country Link
CN (1) CN111832502A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408350A (zh) * 2021-05-17 2021-09-17 杭州电子科技大学 一种基于创新边缘特征提取方法的遥感图像显著性检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550685A (zh) * 2015-12-11 2016-05-04 哈尔滨工业大学 基于视觉注意机制的大幅面遥感影像感兴趣区域提取方法
CN106384344A (zh) * 2016-08-30 2017-02-08 中国科学院长春光学精密机械与物理研究所 一种光学遥感图像海面舰船目标检测与提取方法
CN108830883A (zh) * 2018-06-05 2018-11-16 成都信息工程大学 基于超像素结构的视觉注意sar图像目标检测方法
CN109427055A (zh) * 2017-09-04 2019-03-05 长春长光精密仪器集团有限公司 基于视觉注意机制和信息熵的遥感图像海面舰船检测方法
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
US20190171862A1 (en) * 2017-12-05 2019-06-06 Transport Planning and Research Institute Ministry of Transport Method of extracting image of port wharf through multispectral interpretation
CN110414411A (zh) * 2019-07-24 2019-11-05 中国人民解放军战略支援部队航天工程大学 基于视觉显著性的海面船只候选区域检测方法
US20200184252A1 (en) * 2018-12-10 2020-06-11 International Business Machines Corporation Deep Learning Network for Salient Region Identification in Images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550685A (zh) * 2015-12-11 2016-05-04 哈尔滨工业大学 基于视觉注意机制的大幅面遥感影像感兴趣区域提取方法
CN106384344A (zh) * 2016-08-30 2017-02-08 中国科学院长春光学精密机械与物理研究所 一种光学遥感图像海面舰船目标检测与提取方法
CN109427055A (zh) * 2017-09-04 2019-03-05 长春长光精密仪器集团有限公司 基于视觉注意机制和信息熵的遥感图像海面舰船检测方法
US20190171862A1 (en) * 2017-12-05 2019-06-06 Transport Planning and Research Institute Ministry of Transport Method of extracting image of port wharf through multispectral interpretation
CN108830883A (zh) * 2018-06-05 2018-11-16 成都信息工程大学 基于超像素结构的视觉注意sar图像目标检测方法
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
US20200184252A1 (en) * 2018-12-10 2020-06-11 International Business Machines Corporation Deep Learning Network for Salient Region Identification in Images
CN110414411A (zh) * 2019-07-24 2019-11-05 中国人民解放军战略支援部队航天工程大学 基于视觉显著性的海面船只候选区域检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
任艳;张舒婷;王昊;苏新航;李祺;: "基于视觉显著性的高分辨率遥感图像目标检测算法", 沈阳航空航天大学学报, no. 02 *
张浩然;赵江洪;张晓光;: "利用U-net网络的高分遥感影像建筑提取方法", 遥感信息, no. 03 *
杨帅: "融合显著性与深度学习的遥感影像建筑物提取", 中国优秀硕士学位论文全文数据库信息科技辑, vol. 2017, no. 07, pages 008 - 138 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408350A (zh) * 2021-05-17 2021-09-17 杭州电子科技大学 一种基于创新边缘特征提取方法的遥感图像显著性检测方法
CN113408350B (zh) * 2021-05-17 2023-09-19 杭州电子科技大学 一种基于边缘特征提取的遥感图像显著性检测方法

Similar Documents

Publication Publication Date Title
CN107563433B (zh) 一种基于卷积神经网络的红外小目标检测方法
CN108510467B (zh) 基于深度可变形卷积神经网络的sar图像目标识别方法
CN108596108B (zh) 基于三元组语义关系学习的航拍遥感图像变化检测方法
CN110120046B (zh) 一种融合dem、光学遥感和形变信息的潜在滑坡识别方法
CN113989662B (zh) 一种基于自监督机制的遥感图像细粒度目标识别方法
CN107832797B (zh) 基于深度融合残差网的多光谱图像分类方法
CN109615604B (zh) 基于图像重构卷积神经网络的零件外观瑕疵检测方法
CN109614936B (zh) 遥感图像飞机目标的分层识别方法
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN101551853A (zh) 复杂静态彩色背景下的人耳检测方法
CN111428631B (zh) 无人机飞控信号可视化识别分选方法
CN104318051B (zh) 基于规则的大范围水体信息遥感自动提取系统及方法
CN107341813A (zh) 基于结构学习和素描特性推理网络的sar图像分割方法
CN107818303A (zh) 无人机油气管线影像自动对比分析方法、系统及软件存储器
Touati et al. A reliable mixed-norm-based multiresolution change detector in heterogeneous remote sensing images
CN112991271A (zh) 基于改进yolov3的铝型材表面缺陷视觉检测方法
CN114005081A (zh) 一种烟丝异物智能检测装置及方法
CN107766810B (zh) 一种云、影检测方法
CN111046838A (zh) 一种湿地遥感信息的识别方法及装置
CN111832502A (zh) 面向卫星在轨应用的遥感影像视觉显著区域智能搜索方法
Singh et al. A hybrid approach for information extraction from high resolution satellite imagery
CN109472785B (zh) 基于多结构元素震害受损建筑物快速识别方法
CN113657196B (zh) Sar图像目标检测方法、装置、电子设备和存储介质
CN114862883A (zh) 一种目标边缘提取方法、图像分割方法及系统
Chaiyasarn et al. Tile damage detection in temple facade via convolutional neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination