CN117593534A - 水边线人工智能集成提取方法及系统 - Google Patents

水边线人工智能集成提取方法及系统 Download PDF

Info

Publication number
CN117593534A
CN117593534A CN202311336420.2A CN202311336420A CN117593534A CN 117593534 A CN117593534 A CN 117593534A CN 202311336420 A CN202311336420 A CN 202311336420A CN 117593534 A CN117593534 A CN 117593534A
Authority
CN
China
Prior art keywords
neural network
result
processing result
model
sea
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311336420.2A
Other languages
English (en)
Inventor
郑罡
周寅飞
尹乐彬
周立章
陈鹏
姜翰
杨劲松
任林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Second Institute of Oceanography MNR
Original Assignee
Second Institute of Oceanography MNR
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Second Institute of Oceanography MNR filed Critical Second Institute of Oceanography MNR
Priority to CN202311336420.2A priority Critical patent/CN117593534A/zh
Publication of CN117593534A publication Critical patent/CN117593534A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开了水边线人工智能集成提取方法及系统。所述方法包括:获取待提取水边线的SAR影像;将所述SAR影像进行切片处理,以得到第一处理结果;将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;对所述海陆分割结果进行边界提取,以得到水边线。通过实施本发明实施例的方法可实现减少了分辨率带来的影响,并且可以随集成模型训练自动获取不同尺度SAR影像的加权系数,以得到最佳结果。

Description

水边线人工智能集成提取方法及系统
技术领域
本发明涉及水边线人工智能集成提取方法,更具体地说是指水边线人工智能集成提取方法及系统。
背景技术
海岸带既是经济发展的重要区域,也是生态环境的重要区域。海岸线监测对于海岸带研究、保护和利用都具有重要意义。由于卫星影像上的海岸线一般是海水与陆地的瞬时交界线,即水边线。因此大部分海岸线自动提取算法研究实际上是针对影像上的水边线来进行提取,需要通过一定的矫正手段对其进一步处理。由于水边线是精确海岸线获取的必要基础,因而优秀的水边线提取算法有其重要的研究意义。但受潮汐、风暴潮等自然因素以及人为因素的影响,水边线通常是动态变化的。这对水边线提取的准确性和高效性提出了要求。
SAR(星载合成孔径雷达,Synthetic Aperture Radar)具有云层穿透能力,可实现海岸带区域大范围的全天候、全天时成像观测。但是海岸带区域的地形、地貌复杂多变,并且SAR成像机制复杂且伴随有较强相干斑噪声,这使得从SAR影像中自动、准确地提取水边线具有挑战性。同时,海岸带地形多变、散射机制复杂,而SAR影像信噪较低。这增加了SAR影像中提取水边线的难度。针对遥感影像的传统半自动、自动水边线人工智能集成提取方法主要有两类:基于阈值分割和基于边缘检测法。阈值法是通过对数字图像的像元值进行分析来选取一系列分割阈值,利用它们将图像分割成不同区域,其中密度分割法在水边线提取中广泛应用。密度分割法其主要适用于要分割物体与背景有强烈对比度的影像。而边缘检测算法就是根据某像元点邻域灰度值变化大于一定范围来判定该像素是否为边缘线。边缘检测算子大多数是基于方向导数掩模求卷积的方法,国内外学者通过一定的边缘算子搜索图像灰度值发生阶跃变化的位置来对水边线进行提取,常用的有Sobel算子、Roberts算子及Canny算子。微分边缘算子对于不同种类的海岸适用效果有所不同
从计算机视觉的角度来看,水边线提取可以看作是沿海区域图像的语义分割问题。近年来,深度神经网络在图像分类、语义分割等各种视觉识别领域取得了广泛的发展;已有研究使用深度学习模型多用于光学遥感影像的海陆分割和水边线提取,而且,现有技术没有考虑SAR影像的分辨率的变化对于深度学习模型所输出的结果的影响,现有技术是单一尺度的数据作为深度学习模型的输入。但是不同分辨率的图像输入神经网络会得到不同的效果;并且作为深度神经网络的输入,如若考虑使用对预期目标表现最佳的分辨率的数据,往往需要人为挑选最佳的分辨率的SAR影像数据。
因此,有必要设计一种新的方法,实现减少了分辨率带来的影响,并且可以随集成模型训练自动获取不同尺度SAR影像的加权系数,以得到最佳结果。
发明内容
本发明的目的在于克服现有技术的缺陷,提供水边线人工智能集成提取方法及系统。
为实现上述目的,本发明采用以下技术方案:水边线人工智能集成提取方法,包括:
获取待提取水边线的SAR影像;
将所述SAR影像进行切片处理,以得到第一处理结果;
将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;
将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;
对所述海陆分割结果进行边界提取,以得到水边线。
其进一步技术方案为:所述将所述SAR影像进行切片处理,以得到第一处理结果,包括:
对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,以形成采样影像;
对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
其进一步技术方案为:所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
其进一步技术方案为:所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
其进一步技术方案为:所述将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果,包括:
将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果;
将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
其进一步技术方案为:所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
其进一步技术方案为:所述将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果,包括:
将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;
将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
本发明还提供了水边线人工智能集成提取系统,包括:
获取单元,用于获取待提取水边线的SAR影像;
切片单元,用于将所述SAR影像进行切片处理,以得到第一处理结果;
处理单元,用于将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;
分割单元,用于将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;
提取单元,用于对所述海陆分割结果进行边界提取,以得到水边线。
本发明与现有技术相比的有益效果是:本发明通过利用多尺度的SAR影像作为深度神经网络的输入,深度神经网络模型的输入在经过集成模型进行加权处理后,形成海陆分割结果,再进行边界提取,从而提取到水边线,实现减少了分辨率带来的影响,并且可以随集成模型训练自动获取不同尺度SAR影像的加权系数,以得到最佳结果。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的水边线人工智能集成提取方法的应用场景示意图;
图2为本发明实施例提供的水边线人工智能集成提取方法的流程示意图;
图3为本发明实施例提供的水边线人工智能集成提取方法的子流程示意图;
图4为本发明实施例提供的水边线人工智能集成提取方法的子流程示意图;
图5为本发明实施例提供的水边线人工智能集成提取方法的子流程示意图;
图6为本发明实施例提供的SAR影像、人工标注图以及条带区域示意图;
图7为本发明实施例提供的DeepUNet网络架构的示意图;
图8为本发明实施例提供的残差模块的示意图;
图9为本发明实施例提供的深度神经网络模型的流程示意图;
图10为本发明实施例提供的F1-Score核密度估计图的示意图;
图11为本发明实施例提供的IOU核密度估计图的示意图;
图12为本发明实施例提供的水边线人工智能集成提取系统的示意性框图;
图13为本发明实施例提供的水边线人工智能集成提取系统的切片单元的示意性框图;
图14为本发明实施例提供的水边线人工智能集成提取系统的处理单元的示意性框图;
图15为本发明实施例提供的水边线人工智能集成提取系统的分割单元的示意性框图;
图16为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的水边线人工智能集成提取方法的应用场景示意图。图2为本发明实施例提供的水边线人工智能集成提取方法的示意性流程图。该水边线人工智能集成提取方法应用于服务器中。该服务器与终端进行数据交互,利用终端拍摄所得的多尺度的SAR影像作为深度神经网络的输入,其输出再使用集成模型进行加权获取最终结果的方法。对不同尺度输入的神经网络的结果进行集成,以避免SAR影像自身固定尺度对网络模型结果的影响,提高海陆分割的准确性。
图2是本发明实施例提供的水边线人工智能集成提取方法的流程示意图。如图2所示,该方法包括以下步骤S110至S150。
S110、获取待提取水边线的SAR影像。
在本实施例中,待提取水边线的SAR影像是指需要进行海陆分割并提取边界线的SAR影像。
S120、将所述SAR影像进行切片处理,以得到第一处理结果。
在本实施例中,第一处理结果是指将SAR影像进行降采样,并进行裁剪形成的各个分片。
在一实施例中,请参阅图3,上述的步骤S120可包括步骤S121~S122。
S121、对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,以形成采样影像。
在本实施例中,采样影像是指对所述SAR影像进行降采样得到的原始分辨率的二分之一、四分之一三种尺度的影像。
S122、对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
S130、将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果。
在本实施例中,第二处理结果是指深度神经网络模型输出的行同一位置不同尺度的图片。
在本实施例中,所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
收集含有海陆边界的SAR影像,对该数据集进行降采样得到原始分辨率的二分之一、四分之一等尺度的影像,并统一进行对应位置的裁剪,切片大小相同;本实例使用的数据为哨兵一号卫星的SAR影像数据。哨兵一号卫星的合成孔径雷达有四种不同的工作模式,分别是SM(条带模式,Strip Map Mode)、EW(超宽幅模式,Extra Wide Swath)、IW(宽幅干涉模式,Interferometric Wide Swath)及WV(波模式,Wave Mode)。其中IW模式为SAR传感器的主要工作方式。
选区为具有代表性的海岸区域:全球第一大海湾孟加拉湾。哨兵一号卫星覆盖孟加拉湾的数据是IW观测模式下VV极化或者VV-VH极化下的观测数据,空间分辨率为10m。因此将该区域哨兵一号卫星的IW观测模式下VV极化的SAR图像进行辐射校正、几何校正等预处理。之后进行目视解译,将海岸线人工标注作为真值。
为了获取不同尺度的影像,使用最邻近插值将原始数据集的全部SAR影像降采样为原始分辨率的二分之一、四分之一。之后将完整SAR影像与降采样后的图片裁剪为更小的切片,以此作为数据集来训练神经网络。同样的,对应的人工标注的真值也进行相同的降采样、裁剪。
为了聚焦于海岸带区域的海陆分割结果,将手工标注的水边线附近1200m左右的带状区域作为我们关注的重点。如图6所示;以水边线上的点为中心,获得半径600m的圆形区域,以此类推得到条带区域。为了得到条带部分,将人工标注的水边线进行提取,然后进行膨胀操作。由此得到的条带区域即为所关注的区域。
本实施例中切片大小均为252×252,每一张切片均包含海陆边缘部分。此时对于大小相同的切片,降采样为原始分辨率的二分之一、四分之一的图片的接收域是之前的两倍和四倍。并且为保证不同分辨率模型关注区域的一致性,三种分辨率的影像所产生的切片所对应的中心位置相同。每一种尺度下的数据集对应分为训练集、验证集以及集成模型使用三个部分,每一部分均为随机抽取,相互独立。
具体地,所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
具体地,本实施例选用在光学遥感影像的海陆分割任务中有着不错表现的深度神经网络DeepUNet。DeepUNet是基于UNet并添加残差模块即Resblock的神经网络,以一张图片输入为例,其架构如图7所示;其中的残差模块如下图8所示,因此将DeepUNet作为基本网络架构,针对三种分辨率的图像,分别独立建模训练。实例中DeepUNet通过pytorch的框架实现训练与验证,三个模型除输入数据外其他设置完全相同。三个模型均使用了Adam优化器进行模型参数优化,损失函数为SoftIOULoss,其公式为:其中,ytrue表示人工标注的真值,ypred表示网络预测结果,wstrips表示该区域对应的条带掩模,即若像素点不在条带内,其对应的掩模值为0,反之为1。为了避免对训练数据集的优化过拟合,选择采用对验证数据集损失函数值最小的参数值作为最终优化完成的模型参数。
在一实施例中,请参阅图4,上述的步骤S130可包括步骤S131~S132。
S131、将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果。
在本实施例中,将需要预测的数据按尺度输入对应的模型进行预测,模型的输出结果为预测结果。
S132、将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
训练完成的不同尺度的模型后,将需要预测的数据按尺度输入对应的模型进行预测,预测得到的结果按照其降采样的过程,上采样还原至原始分辨率,并裁剪至与原始分辨率的模型所输出结果相同的大小。如图9所示,建立模型后输出的结果需要按照原始分辨率大小进行上采样、裁剪至相同尺度。
S140、将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果。
在本实施例中,海陆分割结果是指海陆分割后形成的图片。
具体地,所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
在一实施例中,请参阅图5,上述的步骤S140可包括步骤S141~S142。
S141、将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;
S142、将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
具体地,将获得的由不同的深度神经网络模型处理至相同尺度、相同位置的图片进行筛选,具体筛选操作为:对比各个输出结果即第二处理结果的每个像素的语义分割结果,将分类表现不同的像素点保留,剔除表现相同的像素点,以此构成集成模型的输入。在本实施例中,应对于海陆分割任务的深度神经网络模型的输出分为两类,三个模型的输出对应像素位置的值若分类全部相同,则保留此点;反之,分类表现不完全相同的点则取出。
将分类不同的像素点作为新一轮待优化的数据,输入集成模型中进行再优化。集成模型由以下两部分操作组成:一是构建用于优化分类表现不完全相同的点的神经网络,输出再优化的点;二是将优化后的点还原至任一分辨率下的模型所输出的结果中,用以替代分类表现不完全相同的点,最终将三个模型的输出对应像素位置分类全部相同的值与再优化的点共同组成集成模型的输出。
本实施例中,集成模型里所使用的神经网络主要为一层FC(全连接层,FullyConnected Layer)构成。全连接层的计算公式可以表示为:y=Wx+b;其中x表示输入向量,W表示权重矩阵,b表示偏置向量,y表示输出向量。权重矩阵W的大小为(m,n),其中m表示当前层该输出的向量元素数目,n表输入该层的向量元素数目。
本实施例中,该层的输入为同一位置分类表现不完全相同的三个点的点值,即为三个元素的向量,输出仍为三个元素的向量,该层共9个参数。该层后接激活函数Softmax,其作用是将多维的输出转换为一个概率分布,使得每个类别的输出在0到1之间且和为1。Softmax函数的公式如下所示:
其中,z=(z1,z2,…,zk)为模型输出的向量,k是类别总数,exp代表自然指数函数。
之后将Softmax函数所输出的概率值与输入数据相乘,即得该神经网络的输出。本实施例中,该神经网络可由以下公式简单表示:output=Softmax(FC(input))·input;其中input为输入数据,output为输出数据,FC为全连接层。
该神经网络通过pytorch的框架实现训练与验证,使用Adam优化器进行网络参数优化。由于使用的数据为分类表现不完全相同的点,而最终的评价是全体的像素点,因此为使优化方向一致,损失函数需要加入分类全部相同点的信息,所以损失函数应为PI(添加先验信息,Prior Information)的SoftIOULoss。
以下为证明过程:
假设全体像素点预测结果的二分类混淆矩阵的各分量为TP,FP,FN,TN,其和为S;分类表现相同的像素点对应的混淆矩阵的分量为TP0,FP0,FN0,TN0,其和为S0;分类表现不完全相同的点所对应的混淆矩阵的分量为TP1,FP1,FN1,TN1,其和为S1,则有:
TP=TP0+TP1,
FP=FP0+FP1
FN=FN0+FN1,
TN=TN0+TN1
S=S0+S1
假设用于评估所有像素点的指标是IOU,则IOU的公式如下:
同样的,假设用于评估分类表现不相同的点的指标表示为IOU1,其公式如下:
从而得:
从上面的等式可以得到IOU是由IOU1和TN1这两个变量决定的,这两个变量相互独立。即当IOU1增加时,受TN1的影响,IOU不能保证同时增加,反之亦然。
因此若对所有像素点的分类结果进行评估,则不能使用IOU1替换IOU,两者评估方式不等价。同理,常规的SoftIOULoss也不能用作集成模型优化时的损失函数,需要加入分类全部相同的像素点的信息。
下面给出添加先验信息的SoftIOULoss:
假设ypred表示全体像素点的预测结果,
假设表示分类表现相同的像素点的预测结果,/>表示分类表现不完全相同的像素点的预测结果,则有:
同样的,假设ytrue表示全体像素点分类结果的真值:
假设表示分类表现相同的像素点的真值,/>表示分类表现不完全相同的像素点的真值,则有:
wstrips表示全体像素点对应的条带掩模,假设/>表示分类表现相同的像素点的条带掩模,/>表示分类表现不完全相同的像素点的条带掩模,则有:
从而:
即:
其中/>表示第i个分类表现相同的像素点的预测结果,/>表示第i个分类表现不完全相同的像素点的预测结果;同理,/>表示第i个分类表现相同的像素点的真值,/>表示第i个分类表现不完全相同的像素点的真值;/>表示第i个分类表现相同的像素点的条带掩模,/>表示第i个分类表现不完全相同的像素点的条带掩模。
之后将优化后的点替代分类表现不完全相同的点,还原至任一分辨率下的模型所输出的结果中。由于筛选时取出了分类表现不完全相同的点,因此保留的数据其分类表现一致,还原时不再区分不同尺度模型的输出。还原后的结果,即为集成模型的输出。
S150、对所述海陆分割结果进行边界提取,以得到水边线。
在本实施例中,将集成模型所输出结果二值化后,使用Sobel算子进行边界提取,得到最终的水边线。
首先使用与所有模型的训练、验证集独立的测试集,对三个尺度模型以及集成模型的结果进行评价。选用F1-Score以及IOU作为评价指标对结果进行评估。F1-Score和IOU是用于评估图像分割模型性能的两个常用指标。F1-Score是精度和召回率的调和平均数,表示分类器在准确率和召回率之间的平衡程度。其计算公式如下:其中precision表示精度,recall表示召回率。精度是指模型预测为正样本的样本中,实际为正样本的比例。召回率是指实际为正样本的样本中,模型预测为正样本的比例。F1-Score的取值范围为0到1,数值越高表示模型性能越好。
IOU(交并比,Intersection over Union)表示预测分割区域与真实分割区域的交集与并集的比值,其计算公式如下:其中Area of Overlap表示预测分割区域和真实分割区域的交集面积,Area of Union表示预测分割区域和真实分割区域的并集面积。IOU的取值范围也为0到1,数值越高表示模型性能越好。
三个尺度模型以及集成模型在测试集上的整体的表现如表1所示。
表1.三个尺度模型以及集成模型在测试集上的评估结果
IOU F1-Score
原始分辨率模型 0.9645 0.9819
2倍分辨率模型 0.9606 0.9799
4倍分辨率模型 0.9546 0.9768
集成模型 0.9675 0.9835
之后使用核密度估计方法对所有模型在测试集每张切片的结果对应的评价指标进行统计。核密度估计方法对三个尺度模型以及集成模型在测试集的结果对应的评价指标进行统计。核密度估计获得概率密度函数的公式如下所示:
假设(x1,x2,…,xn)为一个单变量独立同分布的样本,从密度未知的某个分布F中抽取。F在点x处的核密度估计值为:其中,K为核函数,本实验中选取的核函数为高斯核,其形式为/>参数h为带宽(bandwidth),其值为h=1.06σn-1/5,其中σ为样本的标准差。
使用核密度估计得到了代表不同模型表现的密度分布函数,如图10和图11所示:
对比评估结果表格内不同模型在测试集的整体表现,以及统计每一张切片的评价指标所得的核密度估计曲线,可以发现本实施例提出的集成模型效果最佳,并且可以减少输入数据本身尺度对所模型带来的影响。
本实施例的方法将同一幅不同尺度的SAR影像作为输入数据,分别使用同种模型分别建模,并对模型结果进行集成、再优化,消除了初始输入模型的影像的尺度所带来的影响;将不同尺度对应的模型的结果进行的筛查,并在集成模型优化时重构了损失函数,得到的海陆分割效果相较于单一尺度输入的单一模型的结果有着很大提升;在优化完成后无需人为修改参数,方便快捷。将同一幅不同尺度的SAR影像作为输入数据,分别使用同种模型分别建模,并对模型结果进行集成、再优化,消除了初始输入模型的影像的尺度所带来的影响;本发明将不同尺度对应的模型的结果进行的筛查,并在集成模型优化时重构了损失函数,得到的海陆分割的效果相较于单一尺度输入的单一模型的结果有着很大提升;集成模型优化完成后无需人为修改参数,方便快捷。将同一幅不同尺度的SAR影像作为输入数据,分别使用同种模型分别建模,此时的深度学习模型并不固定,可以使用传统的经典的分类模型,也可以自主搭建;对不同尺度模型结果进行集成、再优化时使用的集成网络并不固定,可以使用简单的全连接网络进行集成,也可以使用其他框架。根据输入的不同尺度的SAR影像自动集成得到最优的海陆分割效果,去除不同尺度的输入图像对深度神经网络结果的影响。多尺度是指对信号的不同粒度的采样,对于遥感影像,在不同的尺度下可以观察到不同的特征,使用多尺度可以提取更全面的信息,既有全局的整体信息,又有局部的详细信息。多尺度方法在计算机视觉领域有着广泛地应用。
上述的水边线人工智能集成提取方法,通过利用多尺度的SAR影像作为深度神经网络的输入,深度神经网络模型的输入在经过集成模型进行加权处理后,形成海陆分割结果,再进行边界提取,从而提取到水边线,实现减少了分辨率带来的影响,并且可以随集成模型训练自动获取不同尺度SAR影像的加权系数,以得到最佳结果。
图12是本发明实施例提供的一种水边线人工智能集成提取系统300的示意性框图。如图12所示,对应于以上水边线人工智能集成提取方法,本发明还提供一种水边线人工智能集成提取系统300。该水边线人工智能集成提取系统300包括用于执行上述水边线人工智能集成提取方法的单元,该装置可以被配置于服务器中。具体地,请参阅图12,该水边线人工智能集成提取系统300包括获取单元301、切片单元302、处理单元303、分割单元304以及提取单元305。
获取单元301,用于获取待提取水边线的SAR影像;切片单元302,用于将所述SAR影像进行切片处理,以得到第一处理结果;处理单元303,用于将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;分割单元304,用于将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;提取单元305,用于对所述海陆分割结果进行边界提取,以得到水边线。
在一实施例中,如图13所示,所述切片单元302包括采样子单元3021以及裁剪子单元3022。
采样子单元3021,用于对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一尺度的影像,以形成采样影像;裁剪子单元3022,用于对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
在一实施例中,所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
在一实施例中,如图14所示,所述处理单元303包括预测子单元3031以及还原子单元3032。
预测子单元3031,用于将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果;还原子单元3032,用于将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
在一实施例中,如图15所示,所述分割单元304包括筛选子单元3041以及优化子单元3042。
筛选子单元3041,用于将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;优化子单元3042,用于将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
在一实施例中,所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述水边线人工智能集成提取系统300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述水边线人工智能集成提取系统300可以实现为一种计算机程序的形式,该计算机程序可以在如图16所示的计算机设备上运行。
请参阅图16,图16是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,其中,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图16,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种水边线人工智能集成提取方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种水边线人工智能集成提取方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图16中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取待提取水边线的SAR影像;将所述SAR影像进行切片处理,以得到第一处理结果将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;对所述海陆分割结果进行边界提取,以得到水边线。
其中,所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
在一实施例中,处理器502在实现所述将所述SAR影像进行切片处理,以得到第一处理结果步骤时,具体实现如下步骤:
对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一尺度的影像,以形成采样影像;对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
其中,所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
在一实施例中,处理器502在实现所述将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果步骤时,具体实现如下步骤:
将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果;将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
在一实施例中,处理器502在实现所述将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果步骤时,具体实现如下步骤:
将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
应当理解,在本申请实施例中,处理器502可以是中央处理单元303(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取待提取水边线的SAR影像;将所述SAR影像进行切片处理,以得到第一处理结果;将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;对所述海陆分割结果进行边界提取,以得到水边线。
其中,所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述SAR影像进行切片处理,以得到第一处理结果步骤时,具体实现如下步骤:
对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一尺度的影像,以形成采样影像;对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
其中,所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果步骤时,具体实现如下步骤:
将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果;将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果步骤时,具体实现如下步骤:
将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元303中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (8)

1.水边线人工智能集成提取方法,其特征在于,包括:
获取待提取水边线的SAR影像;
将所述SAR影像进行切片处理,以得到第一处理结果;
将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;
将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;
对所述海陆分割结果进行边界提取,以得到水边线。
2.根据权利要求1所述的水边线人工智能集成提取方法,其特征在于,所述将所述SAR影像进行切片处理,以得到第一处理结果,包括:
对所述SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,以形成采样影像;
对所述采样影像进行对应位置的裁剪,且切片大小相同,以得到第一处理结果。
3.根据权利要求2所述的水边线人工智能集成提取方法,其特征在于,所述深度神经网络模型是通过收集含有海陆边界的SAR影像,对含有海陆边界的SAR影像进行降采样得到原始分辨率的二分之一、四分之一多尺度的影像,并统一进行对应位置的裁剪,切片大小相同,形成样本集训练深度神经网络所形成的模型。
4.根据权利要求3所述的水边线人工智能集成提取方法,其特征在于,所述深度神经网络模型为语义分割模型,所述深度神经网络模型基于UNet并添加残差模块的神经网络作为基本网络架构,并采用通过pytorch的框架对残差模块进行训练与验证,使用Adam优化器进行模型参数优化,且采用SoftIOULoss作为损失函数训练所得的。
5.根据权利要求4所述的水边线人工智能集成提取方法,其特征在于,所述将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果,包括:
将所述第一处理结果按尺度输入对应的深度神经网络模型进行同一位置不同尺度的图片预测,以得到预测结果;
将所述预测结果按照降采样的过程上采样还原至原始分辨率,并裁剪至与原始分辨率的深度神经网络模型所输出结果相同尺度的图片,以得到第二处理结果。
6.根据权利要求1所述的水边线人工智能集成提取方法,其特征在于,所述集成模型是通过多个不同尺度的深度神经网络模型分别输出的结果筛选后形成样本集训练一层全连接层构成的神经网络。
7.根据权利要求6所述的水边线人工智能集成提取方法,其特征在于,所述将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果,包括:
将所述第二结果进行筛选,以得到像素位置的值相同的结果以及像素位置的值不同的结果;
将像素位置的值不同的结果中的像素点输入至集成模型进行像素点优化,并将优化后的像素还原至所述深度神经网络模型所输出的第二处理结果中,替代像素位置的值不同的结果中的像素点,将所述像素点位置相同的结果与优化后的像素点作为所述集成模型的输出值,以得到海陆分割结果。
8.水边线人工智能集成提取系统,其特征在于,包括:
获取单元,用于获取待提取水边线的SAR影像;
切片单元,用于将所述SAR影像进行切片处理,以得到第一处理结果;
处理单元,用于将所述第一处理结果输入至不同尺度的深度神经网络模型中进行同一位置不同尺度的图片处理,以得到第二处理结果;
分割单元,用于将所述第二处理结果输入至集成模型中进行海陆分割,以得到海陆分割结果;
提取单元,用于对所述海陆分割结果进行边界提取,以得到水边线。
CN202311336420.2A 2023-10-16 2023-10-16 水边线人工智能集成提取方法及系统 Pending CN117593534A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311336420.2A CN117593534A (zh) 2023-10-16 2023-10-16 水边线人工智能集成提取方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311336420.2A CN117593534A (zh) 2023-10-16 2023-10-16 水边线人工智能集成提取方法及系统

Publications (1)

Publication Number Publication Date
CN117593534A true CN117593534A (zh) 2024-02-23

Family

ID=89919026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311336420.2A Pending CN117593534A (zh) 2023-10-16 2023-10-16 水边线人工智能集成提取方法及系统

Country Status (1)

Country Link
CN (1) CN117593534A (zh)

Similar Documents

Publication Publication Date Title
US10885381B2 (en) Ship detection method and system based on multidimensional scene features
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN108765465B (zh) 一种无监督sar图像变化检测方法
CN112132959B (zh) 数字岩心图像处理方法、装置、计算机设备及存储介质
Chen et al. Remote sensing image quality evaluation based on deep support value learning networks
CN116012364B (zh) Sar图像变化检测方法和装置
Yang et al. Evaluating SAR sea ice image segmentation using edge-preserving region-based MRFs
CN109389062A (zh) 利用高分辨率星载sar图像提取湖泊水陆分割线的方法
Nair et al. Fuzzy logic-based automatic contrast enhancement of satellite images of ocean
Sahu et al. Trends and prospects of techniques for haze removal from degraded images: A survey
CN114037891A (zh) 基于u型注意力控制网络的高分辨率遥感影像建筑物提取方法及装置
Chen et al. Change detection algorithm for multi-temporal remote sensing images based on adaptive parameter estimation
Venugopal Sample selection based change detection with dilated network learning in remote sensing images
CN110728675A (zh) 肺结节分析装置、模型训练方法、装置及分析设备
CN117115666B (zh) 基于多源数据的高原湖泊提取方法、装置、设备及介质
CN117333468B (zh) 面向多模式时序PolSAR影像的洪涝灾害监测方法
CN116563285B (zh) 一种基于全神经网络的病灶特征识别与分割方法及系统
Meester et al. SAR image edge detection: review and benchmark experiments
Ahmadian et al. Single image super-resolution with self-organization neural networks and image laplace gradient operator
CN115456957B (zh) 一种全尺度特征聚合的遥感影像变化检测的方法
CN117593534A (zh) 水边线人工智能集成提取方法及系统
CN114419465A (zh) 遥感图像变化检测方法、装置、设备及存储介质
Barrion et al. Modified Fast and Robust Fuzzy C-means Algorithm for Flood Damage Assessment using Optimal Image Segmentation Cluster Number
Han et al. SAR image denoising in high dynamic range with speckle and thermal noise refinement modeling
Jaswanth et al. Change detection of sar images based on convolution neural network with curvelet transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination