CN112766155A - 一种基于深度学习的海水养殖区提取方法 - Google Patents

一种基于深度学习的海水养殖区提取方法 Download PDF

Info

Publication number
CN112766155A
CN112766155A CN202110069017.2A CN202110069017A CN112766155A CN 112766155 A CN112766155 A CN 112766155A CN 202110069017 A CN202110069017 A CN 202110069017A CN 112766155 A CN112766155 A CN 112766155A
Authority
CN
China
Prior art keywords
mariculture
training
deep learning
model
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110069017.2A
Other languages
English (en)
Inventor
马佩坤
刁奇
曹万云
夏梦莹
刘玉梅
孙祥飞
卢飞霞
李波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Huayu Space Technology Co ltd
Original Assignee
Shandong Huayu Space Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Huayu Space Technology Co ltd filed Critical Shandong Huayu Space Technology Co ltd
Priority to CN202110069017.2A priority Critical patent/CN112766155A/zh
Publication of CN112766155A publication Critical patent/CN112766155A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度学习的海水养殖区提取方法,基于深度学习进行海水养殖区提取方法中借助卷积神经网络,利用ARCGIS工具制作训练样本对应的养殖区类别真值图,通过重叠滑动裁剪将大尺寸的高分辨率影像进行切割,得到多幅小尺寸的训练图片,并利用数据增广算法进行样本量的扩增,再利用训练模型对训练图片进行训练,得到一个较好的分类模型之后,利用该模型作为预测模型进行养殖区的提取。本发明不依赖于遥感及图像处理的专业知识,通过输入图像可直接获取不同类型海水养殖区的分布位置、范围及面积,依靠计算机自动化处理,海水养殖区提取速度大幅度提升,极大节省了人力及时间成本。

Description

一种基于深度学习的海水养殖区提取方法
技术领域
本发明涉及海水养殖区技术领域,具体为一种基于深度学习的海水养殖区提取方法。
背景技术
目前利用卫星遥感影像进行海水养殖区提取,最常用的方法有基于专家知识的目视解译法、植被指数分析法、对应分析纹理信息法、基于空间结构分析的信息提取和基于面向对象的信息提取方法。然而,这些特征信息强烈依赖于人工设计的特征,需要专业经验的支撑,并且提取得到的特征,并不一定是最有利于区分养殖区提取的信息。
随着计算机技术的快速发展,将深度学习技术应用于遥感影像,可以高效快速地识别大范围的目标地物。深度学习方法,能够利用一定数量的样本训练,通过梯度下降法求取大量的参数来拟合一个复杂的目标函数,自动提取层级特征,自主地学习图像中各类地物特征,从而充分挖掘数据之间的联系,其强大的高级(更具抽象和语义意义)特征表示和学习能力可以为养殖区的自动提取分类提供有效的框架。既节省人工成本又降低了对专业知识的依赖。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提出基于深度学习的海水养殖区提取方法。
本发明解决其技术问题所采用的技术方案是:
一种基于深度学习的海水养殖区提取方法,包括如下步骤:
步骤1:获取海水养殖区高分辨率卫星遥感影像的原始数据,所述原始数据来自高分1号、高分6号、高分2号和哨兵2号四种卫星数据,对原始卫星遥感影像数据进行预处理;
步骤2:根据步骤1得到的预处理后的图像,从已有的波段中选择红、绿和蓝三个波段进行真彩色合成,得到真彩色图像;
步骤3:利用ARCGIS软件工具对步骤2得到的真彩色图像进行训练标签制作;
步骤4:对步骤2和步骤3得到的真彩色图像和对应的标签图进行预处理;
步骤5:对步骤4得到的训练样本和标签进行训练集、验证集、测试集分割,分割比例为8:1:1;
通常情况下,卷积神经网络模型数据集由两大类组成,分别为有类别标签数据集与无类别标签数据集:有类别标签数据集用于训练卷积神经网络模型学习待识别目标的高级特征,该部分数据集需要准确的图片类别标签;而测试数据集为待分类的无标签图片。其中有类别标签数据集分为:用于模型学习特征的训练数据集和验证模型是否训练合格的验证数据集,无标签的测试数据集用来检验模型在实际应用中的精度,训练集,验证集,测试集的比例为8:1:1。
步骤6:建立深度学习网络模型,模型采用DeeplabV3+的语义分割网络结构,以Resnet50作为特征提取器,分割输出类别为3类;
步骤7:将步骤5得到的训练集和验证集样本和标签输入到步骤6建立的网络模型中以softmax交叉熵函数作为Loss损失函数,进行模型训练,其中训练参数batchsize为6,初始学习率为0.01,迭代次数为300,通过观察训练过程中训练集及验证集的Loss值曲线及评估指标MIOU曲线达到收敛状态时,得到海水养殖区提取模型;
步骤8:将步骤5得到的测试集样本输入到步骤7所得的海水养殖区提取模型中,得到养殖区提取结果,并将提取结果与测试集标签进行精度评价,评价指标选择为MIoU,在每个类上计算IoU,然后取平均。
进一步地,步骤1的具体操作步骤如下:
对原始卫星遥感影像数据进行辐射定标、大气校正、几何校正、全色波段和多光谱波段融合的预处理。
进一步地,步骤2中从已有的波段选出的波段有三个,分别为红:0.66 μm、绿:0.555μm和蓝:0.485μm。
进一步地,步骤3包括如下步骤:
步骤31,建立shp文件,按照养殖区类型对真彩色图像进行矢量化标记,其中筏式养殖区标记为1,网箱养殖区标记为2;
步骤32,对步骤31中得到的shp文件进行矢量转栅格,其处理范围与图像范围一致,得到一个栅格类型的标签图;
步骤33,对步骤32中得到的标签图,通过栅格计算器将标签图中的空值设置为0,则0对应为背景标签值。由此得到一个由0、1、2值构成的海水养殖区训练样本标签图。
进一步地,步骤4包括如下步骤:
步骤41,采用滑动裁剪方法,以10%的滑动重叠率将上述得到的大尺寸真彩色图像和标签图裁剪为512*512像素大小的样本;
步骤42,对,步骤41中裁剪得到的样本进行样本扩增处理,处理方法包括进行水平及垂直翻转、随机旋转和色彩扰动的预处理。
进一步地,所述softmax交叉熵损失函数如下式:
Figure BDA0002905326010000031
其中
Figure BDA0002905326010000032
表示像元i的真实值,
Figure BDA0002905326010000033
为像元i的预测值。
进一步地,所述MIoU的表达式如下:
Figure BDA0002905326010000034
其中k代表共有k类,pij表示本属于类i但被预测为类j的像素数量,pii表示预测正确的像素数量,pji表示本属于类j但被预测为类i的像素数量。
进一步地,所述高分1号和高分6号遥感影像分辨率为2米。
与现有技术相比,本发明具备以下有益效果:
1、不依赖于遥感及图像处理的专业知识,通过输入图像可直接获取不同类型海水养殖区的分布位置、范围及面积。
2、依靠计算机自动化处理,海水养殖区提取速度大幅度提升,极大节省了人力及时间成本。
3、具有较好的普适性,对山东、辽宁、苏北、福建等沿海区域的海水养殖区均有较好的提取结果。
附图说明
图1为本发明的基于深度学习技术的养殖区分类提取工作流程图;
图2为本发明的数据集构成示意图;
图3为本发明的DeeplabV3+结构模块示意图;
图4为本发明的卷积神经网络模型作业流程;
图5为本发明的镆铘岛养殖区提取结果。
具体实施方式
下面结合附图及实施例描述本发明具体实施方式:
需要说明的是,本说明书所附图中示意的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。
同时,本说明书中所引用的如“上”、“下”、“左”、“右”、“中间”及“一”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
一种基于深度学习的海水养殖区提取方法,包括如下步骤:
步骤1:获取海水养殖区高分辨率卫星遥感影像的原始数据,所述原始数据来自高分1号、高分6号、高分2号和哨兵2号四种卫星数据,对原始卫星遥感影像数据进行预处理;
步骤2:根据步骤1得到的预处理后的图像,从已有的波段中选择红、绿和蓝三个波段进行真彩色合成,得到真彩色图像;
步骤3:利用ARCGIS软件工具对步骤2得到的真彩色图像进行训练标签制作;
步骤4:对步骤2和步骤3得到的真彩色图像和对应的标签图进行预处理;
步骤5:对步骤4得到的训练样本和标签进行训练集、验证集、测试集分割,分割比例为8:1:1;
步骤6:建立深度学习网络模型,模型采用DeeplabV3+的语义分割网络结构,以Resnet50作为特征提取器,分割输出类别为3类;
步骤7:将步骤5得到的训练集和验证集样本和标签输入到步骤6建立的网络模型中以softmax交叉熵函数作为Loss损失函数,进行模型训练,其中训练参数batchsize为6,初始学习率为0.01,迭代次数为300,通过观察训练过程中训练集及验证集的Loss值曲线及评估指标MIOU曲线达到收敛状态时,得到海水养殖区提取模型;
以Resnet50作为特征提取器,初始化模型参数,其中batchsize为6,初始学习率为0.01,利用制作的数据集中的训练集作为训练样本输入网络模型中,让模型学习自动进行养殖区类型区分的能力,根据模型验证集的精度变化调整模型参数,提高模型识别养殖区的能力。最后,将训练好的卷积神经网络模型用于测试样本的养殖区识别。具体作业流程如图4。
通常情况下,利用深度学习进行训练时将训练样本输入到模型中时都需要计算真实值与网络预测值之间的差异,这种差异通常定义为损失函数,损失函数是用来评价模型预测值与真值之间的差异,训练的目的就是使该损失函数达到最小。常用的损失函数包括交叉熵损失函数,Dice系数以及Focal 损失等。
本研究使用的损失函数为逐像素的交叉熵损失函数,该函数通过检查每个像素,将类别的预测向量与经过“one-hot”编码的目标向量进行比较。交叉熵损失函数首先单独评估每个像素的类别预测,然后再对所有像素进行求平均,这样图像中的像素就被平等的学习了。但是当图像中的类别不均衡时,训练过程就会被像素较多的类别主导,对于较少的目标就很难学习到其特征,从而降低了网络的有效性。
步骤8:将步骤5得到的测试集样本输入到步骤7所得的海水养殖区提取模型中,得到养殖区提取结果,并将提取结果与测试集标签进行精度评价,评价指标选择为MIoU,在每个类上计算IoU,然后取平均。
为了有效评价模型预测效果,采用Mean Intersection over Union(MIoU,均交并比),作为模型精度评价的标准度量。其计算两个集合的交集和并集之比,在语义分割问题中,这两个集合为真实值(ground truth)和预测值 (predicted segmentation)。这个比例可以变形为TP(交集)比上TP、 FP、FN之和(并集)。山东华宇航天空间技术有限公司在每个类上计算IoU (式4),然后取平均。
具体而言,步骤1的具体操作步骤如下:
对原始卫星遥感影像数据进行辐射定标、大气校正、几何校正、全色波段和多光谱波段融合的预处理。
具体而言,步骤2中从已有的波段选出的波段有三个,分别为红:0.66 μm、绿:0.555μm和蓝:0.485μm。
具体而言,步骤3包括如下步骤:
步骤31,建立shp文件,按照养殖区类型对真彩色图像进行矢量化标记,其中筏式养殖区标记为1,网箱养殖区标记为2;
步骤32,对步骤31中得到的shp文件进行矢量转栅格,其处理范围与图像范围一致,得到一个栅格类型的标签图;
步骤33,对步骤32中得到的标签图,通过栅格计算器将标签图中的空值设置为0,则0对应为背景标签值。由此得到一个由0、1、2值构成的海水养殖区训练样本标签图。
具体而言,步骤4包括如下步骤:
步骤41,采用滑动裁剪方法,以10%的滑动重叠率将上述得到的大尺寸真彩色图像和标签图裁剪为512*512像素大小的样本;
步骤42,对,步骤41中裁剪得到的样本进行样本扩增处理,处理方法包括进行水平及垂直翻转、随机旋转和色彩扰动的预处理。
具体而言,所述softmax交叉熵损失函数如下式:
Figure BDA0002905326010000071
其中
Figure BDA0002905326010000072
表示像元i的真实值,
Figure BDA0002905326010000073
为像元i的预测值。
进一步地,所述MIoU的表达式如下:
Figure BDA0002905326010000074
其中k代表共有k类,pij表示本属于类i但被预测为类j的像素数量,pii表示预测正确的像素数量,pji表示本属于类j但被预测为类i的像素数量。
具体而言,所述高分1号和高分6号遥感影像分辨率为2米。
参见图1,图1介绍了本发明的基于深度学习技术的养殖区分类提取工作流程。数据准备,主要为遥感影像训练数据的准备工作,用于生成训练样本,主要从原始的影像数据,经过一系列的转换可以生成一块块小的图片,并将对应的矢量标签转换成图片,供深度学习模型进行训练。模型训练和预测:主要为训练深度卷积神经网络中的语义分割模型,并将训练结果最好的模型保存作为预测模型,并用于其它的运行环境。数据后处理,将模型预测之后的结果数据进行后处理,如图像合并为大图像,栅格结果矢量化,得到一个具有地理信息的养殖区矢量图。
参见图2,图2介绍了本发明的数据集构成,卷积神经网络模型数据集由两大类组成,分别为有类别标签数据集与无类别标签数据集:有类别标签数据集用于训练卷积神经网络模型学习待识别目标的高级特征,该部分数据集需要准确的图片类别标签;而测试数据集为待分类的无标签图片。其中有类别标签数据集分为:用于模型学习特征的训练数据集和验证模型是否训练合格的验证数据集,无标签的测试数据集用来检验模型在实际应用中的精度,训练集,验证集,测试集的比例为8:1:1。
参见图3,图3介绍了本发明的DeeplabV3+结构模块,模型采用 DeeplabV3+(图3c)的卷积神经网络模型架构,使用空间金字塔模块(图3a) 和编码-解码结构(图3b)。空间金字塔模块通过在不同分辨率上以池化操作捕获丰富的上下文信息,编码-解码结构逐渐获取清晰的物体边界。
参加图4,图4介绍了深度学习模型的训练及预测流程。训练集作为训练样本输入到卷积神经网络中,通过计算训练集真实标签图与网络输出标签图进行Loss计算误差,再将误差经过梯度计算向后传播更新权值,在多次迭代之后,使网络输出值与真实值之间的误差最小,即得到最优的网络模型。在此过程,加入验证集进行训练模型的效果验证,以MIoU作为评价指标,可以作为训练模型优化的参考。待训练模型的预测效果达到最优,即得到最优的预测模型,该预测模型即可作为养殖区提取模型,用于养殖区提取。
参见图5,图5介绍了利用养殖区提取模型得到区域性提取结果。该结果为威海市镆铘岛附近海域海水养殖区的提取结果,通过该结果可以得到该区域筏式养殖区及网箱养殖区的分布位置,数量及面积。
为了验证训练得到的养殖区提取模型的真实性能,本研究选取山东烟台、威海,辽宁大连,江苏苏北4个区域进行了验证。养殖区提取结果如图5所示,验证结果如表I所示:
Figure BDA0002905326010000091
表I养殖区模型验证区域结果统计
上面结合附图对本发明优选实施方式作了详细说明,但是本发明不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
不脱离本发明的构思和范围可以做出许多其他改变和改型。应当理解,本发明不限于特定的实施方式,本发明的范围由所附权利要求限定。

Claims (8)

1.一种基于深度学习的海水养殖区提取方法,其特征在于:包括如下步骤:
步骤1:获取海水养殖区高分辨率卫星遥感影像的原始数据,所述原始数据来自高分1号、高分6号、高分2号和哨兵2号四种卫星数据,对原始卫星遥感影像数据进行预处理;
步骤2:根据步骤1得到的预处理后的图像,从已有的波段中选择红、绿和蓝三个波段进行真彩色合成,得到真彩色图像;
步骤3:利用ARCGIS软件工具对步骤2得到的真彩色图像进行训练标签制作;
步骤4:对步骤2和步骤3得到的真彩色图像和对应的标签图进行预处理;
步骤5:对步骤4得到的训练样本和标签进行训练集、验证集、测试集分割,分割比例为8:1:1;
步骤6:建立深度学习网络模型,模型采用DeeplabV3+的语义分割网络结构,以Resnet50作为特征提取器,分割输出类别为3类;
步骤7:将步骤5得到的训练集和验证集样本和标签输入到步骤6建立的网络模型中以softmax交叉熵函数作为Loss损失函数,进行模型训练,其中训练参数batchsize为6,初始学习率为0.01,迭代次数为300,通过观察训练过程中训练集及验证集的Loss值曲线及评估指标MIOU曲线达到收敛状态时,得到海水养殖区提取模型;
步骤8:将步骤5得到的测试集样本输入到步骤7所得的海水养殖区提取模型中,得到养殖区提取结果,并将提取结果与测试集标签进行精度评价,评价指标选择为MIoU,在每个类上计算IoU,然后取平均。
2.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,步骤1的具体操作步骤如下:
对原始卫星遥感影像数据进行辐射定标、大气校正、几何校正、全色波段和多光谱波段融合的预处理。
3.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,步骤2中从已有的波段选出的波段有三个,分别为红:0.66μm、绿:0.555μm和蓝:0.485μm。
4.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,步骤3包括如下步骤:
步骤31,建立shp文件,按照养殖区类型对真彩色图像进行矢量化标记,其中筏式养殖区标记为1,网箱养殖区标记为2;
步骤32,对步骤31中得到的shp文件进行矢量转栅格,其处理范围与图像范围一致,得到一个栅格类型的标签图;
步骤33,对步骤32中得到的标签图,通过栅格计算器将标签图中的空值设置为0,则0对应为背景标签值。由此得到一个由0、1、2值构成的海水养殖区训练样本标签图。
5.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,步骤4包括如下步骤:
步骤41,采用滑动裁剪方法,以10%的滑动重叠率将上述得到的大尺寸真彩色图像和标签图裁剪为512*512像素大小的样本;
步骤42,对步骤41中裁剪得到的样本进行样本扩增处理,处理方法包括进行水平及垂直翻转、随机旋转和色彩扰动的预处理。
6.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,所述softmax交叉熵损失函数如下式:
Figure FDA0002905317000000021
其中
Figure FDA0002905317000000022
表示像元i的真实值,
Figure FDA0002905317000000023
为像元i的预测值。
7.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,所述MIoU的表达式如下:
Figure FDA0002905317000000031
其中k代表共有k类,pij表示本属于类i但被预测为类j的像素数量,pii表示预测正确的像素数量,pji表示本属于类j但被预测为类i的像素数量。
8.根据权利要求1所述的基于深度学习的海水养殖区提取方法,其特征在于,所述高分1号和高分6号遥感影像分辨率为2米。
CN202110069017.2A 2021-01-19 2021-01-19 一种基于深度学习的海水养殖区提取方法 Pending CN112766155A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110069017.2A CN112766155A (zh) 2021-01-19 2021-01-19 一种基于深度学习的海水养殖区提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110069017.2A CN112766155A (zh) 2021-01-19 2021-01-19 一种基于深度学习的海水养殖区提取方法

Publications (1)

Publication Number Publication Date
CN112766155A true CN112766155A (zh) 2021-05-07

Family

ID=75703102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110069017.2A Pending CN112766155A (zh) 2021-01-19 2021-01-19 一种基于深度学习的海水养殖区提取方法

Country Status (1)

Country Link
CN (1) CN112766155A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113298095A (zh) * 2021-06-23 2021-08-24 成都天巡微小卫星科技有限责任公司 一种基于卫星遥感的高精度路网密度提取方法及系统
CN113409322A (zh) * 2021-06-18 2021-09-17 中国石油大学(华东) 面向遥感影像语义分割的深度学习训练样本增强方法
CN113487493A (zh) * 2021-06-02 2021-10-08 厦门大学 基于GANilla的SAR图像自动彩色化方法
CN113673586A (zh) * 2021-08-10 2021-11-19 北京航天创智科技有限公司 融合多源高分辨率卫星遥感影像的海上养殖区域分类方法
CN113689488A (zh) * 2021-08-19 2021-11-23 安徽工大信息技术有限公司 一种基于深度学习的近海养殖鱼框个数与面积统计方法
CN113780444A (zh) * 2021-09-16 2021-12-10 平安科技(深圳)有限公司 基于渐进式学习的舌苔图像分类模型的训练方法
CN115546656A (zh) * 2022-09-14 2022-12-30 山东科技大学 一种基于深度学习的遥感影像养殖区域提取方法
CN116452901A (zh) * 2023-06-19 2023-07-18 中国科学院海洋研究所 基于深度学习的遥感图像海洋养殖区自动化提取方法
CN117649607A (zh) * 2024-01-23 2024-03-05 南京信息工程大学 基于SegNet深度学习模型的海草床遥感识别方法、装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852225A (zh) * 2019-10-31 2020-02-28 中国地质大学(武汉) 基于深度卷积神经网络的遥感影像红树林提取方法及系统
CN110929592A (zh) * 2019-11-06 2020-03-27 北京恒达时讯科技股份有限公司 一种用于海上养殖区外边界的提取方法及系统
US20200126236A1 (en) * 2018-10-22 2020-04-23 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Image Segmentation using IOU Loss Functions
CN111160351A (zh) * 2019-12-26 2020-05-15 厦门大学 基于块推荐网络的快速高分辨率图像分割方法
CN111160354A (zh) * 2019-12-30 2020-05-15 哈尔滨工程大学 一种基于联合图像信息的海天背景下船舶图像分割方法
CN111898543A (zh) * 2020-07-31 2020-11-06 武汉大学 一种融合几何感知与图像理解的建筑物自动提取方法
CN112233129A (zh) * 2020-10-20 2021-01-15 湘潭大学 基于深度学习的并行多尺度注意力机制语义分割方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200126236A1 (en) * 2018-10-22 2020-04-23 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Image Segmentation using IOU Loss Functions
CN110852225A (zh) * 2019-10-31 2020-02-28 中国地质大学(武汉) 基于深度卷积神经网络的遥感影像红树林提取方法及系统
CN110929592A (zh) * 2019-11-06 2020-03-27 北京恒达时讯科技股份有限公司 一种用于海上养殖区外边界的提取方法及系统
CN111160351A (zh) * 2019-12-26 2020-05-15 厦门大学 基于块推荐网络的快速高分辨率图像分割方法
CN111160354A (zh) * 2019-12-30 2020-05-15 哈尔滨工程大学 一种基于联合图像信息的海天背景下船舶图像分割方法
CN111898543A (zh) * 2020-07-31 2020-11-06 武汉大学 一种融合几何感知与图像理解的建筑物自动提取方法
CN112233129A (zh) * 2020-10-20 2021-01-15 湘潭大学 基于深度学习的并行多尺度注意力机制语义分割方法及装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487493A (zh) * 2021-06-02 2021-10-08 厦门大学 基于GANilla的SAR图像自动彩色化方法
CN113487493B (zh) * 2021-06-02 2023-08-18 厦门大学 基于GANilla的SAR图像自动彩色化方法
CN113409322A (zh) * 2021-06-18 2021-09-17 中国石油大学(华东) 面向遥感影像语义分割的深度学习训练样本增强方法
CN113298095A (zh) * 2021-06-23 2021-08-24 成都天巡微小卫星科技有限责任公司 一种基于卫星遥感的高精度路网密度提取方法及系统
CN113673586B (zh) * 2021-08-10 2022-08-16 北京航天创智科技有限公司 融合多源高分辨率卫星遥感影像的海上养殖区域分类方法
CN113673586A (zh) * 2021-08-10 2021-11-19 北京航天创智科技有限公司 融合多源高分辨率卫星遥感影像的海上养殖区域分类方法
CN113689488A (zh) * 2021-08-19 2021-11-23 安徽工大信息技术有限公司 一种基于深度学习的近海养殖鱼框个数与面积统计方法
CN113780444A (zh) * 2021-09-16 2021-12-10 平安科技(深圳)有限公司 基于渐进式学习的舌苔图像分类模型的训练方法
CN113780444B (zh) * 2021-09-16 2023-07-25 平安科技(深圳)有限公司 基于渐进式学习的舌苔图像分类模型的训练方法
CN115546656A (zh) * 2022-09-14 2022-12-30 山东科技大学 一种基于深度学习的遥感影像养殖区域提取方法
CN116452901A (zh) * 2023-06-19 2023-07-18 中国科学院海洋研究所 基于深度学习的遥感图像海洋养殖区自动化提取方法
CN116452901B (zh) * 2023-06-19 2023-09-15 中国科学院海洋研究所 基于深度学习的遥感图像海洋养殖区自动化提取方法
CN117649607A (zh) * 2024-01-23 2024-03-05 南京信息工程大学 基于SegNet深度学习模型的海草床遥感识别方法、装置
CN117649607B (zh) * 2024-01-23 2024-04-19 南京信息工程大学 基于SegNet深度学习模型的海草床遥感识别方法、装置

Similar Documents

Publication Publication Date Title
CN112766155A (zh) 一种基于深度学习的海水养殖区提取方法
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
Li et al. Automatic organ-level point cloud segmentation of maize shoots by integrating high-throughput data acquisition and deep learning
CN110263717B (zh) 一种融入街景影像的土地利用类别确定方法
CN107705309B (zh) 激光点云中林木参数评估方法
CN103914678B (zh) 基于纹理与植被指数的撂荒地遥感识别方法
CN112183209A (zh) 一种基于多维特征融合的区域农作物分类方法及系统
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN109522929A (zh) 一种基于多源图像融合的自然环境下麦田杂草识别方法
CN108428220A (zh) 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法
CN111178177A (zh) 一种基于卷积神经网络的黄瓜病害识别方法
CN110516648B (zh) 基于无人机遥感和模式识别的苎麻株数识别方法
CN114399686A (zh) 一种基于弱监督学习的遥感图像地物识别与分类方法和装置
CN114170527B (zh) 一种利用旋转框表示的遥感目标检测方法
CN113435254A (zh) 一种基于哨兵二号影像的耕地深度学习提取方法
CN114965501A (zh) 基于冠层参数处理的花生病害检测与产量预测方法
CN118097372B (zh) 一种基于人工智能的作物生长可视化预测方法
CN113469122A (zh) 基于深度学习作物时空泛化分类方法及系统
CN117058522A (zh) 一种融合光谱神经网络和叶面积指数的遥感地表生态变化检测方法
CN113077438B (zh) 针对多细胞核彩色图像的细胞核区域提取方法及成像方法
CN111832480B (zh) 一种基于光谱特征的油菜种植区遥感识别方法
CN116543165B (zh) 一种基于双通道复合深度网络的遥感图像果树分割方法
CN109308464A (zh) 一种基于数码相机图像的水稻穗子识别方法
CN112465821A (zh) 一种基于边界关键点感知的多尺度害虫图像检测方法
CN115797184B (zh) 一种地表水体超分辨率提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210507