CN115035422A - 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法 - Google Patents

一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法 Download PDF

Info

Publication number
CN115035422A
CN115035422A CN202210971902.4A CN202210971902A CN115035422A CN 115035422 A CN115035422 A CN 115035422A CN 202210971902 A CN202210971902 A CN 202210971902A CN 115035422 A CN115035422 A CN 115035422A
Authority
CN
China
Prior art keywords
remote sensing
sensing image
network model
segmentation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210971902.4A
Other languages
English (en)
Inventor
姚一鸣
纪勋
刘永廷
高晨曦
张健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Aerospace Xinghuan Space Technology Co ltd
Original Assignee
Hangzhou Aerospace Xinghuan Space Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Aerospace Xinghuan Space Technology Co ltd filed Critical Hangzhou Aerospace Xinghuan Space Technology Co ltd
Priority to CN202210971902.4A priority Critical patent/CN115035422A/zh
Publication of CN115035422A publication Critical patent/CN115035422A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Abstract

本发明公开了一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法,其包括:收集历史遥感影像数据,作为原始遥感影像数据;将原始遥感影像数据中的土壤种植结构作为分割目标,对分割目标进行标记处理;将带有标记处理的遥感影像与相应的原始遥感影像组成一对,得到遥感影像对;对遥感影像对进行数据增广,将遥感影像对划分为多个连续的子影像,并将增广后的遥感影像对做划分,一部分作为网络模型的训练集,一部分作为网络模型的测试集。进一步,将增广后的遥感影像对输入网络模型,进行网络模型训练、测试后,运行网络模型得到遥感影像区域土壤种植结构的分割结果。本发明可有效实现对大面积的土壤种植结构遥感影像数据进行精准分割。

Description

一种面向遥感影像区域土壤种植结构的数据增广方法及分割 方法
技术领域
本发明涉及遥感影像处理领域,具体而言,尤其涉及一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法。
背景技术
目前,在遥感影像处理领域中,遥感影像分割技术是一项热门的研究方向。随着人工智能以及计算机视觉技术的快速发展,传统遥感分割技术中所暴露出的信息提取效率低下、遥感解译效果不佳等瓶颈也得以显著突破。不同于传统方法,基于深度学习的遥感影像分割技术通过深层网络学习映射关系实现对整体影像的精细化分割,但当前主流的深度学习技术一般需要大量训练数据支持。
现有的基于深度学习的遥感影像分割技术普遍缺少合理、可靠、系统的数据处理方案,尤其对遥感影像数据的增广方式多以随机裁剪、缩放等方式执行,而并没有固定的方法论支持,这样的数据增广方式使得网络模型训练不够充分,进而影响到了对大面积遥感影像区域中土壤种植结构如大豆、玉米或水稻等大田作物的精细化分割效果。
发明内容
为克服现有技术上述缺陷,针对基于遥感影像区域土壤种植结构的分割,为帮助实现大豆、玉米、水稻等大田作物的快速精准分割,本发明提出了一种系统、可靠的面向遥感影像区域土壤种植结构的数据增广方法及分割方法。
为此,本发明实施例的第一目的在于提供一种面向遥感影像区域土壤种植结构的数据增广方法,其包括如下步骤:
1)收集历史遥感影像数据,作为原始遥感影像数据;
2)基于图像分割标注软件,将原始遥感影像数据中的土壤种植结构所在区域作为分割目标,对分割目标进行标记处理;
3)将带有标记处理的遥感影像与相应的原始遥感影像组成一对,得到遥感影像对;
4)对遥感影像对进行增广,将遥感影像对划分为多个连续的子影像,并将增广后的遥感影像对做划分,一部分作为网络模型的训练集,一部分作为网络模型的测试集。
作为优选,所述对分割目标进行标记处理采用如下方法:根据土壤种植结构不同作物叶面特征,绘制作物所代表的图像区域轮廓,并使用不同颜色对不同种类作物进行着色标记以对不同种类作物加以区分。
作为优选,所述将带有标记处理的遥感影像与相应的原始遥感影像组成遥感影像对采用如下方法:将带有标注结果的遥感影像与原始遥感影像保存在同一文件夹中,该文件夹被规定为一组遥感影像对。
作为优选,所述对遥感影像对进行增广包括如下步骤:
1)设置边长为k个像素的正方形滑动模块,并为每一次的移动步长设置一个小于正方形滑动模块边长的像素值;
2)控制滑动模块在遥感影像对上按移动步长进行滑动;
3)将正方形滑动模块所覆盖的原始遥感影像部分内容与标注遥感影像部分内容裁剪出来,保存成小遥感影像对。
本发明实施例的第二目的在于提供一种面向遥感影像区域土壤种植结构的分割方法,其将本发明实施例面向遥感影像区域土壤种植结构的数据增广方法增广后得到的遥感影像对,用于对遥感影像区域土壤种植结构进行分割,所述遥感影像对中的原始遥感影像作为网络模型在训练阶段时的输入数据,带有标记的遥感影像作为网络模型在训练阶段时的真值数据;包括如下步骤:
1)网络模型训练
确定网络模型,将训练集图像输入网络模型后,网络模型根据训练集中的输入数据与真值数据,探索原始遥感影像与带有标记的真值遥感影像之间的映射关系,初步学习到分割能力;
确定网络模型的损失函数;
利用全部训练集数据对网络模型进行训练,比较网络模型实际遥感影像输出与遥感影像对中的真值遥感影像的差异,观察损失函数曲线的变化,直至网络模型已收敛;
2)网络模型测试
网络模型训练完毕后,将遥感影像测试集数据送入网络模型;将网络模型实际遥感影像输出与遥感影像对中的真值遥感影像进行对比,判断网络模型是否具备了对遥感影像区域中的土壤种植结构具有精细化分割能力,如果具备,进入运行网络模型步骤,如果不具备,则返回到遥感影响对数据增广步骤做进一步数据增广或网络模型训练步骤做进一步训练;
3)运行网络模型
将待进行图像分割的遥感影像数据输入网络模型,运行网络模型,获取并记录通过网络模型自行计算而得到的与输入的遥感影像相对应的土壤种植结构分割结果。保存所得到的分割结果,遥感影像分割工作结束。
采用本发明的面向遥感影像区域土壤种植结构的数据增广方法及分割方法,可有效实现对大面积的土壤种植结构遥感影像数据进行高质量、精准地分割。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍。需要说明的是,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例的面向遥感影像区域土壤种植结构的分割方法流程示意图;
图2为本发明实施例的面向遥感影像区域土壤种植结构的数据增广方法的数据增广步骤遥感影像滑动模块分割图例;
图3为本发明实施例的面向遥感影像区域土壤种植结构的分割方法网络模型训练、测试、运行步骤流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
如图1所示,为本发明实施例一种面向遥感影像区域土壤种植结构的分割方法流程示意图,具体步骤如下:
S1:获得历史遥感影像数据,作为用于网络模型训练与测试的原始遥感影像数据。
所述历史遥感影像数据可以通过互联网开源数据库、论文或技术报告等渠道获得。本实施例中,收集并整理了历史10年遥感影像数据,其中所收集到的遥感影像数据类型既可以为高光谱卫星遥感影像、可见光遥感影像。
S2:基于图像分割标注软件,将历史遥感影像数据中的土壤种植结构作物所在区域作为分割目标,对这些分割目标进行标记处理。
本实施例中,以遥感影像数据中的大豆、玉米或水稻种类作为主要分割目标,然后,对上述分割目标进行标记处理。对分割目标的标记处理可以采用图像分割标注软件,如labelme,是麻省理工(MIT)的计算机科学和人工智能实验室(CSAIL)研发的图像标注工具。
以下是对分割目标进行标记处理的一个操作实例:
(1)打开labelme软件,显示label软件默认界面;
(2)点击labelme界面左上角的“打开”选项,选中并导入预先收集好的遥感影像数据;
(3)点击“描点”选项,根据不同作物叶面特征,绘制大豆、玉米或水稻等大田作物所代表的图像区域轮廓,并使用不同颜色对不同种类作物进行着色标记以对不同种类作物加以区分;
(4)点击“保存”选项,自动保存标记数据。
S3:将带有标记处理的遥感影像与相应的原始遥感影像组成一对,得到用于对网络模型进行训练的遥感影像对。即,每组遥感影像对包含两张图像,分别为原始遥感影像与带有标记处理的遥感影像。带有标记处理的遥感影像可称标注遥感影像。
本实施例中,可采用如下方法来得到遥感影像对:针对某一张遥感影像数据,在利用labelme软件进行图像分割标注后,将带有标注结果的遥感影像与原始遥感影像保存在同一文件夹中,该文件夹被规定是一组遥感影像对。采用上述方法,将所有带有标记处理的遥感影像与相应的原始遥感影像组成遥感影像对。
本实施例中,遥感影像对中的原始遥感影像作为网络模型在训练阶段时的输入数据,也被称为输入遥感影像;带有标记的遥感影像作为网络模型在训练阶段时的真值数据,也被称为真值遥感影像。
本步骤获得遥感影像对后,是用于后续将图像对全部送入网络模型中,网络模型可以自行调整内部参数,以挖掘输入图像与真值图像之间的映射关系,从而自主获得图像分割能力。本步骤的目的旨在帮助训练网络模型,以提升网络模型的智能化分割能力,为当前人工智能领域训练数据的一般思路。
S4:对遥感影像对进行数据增广,在原有收集到的遥感影像基础上,进一步增加数据总量,并将所有遥感影像对做划分,一部分作为网络模型的训练集,一部分作为网络模型的测试集。
本步骤的目的是为了得到更多遥感影像对以增加网络模型的训练量。本实施例中,可以采用传统人工智能领域中常见的对图像进行裁剪、拉伸或旋转等手段来实现数据增广。但传统的数据增广手段相对而言随机性比较强,对图像的划分不够系统、规范,不可控。
本实施例提供了另一种对遥感影像对进行增广的手段,将遥感影像对划分为多个连续的子影像,来实现对遥感数据对的大范围增广。本实施例的增广手段优点在于能够对图像数据的增广进行系统地划分,且多组图像对有可控的重复区域,可以帮助网络模型反复训练重复的部分,促进提高或加深网络模型的理解能力。
以下是本实施例遥感影像对进行数据增广的具体操作步骤:
S41:设置边长为k个像素的正方形滑动模块,并为每一次的移动步长设置一个小于正方形滑动模块边长的像素值。
本实施例步骤的目的是将遥感影像对按照模块裁剪的方式划分为多个连续的子影像,可实现在原有收集到的遥感影像的基础上,进一步提升遥感影像总体数据量,帮助提高网络模型的分割能力。数据增广完成后,按一定比例将增广后的图像对划分为网络模型的训练集与数据集,如:随机选取全部图像对中的80%作为图像分割模型的训练集,用于训练网络模型;另外20%作为图像分割模型的测试集,用于测试模型的实际分割效果。
图2所示为本发明实施例采用滑动模块方式划分遥感影像对的示意图。本实施例中,设置边长为k个像素的正方形滑动模块,并为每一次的移动步长设置一个小于正方形滑动模块边长的像素值,如0.1k个像素。图2中的(a)-(c)为前三次移动的示例。需要说明的是,每进行一次裁剪时,同一遥感影像对中的两幅遥感影像所裁剪的位置是完全相同的。这样设置的目的是:在每次移动滑动模块时,前后两次正方形滑动模块滑动后覆盖的区域均有重复区域,所述重复区域为移动步长所在区域除外的区域,且每次的重复区域可控;由以一定移动步长滑动前后的正方形滑动模块所覆盖的遥感影像对有重复区域,每次将正方形滑动模块所覆盖的且与正方形滑动模块尺寸一致的遥感影像对部分内容裁剪出来后,就可以得到更多数量的小遥感影像对,且有大量的小遥感影像对有部分重复的区域。图2中(d)为相邻两次裁剪的叠加效果图,很明显地看出相邻两次裁剪的部分中,有长为k个像素、宽为0.9k个像素的区域是重复的,见图中阴影部分,将带有部分重复区域的全部小遥感影像对输入到网络模型进行训练,可以帮助网络模型反复训练重复的部分,增强对不同遥感影像中重复部分的感知,从而促进提高或加深网络模型的理解能力。
本实施例设置每一次的移动步长为0.1k像素,以及确保0.1k像素为大于等于1的自然数,或者按四舍五入的方式取整后为大于等于1的自然数。
S42:控制滑动模块在遥感影像对上按移动步长进行滑动。本实施例分别自原始遥感影像与标注遥感影像的左上角开始逐步向右、向下进行滑动。需要说明的是,针对统一遥感影像对中的原始遥感影像与标注遥感影像,滑动模块的滑动均需保持相同的移动方向以及移动频次,以确保每次移动后正方形滑动模块所覆盖的原始遥感影像部分内容与标注遥感影像部分内容完全一致,从而再次形成配对。
S43:正方形滑动模块滑动后,将正方形滑动模块所覆盖的原始遥感影像部分内容与标注遥感影像部分内容分别裁剪出来。如图2所示,边长为k个像素的正方形滑动模块滑动后,将正方形滑动模块所覆盖的原始遥感影像部分内容与标注遥感影像部分内容分别裁剪出来,并按照0.1k个像素的移动步长进行移动,以保证每相邻两次裁剪得到的小遥感影像对都有90%的面积重合,保存两张裁剪出来的图像并放置在同一文件夹中以形成小遥感影像对。这些小遥感影像对的作用与S2中所述遥感影像对的作用一致,都是用于对网络模型进行训练。
需要说明的是,对于利用正方形滑动模块裁剪得到的小遥感影像对,也可以采用传统人工智能领域中常见的对图像进行裁剪、拉伸或旋转等再做数据增广,进一步提升遥感影像整体数据量,或者是对S2步骤中的遥感影像对先用传统数据增广手段进行随机增广后,再采用本步骤的增广手段进行分割,进一步提升遥感影像整体数据量。
S44:将所有遥感影像对做划分,一部分作为网络模型的训练集,一部分作为网络模型的测试集。
本实施例中,可以按照一定的数量比进行划分,比如按照人工智能领域中的常见分类,随机选取全部图像对中的80%作为网络模型的训练集,提升模型的分割能力;另外20%作为图像分割模型的测试集,测试模型的实际分割效果。需要说明的是,上述划分比例也可以是70%:30%或85%:15%。
以下S5步骤中,采用了人工智能领域中用于模型训练与测试的一般思路。图3所示为本实施例中进行网络模型训练、测试以及运行网络模型得到分割结果的流程图。
S5:网络模型训练、测试以及运行网络模型得到分割结果
首先,确立网络模型与损失函数,将步骤S4中所确定的训练集输入到网络模型中用于训练和测试,以帮助网络模型初步具备对大面积遥感影像中的大田作物精细化分割的能力。本步骤中的详细流程可参考文献[1]。
具体包括如下步骤:
S51:确定网络模型
在分别确立好用于训练与用于测试的遥感影像对后,确定网络模型,将训练集图像输入网络模型。网络模型会自行推测训练集中的输入数据与真值数据之间的映射关系,从而学习到对大面积遥感影像中的大田作物精细化分割的能力。
本实施例选取U型分割网络(U-Net)作为大田作物遥感影像分割的网络模型,并保持原始模型中所提供的初始参数不变。需要说明的是,网络模型并不限于U型分割网络,也可以选取SegNet网络模型(参考文献[2])、FCN网络模型(参考文献[3])等。
训练数据输入U型分割网络模型后,根据人工智能领域一般思路,网络模型可以根据训练集中的输入数据与真值数据,自行探索原始遥感影像与带有标记的真值遥感影像之间的映射关系。网络模型自行探索原始遥感影像与带有标记的真值遥感影像之间的映射关系具体表现为U型分割网络中的所有参数可在训练的过程中自主调节,这是U型分割网络的现成技术,可参考文献[1],在此不赘述。
S52:确定网络模型的损失函数
确定网络模型的损失函数,以比较网络模型实际遥感影像输出与遥感影像对中的真值遥感影像的差异。该差异与网络参数自主调节的效果相关,差异越小意味着网络模型实际遥感影像输出与真值遥感影像越相似,可以侧面证明网络模型自主地调节出的效果有利于实现对大面积遥感影像中的大田作物精细化分割。
本实施例选择骰子损失函数(Dice loss)作为网络模型的损失函数,骰子损失函数是一种表征网络模型实际遥感影像输出与图像对中的真值遥感影像之间的差异的具体形式,其本质是一种集合相似度度量函数,取值范围在0~1之间,其中0代表两幅影像完全一致,1代表两幅影像完全不同。根据人工智能领域的一般思路,网络模型自主调节参数的过程是不可见的,但可以通过观察骰子损失函数来推断,当骰子损失函数趋近于0时,侧面表明网络模型自主调节参数的过程是有利于提升网络模型的分割能力的。骰子损失函数是当前人工智能领域中的现有技术,可参考文献[4]。
为使网络模型的学习能力最大化,本实施例在网络模型训练之前进一步设置了网络训练模型中的超参数。
在输入训练数据时,应保证训练集输入到网络模型中的顺序是随机的,然后,按照人工智能领域中的常见设置方法,在网络模型训练之前设置分割批量、学习率以及执行训练循环次数三个超参数,以使网络知晓具体的参数自主调节方法。需要说明的是,以上三个超参数并没有唯一的设置值,而是可以选取常见的经验值,比如,本实施例设置网络模型训练过程中的分割批量为16(也可以设置为4,8,32, 64等),学习率为0.0001(也可以设置为0.01,0.001, 0.00001等),并执行150次(也可以设置为50, 100, 200等)训练循环,从而实现对网络模型的训练,以提高网络模型对输入遥感影像与真值遥感影像映射关系的判断能力,从而实现网络模型对遥感影像中大豆、玉米以及水稻的精细化分割。
S53:训练网络模型
利用全部训练集数据对U型分割网络模型进行训练,再观察骰子损失函数曲线,当该曲线逐渐收敛到不再发生剧烈震荡后停止训练,初步认定当前状态下的网络模型训练已经完毕。
需要说明的是,以上步骤为当前人工智能领域中判断网络模型收敛的一般步骤,通常情况下,任何形式的损失函数的曲线在模型训练前期都会发生非常明显的震荡,而随着训练循环次数的增加,损失函数曲线逐渐下降且震荡效果明显减弱,最终损失函数曲线几乎不会发生波动(甚至完全不会波动),当此状态随着训练循环的增加而保持不变时,即可断定网络模型已收敛。以上过程可参考文献[1]-[3]。
S54:测试网络模型
在根据S53初步判断网络模型训练完毕后,为进一步判断网络模型已真正完成训练并已具备对遥感影像中土壤种植结构的精细化分割能力,将遥感影像测试集数据送入网络模型,其中遥感影像对中的原始遥感影像作为网络模型的输入,观察网络模型的实际输出影像,并将该输出影像与遥感影像对中带有标记的真值遥感影像进行对比。本实施例将输出影像与遥感影像对中带有标记的真值遥感影像进行对比,是通过设定评价指标,当评价指标高于或不低于预设值时,认为该网络模型已具备了对遥感影像中土壤种植结构的精细化分割能力。本实施例选取的评价指标包括遥感影像分割领域中公认的交并比、准确率、精确率、召回率等评价指标,比如,设定评价指标为80%。当上述评价指标均高于80%时,可以认定经过训练的网络模型已具备对遥感影像中的土壤种植结构区域进行自主分割的能力。如果评价指标没有高于80%,可以再回到S5步骤重新训练,或者回到S4再做一次数据增广。显然地,上述指标越趋近于100%,代表网络模型的输出结果与理想结果越相似,侧面证明网络模型对遥感影像中土壤种植结构的精细化分割能力越强。
在测试网络模型评价指标均高于80%时,认为该网络模型已具备了对遥感影像中土壤种植结构的精细化分割能力。
S55:将需要进行图像分割的遥感影像数据输入到网络模型中,运行网络模型,获取并记录通过网络模型自行计算而得到的与输入的遥感影像相对应的土壤种植结构分割结果,保存所得到的分割结果,遥感影像分割工作结束。
由于当前人工智能领域的限制,网络模型所具备的精细化分割能力无法通过直接观察网络内部参数来判断,只能够通过观察S5中所述判断骰子损失函数曲线以及测试网络模型评价指标来侧面认定网络模型的分割能力。因此,当骰子损失函数曲线稳定收敛且测试网络模型评价指标均满足标准时,可以判断当前网络模型已经具备了对遥感影像中土壤种植结构的精细化分割能力,此时可以根据实际情况,向网络模型中输入需要进行分割的原始遥感影像数据,网络模型可自动推断出预期的分割结果,从而实现当次遥感影像分割工作。
参考文献:
1. O. Ronneberger, P. Fischer, and T. Brox/ U-Net: ConvolutionalNetworks for Biomedical Image Segmentation. 18th International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI).
2. V. Badrinarayanan, A. Kendall, and R. Cipolla. SegNet: A DeepConvolutional Encoder-Decoder Architecture for Image Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence.
3. E. Shelhamer, J. Long, and T. Darrell. Fully ConvolutionalNetworks for Semantic Segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence.
4. F. Milletari, N. Navab, and S. A. Ahmadi. V-Net: FullyConvolutional Neural Networks for Volumetric Medical Image Segmentation. 4th IEEE International Conference on 3D Vision (3DV).

Claims (5)

1.一种面向遥感影像区域土壤种植结构的数据增广方法,其特征在于,包括如下步骤:
1)收集历史遥感影像数据,作为原始遥感影像数据;
2)将原始遥感影像数据中的土壤种植结构作为分割目标,对分割目标进行标记处理;
3)将带有标记处理的遥感影像与相应的原始遥感影像组成一对,得到遥感影像对;
4)对遥感影像对进行增广,将遥感影像对划分为多个连续的子影像,并将增广后的遥感影像对做划分,一部分作为网络模型的训练集,一部分作为网络模型的测试集。
2.如权利要求1所述一种面向遥感影像区域土壤种植结构的数据增广方法,其特征在于,所述对分割目标进行标记处理采用如下方法:根据土壤种植结构不同作物叶面特征,绘制作物所代表的图像区域轮廓,并使用不同颜色对不同种类作物进行着色标记以对不同种类作物加以区分。
3.如权利要求1所述一种面向遥感影像区域土壤种植结构的数据增广方法,其特征在于,所述将带有标记处理的遥感影像与相应的原始遥感影像组成遥感影像对采用如下方法:将带有标注结果的遥感影像与原始遥感影像保存在同一文件夹中,该文件夹被规定为一组遥感影像对。
4.如权利要求1所述一种面向遥感影像区域土壤种植结构的数据增广方法,其特征在于,所述对遥感影像对进行增广包括如下步骤:
1)设置边长为k个像素的正方形滑动模块,并为每一次的移动步长设置一个小于正方形滑动模块边长的像素值;
2)控制滑动模块在遥感影像对上按移动步长进行滑动;
3)将正方形滑动模块所覆盖的原始遥感影像部分内容与标注遥感影像部分内容裁剪出来,保存成小遥感影像对。
5.一种面向遥感影像区域土壤种植结构的分割方法,其特征在于,将权利要求1-4任一项所述的面向遥感影像区域土壤种植结构的数据增广方法增广后得到的遥感影像对,用于对遥感影像区域土壤种植结构进行分割,所述遥感影像对中的原始遥感影像作为网络模型在训练阶段时的输入数据,带有标记的遥感影像作为网络模型在训练阶段时的真值数据;包括如下步骤:
1)网络模型训练
确定网络模型,将训练集图像输入网络模型后,网络模型根据训练集中的输入数据与真值数据,探索原始遥感影像与带有标记的真值遥感影像之间的映射关系,初步学习到分割能力;
确定网络模型的损失函数;
利用全部训练集数据对网络模型进行训练,比较网络模型实际遥感影像输出与遥感影像对中的真值遥感影像的差异,观察损失函数曲线的变化,直至网络模型已收敛;
2)网络模型测试
网络模型训练完毕后,将遥感影像测试集数据输入网络模型;将网络模型实际遥感影像输出与遥感影像对中的真值遥感影像进行对比,判断网络模型是否具备了对遥感影像区域中的土壤种植结构具有精细化分割能力,如果具备,进入运行网络模型步骤,如果不具备,则返回到遥感影响对数据增广步骤做进一步数据增广或网络模型训练步骤做进一步训练;
3)运行网络模型
将待进行图像分割的遥感影像数据输入网络模型,运行网络模型,获取并记录通过网络模型自行计算而得到的与输入的遥感影像相对应的土壤种植结构分割结果。
CN202210971902.4A 2022-08-15 2022-08-15 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法 Pending CN115035422A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210971902.4A CN115035422A (zh) 2022-08-15 2022-08-15 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210971902.4A CN115035422A (zh) 2022-08-15 2022-08-15 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法

Publications (1)

Publication Number Publication Date
CN115035422A true CN115035422A (zh) 2022-09-09

Family

ID=83130733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210971902.4A Pending CN115035422A (zh) 2022-08-15 2022-08-15 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法

Country Status (1)

Country Link
CN (1) CN115035422A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942454A (zh) * 2019-11-26 2020-03-31 北京科技大学 一种农业图像语义分割方法
CN111242028A (zh) * 2020-01-13 2020-06-05 北京工业大学 基于U-Net的遥感图像地物分割方法
CN111259898A (zh) * 2020-01-08 2020-06-09 西安电子科技大学 基于无人机航拍图像的农作物分割方法
CN111461052A (zh) * 2020-04-13 2020-07-28 安徽大学 基于迁移学习的多个生育期小麦倒伏区域识别方法
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN112669323A (zh) * 2020-12-29 2021-04-16 深圳云天励飞技术股份有限公司 图像处理方法及相关设备
CN113887517A (zh) * 2021-10-29 2022-01-04 桂林电子科技大学 基于并行注意力机制的农作物遥感图像语义分割方法
CN113920441A (zh) * 2021-08-30 2022-01-11 广东海洋大学 一种高精度的农田植被信息提取方法
CN114463642A (zh) * 2021-10-19 2022-05-10 山东华宇航天空间技术有限公司 一种基于深度学习的耕地地块提取方法
CN114694038A (zh) * 2022-04-11 2022-07-01 中国矿业大学 基于深度学习的高分辨率遥感影像分类方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942454A (zh) * 2019-11-26 2020-03-31 北京科技大学 一种农业图像语义分割方法
CN111259898A (zh) * 2020-01-08 2020-06-09 西安电子科技大学 基于无人机航拍图像的农作物分割方法
CN111242028A (zh) * 2020-01-13 2020-06-05 北京工业大学 基于U-Net的遥感图像地物分割方法
CN111461052A (zh) * 2020-04-13 2020-07-28 安徽大学 基于迁移学习的多个生育期小麦倒伏区域识别方法
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统
CN112669323A (zh) * 2020-12-29 2021-04-16 深圳云天励飞技术股份有限公司 图像处理方法及相关设备
CN113920441A (zh) * 2021-08-30 2022-01-11 广东海洋大学 一种高精度的农田植被信息提取方法
CN114463642A (zh) * 2021-10-19 2022-05-10 山东华宇航天空间技术有限公司 一种基于深度学习的耕地地块提取方法
CN113887517A (zh) * 2021-10-29 2022-01-04 桂林电子科技大学 基于并行注意力机制的农作物遥感图像语义分割方法
CN114694038A (zh) * 2022-04-11 2022-07-01 中国矿业大学 基于深度学习的高分辨率遥感影像分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任鸿杰 等: "改进DeepLabV3+网络的遥感影像农作物分割方法", 《计算机工程与应用》 *

Similar Documents

Publication Publication Date Title
CN110196053B (zh) 一种基于fpga的实时田间机器人视觉导航方法与系统
Guo et al. Illumination invariant segmentation of vegetation for time series wheat images based on decision tree model
CN104598908B (zh) 一种农作物叶部病害识别方法
Malinverni et al. Hybrid object-based approach for land use/land cover mapping using high spatial resolution imagery
CN111462175A (zh) 时空卷积孪生匹配网络目标跟踪方法、装置、介质及设备
CN104517122A (zh) 一种基于优化卷积架构的图像目标识别方法
CN104866524A (zh) 一种商品图像精细分类方法
CN104156945B (zh) 基于多目标粒子群算法的灰度图像分割方法
JP2023504624A (ja) 作物の被害を特定するためのシステム及び方法
CN104680524A (zh) 一种叶类蔬菜病害诊断方法
CN109272467A (zh) 一种基于多尺度边缘线索的层次化图像分割方法
CN107464249A (zh) 一种羊只无接触体尺测量方法
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
Hu et al. Estimation of tea leaf blight severity in natural scene images
CN113313680B (zh) 一种结直肠癌病理图像预后辅助预测方法及系统
CN107680098A (zh) 一种甘蔗蔗节特征的识别方法
CN111415352A (zh) 一种基于深度级联网络的癌转移全景病理切片分析方法
Li et al. Review of machine-vision-based plant detection technologies for robotic weeding
Wang et al. Unsupervised segmentation of greenhouse plant images based on modified Latent Dirichlet Allocation
CN110363103A (zh) 虫害识别方法、装置、计算机设备及存储介质
CN112215285B (zh) 一种基于跨媒体特征的眼底图像自动标注方法
Kezia et al. A color-texture based segmentation method to extract object from background
CN115035422A (zh) 一种面向遥感影像区域土壤种植结构的数据增广方法及分割方法
Dhanuja et al. Areca nut disease detection using image processing technology
CN111199248A (zh) 一种基于深度学习目标检测算法的服装属性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20220909

RJ01 Rejection of invention patent application after publication