CN113011294B - 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质 - Google Patents

基于遥感影像识别圆形喷灌地的方法、计算机设备和介质 Download PDF

Info

Publication number
CN113011294B
CN113011294B CN202110249496.6A CN202110249496A CN113011294B CN 113011294 B CN113011294 B CN 113011294B CN 202110249496 A CN202110249496 A CN 202110249496A CN 113011294 B CN113011294 B CN 113011294B
Authority
CN
China
Prior art keywords
neural network
network model
shaped neural
remote sensing
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110249496.6A
Other languages
English (en)
Other versions
CN113011294A (zh
Inventor
田富有
吴炳方
曾红伟
张淼
王正东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerospace Information Research Institute of CAS
Original Assignee
Aerospace Information Research Institute of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aerospace Information Research Institute of CAS filed Critical Aerospace Information Research Institute of CAS
Priority to CN202110249496.6A priority Critical patent/CN113011294B/zh
Publication of CN113011294A publication Critical patent/CN113011294A/zh
Application granted granted Critical
Publication of CN113011294B publication Critical patent/CN113011294B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/22Improving land use; Improving water use or availability; Controlling erosion

Abstract

本申请公开了一种基于遥感影像识别圆形喷灌地的方法、计算机设备和介质,该识别圆形喷灌地的方法包括:获取待识别区域的遥感影像;将遥感影像输入第一U形神经网络模型,以由第一U形神经网络模型输出遥感影像的预测图片,预测图片标记了遥感影像中各像素点的预测结果,预测结果为每个像素点是否为圆形喷灌地像素点;根据预测图片生成圆形喷灌地的位置信息;其中,第一U形神经网络模型为第二U形神经网络模型经增量学习后得到,第二U型形神经网络模型为已完成训练的U形神经网络模型,且增量学习样本取自待识别区域的背景影像。本申请能够大范围、高效和准确地识别圆形喷灌地。

Description

基于遥感影像识别圆形喷灌地的方法、计算机设备和介质
技术领域
本公开涉及人工智能领域,更具体而言,涉及一种基于遥感影像识别圆形喷灌地的方法、计算机设备和介质。
背景技术
灌溉是农业生产的根本保障,为了使人们从繁重的移动管道灌溉作业中解放出来,圆形喷灌机应运而生。圆形喷灌机又称中心支轴式喷灌机,显著特点是喷灌区域为圆形,即形成围绕中心支轴的圆形喷灌地。
圆形喷灌地的准确定位在农业生产中具有重要作用,包括确定喷灌地面积以及判断农作物生长情况等。目前,通过遥感影像提取地表信息是一种十分高效的方法,已有最大似然法、基于专家知识的决策树分类方法以及面向对象的分类方法等各种方法所构建的提取模型,其中,面向对象的分类方法在通过遥感影像提取圆形喷灌地方面取得了一定进展。
然而,一个个圆形喷灌地在遥感影像中的占有面积非常小;并且,遥感影像会因接收辐射能量的差异而出现图像灰度值变化的现象,因而现有面向对象的分类方法存在一个区域训练得到的提取模型仅适用于该区域的技术问题,这使得大范围、高效和准确地识别圆形喷灌地仍为现阶段面临的一个难题。
公开内容
有鉴于此,本公开提供了一种基于遥感影像识别圆形喷灌地的方法、计算机设备和介质,旨在大范围、高效和准确地识别圆形喷灌地。
为了达到这个目的,根据本公开的一个方面,提供了一种基于遥感影像识别圆形喷灌地的方法,包括:
获取待识别区域的遥感影像;
将所述遥感影像输入第一U形神经网络模型,以由所述第一U形神经网络模型输出所述遥感影像的预测图片,所述预测图片标记了所述遥感影像中各像素点的预测结果,所述预测结果为每个像素点是否为圆形喷灌地像素点;
根据所述预测图片生成圆形喷灌地的位置信息;
其中,所述第一U形神经网络模型为第二U形神经网络模型经增量学习后得到,所述第二U型形神经网络模型为已完成训练的U形神经网络模型,且增量学习样本取自所述待识别区域的背景影像。
可选地,所述遥感影像为所述待识别区域的初始遥感影像经预处理后得到的,所述预处理包括对所述初始遥感影像的近红外、红、绿三个波段分别赋予红色、绿色、蓝色。
可选地,所述第二U形神经网络模型的下采样结构中每个下采样单元包括下采样层和第一残差块,所述下采样层的输出作为所述第一残差块的输入;
所述第二U形神经网络模型的上采样结构中每个上采样单元包括上采样层和第二残差块,所述上采样层的输出作为所述第二残差块的输入。
可选地,所述第一残差块和所述第二残差块各自包括:
输入层,用于接收输入数据;
第一BN层,连接所述输入层;
第一卷积层,为3×3的卷积层,连接所述第一BN层;
第二BN层,连接所述第一卷积层;
第一激励函数层,连接所述第二BN层;
第二卷积层,为3×3的卷积层,连接所述第一激励函数层;
第三卷积层,为1×1的卷积层,连接所述输入层;
输出层,连接所述第二卷积层和所述第三卷积层,用于将所述第二卷积层和所述第三卷积层的输出相加结果进行输出。
可选地,所述第二U形神经网络模型通过以下步骤进行增量学习:
将增量学习样本输入当前第二U形神经网络模型,以由所述当前第二U形神经网络模型给出对应增量学习样本是否为圆形喷灌地的第一判定结果;
根据各增量学习样本的所述第一判定结果和认定标签,确定所述当前第二U形神经网络模型的准确率;
若所述准确率不收敛则调整所述当前第二U形神经网络模型中的权重;
将权重调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到所述当前第二U形神经网络模型的准确率收敛。
可选地,所述增量学习样本包括取自所述背景影像的初始影像块样本以及至少部分初始影像块样本的变换样本;
其中,初始影像块样本的所述变换样本至少包括以下一种:初始影像块样本经旋转处理后得到的样本、初始影像块样本经平移处理后得到的样本、影像块样本经加噪声处理后得到的样本、初始影像块样本经色彩变换后得到的样本。
可选地,在所述当前第二U形神经网络模型的准确率收敛后,所述第二U形神经网络模型的增量学习过程还包括:
将验证样本集中各影像块样本输入当前第二U形神经网络模型,以由所述当前第二U形神经网络模型给出对应影像块样本是否为圆形喷灌地的第二判定结果,所述验证样本集中各影像块样本取自所述背景影像;
根据所述验证样本集中各影像块样本的所述第二判定结果和认定标签,确定所述当前第二U形神经网络模型的精度;
若所述精度不大于预设阈值则调整所述当前第二U形神经网络模型的超参数;
将调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到所述当前第二U形神经网络模型的精度大于预设阈值。
可选地,将所述遥感影像输入第一U形神经网络模型,包括:将所述遥感影像拆分得到的待测影像块输入第一U形神经网络模型,所述待测影像块和所述增量学习样本的大小相同;
由所述第一U形神经网络模型输出所述遥感影像的预测图片,包括:由所述第一U形神经网络模型输出各个所述待测影像块是否为圆形喷灌地的测试结果,多个所述测试结果拼接为所述预测图片。
可选地,所述遥感影像中相邻的所述待测影像块具有预设数量个像素点的重合。
可选地,所述遥感影像的分辨率高于分辨率阈值,所述分辨率阈值根据圆形喷灌地在所述待识别区域中的辨识度预先设定。
可选地,在由U形神经网络模型输出所述遥感影像的预测图片后,还包括:
对所述预测图片中圆形喷灌地像素点的连通域进行校正处理,得到校正后的预测图片;
其中,所述校正处理包括:将所包括像素点数量小于预设下限值的所述连通域校正为背景区域,将所包括像素点数量不小于预设下限值的所述连通域进行内部非圆形喷灌地像素点校正为圆形喷灌地像素点的处理。
根据本公开的一个方面,提供了一种计算机设备,包括:存储器,用于存储计算机可执行代码;处理器,用于执行所述计算机可执行代码,以实现如上所述的方法。
根据本公开的一个方面,提供了一种计算机可读介质,包括计算机可执行代码,所述计算机可执行代码被处理器执行时实现如上所述的方法。
本公开实施例的有益效果:
本公开实施例提供的基于遥感影像识别圆形喷灌地的方法,是将待识别区域的遥感影像输入第一U形神经网络模型,以由第一U形神经网络模型输出遥感影像的预测图片,其中,第一U形神经网络模型是第二U形神经网络模型经增量学习后得到的,第二U型形神经网络模型为已完成训练的U形神经网络模型,且增量学习样本取自所述待识别区域的背景影像。该识别过程为第二U形神经网络模型由训练样本所处区域到待识别区域的跨区域应用,第二U形神经网络模型经上述增量学习样本进行增量学习后得到第一U形神经网络模型,因而第一U形神经网络模型能够避免对待识别区域内圆形喷灌地的误判性;并且,由于增量学些样本只取自待识别区域的背景影像,因而无需在待识别区域内勾选圆形喷灌地来构建正样本,这样使得第二U形神经网络模型在大范围推广应用过程中节省了调试时间,提高了识别效率。
附图说明
通过参考以下附图对本公开实施例的描述,本公开的上述以及其它目的、特征和优点将更为清楚,在附图中:
图1A-C示出本公开实施例所提供基于遥感影像识别圆形喷灌地的方法在应用中的界面状态图;
图2示出了根据本公开一个实施例所提供基于遥感影像识别圆形喷灌地的方法的流程图;
图3示出一个现有的一个U形神经网络模型的整体模型构架图;
图4示出了根据本公开一个实施例中第二U形神经网络模型的整体模型构架图;
图5示出了根据本公开一个实施例的残差块的构架图;
图6示出了根据本公开一个实施例中第二U形神经网络模型在增量学习过程中准确率的变化示意图;
图7示出了根据本公开一个实施例的计算机设备的结构图。
具体实施方式
以下基于实施例对本公开进行描述,但是本公开并不仅仅限于这些实施例。在下文对本公开的细节描述中,详尽描述了一些特定的细节部分。对本领域技术人员来说没有这些细节部分的描述也可以完全理解本公开。为了避免混淆本公开的实质,公知的方法、过程、流程没有详细叙述。另外附图不一定是按比例绘制的。
本公开实施例可用于自动识别圆形喷灌地的空间分布。具体地,它可以体现为农业监管部门等机构内部安装的自动化办公系统。将自动化办公系统的软件安装在农业监管部门等机构的局域网内部。在需要获知圆形喷灌地的空间分布时,登录该自动化办公系统。此外,它还可以体现为一种用于识别圆形喷灌地的应用(APP),其被下载后安装在通用计算机中(如桌面电脑、笔记本电脑等)运行,在运行时其能够执行自动识别圆形喷灌地的功能。
图1A-C示出本公开实施例所提供基于遥感影像识别圆形喷灌地的方法在计算机设备上运行时计算机设备的界面状态变化。
圆形喷灌地待识别区域包括圆形喷灌地和背景区域,其中,圆形喷灌地上分布有植被,背景区域则指没被植被覆盖的区域。由于圆形喷灌地可以分布在农田区、山区等不同区域,因而背景区域因道路或山岭与植被具有显著的不同图像特征,这使得圆形喷灌地的识别具有可执行的前提条件。
由于圆形喷灌地待识别区域由待执行任务决定,因而圆形喷灌地待识别区域的遥感影像需要用户(例如农业监管部门的工作人员)通过界面输入自动化办公系统或应用。如图1A所示,显示界面提示用户输入遥感影像,用户在图1A的界面输入圆形喷灌地待识别区域的遥感影像。
进一步,自动化办公系统或应用可以对获取的遥感影像进行影像信息的解析,例如有影像大小、影像分辨率等,并将解析到的影像信息通过图1A所示界面显示。其中,若用户根据影像信息确定当前输入的遥感影像即为自动化办公系统或应用即将识别的影像,则选择显示界面上的“确定”以进入识别过程;若用户根据影像信息确定当前输入的遥感影像不是自动化办公系统或应用即将识别的影像,则选择显示界面上的“取消”以重新上传遥感影像。
接着,自动化办公系统或应用根据用户输入的遥感影像,进行识别,如图1B所示。自动化办公系统或应用可以预测识别的剩余时长,并在图1B所示界面中显示预计剩余时长。
图1C示出了自动化办公系统或应用生成的识别结果,识别结果可以通过图片的形式显示在图1C所示界面上,其中,圆形喷灌地以不同于背景区域标注颜色的预设颜色进行标注,例如,背景区域在识别结果中显示为白色或灰褐色而圆形喷灌地显示为绿色。进一步,自动化办公系统或应用可提供对识别结果进行校正的功能,用户选择图1C所示显示界面中的“编辑”则可校正识别结果;若用户已较正识别结果或确定无需校正识别结果,则可选择“输出”,从而输出(例如打印)界面上显示的识别结果。
下面结合图2详细介绍根据本公开一个实施例的基于遥感影像识别圆形喷灌地的方法。它可以由安装了上述自动化办公系统或上述应用的计算机设备执行。
如图2所示,根据本公开一个实施例的基于遥感影像识别圆形喷灌地的方法包括:
S110,获取待识别区域的遥感影像;
S120,将遥感影像输入第一U形神经网络模型,以由第一U形神经网络模型输出遥感影像的预测图片,预测图片标记了遥感影像中各像素点的预测结果,预测结果为每个像素点是否为圆形喷灌地像素点。
S130,根据预测图片生成圆形喷灌地的位置信息;
其中,第一U形神经网络模型为第二U形神经网络模型经增量学习后得到,第二U型形神经网络模型为已完成训练的U形神经网络模型,且增量学习样本取自待识别区域的背景影像。
下面对上述步骤进行详细描述。
S110中,获取圆形喷灌地待识别区域的遥感影像可以通过如图1A所示,向用户显示输入遥感影像的界面,并接收用户的输入来实现;也可以通过扫描纸质的遥感影像,然后通过OCR(光学字符识别)转换成电子文档来实现,等等。该遥感影像的形成,往往在用户确定圆形喷灌地待识别区域后产生,因此,一般是将影像地图的划分操作由真实的用户完成,从影像地图划分出的遥感影像中识别圆形喷灌地期望借助机器完成。
其中,遥感影像的分辨率要高于分辨率阈值,所述分辨率阈值根据圆形喷灌地在待识别区域中的辨识度预先设定,这样方可确保圆形喷灌地被较好地识别。由于圆形喷灌地在中高分辨率的遥感影像上就可以有很好的识别结果,因此选用10-30米的中高分辨率影像地图(例如有Landsat卫星拍摄的影像地图);然后,利用Google Earth Engine的地图绘制功能,从影像地图中选定待识别区域即形成待识别区域的遥感影像。
需要强调的是,从影像地图中选定待识别区域是形成了待识别区域的初始遥感影像。在一些可选实施例中,该初始遥感影像需经过预处理得到步骤S110中获取的遥感影像。具体地,可以在GEE(全称Google Earth Engine)中进行预处理。预处理包括对初始遥感影像进行云掩膜以去除云影响,从而提高待识别区域中圆形喷灌地的识别精度;还包括裁剪初始遥感影像以精确划分出待识别区域;还包括对初始遥感影像的近红外、红、绿三个波段分别赋予红色、绿色、蓝色。
需要说明的是,对初始遥感影像的近红外、红、绿三个波段分别赋予红色、绿色、蓝色,这是一种假彩色合成处理。计算机是通过RGB三个通道显示颜色的,如果采用真彩色合成图片,R通道就是红色通道,G通道就是绿色通道,B通道就是蓝色通道。遥感影像通常为接收地表反射来的很多波段的光形成的,比如红光、蓝光、绿光以及近红外光。不同波段的光具有不同的反射率。对于植被来讲,在近红外的反射率会很好;红光和蓝光因可以被植物吸收用作光合作用,所以其反射率较近红外低一些;绿光反射率与蓝光、红光相比较而言要高一些。如果用真彩色合成遥感影像,植被将呈现绿色。本公开实施例中为了突出显示植被,将反射率更高的红外赋给红色通道,从而出现植被呈现红色,这样增加了植被在遥感影像汇总的显示度以及步骤S120中的区别度。应当理解的是,图1A所示的遥感影像以及图1C所示的图片形式的识别结果都为灰度图片,但并不表示对本公开实施例的限定。
进一步,一景遥感影像的范围约为290km×290km。如果待识别区域的范围很大,一景不能覆盖全,就需要多景影像。多景影像的成像日期很可能不同,而且不同的地方有可能卫星过境次数也不一样,因而可以采用取多次过境所获取无云影像(经云掩膜处理后的影像)的中位数合成来得到待识别区域的全区域影像,该全区域影像然后经上述假彩色合成即得到步骤S110中的遥感影像。
S120中涉及第二U形神经网络模型,第二U形神经网络模型是安装在基于遥感影像识别圆形喷灌地的方法的执行设备上。在描述S120之前,要介绍一下U形神经网络模型。U形神经网络模型即Unet,因网络整体结构类似于大写的英文字母U而得名,是比较早的使用全卷积网络进行语义分割的模型之一,能够提取较高层次的边、角、纹理等信息,最早被应用于医学影像分割方面并经逐渐改进而取得较好的识别结果。
图3所示为一种传统Unet的结构图,参照图3,整个网络100包括下采样结构110和上采样结构120这两个部分,下采样结构110作用是特征提取,上采样结构120作用是上采样;下采样结构110包括四个下采样单元11i,每个下采样单元11i包括下采样层和两串联卷积层,下采样层的输出作为其后设置的两串联卷积层的输入,其中,下采样层采用最大池化层(max pool),各卷积层是3×3的卷积核后紧跟一个ReLU(Rectified Linear Units,修正线性单元)层;上采样结构120包括四个上采样单元12i,每个上采样单元12i包括上采样层和两串联卷积层,上采样层的输出作为其后设置的两串联卷积层的输入,其中,各卷积层依然是3×3的卷积核后紧跟一个ReLU层;以及,下采样结构110和上采样结构120之间存在四个拼接操作,这一操作的目的是为了融合特征信息,使得识别结果更加精确。以最后一个上采样为例,它的输入特征既包括来自上采样结构110的同尺度特征,也包括来自上采样结构120中前一个上采样单元的大尺度特征。
Unet在使用中,接收输入图片(input image),然后输出标注了预测结果的预测图片(亦称output segmentation map)。在本公开实施例中,Unet接收的输入图片为圆形喷灌地待识别区域的遥感影像,Unet可以因遥感影像的尺寸而一次性地接收所述遥感影像或分多次接收所述遥感影像(多次接收过程中每次接收所述遥感影像拆分出的一个待测影像块);圆形喷灌地为要识别的物体;Unet输出的预测图片为标注了圆形喷灌地像素点和非圆形喷灌地像素点的图片,标注方法不作限定,例如采用不同灰度值将圆形喷灌地像素点和非圆形喷灌地像素点进行区分标注。
应当理解的是,任一个U形神经网络模型需要在构建后经过训练方可使用,而训练往往是选用一个预设区域的样本进行。U形神经网络模型完成训练是指该U形神经网络模型通过训练使得模型精度经预设区域的样本验证已满足使用需求。当然一个U形神经网络模型的训练样本和验证样本虽然来自同一个预设区域,但往往不同。上述第二U形神经网络模型即为一个通过一个预设区域的样本进行训练并验证模型精度满足需求的U形神经网络模型。第二U形神经网络模型经增量学习得到第一U形神经网络模型,是第二U形神经网络模型在完成训练后进行进一步学习的过程,该学习过程相当于使取自待识别区域的背景影像作为增量学习样本而参与了第二U形神经网络模型的训练过程,从而能够避免第二U形神经网络模型对待识别区域内圆形喷灌地的误判性;并且,由于增量学些样本只取自待识别区域的背景影像,因而无需在待识别区域内勾选圆形喷灌地来构建正样本,这样使得第二U形神经网络模型在大范围推广应用过程中节省了调试时间,提高了识别效率。
接着,在步骤130中,对步骤120得到的预测图片进行处理,具体根据预测图片中圆形喷灌地像素点生成圆形喷灌地的位置信息,即给出了圆形喷灌地的识别结果。该识别结果可以如图1C所示以图片的形式进行呈现。
需要说明的是,在以图片形式显示识别结果的情况下,可以是:图片中圆形喷灌地像素点用预设颜色进行标注,而非圆形喷灌地像素点不作任何处理,这样便于用户通过遥感影像上未被清除的山脉、河流、地界线等地理位置信息确定圆形喷灌地像素点的地理位置。进一步,图1C所示显示界面中支持部分区域的放大,以便于用于观察待识别区域中各部分区域的圆形喷灌地分布详情。
在一个可选实施例中,第二U形神经网络模型采用改进型网络结构。图4所示为构建的改进型Unet网络的结构示意图。参照图4,所构建的该改进型Unet网络结构200依然是包括下采样结构210和上采样结构220这两个部分,且下采样结构210包括下采样单元21i,上采样结构220包括上采样单元22i。对比图3所示传统Unet的网络结构,可见改进之处在于:每个下采样单元21i包括下采样层和第一残差块,下采样层的输出作为第一残差块的输入;每个上采样单元22i包括上采样层和第二残差块,上采样层的输出作为第二联残差块的输入。也就是说,改进之处在于将传统Unet网络结构中位于下采样层或上采样层之后的两个卷积层利用残差块替代。
具体地,改进型Unet网络结构200中,下采样结构210中的下采样层可以依然采用最大池化层(max pool)。下采样结构210和上采样结构220之间同样存在拼接操作以进行特征融合,该特征融合通过结合多尺度特征使得识别更加准确快速,该特征融合过程即为:对于上采样单元22i中位于上采样层后且和上采样层邻接的残差块来说,其输入特征既包括来自下采样单元21i中下采样层输出的同尺度特征,也包括来自当前上采样单元22i中上采样层输出的大尺度特征。最前一个下采样单元21i(即下采样结构210最上的一个下采样单元)的输入可以是遥感影像经输入层(例如5×5的卷积层)进行特征提取后的数据。最后一个上采样单元22i(即上采样结构220最上的一个上采样单元)的输出数据可以经输出层(例如Softmax层)后直接输出黑白标注式的预测图片,其中,黑色像素点表示非圆形喷灌地像素点,白色像素点表示圆形喷灌地像素点。
进一步,参照图5,第一残差块和第二残差块各自包括:输入层,用于接收输入数据,对于第一残差块来说输入数据为同一下采样单元中下采样层的输出,对于第二残差块来说输入数据为同一上采样单元中上采样层的输出;第一BN(Batch Normalization)层,连接输入层;第一卷积层,为3×3的卷积层,连接第一BN层的输出;第二BN层,连接第一卷积层;第一激励函数(Activation)层,连接第二BN层的输出;第二卷积层,为3×3的卷积层,连接第一激励函数层;第三卷积层,为1×1的卷积层,连接输入层;输出层,连接第二卷积层和第三卷积层,用于将第二卷积层和第三卷积层的输出相加结果进行输出。
在可选的实施例中,第一残差块和第二残差块各自还可以包括:第二激励函数层和第三BN层,其中,第二激励函数层设置在第一BN层和第一卷积层之间,即第一卷积层通过第二激励函数层连接第一BN层;第三BN层设置在第三卷积层和输出层之间,即第三卷积层的输出经第三BN层处理后和第二卷积层的输出相加而得到相加结果,该相加结果经输出层输出。
示例性地,上述第一残差块通过设置stride=2来实现下采样过程的升维,第二残差块通过设置stride=2来实现上采样过程的降维。
应当理解的是,第一U形神经网络模型为第二U形神经网络模型经增量学习后得到,因而第一U型神经网络模型的下采样结构和上采样结构同第二U形神经网络模型。
本公开实施例中,将传统Unet网络结构中位于下采样层或上采样层之后的两个卷积层利用残差块替代,残差块内除了进行正常的卷积操作之外还增加一个跳跃连接。残差结构除了有3×3的卷积层和1×1的卷积层之外还形成了inception结构类似的多尺度的滤波器(图5虚线框内结构亦可称为Residual&inception block),这样对于圆形喷灌地区域占比不一的各待测影像块(亦称待测瓦片)来说,圆形喷灌地区域皆能够被精确识别出,即上述Unet网络有利于识别多尺度的圆形喷灌地区域。
在一个可选的实施例中,第二U形神经网络模型通过以下步骤进行增量学习:将增量学习样本输入当前第二U形神经网络模型,以由当前第二U形神经网络模型给出对应增量学习样本是否为圆形喷灌地的第一判定结果;根据各增量学习样本的第一判定结果和认定标签,确定当前第二U形神经网络模型的准确率;若准确率不收敛则调整当前第二U形神经网络模型中的权重;将权重调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到当前第二U形神经网络模型的准确率收敛。
具体地,增量学习样本的数量需要很大方可确保训练的可靠性。大量增量学习样本包括取自待识别区域背景影像的初始影像块样本以及至少部分初始影像块样本的变换样本,其中,初始影像块样本的变换样本至少包括以下一种:初始影像块样本经旋转处理后得到的样本、初始影像块样本经平移处理后得到的样本、影像块样本经加噪声处理后得到的样本、初始影像块样本经色彩变换后得到的样本。采用初始影像块样本以及至少部分初始影像块样本的变换样本来使第二U形神经网络模型进行增量学习,能够使得增量学习得到的第一U形神经网络模型在待识别区域内具有较高的泛华性能。
需要说明的是,在步骤S110获取的遥感影像为经过假彩色合成预处理的情况下,第二U形神经网络模型也是基于假彩色合成的样本完成训练的,并且上述增量学习样本也是取自经过假彩色合成处理的待处理区域的背景影像。
待识别区域背景影像通过分块处理得到多个初始影像块。分块处理例如是以256像素×256像素为单位进行分块,具体可以通过计算机设备上运行VIA开源矢量化软件包勾画各初始影像块范围。应当理解的是,尽量选取有代表性的初始影像块作为初始影像块样本,例如,勾选圆形喷灌地区域占比小于预定比例(例如5%)的初始影像块作为初始影像块样本,即作为上述增量学习样本。
上述第二U形神经网络模型的增量学习过程,可以在一个训练平台上进行。训练平台选择4个1080Ti的GPU服务器通常就可以满足增量学习需求。示例性地,增量学习过程中Batch Size(一个Epoch的样本数量可能太过庞大,就需要分成多个Batch进行训练,其中,一个Batch训练的样本数量为Batch Size,一个Epoch的样本即训练样本集中的所有样本)设置为10,共进行100个epoch的增量学习,图6所示为增量学习过程中的准确率的变化示意图。从图6可以看出:当进行到40个epoch之后,第二U形神经网络模型的准确率趋于收敛。图6对应的增量学习过程中U形神经网络模型依现有技术利用dice_coef_loss作为损失函数,最终train loss和dice_coef表示第二U形神经网络模型的准确率,其中,train loss越小表示第二U形神经网络模型的准确率越高,dice_coef越大表示第二U形神经网络模型的准确率越高。
进一步,在当前第二U形神经网络模型的准确率收敛后,第二U形神经网络模型的增量学习过程还包括:将验证样本集中各影像块样本输入当前第二U形神经网络模型,以由当前第二U形神经网络模型给出对应影像块样本是否为圆形喷灌地的第二判定结果,验证样本集中各影像块样本取自背景影像;根据验证样本集中各影像块样本的第二判定结果和认定标签,确定当前第二U形神经网络模型的精度;若精度不大于预设阈值则调整当前第二U形神经网络模型的超参数;将调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到当前第二U形神经网络模型的精度大于预设阈值。具体地,可以通过计算模型精度(模型精度对应的预设阈值为90%)或频率加权交并比FWIOU(频率加权交并比FWIOU对应的预设阈值为0.90)进行模型精度的评价,这属于现有技术,不再赘述。需要说明的是,超参数是模型增量学习之前设置的参数,不是通过增量学习可以得出的参数(增量学习可以得出的参数例如上述U形神经网络模型的权重),超参数例如有深层神经网络的隐藏层数。
相应于U形神经网络模型的上述增量学习过程,步骤S120中,将遥感影像输入第一U形神经网络模型,包括:将遥感影像拆分得到的待测影像块输入第一U形神经网络模型;步骤S120中,由第一U形神经网络模型输出遥感影像的预测图片,包括:由第一U形神经网络模型输出各个待测影像块是否为圆形喷灌地的测试结果。具体地,遥感影像拆分得到待测影像块,可以采用上述影像样本拆分得到影像块的拆分方法,所述待测影像块和所述影像块样本的大小相同;遥感影像拆分得到待测影像块,可以是提前由计算机设备执行,然后U形神经网络模型直接接收遥感影像拆分得到的待测影像块即可。需要强调的是,遥感影像拆分得到的相邻待测影像块之间优选设置重叠区域(即具有预设数量个像素点的重合,所述预设数量例如为50),这样确保圆形喷灌地的任一区域都能够被U型神经网络模型测试到,从而确保了预测图片的精度。应当理解的是,上述多个测试结果拼接为预测图片的过程中,拼接方法为遥感影像拆分方法的逆过程。
在一个可选的实施例中,在由U形神经网络模型输出遥感影像的预测图片后,识别圆形喷灌地的方法还包括:对预测图片中圆形喷灌地像素点的连通域进行校正处理,得到校正后的预测图片;其中,校正处理包括:将所包括像素点数量小于预设下限值的连通域校正为背景区域,将所包括像素点数量不小于预设下限值的连通域进行内部非圆形喷灌地像素点校正为圆形喷灌地像素点的处理。具体地,预设下限值根据遥感影像的分辨率以及待识别区域内圆形喷灌地的直径范围确定,例如,对于分辨率为30米的遥感影像来说,基于现有圆形喷灌地的常规直径可以设置上述预设下限值为10。对于所包括像素点数量不小于预设下限值的连通域来说,可以确定该区域为圆形喷灌地,由于圆形喷灌地覆盖的范围为围绕圆心的一个圆,因而圆形喷灌地内部的非圆形喷灌地像素点多为识别错位的像素点,需要校正。经一个实例测验,在无校正处理的情况下FWIOU=0.850,在进行校正处理后FWIOU=0.852,可见校正处理对识别精度的提高同样具有重要意义。
根据本公开的一个实施例的基于遥感影像识别圆形喷灌地的方法可以由图7的计算机设备800实现。下面参照图7来描述根据本公开实施例的计算机设备800。图7显示的计算机设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,计算机设备800以通用计算设备的形式表现。计算机设备800的组件可以包括但不限于:上述至少一个处理器810、上述至少一个存储器820、连接不同系统组件(包括存储器820和处理器810)的总线830。
其中,所述存储器存储有程序代码,所述程序代码可以被所述处理器810执行,使得所述处理器810执行本说明书上述示例性方法的描述部分中描述的本公开各种示例性实施方式的步骤。例如,所述处理器810可以执行如图2中所示的各个步骤。
存储器820可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)8201和/或高速缓存存储器8202,还可以进一步包括只读存储器(ROM)8203。
存储器820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。
计算机设备800也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该计算机设备800交互的设备通信,和/或与使得该计算机设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,计算机设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与计算机设备800的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
需要领会,以上所述仅为本公开的优选实施例,并不用于限制本公开,对于本领域技术人员而言,本说明书的实施例存在许多变型。凡在本公开的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
应该理解,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
应该理解,上述对本说明书特定实施例进行了描述。其它实施例在权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
应该理解,本文用单数形式描述或者在附图中仅显示一个的元件并不代表将该元件的数量限于一个。此外,本文中被描述或示出为分开的模块或元件可被组合为单个模块或元件,且本文中被描述或示出为单个的模块或元件可被拆分为多个模块或元件。
还应理解,本文采用的术语和表述方式只是用于描述,本说明书的一个或多个实施例并不应局限于这些术语和表述。使用这些术语和表述并不意味着排除任何示意和描述(或其中部分)的等效特征,应认识到可能存在的各种修改也应包含在权利要求范围内。其他修改、变化和替换也可能存在。相应的,权利要求应视为覆盖所有这些等效物。

Claims (11)

1.一种基于遥感影像识别圆形喷灌地的方法,其特征在于,包括:
获取待识别区域的遥感影像;
将所述遥感影像输入第一U形神经网络模型,以由所述第一U形神经网络模型输出所述遥感影像的预测图片,所述预测图片标记了所述遥感影像中各像素点的预测结果,所述预测结果为每个像素点是否为圆形喷灌地像素点;
根据所述预测图片生成圆形喷灌地的位置信息;
其中,所述第一U形神经网络模型为第二U形神经网络模型经增量学习后得到,所述第二U型形神经网络模型为已完成训练的U形神经网络模型,且增量学习样本取自所述待识别区域的背景影像;
所述第二U形神经网络模型的下采样结构中每个下采样单元包括下采样层和第一残差块,所述下采样层的输出作为所述第一残差块的输入;
所述第二U形神经网络模型的上采样结构中每个上采样单元包括上采样层和第二残差块,所述上采样层的输出作为所述第二残差块的输入;
所述第一残差块和所述第二残差块各自包括:
输入层,用于接收输入数据;
第一BN层,连接所述输入层;
第一卷积层,为3×3的卷积层,连接所述第一BN层;
第二BN层,连接所述第一卷积层;
第一激励函数层,连接所述第二BN层;
第二卷积层,为3×3的卷积层,连接所述第一激励函数层;
第三卷积层,为1×1的卷积层,连接所述输入层;
输出层,连接所述第二卷积层和所述第三卷积层,用于将所述第二卷积层和所述第三卷积层的输出相加结果进行输出。
2.根据权利要求1所述的识别圆形喷灌地的方法,其特征在于,所述遥感影像为所述待识别区域的初始遥感影像经预处理后得到的,所述预处理包括对所述初始遥感影像的近红外、红、绿三个波段分别赋予红色、绿色、蓝色。
3.根据权利要求1所述的识别圆形喷灌地的方法,其特征在于,所述第二U形神经网络模型通过以下步骤进行增量学习:
将增量学习样本输入当前第二U形神经网络模型,以由所述当前第二U形神经网络模型给出对应增量学习样本是否为圆形喷灌地的第一判定结果;
根据各增量学习样本的所述第一判定结果和认定标签,确定所述当前第二U形神经网络模型的准确率;
若所述准确率不收敛则调整所述当前第二U形神经网络模型中的权重;
将权重调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到所述当前第二U形神经网络模型的准确率收敛。
4.根据权利要求3所述的识别圆形喷灌地的方法,其特征在于,
所述增量学习样本包括取自所述背景影像的初始影像块样本以及至少部分初始影像块样本的变换样本;
其中,初始影像块样本的所述变换样本至少包括以下一种:初始影像块样本经旋转处理后得到的样本、初始影像块样本经平移处理后得到的样本、影像块样本经加噪声处理后得到的样本、初始影像块样本经色彩变换后得到的样本。
5.根据权利要求3所述的识别圆形喷灌地的方法,其特征在于,在所述当前第二U形神经网络模型的准确率收敛后,所述第二U形神经网络模型的增量学习过程还包括:
将验证样本集中各影像块样本输入当前第二U形神经网络模型,以由所述当前第二U形神经网络模型给出对应影像块样本是否为圆形喷灌地的第二判定结果,所述验证样本集中各影像块样本取自所述背景影像;
根据所述验证样本集中各影像块样本的所述第二判定结果和认定标签,确定所述当前第二U形神经网络模型的精度;
若所述精度不大于预设阈值则调整所述当前第二U形神经网络模型的超参数;
将调整后的第二U形神经网络模型确定为当前第二U形神经网络模型,并返回执行将增量学习样本输入当前第二U形神经网络模型的步骤,直到所述当前第二U形神经网络模型的精度大于预设阈值。
6.根据权利要求3所述的识别圆形喷灌地的方法,其特征在于,
将所述遥感影像输入第一U形神经网络模型,包括:将所述遥感影像拆分得到的待测影像块输入第一U形神经网络模型,所述待测影像块和所述增量学习样本的大小相同;
由所述第一U形神经网络模型输出所述遥感影像的预测图片,包括:由所述第一U形神经网络模型输出各个所述待测影像块是否为圆形喷灌地的测试结果,多个所述测试结果拼接为所述预测图片。
7.根据权利要求6所述的识别圆形喷灌地的方法,其特征在于,所述遥感影像中相邻的所述待测影像块具有预设数量个像素点的重合。
8.根据权利要求1所述的识别圆形喷灌地的方法,其特征在于,所述遥感影像的分辨率高于分辨率阈值,所述分辨率阈值根据圆形喷灌地在所述待识别区域中的辨识度预先设定。
9.根据权利要求1所述的识别圆形喷灌地的方法,其特征在于,在由U形神经网络模型输出所述遥感影像的预测图片后,还包括:
对所述预测图片中圆形喷灌地像素点的连通域进行校正处理,得到校正后的预测图片;
其中,所述校正处理包括:将所包括像素点数量小于预设下限值的所述连通域校正为背景区域,将所包括像素点数量不小于预设下限值的所述连通域进行内部非圆形喷灌地像素点校正为圆形喷灌地像素点的处理。
10.一种计算机设备,其特征在于,包括:
存储器,用于存储计算机可执行代码;
处理器,用于执行所述计算机可执行代码,以实现权利要求1-9中任一个所述的识别圆形喷灌地的方法。
11.一种计算机可读介质,其特征在于,包括计算机可执行代码,所述计算机可执行代码被处理器执行时实现权利要求1-9中任一个所述的识别圆形喷灌地的方法。
CN202110249496.6A 2021-03-08 2021-03-08 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质 Active CN113011294B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110249496.6A CN113011294B (zh) 2021-03-08 2021-03-08 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110249496.6A CN113011294B (zh) 2021-03-08 2021-03-08 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质

Publications (2)

Publication Number Publication Date
CN113011294A CN113011294A (zh) 2021-06-22
CN113011294B true CN113011294B (zh) 2023-11-07

Family

ID=76407955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110249496.6A Active CN113011294B (zh) 2021-03-08 2021-03-08 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质

Country Status (1)

Country Link
CN (1) CN113011294B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598673A (zh) * 2019-09-24 2019-12-20 电子科技大学 基于残差网络的遥感图像道路提取方法
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN111563430A (zh) * 2020-04-24 2020-08-21 浙江省公益林和国有林场管理总站 一种基于卷积神经的公益林地类图像智能识别方法及系统
CN111753834A (zh) * 2019-03-29 2020-10-09 中国水利水电科学研究院 基于深度神经网络的种植地块结构语义分割方法和装置
CN111914611A (zh) * 2020-05-09 2020-11-10 中国科学院空天信息创新研究院 城市绿地高分遥感监测方法与系统
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019040866A2 (en) * 2017-08-25 2019-02-28 The Board Of Trustees Of The University Of Illinois APPARATUS AND METHOD FOR COLLECTING AGRICULTURAL DATA AND AGRICULTURAL OPERATIONS
US10922589B2 (en) * 2018-10-10 2021-02-16 Ordnance Survey Limited Object-based convolutional neural network for land use classification

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753834A (zh) * 2019-03-29 2020-10-09 中国水利水电科学研究院 基于深度神经网络的种植地块结构语义分割方法和装置
CN110598673A (zh) * 2019-09-24 2019-12-20 电子科技大学 基于残差网络的遥感图像道路提取方法
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN111563430A (zh) * 2020-04-24 2020-08-21 浙江省公益林和国有林场管理总站 一种基于卷积神经的公益林地类图像智能识别方法及系统
CN111914611A (zh) * 2020-05-09 2020-11-10 中国科学院空天信息创新研究院 城市绿地高分遥感监测方法与系统
CN111986099A (zh) * 2020-06-30 2020-11-24 武汉大学 基于融合残差修正的卷积神经网络的耕地监测方法及系统

Also Published As

Publication number Publication date
CN113011294A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN111986099B (zh) 基于融合残差修正的卷积神经网络的耕地监测方法及系统
US9942440B2 (en) Image-based field boundary detection and identification
US20150234863A1 (en) Automated feature extraction from imagery
Gazzea et al. Automated power lines vegetation monitoring using high-resolution satellite imagery
Grigillo et al. Automated building extraction from IKONOS images in suburban areas
CN114926511A (zh) 一种基于自监督学习的高分辨率遥感影像变化检测方法
CN115019163A (zh) 基于多源大数据的城市要素识别方法
CN113011294B (zh) 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质
Lemenkova Object based image segmentation algorithm of SAGA GIS for detecting urban spaces in yaoundé, Cameroon
CN115019174B (zh) 基于像素重组和注意力的上采样遥感图像目标识别方法
CN113011295B (zh) 基于遥感影像识别光伏发电站的方法、计算机设备和介质
CN115719447A (zh) 基于双时相高分辨率遥感影像的建筑物变化检测方法
Meedeniya et al. Prediction of paddy cultivation using deep learning on land cover variation for sustainable agriculture
Richards et al. Image classification methodologies
Miyazaki et al. Urban Growth Modeling using Historical Landsat Satellite Data Archive on Google Earth Engine
Bürgmann Investigating the Separability of Slums in Mumbai based on RADARSAT Images using Object-based Image Analysis Methods
Torsvik et al. Detection of macroplastic on beaches using drones and object-based image analysis
Xiong et al. Detecting and Mapping Individual Fruit Trees in Complex Natural Environments via UAV Remote Sensing and Optimized YOLOv5
Miles Disaster Site Structure Analysis: Examining Effective Remote Sensing Techniques in Blue Tarpaulin Inspection
Aendikov et al. Integration of GIS and machine learning analytics into Streamlit application
Biswas Deep Learning-based Multimodal Fusion of Sentinel-1 and Sentinel-2 Data for Mapping Deforested Areas in the Amazon Rainforest
Kiracofe et al. Automated change detection: Where does the analyst fit?
Prakash Mapping Landslides by Exploiting EO Big Data
CN115830467A (zh) 一种基于卫星遥感影像的人工针叶林透光疏伐量判定的方法
Liu et al. Mapping annual center-pivot irrigated cropland in Brazil during the 1985–2021 period with cloud platforms and deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant