CN116229285A - 融合物联网数据和空间场景的土壤含水量监测方法 - Google Patents

融合物联网数据和空间场景的土壤含水量监测方法 Download PDF

Info

Publication number
CN116229285A
CN116229285A CN202310499641.5A CN202310499641A CN116229285A CN 116229285 A CN116229285 A CN 116229285A CN 202310499641 A CN202310499641 A CN 202310499641A CN 116229285 A CN116229285 A CN 116229285A
Authority
CN
China
Prior art keywords
soil moisture
moisture content
soil
internet
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310499641.5A
Other languages
English (en)
Other versions
CN116229285B (zh
Inventor
何莉
石铁柱
张德津
刘潜
徐颖
白小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202310499641.5A priority Critical patent/CN116229285B/zh
Publication of CN116229285A publication Critical patent/CN116229285A/zh
Application granted granted Critical
Publication of CN116229285B publication Critical patent/CN116229285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/24Earth materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Immunology (AREA)
  • Geology (AREA)
  • Food Science & Technology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种融合物联网数据和空间场景的土壤含水量监测方法,涉及土壤含水量监测领域。本发明包括以下步骤:基于物联网传感器获取研究区的土壤水分含量、降雨、气温、光照等环境数据;基于遥感影像对土地利用类型进行分类,并根据分类结果提取空间场景类型;根据环境数据和空间场景类型提取环境变量;将动态的环境变量和土壤水分含量输入DNN模型中,实时动态构建日级别的土壤含水量估算模型,并对DNN模型的精度进行评价;若DNN模型的精度满足要求,输出土壤水分数字制图。本发明融合物联网数据、地形、土壤和遥感多源数据将有助于估算土壤含水量,同时,能够提高土壤含水量估算的精度,构建动态的土壤含水量空间监测结果。

Description

融合物联网数据和空间场景的土壤含水量监测方法
技术领域
本发明涉及土壤含水量监测领域,更具体的说是涉及一种融合物联网数据和空间场景的土壤含水量监测方法。
背景技术
作为农业监测的重要指标之一,土壤含水量(Soil Moisture Content,SMC)对于评估土壤墒情、农作物生长状况和产量具有指导性作用。在作物的生长过程中,SMC过低会导致土地硬化,进而影响农作物对水分以及养分的吸收。卫星遥感可以获取大范围的土壤图像信息,通过搭载RGB、多光谱和高光谱等传感器,采集地表空间连续的光谱信息,这些光谱信息通常与SMC表现出密切的联系。卫星遥感影像固然能为大尺度的数字土壤制图提供有效的数据支撑,然而,额外的空间数据仍然是有必要的。SMC是一个多因素交互作用的结果,其受母质、气候气象、地形、植被以及人类活动的综合影响,其中,气候气象对SMC的影响尤为显著。目前用于SMC制图监测的气候气象大都来源于气象观测站点,该数据空间颗粒度粗。
在土壤水分研究中,土地利用被认为是一个关键的环境变量,其对SMC的重分布具有重要影响。传统的土地利用类型不足以反映土壤的功能形态,从而无法区分不同的人类活动强度,这可能会对SMC估算精度造成负面影响,特别是在人类活动强度高、城市功能结构复杂的沿海城市。空间场景是一种具有自然、社会、经济和生态属性的地理单元,其拥有比土地利用类型更为详细的分类体系,能反映更多的人类活动强度和城市功能结构,因此,其更适用于分析人类活动地区的SMC空间分布。
近年来随着人工智能的发展,机器学习算法因其能解决复杂的非线性关系而被广泛地应用于土壤性质的估算。如支持向量机SVM(Support Vector Machine)、随机森林RF(Random Forest)、反向传播神经网络BPNN(Back Propagation Neural Network)等机器学习回归算法已被许多学者应用于估算土壤属性,并且取得了较高的精度。然而,由于空间数据的高维度、多时相和大体积特点,在分析这些空间数据时面临着诸多挑战。为了充分挖掘空间数据的应用潜力,出现了由机器学习向深度学习的转变过程,深度学习方法常被用于解决复杂的非线性回归问题。其中,深度神经网络DNN(Deep Neural Network)就是一种常见的深度学习方法,并已取得了不错的表现。DNN模型在土壤有机碳、土壤重金属估算等方面取得了不错的精度效果。然而,目前尚未有使用DNN模型对SMC进行估算的方法和技术方案。本发明拟通过自设的物联网传感器设备获取空间颗粒度更精细的气候气象数据,用于SMC空间监测制图。
发明内容
有鉴于此,本发明提供了一种融合物联网数据和空间场景的土壤含水量监测方法,针对此,本发明采用了DNN算法,充分结合发挥了深度学习在土壤研究中的优势,可有效提高SMC估算的精度。其中,多源空间数据用于提取环境协变量并与空间场景一同作为模型的输入,深度学习算法用于建立SMC与环境协变量间复杂的非线性关系。本发明的技术流程主要包括空间数据的预处理、空间场景的分类、环境协变量的提取、深度学习模型的建立、估算精度评价和SMC的空间制图。
为了实现上述目的,本发明采用如下技术方案:
一种融合物联网数据和空间场景的土壤含水量监测方法,包括以下步骤:
实时获取点位的土壤水分含量,气象信息以及遥感影像;
基于遥感影像对土地利用类型的分类,并根据分类结果提取空间场景类型;
根据环境数据和空间场景类型提取环境变量,点状的环境变量通过空间插值获取面状数据;
将环境变量和土壤水分含量输入的DNN模型中,并对DNN模型的精度进行评价;
若DNN模型的精度满足要求,输出土壤水分数字制图,获取当日的土壤水分空间分布状况。
可选的,通过物联网传感器实时获取土壤水分含量、气候数据,其中,气候数据包括光照、日平均温度、日降水量。
可选的,还包括对遥感影像预处理,预处理包括对遥感影像进行镶嵌、集合矫正、辐射定标和大气校正处理。
可选的,提取空间场景类型包括以下步骤:
采用面向对象方法和随机森林分类方法对土地利用类型分类;
基于土地利用类型分类结果,根据社会经济属性和人类活动,借助OSM和POI辅助判断空间场景类别,使用面向对象和随机森林方法将每种土地利用类型进一步分为空间场景。
可选的,DNN模型包括一个输入层、三个隐藏层和一个输出层。
可选的,环境变量包括:气候变量、地形变量、土壤变量和光谱变量。
可选的,DNN模型采用均方误差作为损失函数,表示为:
Figure SMS_1
其中,n为样本的数量,
Figure SMS_2
表示测量值,/>
Figure SMS_3
代表预测值。
可选的,评估模型精度采用的是留一法交叉验证。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种融合物联网数据和空间场景的土壤含水量监测方法,融合气候、地形、土壤和遥感多源数据有助于估算土壤含水量;此外,在数字土壤制图研究中,传统的土地利用类型缺乏对城市内部详细的描述,难以满足数字土壤制图日益增长的精细化需求,本发明提出的空间场景具有更为详细的分类体系,能够提高SMC估算的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明的技术流程图;
图2为DNN回归模型结构图;
图3为研究区空间场景提取结果图;
图4a为DNN模型估算SMC的散点图;
图4b为DNN模型估算SMC的及误差分布图;
图5为DNN模型估算的SMC空间分布图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种融合物联网数据和空间场景的土壤含水量监测方法,如图1所示,包括以下步骤:
S1:通过物联网传感器实时获取土壤水分含量和气候数据,并导入遥感影像;其中,气候数据包括光照、日平均温度、日降水量;
S2:基于遥感影像对土地利用类型的分类,并根据分类结果提取空间场景类型;
S3:根据环境数据和空间场景类型提取环境变量;
S4:将环境变量和土壤水分含量输入DNN模型中,并对DNN模型的精度进行评价;
S5:若DNN模型的精度满足要求,输出土壤水分数字制图。
进一步的,本发明的基本思路主要包括以下几个部分:
(1)土壤和空间数据的采集。包括土壤水分含量的测定和气象数据的采集采用物联网传感器;本发明需要用到大量的环境变量作为模型的输入,其中环境变量包括地形、土壤类型、遥感影像在内的多种环境数据。
(2)遥感数据的预处理。对下载得到的Landsat 8影像进行几何校正、镶嵌以及大气校正处理,得到覆盖研究区的多光谱影像数据。
(3)空间场景的分类。基于Landsat 8遥感影像首先进行土地利用类型的分类,再根据土地利用分类结果进一步将空间场景类型提取出来。
(4)环境变量的提取。本发明基于地形、土壤、遥感数据推导出与土壤水分息息相关的环境变量。如高程、坡度、土壤质地、植被指数等。集成物联网传感器设备获取平均气温、最低气温、最高气温、昼夜温差、降水量、雨天数、潜在蒸散等气象数据。
(5)DNN回归模型的建立。为准确估算土壤含水量(以下简称SMC),本发明建立了DNN回归模型,不断调试参数对DNN模型进行训练,并通过交叉验证的方式评价回归模型的精度。
(6)估算精度评价与土壤水分数字制图。不断调试模型参数,使模型进行迭代,并对DNN模型的估算效果进行精度评价,待满足精度要求后,对SMC进行空间制图。
进一步的,在S1中还包括从Google Earth Engine平台上下载覆盖研究区范围的Landsat 8多光谱影像。影像获取时间应与土壤采样时间一致或邻近,并确保天空无云。对满足要求的Landsat 8多光谱影像进行镶嵌、几何校正、辐射定标和大气校正处理,得到研究区的地物反射率数据。
进一步的,在S2中,空间场景的提取是基于预处理好的Landsat 8影像进行的。空间场景主要考虑人类活动的生态功能、社会经济属性和土地利用模式。与土地利用类型相比,空间场景具有更详细的分类体系,在SMC估算方面可能比土地利用表现更好,尤其是在复杂的海岸城市带。详细的空间场景分类体系及描述如表1所示。为了获得准确的训练和验证样本,本发明使用了OpenStreetMap地图数据,并从网络地图(如百度地图、高德地图)上收集了兴趣点(Point of interest,POI)数据。OpenStreetMap和POI数据提供了大量包含位置、地名和属性的空间信息,能够帮助本发明甄别空间场景类别。此外,OpenStreetMap中的道网信息可以帮助本发明提取道路空间场景。
鉴于空间场景类别的多样性和复杂性,难以直接对其进行提取。因此,本发明创新性地提出将提取工作分为以下两个步骤:首先是土地利用类型的分类。采用面向对象方法和随机森林分类方法提取了植被、内陆水体、农用地、建筑和未利用土地。其次,根据主要的社会经济属性和人类活动,借助OSM和POI辅助判断空间场景类别,使用面向对象和随机森林方法将每种土地利用类型进一步细分为空间场景。上述过程均使用了SuperSIAT 2.1软件完成。
表1空间场景类别及详细描述。
Figure SMS_4
进一步的,环境变量的提取包括:
气候变量:气候变量,包括最低气温、最高气温、平均气温、昼夜温差、降水量、雨天数、潜在蒸散7个与SMC相关的气候因子,由物联网传感器设备获取。
地形变量:地形变量可由数字高程模型(Digital Elevation Model,DEM)推导得来,DEM数据由航天飞行雷达地形任务(Shuttle Radar Topographic Mission,SRTM)下载,空间分辨率为90 m。在地理信息系统软件中基于DEM计算提取高程、坡度、坡向、山体阴影、曲率、地表粗糙度共6个地形变量。
土壤变量:土壤数据是由国家地球系统数据中心土壤分中心发布的,为了构建土壤变量集,收集了土壤类型、土壤质地、有机质、有效铁以及年平均土壤温度5个土壤环境变量。
光谱变量:根据预处理好的Landsat 8多光谱影像,得到了第1至第7波段的反射率变量。本发明基于这些波段反射率计算了四个具有代表性的光谱指数,分别为归一化差值植被指数(Normalized Difference Vegetation Index,NDVI)、土壤调节植被指数(Soil-adjusted Vegetation Index,SAVI)、归一化差值水指数(Normalized Difference WaterIndex,NDWI)和归一化差值建筑指数(Normalized Difference Built-up Index,NDBI)。
为了保证统一的空间分辨率,所有的环境变量均采用最邻近方法重采样为30 m分辨率的空间格网数据,关于环境变量的推导公式及来源见表2。
表2环境变量的来源
Figure SMS_5
为提高SMC估算的准确性,本发明采用了目前应用较为广泛且表现优越的DNN模型。一个浅层神经网络结构一般由一个输入层、一个隐藏层和一个输出层组成,其中隐藏层中包含许多神经元,这些神经元的数量对最终的模型输出具有重要影响。不同于浅层神经网络,本发明采用的DNN通常具有更多的隐藏层,这使其具有更出色的学习能力,可以解决更为复杂的非线性问题。
在DNN中,每一层的输出都是上一层的线性函数,为提升模型解决非线性问题的能力,往往需要引入激活函数,激活函数可将其非线性化,避免单纯的线性组合,从而提高预测能力。线性整流函数ReLU(Rectified Linear Unit)是神经元常用的激活函数,具有较为优异的表现,其表示为:
Figure SMS_6
DNN模型网络中的初始权值是随机分配的,为取得最佳效果需要不断地更新权值,本发明采用自适应矩估计Adam(Adaptive Moment Estimation)优化器的梯度下降算法进行权值更新。参数(网络权值)的学习更新速率由学习率(learn rate)控制,更新的方向与梯度相反。Adam优化器将动态修改每个参数的学习率,因此每个参数都具有不同的自适应学习率。学习率可控制模型的学习进度,学习率若设置过大,则易造成损失过大,学习率过小则易产生过拟合、收敛速度慢等现象。
DNN以某个指标为线索寻找最优权重参数,该指标称为损失函数(Loss),损失函数可指示网络性能的优劣程度,一般可用均方误差来表示,本DNN模型采用均方误差作为损失函数,DNN模型采用均方误差作为损失函数,表示为:
Figure SMS_7
其中,n为样本的数量,
Figure SMS_8
表示测量值,/>
Figure SMS_9
代表预测值。
本发明公开了由一个输入层、三个隐藏层和一个输出层组成的DNN结构如图2所示。光谱数据将被压缩成对应于每个采样点的一维向量,并作为模型的输入层。隐藏层为三个全连接层,由第一至第三个隐藏层分别具有10、10、5个神经元。以ReLU函数作为DNN模型的激活函数,进行非线性化。为了防止过拟合,本发明还添加了一个dropout函数,丢弃率为0.1,可随机丢弃一部分神经网络单元,使其不参与训练,提高模型的泛化能力。最后,SMC估算值将由DNN的输出层线性输出。
如表3所示,在DNN模型中,设置批大小(每次训练的样本个数)设为64,最大轮数设为100,硬件资源为单CPU。训练过程历时约30秒,共进行了100次迭代。
表3 DNN模型具体参数设置
Figure SMS_10
在本发明中,评估模型精度采用的是留一法交叉验证。SMC预测模型的精度通过交叉验证决定系数(R²)、交叉验证均方根误差RMSECV(Root Mean Square Error of Cross-validation)和性能偏差比RPD(ratioof performance to deviation)进行评估。根据前人提出的模型性能分类标准,RPD<1.0、1.0<RPD<1.4、1.4<RPD<1.8、1.8<RPD<2.0和RPD>2.0分别代表非常差、差、一般、好和非常好的模型。具体计算如下:
Figure SMS_11
Figure SMS_12
Figure SMS_13
式中,
Figure SMS_14
表示预测值,/>
Figure SMS_15
为平均测量值,/>
Figure SMS_16
为测量值,n为土壤样本的数量,std为测量值的标准差。
空间场景提取结果如图3所示,空间场景提取的总体精度达到85.23%。研究区内主要空间场景为农田,面积为25400.92 km²,约占总面积的78.22%。其次是渔业养殖、居住、开阔水体、商业贸易、道路、裸地和工业生产,分别占5.35%、5.17%、3.59%、2.69%、1.54%、1.26%和0.95%。其中,建筑区域,如居住、商业贸易、工业生产和公共服务,主要分布在北部沿海、中部平原和南部沿江地区。城市绿地嵌入城市内部。开阔水体和渔业养殖广泛分布于研究区。
本发明建立的DNN模型在估算SMC中取得较高的精度,如图4a-图4b所示,其中,R²=0.78,RMSECV=2.18,RPD=1.91,根据模型性能分类标准,1.8<RPD<2.0,故本发明建立的SMC回归模型为好的估算模型。根据误差分布图可以看出,本模型的估算误差较小,误差呈正态分布趋势。
为突出本发明中DNN回归模型的预测效果,本发明还采用了BPNN模型对SMC进行估算,并比较DNN与BPNN模型的预测精度。如表4所示,DNN模型的R²(0.78)显著高于BPNN模型(R²=0.71),与BPNN模型相比,DNN具有更为出色的预测效果,其原因为DNN具有比BPNN更多的隐藏层和神经元,能学习更为复杂的非线性关系。上述结果表明DNN模型适用于SMC的估算,具有较高的估算精度,为本发明采用DNN模型对整个研究区的SMC进行制图提供了可靠保障。
表4 DNN与BPNN回归模型的SMC预测效果比较
Figure SMS_17
基于所有环境变量并采用DNN模型估算整幅影像的SMC,其空间分布如图5所示。在研究区内SMC的差异显著,整体上呈现“南高北低”的趋势。在靠近河流的地区SMC较高,研究区东北部的SMC较低。研究区内SMC的变化范围在0—59.5g/kg之间。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (8)

1.一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,包括以下步骤:
实时获取点位的土壤水分含量,气象信息以及遥感影像;
基于遥感影像对土地利用类型进行分类,并根据分类结果提取空间场景类型;
根据环境数据和空间场景类型提取环境变量;
将环境变量和土壤水分含量输入DNN模型中,并对DNN模型的精度进行评价;
若DNN模型的精度满足要求,输出土壤水分数字制图,获取土壤水分空间分布状况。
2.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,通过物联网传感器实时获取土壤水分含量、气候数据,其中,气候数据包括光照、日平均温度、日降水量。
3.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,还包括对遥感影像预处理,预处理包括对遥感影像进行镶嵌、集合矫正、辐射定标和大气校正处理。
4.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,提取空间场景类型包括以下步骤:
采用面向对象方法和随机森林分类方法对土地利用类型分类;
基于土地利用类型分类结果,根据社会经济属性和人类活动,借助OSM和POI辅助判断空间场景类别,使用面向对象和随机森林方法将每种土地利用类型进一步分为空间场景。
5.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,DNN模型包括一个输入层、三个隐藏层和一个输出层。
6.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,环境变量包括:气候变量、地形变量、土壤变量和光谱变量。
7.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,DNN模型采用均方误差作为损失函数,表示为:
Figure QLYQS_1
其中,n为样本的数量,
Figure QLYQS_2
表示测量值,/>
Figure QLYQS_3
代表预测值。
8.根据权利要求1所述的一种融合物联网数据和空间场景的土壤含水量监测方法,其特征在于,评估模型精度采用的是留一法交叉验证。
CN202310499641.5A 2023-05-06 2023-05-06 融合物联网数据和空间场景的土壤含水量监测方法 Active CN116229285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310499641.5A CN116229285B (zh) 2023-05-06 2023-05-06 融合物联网数据和空间场景的土壤含水量监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310499641.5A CN116229285B (zh) 2023-05-06 2023-05-06 融合物联网数据和空间场景的土壤含水量监测方法

Publications (2)

Publication Number Publication Date
CN116229285A true CN116229285A (zh) 2023-06-06
CN116229285B CN116229285B (zh) 2023-08-04

Family

ID=86585872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310499641.5A Active CN116229285B (zh) 2023-05-06 2023-05-06 融合物联网数据和空间场景的土壤含水量监测方法

Country Status (1)

Country Link
CN (1) CN116229285B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109596811A (zh) * 2018-12-26 2019-04-09 武汉大学 一种基于土壤水分亏缺的农业干旱监测方法
US20200151522A1 (en) * 2018-11-09 2020-05-14 Stefan Metzger Systems and Methods for Improving the Performance of Environmental Measurements
CN111307643A (zh) * 2019-04-04 2020-06-19 西北大学 一种基于机器学习算法的土壤水分预测方法
CN111721714A (zh) * 2020-06-01 2020-09-29 东北林业大学 一种基于多源光学遥感数据的土壤含水量估算方法
CN113267612A (zh) * 2021-05-17 2021-08-17 河北工业大学 土体含水率检测方法、检测系统及贯入装置
CN113406007A (zh) * 2021-06-16 2021-09-17 南京大学 一种基于热脉冲全同弱光纤光栅阵列的土壤含水率智能监测系统及原位标定方法
CN114264672A (zh) * 2021-12-22 2022-04-01 南京晓庄学院 一种基于微波遥感的深层土壤湿度反演方法
CN115147719A (zh) * 2022-06-23 2022-10-04 郑州大学 一种基于增强语义表示的遥感影像深度土地利用分类方法
CN115372282A (zh) * 2022-10-19 2022-11-22 深圳大学 一种基于无人机高光谱影像的农田土壤含水量监测方法
US20220412944A1 (en) * 2019-02-14 2022-12-29 X-Centric Sciences Inc. System and method for soil characterization
CN115906656A (zh) * 2022-12-16 2023-04-04 水利部牧区水利科学研究所 一种基于气象与重力卫星等数据反演土壤水含量的方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151522A1 (en) * 2018-11-09 2020-05-14 Stefan Metzger Systems and Methods for Improving the Performance of Environmental Measurements
CN109596811A (zh) * 2018-12-26 2019-04-09 武汉大学 一种基于土壤水分亏缺的农业干旱监测方法
US20220412944A1 (en) * 2019-02-14 2022-12-29 X-Centric Sciences Inc. System and method for soil characterization
CN111307643A (zh) * 2019-04-04 2020-06-19 西北大学 一种基于机器学习算法的土壤水分预测方法
CN111721714A (zh) * 2020-06-01 2020-09-29 东北林业大学 一种基于多源光学遥感数据的土壤含水量估算方法
CN113267612A (zh) * 2021-05-17 2021-08-17 河北工业大学 土体含水率检测方法、检测系统及贯入装置
CN113406007A (zh) * 2021-06-16 2021-09-17 南京大学 一种基于热脉冲全同弱光纤光栅阵列的土壤含水率智能监测系统及原位标定方法
CN114264672A (zh) * 2021-12-22 2022-04-01 南京晓庄学院 一种基于微波遥感的深层土壤湿度反演方法
CN115147719A (zh) * 2022-06-23 2022-10-04 郑州大学 一种基于增强语义表示的遥感影像深度土地利用分类方法
CN115372282A (zh) * 2022-10-19 2022-11-22 深圳大学 一种基于无人机高光谱影像的农田土壤含水量监测方法
CN115906656A (zh) * 2022-12-16 2023-04-04 水利部牧区水利科学研究所 一种基于气象与重力卫星等数据反演土壤水含量的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ABHINAV SHARMA: ""Machine Learning Applications for Precision Agriculture: A Comprehensive Review"", 《IEEE ACCESS》, vol. 9, pages 4843 - 4873 *
倾城一少: ""Python使用深度神经网络对高光谱图像进行土地覆盖分类"", pages 1 - 10, Retrieved from the Internet <URL:《https://blog.csdn.net/u010329292/article/details/129597962》> *
王梦迪: ""基于小麦冠层无人机高光谱影像的农田土壤含水率估算"", 《农业工程学报》, vol. 39, no. 06, pages 120 - 129 *
陈祎彤: ""宇宙射线中子法测量中尺度土壤含水率研究综述"", 《灌溉排水学报》, vol. 40, no. 11, pages 26 - 36 *

Also Published As

Publication number Publication date
CN116229285B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
Tian et al. Aboveground mangrove biomass estimation in Beibu Gulf using machine learning and UAV remote sensing
CN107463901B (zh) 多尺度区域洪涝灾害危险性遥感评估方法和系统
CN108268735A (zh) 基于多源遥感卫星融合数据的地表土壤水分降尺度方法
CN110751094B (zh) 一种基于gee综合遥感影像和深度学习方法的作物估产方法
CN106501186B (zh) 一种土壤含水量产品降尺度方法
CN110927120B (zh) 一种植被覆盖度预警方法
CN112711989B (zh) 基于雷达遥感与光学遥感的玉米秸秆覆盖度估算方法
CN114387516B (zh) 一种针对复杂地形环境下中小田块的单季稻sar识别方法
CN102608592B (zh) 基于五种地物分类信息的积雪被动微波混合像元分解方法
CN113205014B (zh) 一种基于图像锐化的时序数据耕地提取方法
CN109977991A (zh) 基于高清卫星遥感的林业资源采集方法
CN117437538A (zh) 一种热带雨林生态系统时空格局特征提取及预测方法
CN117611993B (zh) 一种基于遥感实际蒸散发估算植被分类的方法
CN117826112B (zh) 一种基于sar的土壤含水量的反演方法
CN117035066A (zh) 一种耦合地理加权与随机森林的地表温度降尺度方法
CN112733746B (zh) 融合InSAR相干性与多光谱遥感的协同分类方法
CN114611699A (zh) 土壤水分降尺度方法、装置、电子设备及存储介质
CN113534083B (zh) 基于sar的玉米留茬方式识别方法、装置和介质
CN114898138A (zh) 一种基于地形地貌及遥感数据进行森林火灾预测的方法
Zhao et al. Spatiotemporal variations in ecological quality of Otindag Sandy Land based on a new modified remote sensing ecological index
CN107239886B (zh) 基于高分卫星遥感数据的gdp密度分析系统
CN117871550A (zh) 一种大面积农田灌溉监测方法、系统及电子设备
CN117409320A (zh) 一种基于卫星遥感的流域洪水监测方法、系统及存储介质
CN112733445A (zh) 基于蒸散量植被指数空间特征的大区域尺度土壤水分反演方法
CN116229285B (zh) 融合物联网数据和空间场景的土壤含水量监测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant