CN108932521A - 一种基于深度学习的农作物分类方法及系统 - Google Patents
一种基于深度学习的农作物分类方法及系统 Download PDFInfo
- Publication number
- CN108932521A CN108932521A CN201810387307.XA CN201810387307A CN108932521A CN 108932521 A CN108932521 A CN 108932521A CN 201810387307 A CN201810387307 A CN 201810387307A CN 108932521 A CN108932521 A CN 108932521A
- Authority
- CN
- China
- Prior art keywords
- operation area
- crop
- pixel
- sub
- vegetation index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000003062 neural network model Methods 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 23
- 238000010586 diagram Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 15
- 239000002689 soil Substances 0.000 claims description 11
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 11
- 230000003750 conditioning effect Effects 0.000 claims description 5
- 239000002028 Biomass Substances 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 abstract description 7
- 238000009395 breeding Methods 0.000 abstract 1
- 230000001488 breeding effect Effects 0.000 abstract 1
- 238000012937 correction Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 229930002875 chlorophyll Natural products 0.000 description 3
- 235000019804 chlorophyll Nutrition 0.000 description 3
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001464837 Viridiplantae Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Educational Administration (AREA)
- Marketing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Animal Husbandry (AREA)
- Game Theory and Decision Science (AREA)
- Agronomy & Crop Science (AREA)
- Operations Research (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于深度学习的农作物分类方法及系统,该方法包括:将待分类作业区划分为多个子作业区,获取每一子作业区的多时相多特征数据集;根据多时相多特征数据集和待分类作业区中待分类农作物生育期的作物样本数据,获取任一子作业区中每一像素的多时相多特征数据序列;根据每一像素的多时相多特征数据序列,获取每一像素的生长特征图;通过训练后的神经网络模型对每一像素的生长特征图进行识别,获取所述待分类农作物的分类结果。本发明将农作物分类问题转为时间序列生长特征图的识别问题,通过深度学习方法,使得在主要粮食作物主产区尺度上不规则时间序列是一种常态的数据环境下依旧使用,提高了分类的精度。
Description
技术领域
本发明涉及农业遥感领域,更具体地,涉及一种基于深度学习的农作物分类方法及系统。
背景技术
基于遥感数据进行作物分类是农业遥感的重要基础科学问题。通过遥感数据进行作物分类的方法已经有很多,这些方法设计的原理基础来源于以下三个方面:1)不同作物在光谱反射上的差异;2)不同作物在影像纹理上的差异;3)不同作物在时间序列上的生长特征差异。
随着植被对太阳辐射的反射机理研究的不断深入,研究者根据不同植被和地物对光谱的反射和吸收的差异,创造了很多针对不同植被和地物具有特别敏感性的指数,利用指数上的差异来识别不同的植被与地物,因此纯粹利用光谱反射的差异而设计的方法逐渐被利用指数而设计的方法取代。而纹理信息的获得需要米级,甚至亚米级分辨率的遥感数据,而这种超高分辨率的遥感数据因为宽幅有限,无法覆盖区域或全国尺度。
作物与一般地物最大的区别在于物候特性。不同的作物,在时间轴上有不同的生育期,同时也有不同的生长特征,充分利用不同作物在时间序列上生长特征的不同有利于作物分类的实施。而随着遥感观测技术的发展,高时空分辨的数据越来越多,如国产高分系列、欧空局的Sentinel-2光学数据,空间分辨率达到10米,重返周期可以达到5-10天,利用这些数据源可以获得更加丰富的时间序列的生长特征,为基于时间序列的分类方法提供了坚实的基础。
随着智慧农业的发展,对作为重要基础数据之一的作物分类数据的需求发生了新的变化,由原来的市县级尺度向区域级甚至全国级的尺度转变。
由于卫星轨道的设计,以及云雨等噪声的影响,在大尺度上难以保证每一个地方都有相同的时间序列,即大尺度上不同地方具有不同规则的时间序列是常态。因此如何在这种常态数据下,充分利用数据资源,进一步提高作物分类的精度和方法的稳定性是一个急迫且具有挑战性的工作。
发明内容
本发明提供一种克服上述问题或者至少部分地解决上述问题的一种基于深度学习的农作物分类方法及系统。
根据本发明的一个方面,提供一种基于深度学习的农作物分类方法,包括:
S1,对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
S2,根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
S3,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
根据本发明的另一个方面,提供一种基于深度学习的农作物分类系统,包括:
多时相多特征数据集模块,用于对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
生长特征图模块,用于根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
分类模块,用于通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
根据本发明的又一个方面,提供一种基于深度学习的农作物分类设备,包括:
至少一个处理器、至少一个存储器、通信接口和总线;其中,
所述处理器、存储器、通信接口通过所述总线完成相互间的通信;
所述通信接口用于该测试设备与显示装置的通信设备之间的信息传输;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行一种基于深度学习的农作物分类方法。
根据本发明的再一个方面,提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使计算机执行一种基于深度学习的农作物分类方法。
本发明提出一种基于深度学习的农作物分类方法及系统,将农作物分类问题转化为时间序列生长特征图的识别问题,将基于卷积神经网络的深度学习方法应用到利用遥感时间序列生长特征的作物分类方法中。即使在区域或全国尺度上,不规则时间序列是一种常态的数据环境,该方法依旧可以使用,且因为该方法可以适应不规则时间序列,进一步利用现有的数据信息,进一步提高了分类的精度,为大范围作物分类提供可操作的实施方法。
附图说明
图1为本发明实施例一种基于深度学习的农作物分类方法的流程图;
图2为本发明一实施例一种基于深度学习的农作物分类系统的结构示意图;
图3为本发明实施例一种基于深度学习的农作物分类设备的实体结构示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
图1为本发明实施例一种基于深度学习的农作物分类方法的流程图,如图1所示,该方法包括:
S1,对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
S2,根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
S3,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
首先根据作物分类的需求选定待分类作业区,获取待分类作业区范围内主要作物生育期内的高分一号(简称GF-1)WFV传感器的所有影像。
GF-1卫星搭载了4台WFV多光谱相机,4台相机组合扫描幅宽为800km,星下点的分辨率为16m,WFV传感器共设置4个波段,光谱范围为0.45~0.89μm,重访周期为4d。
选择河北作为待分类作业区。获取数据如下:从国家资源卫星中心下载保定市2017年4月至9月间,云量在10%以下的GF-1WFV遥感数据。GF-1有4台WFV传感器,使用前对不同传感器获取的数据进行预处理,以消除传感器因素对于地物光谱信息的影响,数据预处理主要包括几何粗校正、辐射标定与大气校正、几何精校正,得到13个时相的反射率数据。预处理主要步骤如下:
1)、借助影像自带的RPC文件对每幅原始影像进行几何粗校正;
2)、利用定标文件对所有几何粗校正后的影像进行辐射标定,将图像中的DN值转换为天顶的辐射亮度值,得到辐亮度文件;
3)、经过大气校正,得到真实地表反射率数据;
4)、由于粗校正后几何定位精度有限,不能满足构建时间序列精度要求,故需对其进行严格的几何精校正。
利用在研究区采集的GPS控制点对其中一幅影响进行几何精校正,保证校正精度在一个像元内,再利用校正精度的影像对其它影像进行图到图的校正,保证精度范围控制在1个像元以内。
作物样本数据以2017年6月24日-29日在河北采集为主,其中还加入后期在遥感数据上目视解译获得的道路、建筑物、水体的相关样本。
将待分类作业区划分为不同的子作业区,保证每个子区内遥感数据尽可能全覆盖。以其中一个子作业区为例进行说明,如果某个数据无法全覆盖该子作业区,则用NAN值填补。在每一个子作业区,有GF-1的时间序列影像,分别从每个时相影像数据中计算归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数和归一化差值水指数这8个指数,将所有时相的8个指数按照时间顺序进行排列,得到研究区内的多时相多特征数据集。
在河北的案例中,待分类作业区已经通过10km格网划分为多个子作业区,在某些子作业区内,有时间序列影像和待分类农作物生育期的作物样本数据;而在某些子作业区内仅有时间序列影像数据。
在每个子作业区内,分别计算每个时间序列影像的8个评价指标,然后根据时间的前后排序,每个时相内,河北的案例中,按照归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数、归一化差值水指数的顺序排序,最终在每个子作业区得到一个N波段的多时相多特征数据集,N等于该10km格网内遥感时相的数目。
接着在所有的子作业区内,提取每个像素的时间序列特征序列;如果某子作业区中有作物样本数据,则将上一步中得到的多时相多特征数据集与农作物样本数据进行感兴趣区域提取,提取操作通过GDAL编程实现。
最终每个子作业区得到一个所有像素的时间序列特征表,如表1所示,该表每一行代表一个像素,列有像素的序号、样本类型编号、时间、指标值组成。其中“样本类型编号”项,如果某像素有样本,则记录其对应的样本类型编号,如果没有,则记录为“0”。
表1
生长特征图是RGB合成的png格式图片,图中x轴是一个时间轴,用儒略日表示,y轴的值域为[0,1],8个指数的指标值都归一化到0-1之间。
为了便于批量绘制图片,该过程通过python实现。对于每个像素的时间序列特征序列:
1)、获取该像素的所有日期,并将该日期转为儒略日。
2)、分别获取每个指标的系列指标值。
3)、将每个指标值用一个散点在对应的儒略日和指标轴上标注。
4)、用序号与作物类型编码的组合作为每张生长特征图的命名。
最后,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,该分类结果是一个数值,使用GDAL(Geospatial DataAbstractionLibrary),借助遥感数据中的空间信息,可以将这些分类结果值重新生成涵盖空间信息的作物分类结果数据。
本发明提出一种基于深度学习的农作物分类方法,将农作物分类问题转化为时间序列生长特征图的识别问题,将基于卷积神经网络的深度学习方法应用到利用遥感时间序列生长特征的作物分类方法中。即使在区域或全国尺度上,不规则时间序列是一种常态的数据环境,该方法依旧可以使用,且因为该方法可以适应不规则时间序列,进一步利用现有的数据信息,进一步提高了分类的精度,为大范围作物分类提供可操作的实施方法。
在上述实施例的基础上,优选地,步骤S3之前,还包括:获取训练样本集,所述训练样本集包括每一农作物的多个生长特征图;通过预设神经网络模型对所述训练样本集进行训练,获取训练后的神经网络模型。
在河北的案例中,将每种农作物的生长特征图按照3:1:1的比例分别构成训练样本集、验证样本集和测试样本集,选择caffe作为深度学习训练的框架,预训练的神经网络模型是GoogleNet,预训练参数结果是伯克利大学在Github上公开的caffe中提供的bvlc_googlenet.caffemodel。在该训练参数的基础上,使用预训练的神经网络模型对训练样本集进行训练,调整预训练的神经网络模型参数,获得具有农作物类型识别能力的模型。验证样本集主要用于验证分类模型的精度。
本发明实施例使用预训练的神经网络模型对训练样本集进行训练,通过此过程,调整预训练的神经网络模型中的参数,由于预训练的神经网络模型中的参数是已知的,因此,在获得最优的神经网络模型参数的过程中,可以缩短训练时间,从而提高了整个农作物分类方法的判别效率。
通过训练样本集来调整预训练的神经网络模型,使得训练后的神经网络模型的参数为最优参数,从而提高了农作物分类的精度。
在上述实施例的基础上,优选地,所述评价指标包括以下评价指标中的一种或多种,所述以下评价指标为归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数和归一化差值水指数。
具体地,这些评价指标分别从生物量差异、绿度差异、土壤背景发射率差异和冠层含水量差异这四个不同的维度挑选8个指数来区分不同作物。
这8个参数分别为:
归一化植被指数(Normalized Difference Vegetation Index,简称NDVI),为应用最为广泛的植被指数,主要用于检测植被生物量和覆盖度,其计算公式如下:
NDVI=(NIR-R)/(NIR+R) (1)
增强植被指数(Enhance Vegetable Index,简称EVI),有效的反映植被覆盖度并消除大气的影响,与植被覆盖度相关性好,不容易饱和,其计算公式如下:
EVI=2.5*(NIR-R)/(NIR+6R-7.5B+1) (2)
比值植被指数(Ratio Vegetable Index,简称RVI),绿色植物的灵敏指示参数,与植被覆盖度、生物量、叶绿素含量相关性高。
RVI=NIR/R(3)
绿色归一化差值植被指数(GreenNormalized Difference Vegetation Index,简称GNDVI),利用近红外和绿波段不同发射程度,对植被叶绿素含量极为敏感,有效表达植被的绿度和覆盖度。
GNDVI=(NIR-G)/(NIR+G) (4)
三角植被指数(TriangleVegetationIndex,简称TVI),能够较好的反映作物叶绿素含量,抗饱和性能较强。
TVI=60*(NIR-G)-100*(R-G) (5)
差值植被指数(DifferenceVegetationIndex,简称DVI),对土壤背景的变化极为敏感,当植被覆盖度低时效果较好。
DVI=NIR-R (6)
土壤调节植被指数(Soil-adjustedVegetation Index,简称SAVI),能够解释背景的光学特征变化,并修正NDVI对土壤的背景的敏感性。
SAVI=(1+L)*(NIR-R)/(NIR+R+L) (7)
归一化差值水指数(Normalized DifferenceWaterIndex,简称NDWI),能够有效提取植被冠层的水分含量。
NDWI=(G-NIR)/(G+NIR) (8)
上述8个公式中,B、G、R、NIR分别代表蓝、绿、红、近红外波段的光谱反射率,L为土壤调节参数,取值0.5。
在上述实施例的基础上,优选地,步骤S2中所述待分类作业区中待分类农作物生育期的作物样本数据为栅格数据。
需要说明的是,栅格数据就是将空间分割成有规律的网格,每一个网格称为一个单元,并在各单元上赋予相应的属性值来表示实体的一种数据形式。每一个单元(像素)的位置由它的行列号定义,所表示的实体位置隐含在栅格行列位置中,数据组织中的每个数据表示地物或现象的非几何属性或指向其属性的指针。
由于作物样本数据通常采集的样本都是矢量格式的,将矢量格式的作物样本数据转为栅格格式,令其空间分辨率与GF-1WFV数据保持一样,都是16m;
将预处理后的遥感数据用WGS84下UTM-51N的10km格网数据进行裁剪,如此每个子作业区下都有属于该子作业区的一系列时间序列的遥感数据。将实地采集和后期目视解译的矢量样本数据通过GDAL转为栅格数据,设定空间分辨率为16m;将栅格样本数据也用10km格网进行裁剪,如此相关样本即可落到对应的子作业区中。
本发明实施例通过栅格数据对作物样本数据进行存储,在最大限度减少计算机运算时间的基点上进行最大幅度的压缩,提高了本方法的识别效率,减小了运行时间。
在上述实施例的基础上,优选地,步骤S2具体包括:对所述多时相多特征数据集和所述待分类作业区中待分类农作物生育期的作物样本数据进行感兴趣区域提取操作,获取所述任一子作业区中每一像素的多时相多特征数据序列。
图2为本发明一实施例一种基于深度学习的农作物分类系统的结构示意图,如图2所示,该系统包括:多时相多特征数据集模块、多时相多特征数据序列模块、生长特征图模块和分类模块。
多时相多特征数据集模块201,用于对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
生长特征图模块202,用于根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
分类模块203,用于通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
本发明实施例首先将待分类作业区划分为多个子作业区,每个子作业区对应一个时间序列影像,计算该时间序列影像的若干个评价指标,将该评价指标按照时间顺序进行排列,得到该子作业区的多时相多特征数据集。
接着,根据多时相多特征数据集和待分类作业区中待分类农作物生育期的作物样本数据,获取每个子作业区中每个像素的多时相多特征数据序列。
然后根据每个像素的多时相多特征序列,构建每个像素的生长特征图。
最后,通过训练后的神经网络模型对每个像素的生长特征图进行识别,根据每个像素的分类结果,获取待分类农作物的分类结果。
本系统实施例的执行过程与上述方法实施例的执行过程相同,具体过程请参考上述方法实施例,在此不再赘述。
具体地,所述多时相多特征数据集模块中,所述评价指标包括以下评价指标中的一种或多种,所述以下评价指标为归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数和归一化差值水指数。
本发明实施例把农作物分类问题转为时间序列生长特征图的识别问题,将计算机视觉的图像识别领域最先进的方法——基于卷积神经网络的深度学习模型应用到遥感时间序列生长特征的作物分类中。该方法在区域或全国尺度上不规则时间序列是一种常态的数据环境下依旧适用,且因为可以适应不规则时间序列,进一步利用现有的数据信息,进一步提高了分类的精度,为大范围作物分类提供可操作的实施方法。
图3为本发明实施例一种基于深度学习的农作物分类设备的实体结构示意图,如图3所示,该服务器可以包括:处理器(processor)310、通信接口(CommunicationsInterface)320、存储器(memory)330和总线340,其中,处理器310,通信接口320,存储器330通过总线340完成相互间的通信。通信接口340可以用于服务器与智能电视之间的信息传输。处理器310可以调用存储器330中的逻辑指令,以执行如下方法:S1,对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;S2,根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;S3,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
此外,上述的存储器330中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所描述的显示装置的测试设备等实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后,本发明的方法仅为较佳的实施方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的农作物分类方法,其特征在于,包括:
S1,对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
S2,根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
S3,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
2.根据权利要求1所述方法,其特征在于,步骤S3之前,还包括:
获取训练样本集,所述训练样本集包括每一农作物的多个生长特征图;
通过所述训练样本集对预设神经网络模型进行训练,获取训练后的神经网络模型。
3.根据权利要求1所述方法,其特征在于,步骤S1中,所述评价指标表示不同农作物的生物量差异、绿度差异、土壤背景发射率差异和冠层含水量差异。
4.根据权利要求1所述方法,其特征在于,步骤S1中,所述评价指标包括以下评价指标中的一种或多种,所述以下评价指标为归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数和归一化差值水指数。
5.根据权利要求1所述方法,其特征在于,步骤S2中所述待分类作业区中每种农作物生育期的作物样本数据为栅格数据。
6.根据权利要求5所述方法,其特征在于,步骤S2具体包括:
对所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据进行感兴趣区域提取,得到所述任一子作业区中每一像素的多时相多特征数据序列。
7.一种基于深度学习的农作物分类系统,其特征在于,包括:
多时相多特征数据集模块,用于对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;
生长特征图模块,用于根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;
分类模块,用于通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。
8.根据权利要求7所述系统,其特征在于,所述多时相多特征数据集模块中,所述评价指标包括以下评价指标中的一种或多种,所述以下评价指标为归一化植被指数、增强植被指数、比值植被指数、绿色归一化差值植被指数、三角植被指数、差值植被指数、土壤调节植被指数和归一化差值水指数。
9.一种基于深度学习的农作物分类设备,其特征在于,包括:
至少一个处理器、至少一个存储器、通信接口和总线;其中,
所述处理器、存储器、通信接口通过所述总线完成相互间的通信;
所述通信接口用于该测试设备与显示装置的通信设备之间的信息传输;
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至6中任一项所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810387307.XA CN108932521B (zh) | 2018-04-26 | 2018-04-26 | 一种基于深度学习的农作物分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810387307.XA CN108932521B (zh) | 2018-04-26 | 2018-04-26 | 一种基于深度学习的农作物分类方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108932521A true CN108932521A (zh) | 2018-12-04 |
CN108932521B CN108932521B (zh) | 2021-02-09 |
Family
ID=64448409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810387307.XA Active CN108932521B (zh) | 2018-04-26 | 2018-04-26 | 一种基于深度学习的农作物分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108932521B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287869A (zh) * | 2019-06-25 | 2019-09-27 | 吉林大学 | 基于深度学习的高分辨率遥感影像农作物分类方法 |
CN110532967A (zh) * | 2019-09-02 | 2019-12-03 | 中国科学院遥感与数字地球研究所 | 一种基于哨兵1号rvi时间序列的农作物分类方法 |
CN110751019A (zh) * | 2019-09-03 | 2020-02-04 | 武汉珈和科技有限公司 | 基于深度学习的高分辨率影像农作物自动提取方法及装置 |
CN111523525A (zh) * | 2020-07-02 | 2020-08-11 | 航天宏图信息技术股份有限公司 | 农作物分类识别方法、装置和电子设备 |
CN112183209A (zh) * | 2020-08-27 | 2021-01-05 | 中国农业大学 | 一种基于多维特征融合的区域农作物分类方法及系统 |
CN112257908A (zh) * | 2020-09-30 | 2021-01-22 | 嘉应学院 | 一种山区农业多源异构数据的整合方法及装置 |
CN112840348A (zh) * | 2019-10-11 | 2021-05-25 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于时序遥感数据和卷积神经网络的作物种植分布预测方法 |
CN114155385A (zh) * | 2021-11-30 | 2022-03-08 | 江苏鑫源烟草薄片有限公司 | 一种基于深度学习的rgb与高光谱的烟草识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085885A1 (en) * | 2004-03-31 | 2015-03-26 | Imra America, Inc. | High power short pulse fiber laser |
CN106355143A (zh) * | 2016-08-25 | 2017-01-25 | 中国农业大学 | 多源多时相高分遥感影像的制种玉米田识别方法及系统 |
CN106372592A (zh) * | 2016-08-29 | 2017-02-01 | 中国农业科学院农业资源与农业区划研究所 | 一种基于冬小麦面积指数的冬小麦种植面积计算方法 |
CN106373150A (zh) * | 2016-08-15 | 2017-02-01 | 中国农业大学 | 一种基于高分辨率遥感数据纹理分析的制种玉米识别方法 |
CN106778916A (zh) * | 2017-01-18 | 2017-05-31 | 西北农林科技大学 | 一种基于H/α参数变化规律的多时相PolSAR农作物监督分类算法 |
CN107480706A (zh) * | 2017-07-24 | 2017-12-15 | 中国农业大学 | 一种制种玉米田遥感识别方法及装置 |
-
2018
- 2018-04-26 CN CN201810387307.XA patent/CN108932521B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085885A1 (en) * | 2004-03-31 | 2015-03-26 | Imra America, Inc. | High power short pulse fiber laser |
CN106373150A (zh) * | 2016-08-15 | 2017-02-01 | 中国农业大学 | 一种基于高分辨率遥感数据纹理分析的制种玉米识别方法 |
CN106355143A (zh) * | 2016-08-25 | 2017-01-25 | 中国农业大学 | 多源多时相高分遥感影像的制种玉米田识别方法及系统 |
CN106372592A (zh) * | 2016-08-29 | 2017-02-01 | 中国农业科学院农业资源与农业区划研究所 | 一种基于冬小麦面积指数的冬小麦种植面积计算方法 |
CN106778916A (zh) * | 2017-01-18 | 2017-05-31 | 西北农林科技大学 | 一种基于H/α参数变化规律的多时相PolSAR农作物监督分类算法 |
CN107480706A (zh) * | 2017-07-24 | 2017-12-15 | 中国农业大学 | 一种制种玉米田遥感识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
范迎迎 等: "基于BP神经网络的遥感影像棉花识别方法", 《计算机工程与设计》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110287869A (zh) * | 2019-06-25 | 2019-09-27 | 吉林大学 | 基于深度学习的高分辨率遥感影像农作物分类方法 |
CN110287869B (zh) * | 2019-06-25 | 2022-03-18 | 吉林大学 | 基于深度学习的高分辨率遥感影像农作物分类方法 |
CN110532967A (zh) * | 2019-09-02 | 2019-12-03 | 中国科学院遥感与数字地球研究所 | 一种基于哨兵1号rvi时间序列的农作物分类方法 |
CN110751019A (zh) * | 2019-09-03 | 2020-02-04 | 武汉珈和科技有限公司 | 基于深度学习的高分辨率影像农作物自动提取方法及装置 |
CN110751019B (zh) * | 2019-09-03 | 2023-03-07 | 武汉珈和科技有限公司 | 基于深度学习的高分辨率影像农作物自动提取方法及装置 |
CN112840348A (zh) * | 2019-10-11 | 2021-05-25 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于时序遥感数据和卷积神经网络的作物种植分布预测方法 |
CN112840348B (zh) * | 2019-10-11 | 2024-05-03 | 安徽中科智能感知科技股份有限公司 | 一种基于时序遥感数据和卷积神经网络的作物种植分布预测方法 |
CN111523525A (zh) * | 2020-07-02 | 2020-08-11 | 航天宏图信息技术股份有限公司 | 农作物分类识别方法、装置和电子设备 |
CN112183209A (zh) * | 2020-08-27 | 2021-01-05 | 中国农业大学 | 一种基于多维特征融合的区域农作物分类方法及系统 |
CN112183209B (zh) * | 2020-08-27 | 2023-12-22 | 中国农业大学 | 一种基于多维特征融合的区域农作物分类方法及系统 |
CN112257908A (zh) * | 2020-09-30 | 2021-01-22 | 嘉应学院 | 一种山区农业多源异构数据的整合方法及装置 |
CN114155385A (zh) * | 2021-11-30 | 2022-03-08 | 江苏鑫源烟草薄片有限公司 | 一种基于深度学习的rgb与高光谱的烟草识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108932521B (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108932521B (zh) | 一种基于深度学习的农作物分类方法及系统 | |
Houborg et al. | A cubesat enabled spatio-temporal enhancement method (cestem) utilizing planet, landsat and modis data | |
Näsi et al. | Remote sensing of bark beetle damage in urban forests at individual tree level using a novel hyperspectral camera from UAV and aircraft | |
Pacheco et al. | Evaluating multispectral remote sensing and spectral unmixing analysis for crop residue mapping | |
Sun et al. | Classification mapping and species identification of salt marshes based on a short-time interval NDVI time-series from HJ-1 optical imagery | |
CN108764255B (zh) | 一种冬小麦种植信息的提取方法 | |
Song et al. | Use of Landsat and Corona data for mapping forest cover change from the mid-1960s to 2000s: Case studies from the Eastern United States and Central Brazil | |
De Wit et al. | Efficiency and accuracy of per-field classification for operational crop mapping | |
Kordi et al. | Crop classification based on phenology information by using time series of optical and synthetic-aperture radar images | |
Pasolli et al. | Retrieval of Leaf Area Index in mountain grasslands in the Alps from MODIS satellite imagery | |
Leroux et al. | Land cover mapping using Sentinel‐2 images and the semi‐automatic classification plugin: A Northern Burkina Faso case study | |
CN111242224B (zh) | 一种基于无人机提取分类样本点的多源遥感数据分类方法 | |
CN112183209A (zh) | 一种基于多维特征融合的区域农作物分类方法及系统 | |
CN113505635A (zh) | 基于光学和雷达的冬小麦与大蒜混种区识别方法及装置 | |
Mathews | Object-based spatiotemporal analysis of vine canopy vigor using an inexpensive unmanned aerial vehicle remote sensing system | |
CN107688777A (zh) | 一种协同多源遥感影像的城市绿地提取方法 | |
Wallace et al. | Using orthoimages generated from oblique terrestrial photography to estimate and monitor vegetation cover | |
Somers et al. | Endmember library approaches to resolve spectral mixing problems in remotely sensed data: Potential, challenges, and applications | |
Franklin | Land cover stratification using Landsat Thematic Mapper data in Sahelian and Sudanian woodland and wooded grassland | |
Okubo et al. | Land use/cover classification of a complex agricultural landscape using single-dated very high spatial resolution satellite-sensed imagery | |
Browning et al. | Field validation of 1930s aerial photography: What are we missing? | |
Schmitt-Harsh et al. | Classification of coffee-forest landscapes using Landsat TM imagery and spectral mixture analysis | |
Gascon et al. | The application of medium-resolution MERIS satellite data for continental land-cover mapping over South America | |
Bruce | Object oriented classification: case studies using different image types with different spatial resolutions | |
Zhirin et al. | Estimation of linkages between biometric indexes of forests and pattern of canopy spaces on super-high-resolution satellite images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |