CN115035423A - 一种基于无人机遥感影像的杂交水稻父母本识别提取方法 - Google Patents
一种基于无人机遥感影像的杂交水稻父母本识别提取方法 Download PDFInfo
- Publication number
- CN115035423A CN115035423A CN202210022642.6A CN202210022642A CN115035423A CN 115035423 A CN115035423 A CN 115035423A CN 202210022642 A CN202210022642 A CN 202210022642A CN 115035423 A CN115035423 A CN 115035423A
- Authority
- CN
- China
- Prior art keywords
- parent
- classification
- aerial vehicle
- unmanned aerial
- female parent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 235000007164 Oryza sativa Nutrition 0.000 title claims abstract description 40
- 235000009566 rice Nutrition 0.000 title claims abstract description 40
- 238000000605 extraction Methods 0.000 title claims abstract description 26
- 240000007594 Oryza sativa Species 0.000 title abstract 2
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 238000013145 classification model Methods 0.000 claims abstract description 18
- 241000196324 Embryophyta Species 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000012795 verification Methods 0.000 claims abstract description 6
- 238000005520 cutting process Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 78
- 241000209094 Oryza Species 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000007476 Maximum Likelihood Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 229930002875 chlorophyll Natural products 0.000 claims description 4
- 235000019804 chlorophyll Nutrition 0.000 claims description 4
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- KIGJWIPKAWAGCE-UHFFFAOYSA-L gun blue Chemical compound Cl.[Cu+2].O[Se](=O)=O.[O-]S([O-])(=O)=O KIGJWIPKAWAGCE-UHFFFAOYSA-L 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 241000592183 Eidolon Species 0.000 claims description 2
- 238000000701 chemical imaging Methods 0.000 claims description 2
- 230000005855 radiation Effects 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 1
- 238000011835 investigation Methods 0.000 abstract description 4
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000010152 pollination Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 235000013339 cereals Nutrition 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000013401 experimental design Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000008774 maternal effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003333 near-infrared imaging Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 230000008775 paternal effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于无人机遥感影像的杂交水稻父母本识别提取方法,首先通过无人机对试验地进行图像采集,并对采集到的图像进行预处理,获得试验地的正射图像,对获得的正射图像进行裁剪得到目标区域,并在目标区域上分别随机选取母本、父本、杂草和裸地各多个样本并且计算样本的可分离性,并选择分离性良好的样本作为监督分类对象,计算目标区域的可见光植被指数和多光谱植被指数;随后采用多种父母本分类提取方法对监督分类对象中父本和母本进行分类,并将分类结果作为测试集,将实际调查结果作为验证集,以此构建多种父母本监督分类模型,选择精度最高的为最佳父母本监督分类模型;通过所述的最佳父母本监督分类模型快速识别父本和母本。
Description
技术领域
本发明属于农业领域,具体涉及一种基于无人机遥感影像的杂交水稻父母本识别提取方法。
背景技术
杂交水稻是全球重要的粮食作物之一,有一半以上的人口是以稻米为主食,杂交水稻的产量对解决世界上粮食供不应求的问题具有重大意义。杂交水稻是一种异交结实,父母本开花期较短,每日开花的时间只有1.5-2h,花粉的存活时间也只有4-5min,父本可提供的有效花粉量将直接影响制种产量,通过快速精准的识别出父本,获取最佳的授粉时间,来保证父母本花期相遇拥有良好的授粉情况是增加产量和保证种子优良品质的关键。且在授粉结束后,需提前割掉父本,为母本提供充足养分,保持通风性,减少病虫危害,便于机械收割。因此,识别出父母本是杂交水稻农情监测的重要前提。传统的农情监测主要是依靠人工田间调查,这种方式耗时多,误差大,当种植面积大时,很难及时获取到作物信息,随着智慧农业的发展,规模化、机械化、智能化、轻简化是我国水稻制种产业的发展趋势,利用遥感技术对农田图像信息和空间信息快速获取的特点,为实现无人农场提供数据支持与决策参考,是降低劳动成本、提高制种率、实现科学制种的重要举措,对实现杂交水稻制种授粉智能化决策与农场无人化作业有积极意义。
但是目前杂交水稻父本开花信息提取中基本是靠人工经验获取,时效性信息不足,难于及时掌握父本开花时间。
发明内容
本发明在于克服现有技术的不足,提供一种基于无人机遥感影像的杂交水稻父母本识别提取方法,所述杂交水稻父母本识别提取方法用无人机的灵活性和时效性对大块杂交水稻田的父母本监督分类,进而准确获取开花信息,能节省人力和时间,有效的提高了花粉利用率,增加了杂交水稻的产量。
本发明用于解决现有技术问题的技术方案是:
一种基于无人机遥感影像的杂交水稻父母本识别提取方法,包括以下步骤:
(1)、通过无人机对试验地进行图像采集;
(2)、对采集到的图像进行预处理,获得试验地的正射图像;
(3)、对获得的正射图像进行裁剪得到目标区域,并在目标区域上分别随机选取母本、父本、杂草和裸地各10个样本并且计算样本的可分离性,并选择分离性良好的样本作为监督分类对象;
(4)、计算目标区域的可见光植被指数和多光谱植被指数;
(5)、采用多种父母本分类提取方法对监督分类对象中父本和母本进行分类,并将分类结果作为测试集,将实际调查结果作为验证集,以此构建多种父母本监督分类模型,选择精度最高的为最佳父母本监督分类模型;
(6)、无人机对试验地进行图像采集,并将采集到的图像输入最佳父母本监督分类模型,所述的最佳父母本监督分类模型输出父本和母本的分类结果。
优选的,在步骤(1)中,所采用的无人机为深圳大疆精灵4多光谱版四旋翼无人机,该无人机对角线轴距为350mm,空载时续航飞行时间为27分钟,信号最大有效距离为7Km,最大起飞质量为1487g;且所述无人机搭载6个1/2.9英寸的CMOS,其中包括1个用于可见光成像的彩色传感器和蓝光、绿光、红光、红边、近红外5个用于多光谱成像的单色传感器,图像分辨率为1600像素×1300像素。
优选的,在步骤(1)中,无人机的飞行高度为50m,航线23条,飞行速度2.6m/s,航线总长1.577km,航向重叠度85%,旁向重叠度85%,影像空间分辨率为2.6cm/pixel。
优选的,在步骤(2)中,所述的预处理包括拼接、几何校正和辐射校正。
优选的,在步骤(3)中,当样品分离性在1.0以下,表示样本分离性不高,需重新选择;当分离性在1.8-2.0,表示样本区分性良好,可作为监督分类对象。
优选的,在步骤(4)中,所述的可见光植被指数包括超红指数、超绿指数、超蓝指数、超绿超红差分指数、绿色度坐标、植被颜色指数;所述多光谱植被指数包括归一化差异植被指数、叶片叶绿素指数、归一化差异红边植被指数、绿色归一化差异植被指数。
优选的,在步骤(5)中,所述的父母本分类提取方法包括基于像元的父母本监督分类方法以及基于样本的父母本面向对象分类方法,其中,所述基于像元的父母本监督分类方法用于对所采用的6种可见光植被指数和4种多光谱植被指数计算结果进行分类,包括以下五种:平行六面体法、最小距离法、马氏距离法、最大似然法和神经网络法;而所述的基于样本的父母本面向对象分类方法用于对可见光图像进行监督分类。
优选的,在步骤(5)中,采用混淆矩阵对分类结果进行精度检验,采用总精度和Kappa系数两个指标分别对基于像元的父母本监督分类方法和基于样本的父母本面向对象分类方法进行评估,总精度越接近100%,则表示精度越高;Kappa系数表示分类结果与真实类别之间的一致性,取值范围在[-1,1]之间,其中,Kappa系数根据下列公式计算得到。
式中,K代表Kappa系数,P0是总体分类精度,Pe是机遇一致性,n是混淆矩阵方程的阶,N是样本总数,是列或行中所有值的总和。
本发明与现有技术相比具有以下的有益效果:
1、本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法利用无人机的灵活性和时效性对大块杂交水稻田的父母本监督分类,进而准确获取开花信息,能节省人力和时间,有效的提高了花粉利用率,增加了杂交水稻的产量。
2、本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法操作简单,且便于实施,并且可以有效地提取杂交水稻父本和母本,为快速获取杂交水稻父母本的分布,确保父母本花期相遇,实时监测田间情况,提高杂交水稻的制种率提供参考。
3、本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法的精度更高,可以快速且准确地提取杂交水稻的父本和母本,从而确保在父母本开花期内进行授粉,提高授粉效率,进而增加杂交水稻的产量。
附图说明
图1为本发明的试验地概况示意图。
图2为四类地物样本的可分离性的示意图。
图3为六种可见光植被指数计算结果图。
图4为四种多光谱植被指数计算结果图。
图5为可见光植被指数结果图。
图6为多光谱植被指数监督分类结果图。
图7为面向对象图像分割效果图。
图8为可见光植被指数面向对象分类结果图。
图9为多光谱植被指数面向对象分类结果图。
图10为各植被指数的精度统计图。
图11为本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法的流程示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
参见图11,本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法包括以下步骤:
(1)、通过无人机对试验地进行图像采集;
(2)、对采集到的图像进行预处理,获得试验地的正射图像;
(3)、对获得的正射图像进行裁剪得到目标区域,并在目标区域上分别随机选取母本、父本、杂草和裸地各多个样本并且计算样本的可分离性,并选择分离性良好的样本作为监督分类对象;
(4)、计算目标区域的可见光植被指数和多光谱植被指数;所述的可见光植被指数包括超红指数、超绿指数、超蓝指数、超绿超红差分指数、绿色度坐标、植被颜色指数;所述多光谱植被指数包括归一化差异植被指数、叶片叶绿素指数、归一化差异红边植被指数、绿色归一化差异植被指数;
(5)、采用多种父母本分类提取方法对监督分类对象中父本和母本进行分类,并将分类结果作为测试集,将实际调查结果作为验证集,以此构建多种父母本监督分类模型,选择精度最高的为最佳父母本监督分类模型;
(6)、无人机对试验地进行图像采集,并将采集到的图像输入最佳父母本监督分类模型,所述的最佳父母本监督分类模型输出父本和母本的分类结果。
具体案例
本实施例则以具体案例对本发明的基于无人机遥感影像的杂交水稻父母本识别提取方法进行阐述:
参见图1,试验地点位于海南省三亚市崖州区南滨农场基地(18.25°N,109.51°E),属于热带海洋性季风气候,终年无霜雪,光热资源充足,多年平均气温24℃-25℃,日照时数平均2777.15小时,年平均降雨量1000-1900毫米,适合杂交水稻制种。试验地概况如图1所示。
本实验采用的是深圳大疆精灵4多光谱版四旋翼无人机,该机对角线轴距350mm,空载时续航飞行时间约27分钟,信号最大有效距离7Km,最大起飞质量1487g,6个1/2.9英寸CMOS,包括1个用于可见光成像的彩色传感器和蓝光、绿光、红光、红边、近红外5个用于多光谱成像的单色传感器,图像分辨率为1600像素×1300像素,各波段信息参数见表1所示,拍摄的图像存储于相机内部SD卡。图像采集于2021年4月11日,试验设计飞行高度为50m,航线23条,飞行速度2.6m/s,航线总长1.577km,航向重叠度85%,旁向重叠度85%,影像空间分辨率为2.6cm/pixel,航拍获取目标区域2875幅图片。
表1多光谱传感器的波段参数
无人机对试验地进行图像采集后,通过Pix4DMapper软件对图像进行拼接、几何校正和辐射校正处理,获得试验地的正射图像。利用ENVI5.3软件对影像进行裁剪得到目标区域如图1。根据表1的公式使用BandMath工具计算各可见光植被指数,使用ROI(Regionofinterest,感兴趣区)工具结合目视解译在目标区域上分别随机选取母本、父本、杂草和裸地各10个样本并且计算样本的可分离性。当分离性在1.0以下,表示样本分离性不高,需重新选择;当分离性在1.8-2.0,表示样本区分性良好。如图2所示的各类地物的分离性良好,可作为监督分类对象。
本实施例选取了6种可见光植被指数和4种多光谱植被指数;其中,所述的可见光植被指数包括超红指数、超绿指数、超蓝指数、超绿超红差分指数、绿色度坐标、植被颜色指数;所述多光谱植被指数包括归一化差异植被指数、叶片叶绿素指数、归一化差异红边植被指数、绿色归一化差异植被指数。其中6种可见光植被指数的计算公式及理论区间如表2所示:
表2可见光植被指数
其中,表2中的各个符号的含义为:R:红光波段,G:绿光波段,B:蓝光波段;r:红光通道的标准化结果;g:绿光通道的标准化结果;b:蓝光通道的标准化结果;且r+g+b=1,r,g,b的范围是[0,1],其中,
以裁剪得到的正射图像中的目标区域(即图1),根据表2的公式使用ENVI软件中的BandMath工具计算各可见光植被指数,计算结果如图3所示;再利用大疆制图软件的二维多光谱重建功能,对多光谱相机拍摄获取的RGB图像和5个单波段图像进行计算得到4种多光谱植被指数图像,计算结果如图4所示。总体来说,父本与母本可以在10种植被指数计算结果图中清晰呈现。
为了更好的对比这10种植被指数,本实施例将地物类型分为母本、父本、杂草和裸地4种地物类型,分别在计算的植被指数图上的每种地物各选10个感兴趣区域进行统计,并进行父本与母本的特征值统计。由表3可知,在父本与母本上这10种植被指数在标准差上相差无几,但平均值差异较大,尤其是在超绿超红差分指数上父母本平均值相差达到74.1052,可以看出父本与母本两者信息之间差异显著,对于利用可见光和多光谱进行杂交水稻父母本的识别具有较好的结果。
表3基于感兴趣区域的10种植被指数的统计值
本实施例中采用两类父母本分类提取方法,其中一类是利用平行六面体法、最小距离法、马氏距离法、最大似然法和神经网络法5种基于像元的监督分类方法对6种可见光植被指数和4种多光谱植被指数计算结果进行分类,另一类是利用基于样本的面向对象信息对可见光图像进行监督分类,提取杂交水稻父母本信息,并对比两类不同方法的分类精度。基于像元的5种监督分类方法都是通过一定的规则对具有相似光谱特征的像元归到相应的类别,面向对象分类方法与基于像元分类方法提取不同的是不再是针对单个像元,而是图像分割后所形成的对象。
同时在实施监督分类后对结果的准确度进行评估,采用混淆矩阵对分类结果进行精度检验,采用总精度和Kappa系数两个指标分别对六种监督分类方法进行评估,总精度越接近100%精度越高,Kappa系数表示分类结果与真实类别之间的一致性,取值范围在[-1,1]之间,一般Kappa系数在0.81-1.0之间表示分类结果与真实类别几乎完全一致,Kappa系数可根据下列公式计算得到。
式中,P0是总体分类精度,Pe是机遇一致性,n是混淆矩阵方程的阶,N是样本总数,是列(行)中所有值的总和。
以下则分别对基于像元的父母本监督分类方法和基于样本的父母本面向对象分类方法进行阐述:
(1)基于像元的父母本监督分类方法
根据图3的可见光植被指数计算结果图、图4中的多光谱植被指数计算结果图以及选取的父本与母本的训练样本,利用ENVI软件中的SupervisedClassification分类器,选择平行六面体法、最小距离法、马氏距离法、最大似然法和神经网络法五种监督分类方法进行分类。其中,平行六面体法和最小距离法的参数设置都是依据标准差来分类,标准差阈值选择SingleValue,值分别设为3和4对10种植被指数进行分类;马氏距离法的最大距离误差参数设置和最大似然法的似然度阈值参数设置均选择None对其进行监督分类;神经网络法的分类参数设置选择对数(Logistic)活化函数,权重调节速度设为0.2,迭代次数设为1000次,其它值设为默认作为本实施例的参数设置。监督分类结果如图5,图6所示。
基于图5和图6得到的植被指数监督分类结果图,根据目视解译判读在图像上再选取母本与父本各10个样本作为验证样本,将得到的分类结果作为真值,分别对母本与父本计算混淆矩阵得到各植被指数的精度统计,结果如表4所示。由表4可知,可见光植被指数的分类总精度在马氏距离法、最大似然法和神经网络法上都有90%以上的分类精度,在平行六面体法上的分类总精度最低,五种监督分类方法在多光谱的分类总精度上基本都在70%-80%之间差别不大,相比来说可见光植被指数的分类精度在总精度上比多光谱植被指数精度高;从Kappa系数来看,不论是可见光植被指数还是多光谱植被指数,在平行六面体法和最小距离法的Kappa系数都较低,在最大似然法和神经网络法的Kappa系数都较高,尤其在可见光植被指数上基本能达到0.9以上,多光谱植被指数在5种监督分类方法上的Kappa系数普遍较低。总体来说,多光谱植被指数不适用于基于像元的监督分类方法,可见光植被指数在最大似然法和神经网络法上具有较高的分类精度,且在超绿超红差分指数上表现的最为明显。
表4 10种植被指数的5种监督分类方法精度比较
(2)基于样本的父母本面向对象分类方法
在ENVI5.3中,使用基于样本的面向对象分类对图3,图4获得的植被指数计算结果图进行父母本分类。经过反复测试,图像分割选择边缘检测法,阈值设为15,对影像上的地物进行分割,形成单个对象;合并选择FullLambdaSchedule算法,阈值设为80,将相邻的、具有相似光谱、纹理和几何特征的对象合并、融合成为更完整的对象,分割效果如图7所示。对象划分完后,根据目视解译在图上分别选取母本50个样本,父本50个样本,杂草20个样本和裸地20个样本作为训练集,使用SVM法对图像进行自动分类,阈值参数设为5,分类结果如图8,图9所示。
基于图8和图9得到的植被指数分类结果图,根据目视解译判读在图像上再对4种类别分别选取10个样本作为验证样本,将分类结果当作真值并计算混淆矩阵得到各植被指数的精度统计,结果如图10所示。由图10可知,在基于样本的面向对象分类方法上,可见光植被指数的分类精度依然普遍高于多光谱植被指数,但在4种多光谱植被指数分类精度之间最值之差并没有6种可见光植被指数最值之差大。在可见光植被指数分类精度中,Kappa系数最低的CIVE只有0.6256,而分类精度最高的超绿超红差分指数Kappa系数达到0.8698,总精度达到94.42,略低于基于像元的超绿超红差分指数分类精度。总的来说,在面向对象分类方法上同样对杂交水稻父母本的提取有较好的效果。
最后,由于基于像元的最大似然法监督分类方法的精度最佳,因此,采用基于像元的最大似然法监督分类方法来构建最佳父母本监督分类模型;无人机对试验地进行图像采集,并将采集到的图像输入最佳父母本监督分类模型,所述的最佳父母本监督分类模型输出父本和母本的分类结果。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、块合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.一种基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,包括以下步骤:
(1)、通过无人机对试验地进行图像采集;
(2)、对采集到的图像进行预处理,获得试验地的正射图像;
(3)、对获得的正射图像进行裁剪得到目标区域,并在目标区域上分别随机选取母本、父本、杂草和裸地各多个样本并且计算样本的可分离性,并选择分离性良好的样本作为监督分类对象;
(4)、计算目标区域的可见光植被指数和多光谱植被指数;
(5)、采用多种父母本分类提取方法对监督分类对象中父本和母本进行分类,并将分类结果作为测试集,将实际调查结果作为验证集,以此构建多种父母本监督分类模型,选择精度最高的为最佳父母本监督分类模型;
(6)、无人机对试验地进行图像采集,并将采集到的图像输入最佳父母本监督分类模型,所述的最佳父母本监督分类模型输出父本和母本的分类结果。
2.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(1)中,所采用的无人机为深圳大疆精灵4多光谱版四旋翼无人机,该无人机对角线轴距为350mm,空载时续航飞行时间为27分钟,信号最大有效距离为7Km,最大起飞质量为1487g;且所述的无人机搭载6个1/2.9英寸的CMOS,其中包括1个用于可见光成像的彩色传感器和蓝光、绿光、红光、红边、近红外共5个用于多光谱成像的单色传感器,图像分辨率为1600像素×1300像素。
3.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(1)中,无人机的飞行高度为50m,航线23条,飞行速度2.6m/s,航线总长1.577km,航向重叠度85%,旁向重叠度85%,影像空间分辨率为2.6cm/pixel。
4.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(2)中,所述的预处理包括拼接、几何校正和辐射校正。
5.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(3)中,当样品分离性在1.0以下,表示样本分离性不高,需重新选择;当分离性在1.8-2.0,表示样本区分性良好,可作为监督分类对象。
6.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(4)中,所述的可见光植被指数包括超红指数、超绿指数、超蓝指数、超绿超红差分指数、绿色度坐标、植被颜色指数;所述多光谱植被指数包括归一化差异植被指数、叶片叶绿素指数、归一化差异红边植被指数、绿色归一化差异植被指数。
7.根据权利要求1所述的基于无人机遥感影像的杂交水稻父母本识别提取方法,其特征在于,在步骤(5)中,所述的父母本分类提取方法包括基于像元的父母本监督分类方法以及基于样本的父母本面向对象分类方法,其中,所述基于像元的父母本监督分类方法用于对所采用的6种可见光植被指数和4种多光谱植被指数计算结果进行分类,包括以下五种:平行六面体法、最小距离法、马氏距离法、最大似然法和神经网络法;而所述的基于样本的父母本面向对象分类方法用于对可见光图像进行监督分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210022642.6A CN115035423B (zh) | 2022-01-10 | 2022-01-10 | 一种基于无人机遥感影像的杂交水稻父母本识别提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210022642.6A CN115035423B (zh) | 2022-01-10 | 2022-01-10 | 一种基于无人机遥感影像的杂交水稻父母本识别提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115035423A true CN115035423A (zh) | 2022-09-09 |
CN115035423B CN115035423B (zh) | 2024-04-16 |
Family
ID=83119085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210022642.6A Active CN115035423B (zh) | 2022-01-10 | 2022-01-10 | 一种基于无人机遥感影像的杂交水稻父母本识别提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035423B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117158311A (zh) * | 2023-09-27 | 2023-12-05 | 四川农业大学 | 一种自动识别父本和s型路线飞行的大型无人机杂交水稻授粉系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109684929A (zh) * | 2018-11-23 | 2019-04-26 | 中国电建集团成都勘测设计研究院有限公司 | 基于多源遥感数据融合的陆生植物生态环境监测方法 |
US20200019817A1 (en) * | 2018-07-11 | 2020-01-16 | Harbin Institute Of Technology | Superpixel classification method based on semi-supervised k-svd and multiscale sparse representation |
CN110991335A (zh) * | 2019-11-29 | 2020-04-10 | 福州大学 | 一种基于多特征优选的可见光无人机遥感影像森林树种分类方法 |
CN111091052A (zh) * | 2019-11-07 | 2020-05-01 | 中国农业大学 | 一种基于最大似然法的玉米倒伏面积提取系统及方法 |
CN112131946A (zh) * | 2020-08-21 | 2020-12-25 | 长沙银汉空间科技有限公司 | 光学遥感影像植被和水体信息自动提取方法 |
CN113033670A (zh) * | 2021-03-29 | 2021-06-25 | 华南农业大学 | 一种基于Sentinel-2A/B数据的水稻种植面积提取方法 |
-
2022
- 2022-01-10 CN CN202210022642.6A patent/CN115035423B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200019817A1 (en) * | 2018-07-11 | 2020-01-16 | Harbin Institute Of Technology | Superpixel classification method based on semi-supervised k-svd and multiscale sparse representation |
CN109684929A (zh) * | 2018-11-23 | 2019-04-26 | 中国电建集团成都勘测设计研究院有限公司 | 基于多源遥感数据融合的陆生植物生态环境监测方法 |
CN111091052A (zh) * | 2019-11-07 | 2020-05-01 | 中国农业大学 | 一种基于最大似然法的玉米倒伏面积提取系统及方法 |
CN110991335A (zh) * | 2019-11-29 | 2020-04-10 | 福州大学 | 一种基于多特征优选的可见光无人机遥感影像森林树种分类方法 |
CN112131946A (zh) * | 2020-08-21 | 2020-12-25 | 长沙银汉空间科技有限公司 | 光学遥感影像植被和水体信息自动提取方法 |
CN113033670A (zh) * | 2021-03-29 | 2021-06-25 | 华南农业大学 | 一种基于Sentinel-2A/B数据的水稻种植面积提取方法 |
Non-Patent Citations (1)
Title |
---|
张亚莉 等: "基于可见光图像的水稻颖花开花状态检测方法", 《农业工程学报》, vol. 37, no. 9, 31 May 2021 (2021-05-31), pages 253 - 262 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117158311A (zh) * | 2023-09-27 | 2023-12-05 | 四川农业大学 | 一种自动识别父本和s型路线飞行的大型无人机杂交水稻授粉系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115035423B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230292647A1 (en) | System and Method for Crop Monitoring | |
CN111340826B (zh) | 基于超像素与拓扑特征的航拍图像单株树冠分割算法 | |
CN111462223B (zh) | 基于Sentinel-2影像的江淮地区大豆和玉米种植面积识别方法 | |
Rasti et al. | A survey of high resolution image processing techniques for cereal crop growth monitoring | |
CN107480706A (zh) | 一种制种玉米田遥感识别方法及装置 | |
Chen et al. | Predicting individual apple tree yield using UAV multi-source remote sensing data and ensemble learning | |
CN106372592A (zh) | 一种基于冬小麦面积指数的冬小麦种植面积计算方法 | |
CN109325431A (zh) | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 | |
CN113221806B (zh) | 基于云平台融合多源卫星影像和茶树物候期的茶园自动识别方法 | |
CN110889394A (zh) | 基于深度学习UNet网络的水稻倒伏识别方法 | |
Selvi et al. | Weed detection in agricultural fields using deep learning process | |
CN116543316B (zh) | 一种利用多时相高分辨率卫星影像识别稻田内草皮的方法 | |
CN114140692A (zh) | 基于无人机遥感和深度学习的鲜食玉米成熟度预测方法 | |
CN115641412A (zh) | 基于高光谱数据的三维语义地图的生成方法 | |
CN113963275A (zh) | 一种冬小麦、土地农作物的遥感识别方法及遥感识别系统 | |
CN117409339A (zh) | 一种用于空地协同的无人机作物状态视觉识别方法 | |
CN115035423B (zh) | 一种基于无人机遥感影像的杂交水稻父母本识别提取方法 | |
Zhang et al. | Large-scale apple orchard mapping from multi-source data using the semantic segmentation model with image-to-image translation and transfer learning | |
CN112541933B (zh) | 一种农田边界及种植结构的提取方法 | |
Papić et al. | On Olive Groves Analysis using UAVs | |
Poleshchenko et al. | Development of a System for Automated Control of Planting Density, Leaf Area Index and Crop Development Phases by UAV Photos | |
Guo et al. | Low-cost and precise traditional Chinese medicinal tree pest and disease monitoring using UAV RGB image only | |
Bacchilega | Land cover classification of the semi-arid Namibian savanna | |
Santana et al. | Counting of Coffee Trees Based on Convolutional Neural Network Applied to RGB Images Obtained by RPA. Sustainability 2023, 15, 820 | |
CN116630827A (zh) | 一种利用无人机遥感影像获取棉铃指数估算棉花产量的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |