CN116704384A - 一种基于无人机监测智能识别水稻抽穗期的方法和装置 - Google Patents

一种基于无人机监测智能识别水稻抽穗期的方法和装置 Download PDF

Info

Publication number
CN116704384A
CN116704384A CN202310702822.3A CN202310702822A CN116704384A CN 116704384 A CN116704384 A CN 116704384A CN 202310702822 A CN202310702822 A CN 202310702822A CN 116704384 A CN116704384 A CN 116704384A
Authority
CN
China
Prior art keywords
rice
images
neural network
heading
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310702822.3A
Other languages
English (en)
Inventor
徐芬
徐晓刚
王军
魏兴华
章孟臣
杨窑龙
邵高能
冯跃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
China National Rice Research Institute
Original Assignee
Zhejiang Lab
China National Rice Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab, China National Rice Research Institute filed Critical Zhejiang Lab
Priority to CN202310702822.3A priority Critical patent/CN116704384A/zh
Publication of CN116704384A publication Critical patent/CN116704384A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无人机监测智能识别水稻抽穗期的方法,该方法包括:获取水稻小区图像;对图像进行标注,将标注的图像输入到训练好的深度卷积神经网络检测模型中,检测每张图像中的水稻小区目标框的位置,选取图像中最大面积的目标框,裁剪出框中的水稻小区图像;对深度卷积神经网络检测模型检测效果不满足要求的图像进行人工手动标注,按标注区域对图像进行裁剪;将裁剪后的图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。本发明还公开了一种基于无人机监测智能识别水稻抽穗期的装置。本发明实现方法简单,可移植性强,能够实现对田间种植的各品种水稻抽穗期的精准识别。

Description

一种基于无人机监测智能识别水稻抽穗期的方法和装置
技术领域
本发明属于农业技术领域,涉及计算机视觉领域技术,尤其涉及一种基于无人机监测智能识别水稻抽穗期的方法和装置。
背景技术
水稻是我国最重要的粮食作物之一,产量约占全国粮食总产量的一半,种植面积占全国粮食作物种植面积的30%。一般抽穗期是指全田50%植株开始抽穗。抽穗期是决定作物结实粒数的关键时期,需要特别管理。
抽穗期是决定作物结实粒数多少的关键时期,对外界条件反应敏感。抽穗期标志着农作物由营养生长(根和茎、叶等的生长)转向生殖生长(开花结果)。也就是营养生长和生殖生长旺盛的并进阶段。这是决定农作物产量最为重要的关键期,也是农作物一生中生长发育最快,对养分、水分、温度、光照要求最多的时期,是进行追肥的最佳时期。水稻抽穗期检测是田间水稻生长期自动检测的一个重要环节,准确识别水稻抽穗期,便于指导后期相关的田间作业。
一直以来,对于水稻各个发育期的观测主要是通过专业人员到田间进行肉眼观测,受观测员主观因素的影响较大;同时由于水稻种植地域广、生长周期长,利用专业人员观测费用昂贵。
近年来,无人机在智慧农业中广泛应用,无人机具有机动、灵活的特点,将其搭载摄像头、传感器用于农田监测不易受天气影响,对农作物生长的扰动少,且可获得高分辨率影像,对辅助农田精准管理具有重要意义。
授权公告号为CN 102621075 B的发明专利公开了一种水稻抽穗期的自动检测方法,以稻田中采集到的实时前下视图像为对象,以表征水稻稻穗的颜色特征作为分割依据,实时地对水稻稻穗进行分割,进而对分割得到的稻穗区域进行稻穗盖度计算,将计算得到稻穗盖度与之前图像的稻穗盖度进行比对,若稻穗盖度明显增大,则表明当前水稻图像中的水稻进入抽穗期。本发明以表征水稻生长状况的重要参数作为判断依据,实时地对水稻生长图像进行计算,检测结果准确率高。
授权公告号为CN 109523509 B的发明专利公开了一种小麦抽穗期的检测方法、装置及电子设备,其中,方法包括:获取待检测图像;将待检测图像输入小麦特征检测模型,以得到特征标注图像;小麦特征检测模型为利用神经网络架构对小麦抽穗期的样本图像进行训练得到的检测模型;特征标注图像上标注有若干特征框;利用特征标注图像上标注的特征框,确定待检测图像是否为抽穗期的小麦图像。该方法无需综合分析多张连续生长序列的图片,可以对小麦抽穗期进行有效识别。
虽然现有技术中已经采用了神经网络模型对田间拍摄的农作物图像进行抽穗期识别,但目前的抽穗期识别方法都略显繁琐,不够简单,所采用的神经网络模型的检测和识别效率低。
YOLO神经网络架构,采用了YOLO算法,其全称是You Only Look Once:Unified,Real-Time Object Detection,You Only Look Once表示只需要一次CNN运算,Unified表明这是一个统一的框架,提供端到端的预测,而Real-Time体现是Yolo算法速度快,ObjectDetection表示目标检测。YOLOv5是YOLO神经网络系列的较新版本,其检测精度高,速度快,具有极大的实际应用价值。YOLOv5s又是YOLOv5系列中深度最小,特征图的宽度最小的网络,非常适合用于水稻小区的检测。
ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,ResNet的主要思想是在网络中增加了直连通道。此前的网络结构多是对性能输入做一个非线性变换,而ResNet则允许保留之前网络层的一定比例的输出。ResNet允许原始输入信息直接传到后面的层中,这一层的神经网络可以不用学习整个的输出,而是学习上一个网络输出的残差,因此ResNet又叫做残差网络。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。通过使用ResNet单元成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,效果非常突出。
因此,采用YOLOv5s神经网络模型结合ResNet网络对水稻抽穗情况进行识别,可以有效解决现有方法繁琐、效率低、成本高的问题,对水稻抽穗期相关的农事活动具有重要的指导意义。
发明内容
本发明的目的在于提供一种基于无人机监测智能识别水稻抽穗期的方法、装置、计算机设备和存储介质,解决现有技术中水稻抽穗期的识别方法较为繁琐、效率低、成本高且识别结果受观测员主观因素影响较大的问题。
本发明第一个方面提供了一种基于无人机监测智能识别水稻抽穗期的方法,包括以下步骤:
S1、获取水稻小区图像;
S2、对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出框中的水稻小区图像,得到目标水稻小区图像;
S3、对步骤S2中深度卷积神经网络检测模型检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像;
S4、将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
进一步地,步骤S1中,采用无人机以俯视90°视角,图片分辨率大于等于1200万像素,无人机高度以尽量不干扰拍摄物且目标小区占视野最大为宜,依次拍摄各品种水稻种植小区的完整图像,目标小区位于视野中央,占视野宽度的比例大于80%,尽量不包含其他小区目标。
进一步地,步骤S2中,对无人机拍摄图像中的水稻小区进行标注,标注时将图像中可见小区全部进行标注,包括拍摄到的不完整的其他品种小区,得到标注的水稻小区图像。
进一步地,步骤S2中,选择预训练的YOLOv5s模型作为深度卷积神经网络检测模型,采用标注的水稻小区图像作为训练集,对模型进行优化训练。将无人机拍摄的待检水稻小区图像逐一输入训练好的YOLOv5s水稻小区检测模型中,输出每张图像中检测到的水稻小区目标框的位置。
进一步地,步骤S4中,将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果的具体步骤为:
S401、对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练;
S402、将步骤S2和S3中得到的目标水稻小区图像输入到步骤S401中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
进一步地,步骤S401中,选择ResNet50深度卷积神经网络模型作为判断水稻是否为抽穗期的二分类器,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对基于ResNet50深度卷积神经网络的二分类器进行训练优化。
具体的,步骤S401中,所述的对深度卷积神经网络的二分类器进行优化训练的步骤如下:首先导入在ImageNet上预训练的ResNet50深度卷积神经网络模型,然后分批次读取抽穗期和非抽穗期的水稻小区图像,将其缩放到固定尺寸,并对数据进行归一化操作,以使得每一个批次的训练数据具有相同的分布,从而加快模型的收敛速度。每一张输入的水稻小区图像在经过网络前向计算以及最后的全连接层之后,将输出一个2维的预测结果x,x={x[1],x[2]},其中x[1]和x[2]分别代表水稻抽穗期和水稻非抽穗期的概率值。最后,计算预测结果x与真值class之间的交叉熵损失。基于计算得到的交叉熵损失,对网络进行反向传播操作,通过梯度下降算法来不断更新网络参数,从而使得ResNet50深度卷积神经网络模型的预测值逼近真实值。
进一步地,步骤S2中,若输出的一个2维的预测结果x={x[1],x[2]}中的x[1]>x[2],则代表该水稻小区是抽穗期;若x[1]<x[2],则代表该水稻小区是非抽穗期。
本发明第二个方面提供了一种基于无人机监测智能识别水稻抽穗期的装置,包括:
图像获取模块:所述图像获取模块用于获取水稻小区图像;
检测模块:所述检测模块用于对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出框中的水稻小区图像,得到目标水稻小区图像;
人工标注模块:所述人工标注模块用于对检测模块检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像;
预测模块:所述预测模块用于将检测模块和人工标注模块得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
进一步地,所述的预测模块包括:
模型训练单元:所述模型训练单元用于对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练;
预测结果输出单元:将检测模块和人工标注模块得到的目标水稻小区图像输入到模型训练单元中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
本发明第三个方面提供了一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
本发明第四个方面提供了一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
相比于现有技术,本发明的有益效果如下:
1、本发明将水稻抽穗期识别分解为级联的步骤,使各步骤可以针对性地达成各自的目标,实现方法简单,且各步骤中实现方案的选择更加灵活;
2、本发明采用无人机进行水稻小区图像采集,使用基于深度卷积神经网络的检测模型对水稻小区进行自动检测,避免了人为手工标定,省时省力;
3、本发明采用深度卷积神经网络的二分类器对水稻抽穗期与否进行自动判定,自动高效,精确度高,并且不需要专业技术人员参与,省时省力。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为实施例提供的一种基于无人机监测智能识别水稻抽穗期的方法的流程图。
图2为实施例中水稻小区图像训练集标注示意图。
图3为实施例中水稻小区图像的检测结果示意图。
图4为实施例中人工手动标注筛选目标水稻小区图像的示意图。
图5为实施例中通过深度卷积神经网络的二分类器识别水稻抽穗期与否示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本实施例提供的一种基于无人机监测智能识别水稻抽穗期的流程图;包括以下步骤:
S1、获取水稻小区图像。
一般育种时,一块农田中会同时种植多个品种的水稻,农田中种植单个品种水稻的区域称为一个水稻小区。单个水稻小区中的水稻一般按行列种植,株与株之间保持一定距离(一般为10厘米左右),整个小区成矩形分布。水稻小区与小区之间的距离会大于株与株之间的距离,一般为株与株距离的两到三倍。
采用无人机以俯视90°视角,图片分辨率大于等于1200万像素,无人机高度以尽量不干扰拍摄物且目标小区占视野最大为宜,本实施例中无人机的高度约为13米,依次拍摄各品种水稻种植小区的完整图像,目标小区位于视野中央,占视野宽度的比例大于80%,尽量不包含其他小区目标。
S2、对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出最大面积的目标框中的水稻小区图像,得到目标水稻小区图像。
对无人机拍摄图像中的水稻小区进行标注,标注时将图像中可见小区全部进行标注,包括拍摄到的不完整的其他品种小区,得到标注的水稻小区图像。图2为本实施例中水稻小区图像训练集标注示意图。
选择预训练的YOLOv5s模型作为深度卷积神经网络检测模型,采用标注的水稻小区图像作为训练集,对模型进行优化训练。将无人机拍摄的待检水稻小区图像逐一输入训练好的YOLOv5s水稻小区检测模型中,输出每张图像中检测到的水稻小区目标框的位置。图3为本实施例中水稻小区图像的检测结果示意图。
S3、对步骤S2中深度卷积神经网络检测模型检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像。
深度卷积神经网络检测模型检测效果不满足要求的水稻小区图像是指YOLOv5s水稻小区检测模型没有正确检测出来的水稻小区图像,即输出的水稻小区图像中水稻小区目标框的位置标注不正确的图像。
对通过YOLOv5s水稻小区检测模型检测效果不满足要求的图片,进行人工手动标注,然后按标注区域裁剪出目标水稻小区图像,图4为本实施例中人工手动标注筛选目标水稻小区图像的示意图。
S4、将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
具体的,将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果的具体步骤为:
S401、对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练。
具体的,选择ResNet50深度卷积神经网络模型作为判断水稻是否为抽穗期的二分类器,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,本实施例中选择抽穗期和非抽穗期的水稻小区图像各350张,对基于ResNet50深度卷积神经网络的二分类器进行训练优化。
具体的,步骤S401中,所述的对深度卷积神经网络的二分类器进行优化训练的步骤如下:首先导入在ImageNet上预训练的ResNet50深度卷积神经网络模型,然后分批次读取抽穗期和非抽穗期的水稻小区图像,将其缩放到固定尺寸(896×896),并对数据进行归一化操作,以使得每一个批次的训练数据具有相同的分布,从而加快模型的收敛速度。每一张输入的水稻小区图像在经过网络前向计算以及最后的全连接层之后,将输出一个2维的预测结果x,x={x[1],x[2]},其中x[1]和x[2]分别代表水稻抽穗期和水稻非抽穗期的概率值。最后,计算预测结果x与真值class之间的交叉熵损失。基于计算得到的交叉熵损失,对网络进行反向传播操作,通过梯度下降算法来不断更新网络参数,从而使得ResNet50深度卷积神经网络模型的预测值逼近真实值。
S402、将步骤S2和S3输出的目标水稻小区图像输入到步骤S401中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
具体的,若输出的一个2维的预测结果x={x[1],x[2]}中的x[1]>x[2],则代表该水稻小区是抽穗期;若x[1]<x[2],则代表该水稻小区是非抽穗期。图5为本发明实施例中通过ResNet50深度卷积神经网络二分类器识别水稻抽穗期与否示意图。
本实施例还提供了一种基于无人机监测智能识别水稻抽穗期的装置,包括:
图像获取模块:所述图像获取模块用于获取水稻小区图像;
检测模块:所述检测模块用于对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出框中的水稻小区图像,得到目标水稻小区图像;
人工标注模块:所述人工标注模块用于对检测模块检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像;
预测模块:所述预测模块用于将检测模块和人工标注模块得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
进一步地,所述的预测模块包括:
模型训练单元:所述模型训练单元用于对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练;
预测结果输出单元:将检测模块和人工标注模块得到的目标水稻小区图像输入到模型训练单元中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
本实施例还提供了一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
本实施例还提供了一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于无人机监测智能识别水稻抽穗期的方法,其特征在于,包括以下步骤:
S1、获取水稻小区图像;
S2、对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出框中的水稻小区图像,得到目标水稻小区图像;
S3、对步骤S2中深度卷积神经网络检测模型检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像;
S4、将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
2.根据权利要求1所述的基于无人机监测智能识别水稻抽穗期的方法,其特征在于:步骤S1中,采用无人机以俯视90°视角,图片分辨率大于等于1200万像素,依次拍摄各品种水稻种植小区的完整图像,目标小区位于视野中央,占视野宽度的比例大于80%。
3.根据权利要求1所述的基于无人机监测智能识别水稻抽穗期的方法,其特征在于:步骤S2中,对无人机拍摄图像中的水稻小区进行标注,标注时将图像中可见小区全部进行标注,包括拍摄到的不完整的其他品种小区,得到标注的水稻小区图像。
4.根据权利要求1所述的基于无人机监测智能识别水稻抽穗期的方法,其特征在于:步骤S2中,所述的深度卷积神经网络检测模型基于预训练的YOLOv5s模型,采用标注的水稻小区图像作为训练集进行优化训练。
5.根据权利要求1所述的基于无人机监测智能识别水稻抽穗期的方法,其特征在于:步骤S4中,将步骤S2和S3中得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果的具体步骤为:
S401、对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练;
S402、将步骤S2和S3中得到的目标水稻小区图像输入到步骤S401中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
6.根据权利要求5所述的基于无人机监测智能识别水稻抽穗期的方法,其特征在于:步骤S401中,所述的深度卷积神经网络的二分类器为基于ResNet50的深度卷积神经网络模型。
7.一种基于无人机监测智能识别水稻抽穗期的装置,包括:
图像获取模块:所述图像获取模块用于获取水稻小区图像;
检测模块:所述检测模块用于对水稻小区图像进行标注,得到标注的水稻小区图像,建立深度卷积神经网络检测模型,使用标注的水稻小区图像对深度卷积神经网络检测模型进行优化训练,将待检水稻小区图像输入到训练好的深度卷积神经网络检测模型中,检测每张水稻小区图像中的水稻小区目标框的位置,选取每张水稻小区图像中最大面积的目标框,裁剪出框中的水稻小区图像,得到目标水稻小区图像;
人工标注模块:所述人工标注模块用于对检测模块检测效果不满足要求的水稻小区图像进行人工手动标注,按标注区域裁剪出目标水稻小区图像;
预测模块:所述预测模块用于将检测模块和人工标注模块得到的目标水稻小区图像输入到一个基于深度卷积神经网络的二分类器中,输出水稻小区是否为抽穗期的预测结果。
8.根据权利要求7所述的基于无人机监测智能识别水稻抽穗期的装置,其特征在于,所述的预测模块包括:
模型训练单元:所述模型训练单元用于对无人机拍摄的水稻小区图像进行剪切标注,收集得到抽穗期和非抽穗期的水稻小区图像,将收集得到的抽穗期和非抽穗期的水稻小区图像作为训练集,对深度卷积神经网络的二分类器进行优化训练;
预测结果输出单元:将检测模块和人工标注模块得到的目标水稻小区图像输入到模型训练单元中训练好的基于深度卷积神经网络的二分类器中,输出水稻小区是否为水稻抽穗期的预测结果。
9.一种计算机设备,包括处理器以及用于存储处理器可执行程序的存储器,所述处理器执行存储器存储的程序时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
10.一种存储介质,存储有程序,所述程序被处理器执行时,实现上述的基于无人机监测智能识别水稻抽穗期的方法。
CN202310702822.3A 2023-06-14 2023-06-14 一种基于无人机监测智能识别水稻抽穗期的方法和装置 Pending CN116704384A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310702822.3A CN116704384A (zh) 2023-06-14 2023-06-14 一种基于无人机监测智能识别水稻抽穗期的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310702822.3A CN116704384A (zh) 2023-06-14 2023-06-14 一种基于无人机监测智能识别水稻抽穗期的方法和装置

Publications (1)

Publication Number Publication Date
CN116704384A true CN116704384A (zh) 2023-09-05

Family

ID=87837042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310702822.3A Pending CN116704384A (zh) 2023-06-14 2023-06-14 一种基于无人机监测智能识别水稻抽穗期的方法和装置

Country Status (1)

Country Link
CN (1) CN116704384A (zh)

Similar Documents

Publication Publication Date Title
Shi et al. Rice nitrogen nutrition estimation with RGB images and machine learning methods
CN100416590C (zh) 利用位置和纹理特征自动识别作物苗期田间杂草的方法
CN112639869A (zh) 作物生长阶段判定系统的服务器装置、生长阶段判定方法以及程序
CN114818909B (zh) 一种基于作物长势特征的杂草检测方法和装置
CN113011221A (zh) 作物分布信息的获取方法、装置及测量系统
CN113657326A (zh) 一种基于多尺度融合模块和特征增强的杂草检测方法
CN110826556A (zh) 改进深度学习的广谱农作物杂草识别与定位方法
CN112580671A (zh) 一种基于深度学习的稻穗多发育期自动检测方法及系统
CN114965501A (zh) 基于冠层参数处理的花生病害检测与产量预测方法
CN114596509A (zh) 一种基于机器视觉的水稻秧苗叶龄期识别方法
CN117197595A (zh) 基于边缘计算的果树生育期识别方法、装置及管理平台
CN116399401B (zh) 一种基于人工智能的农业种植系统及方法
CN116704384A (zh) 一种基于无人机监测智能识别水稻抽穗期的方法和装置
CN115620151A (zh) 物候期识别方法、装置、电子设备和存储介质
Marsujitullah et al. Classification of Paddy Growth Age Detection Through Aerial Photograph Drone Devices Using Support Vector Machine And Histogram Methods, Case Study Of Merauke Regency
CN113240340B (zh) 基于模糊分类的大豆种植区分析方法、装置、设备和介质
CN113408374B (zh) 基于人工智能的产量预估方法、装置、设备及存储介质
CN116453003B (zh) 一种基于无人机监测智能识别水稻生长势的方法和系统
CN113553897A (zh) 一种基于无人机和YOLOv3模型的农作物识别方法
CN116052141B (zh) 作物生育期的识别方法、装置、设备及介质
CN116156329B (zh) 基于图像分析的黑土地退化快速监测方法、存储介质及设备
CN116823918B (zh) 作物苗株数测量方法、装置、电子设备及存储介质
CN115660236B (zh) 作物物候期预测方法、装置、电子设备和存储介质
Yang et al. Rape seedling density estimation in‐field conditions based on improved multi‐column convolutional neural network
CN117848975B (zh) 一种农业遥感图像分析方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination