CN112115988A - 一种麦穗计数方法、装置及自行走小车 - Google Patents

一种麦穗计数方法、装置及自行走小车 Download PDF

Info

Publication number
CN112115988A
CN112115988A CN202010918023.6A CN202010918023A CN112115988A CN 112115988 A CN112115988 A CN 112115988A CN 202010918023 A CN202010918023 A CN 202010918023A CN 112115988 A CN112115988 A CN 112115988A
Authority
CN
China
Prior art keywords
ear
counting
image
wheat
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010918023.6A
Other languages
English (en)
Other versions
CN112115988B (zh
Inventor
马韫韬
董奇宙
刘云玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Agricultural University
Original Assignee
China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Agricultural University filed Critical China Agricultural University
Priority to CN202010918023.6A priority Critical patent/CN112115988B/zh
Publication of CN112115988A publication Critical patent/CN112115988A/zh
Application granted granted Critical
Publication of CN112115988B publication Critical patent/CN112115988B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D11/00Steering non-deflectable wheels; Steering endless tracks or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种麦穗计数方法、装置及自行走小车,该方法包括:获取目标区域麦穗图像;将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进和新设计的人群计数卷积神经网络训练得到的。本发明实施例通过将应用于密集人群计数领域的计数算法,即多列卷积神经网络和空洞卷积神经网络应用于麦穗计数研究,提高了麦穗计数模型的精确度和效率。

Description

一种麦穗计数方法、装置及自行走小车
技术领域
本发明涉及农作物图像识别技术领域,尤其涉及一种麦穗计数方法、装置及自行走小车。
背景技术
小麦在我国农作物中占据着重要地位,是我国主要粮食作物。大田麦穗计数是小麦生产过程中的重要环节,对于准确的产量预测至关重要。目前麦穗人工调查方法费时费力,具有成本高、调查范围小等缺点。如何准确、高效、无损地计数麦穗,对于小麦生产、育种等具有重要意义。
在现有结合卷积神经网络的小麦计数研究中,张领先等人对图片中的麦穗、叶片、阴影进行三分类,分类准确率能达到99%,之后使用非最大抑制(Non-MaximumSuppression,简称NMS)等方法实现麦穗的定位和计数。由于无法很好的解决麦穗与叶片相互遮掩的问题,导致麦穗计数结果与人工计数结果线性拟合的R2仅为0.62,标准均方根误差(NRMSE)为11.73%。Zhou等人采用简单线性迭代聚类(Simple Linear IterativeClustering,简称SLIC)这种超像素分割算法来对麦穗进行定位,准确率也仅仅在80%左右。Alkhudaydi等人利用全卷积神经网络(Fully Convolutional Networks,简称FCN)对麦穗进行计数,也仅仅能达到平均绝对误差(Mean Absolute Error,简称MAE)为53.0和均方误差((Mean Squared Error,简称MSE)为71.2的结果。Madec等人则对比了多种网络的计数效果,得到的最优平均精确度(Average Precision,简称AP)为0.85。由于在小麦麦穗计数领域,存在小麦麦穗交叉遮掩,以及图片中呈现出的小麦麦穗尺度不一致的问题,导致现有基于深度学习的麦穗计数方法的准确率较低。
因此,现在亟需一种麦穗计数方法、装置及自行走小车来解决上述问题。
发明内容
针对现有技术存在的问题,本发明实施例提供一种麦穗计数方法、装置及自行走小车。
第一方面,本发明实施例提供了一种麦穗计数方法,包括:
获取目标区域麦穗图像;
将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
进一步地,所述改进的人群计数卷积神经网络是基于多列卷积神经网络和空洞卷积神经网络构建得到的。
进一步地,所述训练好的麦穗计数模型通过以下步骤获取:
获取样本区域麦穗图像,并对所述样本区域麦穗图像中的麦穗进行标记,得到训练样本集;
通过高斯核函数,对所述训练样本集进行转换,得到对应的麦穗密度图集合;
将所述训练样本集和所述麦穗密度图集合输入到改进的人群计数卷积神经网络进行训练,得到训练好的麦穗计数模型。
进一步地,在获取样本区域麦穗图像之后,所述方法还包括:
对样本区域麦穗图像进行麦穗标记,得到第一样本麦穗图像;
对所述第一样本麦穗图像进行预处理,得到第二样本麦穗图像;
根据所述第二样本麦穗图像分别构建训练样本集、验证样本集和测试样本集。
进一步地,所述预处理包括:亮度调整、水平翻转、垂直翻转和高斯白噪声处理。
第二方面,本发明实施例提供了一种麦穗计数装置,包括:
麦穗图像采集模块,用于获取目标区域麦穗图像;
麦穗计数模块,用于将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
第三方面,本发明实施例提供了一种自行走小车,包括:
信息采集装置、路径规划装置和根据第二方面所述麦穗计数装置;
所述信息采集装置,用于对行驶路径上的麦穗进行图像信息采集,并将采集到的麦穗图像发送到麦穗计数装置;
所述路径规划装置,用于根据预设路径,驱动所述自行走小车在麦穗区域内行驶,并对行驶路径上的麦穗和障碍物进行检测,以根据检测结果调整行驶路径;
所述麦穗计数装置,用于对采集到的麦穗图像中的麦穗进行计数。
进一步地,所述自行走小车上设置有液压杆,以使得所述自行走小车在进行转弯时,所述液压杆按照预设高度,将所述自行走小车撑离地面,从而调整所述自行走小车的车轮偏转角。
第四方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所提供的方法的步骤。
第五方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种麦穗计数方法、装置及自行走小车,通过将应用于密集人群计数领域的计数算法,即多列卷积神经网络和空洞卷积神经网络应用于麦穗计数研究,提高了麦穗计数模型的精确度和效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中视频输出模式选择方法流程图;
图2为本发明实施例提供的改进MCNN模型的结构示意图;
图3为本发明实施例提供的空洞卷积示意图;
图4为本发明实施例提供的改进CSRNet模型的结构示意图;
图5为本发明实施例提供的MCSRNet模型的结构示意图;
图6为本发明实施例提供麦穗计数模型的训练过程示意图;
图7为本发明实施例提供的麦穗计数装置的结构示意图;
图8为本发明实施例提供的自行车小车的结构示意图;
图9为本发明实施例提供的自行车小车的侧视图;
图10为本发明实施例提供的电子设备结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前国内外已有研究学者将图像处理应用于作物生长监控中,对作物苗情苗势、长势产量以及玉米雄穗计数等进行了大量的研究。其中,在小麦麦穗计数方面,有学者应用自适应提升算法(Adaboost)进行麦穗识别,准确率达到87.3%。Liu等人利用特征提取法,麦穗计数准确率89.9%。Fernandez等人基于RGB图像,在不同数据集上获得了90%左右的麦穗计数准确率。以上方法均是将传统的图像处理方法用于麦穗的特征提取,经过如拉普拉斯滤波、图像二值化等步骤,得到麦穗的轮廓,进而进行计数。研究表明,基于相同的实验条件、数据集和性能指标,深度学习性能优于支持向量机(Support Vector Machines,简称SVM)、随机森林(Random Forest,简称RF)、人工神经网络(Artificial Neural Network,简称ANN)和拉格朗日随机蒙特卡罗方法(Lagrangian Stochastic Monte-Carlo Methods,简称LMC)等常规方法。
然而,在现有结合卷积神经网络的小麦计数研究中,由于在小麦麦穗计数领域,存在小麦麦穗交叉遮掩,以及图片中呈现出的小麦麦穗尺度不一致的问题,导致现有基于深度学习的麦穗计数方法的准确率较低。本发明实施例将应用于密集人群计数领域的计数算法:多列卷积神经网络(Multi-Column Convolutional Neural Network,简称MCNN)和空洞卷积神经网络(Dilated Convolutional Neural Networks,简称CSRNet)应用于麦穗计数研究,在这两种算法基础上提供了一种新的多列空洞卷积神经网络(Dilated Multi-Column Convolutional Neural Networ,简称MCSRNet)应用于麦穗计数。
图1为本发明实施例提供的麦穗计数方法的流程示意图,如图1所示,本发明实施例提供了一种麦穗计数方法,包括:
步骤101,获取目标区域麦穗图像。
在本发明实施例中,首先通过外部图像采集装置,按照预设采集方式,对目标区域内的麦穗进行拍摄,从而得到多张目标区域的麦穗图像。优选地,在本发明实施例中,可以预先将目标区域划分为多个子区域,每个子区域的拍照顺序可按照外部图像采集装置的行进路径依次排列,再将排列好的麦穗图像依次输入到麦穗计数模型中。
步骤102,将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
在本发明实施例中,将上述实施例中得到麦穗图像输入到训练好的麦穗计数模型之后,从而得到每一张麦穗图像上的麦穗数量,再综合所有图像的麦穗数据得到目标区域整体麦穗数据。
本发明实施例提供的麦穗计数方法,通过将应用于密集人群计数领域的计数算法,即多列卷积神经网络和空洞卷积神经网络应用于麦穗计数研究,提高了麦穗计数模型的精确度和效率。
在上述实施例的基础上,所述改进的人群计数卷积神经网络是基于多列卷积神经网络和空洞卷积神经网络构建得到的。
在本发明实施例中,改进的人群计数卷积神经网络可基于三种方式进行改进得到。具体为,基于MCNN模型单独改进:MCNN模型是利用三个不同大小卷积核构成的多列卷积网络生成的特征图进行叠加,获取三种不同感受野的网络所生成的特征图,用以解决获取的图片中麦穗大小不均的问题。本发明实施例采集到的图像尺寸为4000像素×2250像素,比原始MCNN模型处理的图片分辨率高4倍左右。经过小规模的训练,发现原始MCNN模型对本发明实施例的图像训练集收敛速度较慢,在第10次样本训练过程(Epoch)时,测试集上的准确度仅能达到67%。因此,本发明实施例更改了原始MCNN模型的结构,加深网络层数的同时增加了卷积核的大小。改进的MCNN模型收敛速度明显提升,在第10个Epoch时,已能拥有75%的识别准确率,同时运行效率与原网络相差不大。相较于原始MCNN模型的6层网络结构,改进的MCNN模型同样分为三个不同的卷积神经网络,但是增加了两个卷积层,并且增加了卷积核的数量,使得网络生成的特征图可以拥有更深层次的特征。图2为本发明实施例提供的改进MCNN模型的结构示意图,可参考图2所示,本发明实施例在原始MCNN模型的基础上,在每一列卷积后新增了2个卷积层,即图2中虚线框标出的部分,为相比于原始MCNN模型增加的卷积层。
进一步地,基于CSRNet模型单独改进:CSRNet模型相比于MCNN模型,其最大的特点是增加了空洞卷积的部分。原始CSRNet模型采用训练好的VGG16卷积神经网络,并增加了4层用空洞卷积搭建神经网络。图3为本发明实施例提供的空洞卷积示意图,可参考图3所示,空洞卷积相比于普通卷积,可以在不改变卷积核大小的情况下,增加卷积核的感受野。原始CSRNet模型使用了VGG16作为前端网络,在整个网络末端增加了一个两倍的上采样,来匹配原有的密度图。但在,本发明实施例采集到的图像数据集分辨率不全为偶数,若在最后增加两倍的上采样,可能会导致图片与密度图大小的不匹配。因此,在本发明实施例更改了CSRNet网络结构,图4为本发明实施例提供的改进CSRNet模型的结构示意图,可参考图4所示,改进CSRNet模型采用了一个8层的网络,后四层具有空洞卷积核,这样可以较好地满足图片体积增大导致的网络体积过大的问题,同时也防止了输出与标签维度不匹配的问题。
进一步地,基于MCNN模型和CSRNet模型的融合模型:基于上述实施例中对MCNN模型和CSRNet模型的改进,本发明实施例提供了一种MCSRNet模型。MCSRNet模型结合了MCNN的多列卷积和CSRNet的空洞卷积模块,旨在不增加网络体积的情况下可以获得种类更多、更大的感受野。图5为本发明实施例提供的MCSRNet模型的结构示意图,可参考图5所示,MCSRNet模型是在改进MCNN模型的每一列卷积的后三层,都加入了空洞卷积模块。需要说明的是,通过本发明实施例三种方式得到的模型,均可运用于麦穗计数。
在上述实施例的基础上,所述训练好的麦穗计数模型通过以下步骤获取:
获取样本区域麦穗图像,并对所述样本区域麦穗图像中的麦穗进行标记,得到训练样本集;
通过高斯核函数,对所述训练样本集进行转换,得到对应的麦穗密度图集合;
将所述训练样本集和所述麦穗密度图集合输入到改进的人群计数卷积神经网络进行训练,得到训练好的麦穗计数模型。
在本发明实施例中,首先对麦穗图像进行裁剪,获得采样区图像,即得到样本区域麦穗图像。图6为本发明实施例提供麦穗计数模型的训练过程示意图,可参考图6所示,本发明实施例采用LabelMe库进行图像标记,并通过数据增强,获得6倍数量于原始样本数据集的图像。进一步地,对图像进行灰度转化,并将全部图像划分为两部分,一部分进行裁剪,裁剪后的图像划分为训练集和验证集;另一部分未裁剪的图像作为测试集。数据集作为预训练网络模型的输入,将数据集对应的高斯核函数密度图作为标签,对预训练网络模型进行训练与测试,最后获得用于小麦麦穗的计数模型。
进一步地,在对模型进行训练时,需要获取数据集对应的高斯核函数密度图。本发明实施例采用密度图回归的方法统计麦穗数量,该方法在标记的小麦麦穗图像基础上,根据标记麦穗的位置,估计该位置麦穗的大小,得到该麦穗的覆盖区域,再采用几何自适应高斯核等方法,标记该区域内的像素点属于麦穗的概率,该区域内所有像素点的概率总和为1,最终得到每张小麦图对应得到一张麦穗密度图。具体地,在本发明实施例中,通过高斯核函数将带有标记的小麦图片转化为密度图,假设用xi表示麦穗坐标中心位置,且该点用冲激函数δ表示,从而使得密度图上的每个像素的值可以用δ(x-xi)表示。因此,一个带有N个小麦标记的图像每一个像素的值可以表示为:
Figure BDA0002665720200000081
为了将上述函数转换为连续的密度函数,采用高斯核(G)来对其进行卷积,得到的高斯核函数:
F(x)=H(x)*G(x);
从而将标记麦穗的图像转化为密度图,本发明实施例的密度图利用Python库Matplotlib展示。
在上述实施例的基础上,在获取样本区域麦穗图像之后,所述方法还包括:
对样本区域麦穗图像进行麦穗标记,得到第一样本麦穗图像;
对所述第一样本麦穗图像进行预处理,得到第二样本麦穗图像;
根据所述第二样本麦穗图像分别构建训练样本集、验证样本集和测试样本集。
在上述实施例的基础上,所述预处理包括:亮度调整、水平翻转、垂直翻转和高斯白噪声处理。
在本发明实施例中,样本区域麦穗图像包含561幅冬小麦麦穗图像,采用灰度平均法计算的麦穗图像光照强度为62.02,图像尺寸为4000像素×2250像素。在田间拍照时,用矩形边框框出待拍照的样本区域,进行拍照的同时,人工计数麦穗数量。在进行数据标注前,沿矩形边框手动裁剪出要识别的图像区域,并采用Python中的库Labelme,对图像进行人工标记,每一个麦穗都有一个独立的标记与之对应。
进一步地,对于深度学习方法而言,数据集的体量与模型的泛化能力、准确度等参数成正相关。因此为了减少网络的过拟合现象,增强网络的泛化能力和识别率,本发明实施例通过增减亮度、水平/垂直翻转和加入白噪声,这五种方式对数据集进行进一步的扩充,并采用增强后的数据集训练模型。需要说明的是,在本发明实施例中,在麦穗计数模型训练好之后,可直接将待计数的麦穗图像输入到模型中进行计数,无需对麦穗图像进行预处理。
在本发明一实施例中,对上述实施例中三种方式改进得到的麦穗计数模型进行评估,现有目标检测方法计数的模型通常采用F1值和召回率等评价指标,而基于密度图回归的计数模型由于没有对图像中目标的正负样本标记,所以无法采用上述的评价指标。因此,本发明实施例采用密度图回归计数模型的一般评价指标:平均绝对值误差(Mean AbsoluteError,简称MAE)、均方误差(Mean Squared Error,简称MSE)来评定精确度。并采用麦穗计数网络常用的准确度(Accuracy)作为模型的评价指标。因此,本发明实施例也采用这三种评价指标,公式分别为:
Figure BDA0002665720200000091
Figure BDA0002665720200000092
Figure BDA0002665720200000093
其中,Zi为模型输出值,
Figure BDA0002665720200000094
为图片真实值,N为测试集图片数量。MAE指标及准确度这两个指标,可以直接反映计数模型的精确度,而MSE指标则可以较好地反映出模型的鲁棒性。本发明是实施例采用分模型和分数据集分别对准确度进行阐述,模型效率以运行时间和收敛速度进行评判,分别以三个模型在测试集上的运行时间,以及三个模型前100个Epoch中最优模型出现的时刻来对其作效率的评判。
三种模型对整个测试集的精确度以及效率表现如表1所示:
表1
MCNN CSRNet MCSRNet
MAE 10.7 13.3 9.2
MSE 13.1 16.4 12.0
Accuracy(%) 91.3 88.7 92.7
Time(s) 10.4 35.3 12.6
Epoch 86 52 47
由表1可知,三种模型在整个测试集上的精确度差异不大,准确度均在90%左右,且最好的MCSRNet模型准确度达到了92.7%;在效率方面,由于CSRNet卷积核较多,导致运行时间较慢,其余两个网络由于网络构型类似,运行时间相差不大。而MCSRNet在训练过程中,在条件相同的情况下,有更快的收敛速度。
进一步地,对于测试集中的第一张图片输出了密度图,该图片麦穗数为130个,三种模型对该图片估测的小麦数量显示在每张密度图上,并且通过预设的概率图像关系,得出每张密度图上每个像素点属于麦穗的概率。通过实验可知,MCSRNet、CSRNet和MCSRNet三种模型都可以较好地辨别出麦穗在原图上的位置,同时输出在密度图上。通过统计MCSRNet、CSRNet、MCSRNet三种模型密度图的概率和,统计出麦穗数量分别为103、101和111个。
本发明实施例基于原始数据集做了6倍的扩充,即分别进行了增加亮度、削减亮度、增加高斯白噪音、水平翻转和竖直翻转的操作,这些操作可以被视为对模型输入的干扰,由此来检测模型的鲁棒性。故测试数据集也将其分为这6部分来进行准确度比较,以观察模型在一定的干扰下的表现。原测试集共有78张图片,即每种测试集为13张图片。为了直观的比较出三种模型在各个数据集上的优劣,通过绘制boxplot图进行对比,可以看出,计数效果最好的是垂直翻转的数据集,最差的是增加高斯白噪音的数据集。改进的MCNN模型平均准确度范围为89.5%~92.6%;改进的CSRNet模型平均准确度范围为85.6%~90.9%;MCSRNet模型识别准确度最好,平均准确度范围在90.0%~94.4%,表明该模型的鲁棒性以及对于不同数据集适应性较强。
进一步地,由于在实际应用中,不同场景下图像间差别较大,故可能导致模型识别准确度降低,为了测试方法的泛化性能,采用了未经训练的另一个试验地点拍摄的完全独立的数据集图像(独立测试集)共227张,基于本发明实施例中的三种改进模型进行测试。进行测试前,先用灰度平均值法对比了两类数据集的亮度,以灰度范围0~255表示。原训练集平均灰度值为62.02,独立测试集平均灰度值为102.57。原训练集在数据增强部分做了提升亮度处理后的平均灰度值为73.59,为此对独立数据集部分作了降低亮度至原图像90%~60%的处理。对于降低亮度前的独立数据集图像,CSRNet准确度为62.5%,MCNN为72.5%,MCSRNet为78.6%。对于降低亮度后的独立数据集图像,三种网络的准确度均随着亮度降低而提升,准确度在原图像亮度的60%~70%时达到峰值。通过实验可知,独立数据集灰度值降低到60%后MCSRNet模型平均准确度最高,为81.9%;MCNN模型平均准确度最低,为81.2%;CSRNet模型平均准确度介于二者之间,为81.5%。可以较明显的看出,由于独立测试集中一些麦穗相比于原训练集中的尺寸不同,同时形态差异较大,导致判断准确率有所降低。
本发明实施例引入密集人群计数领域的MCNN模型和CSRNet模型,其中,改进的MCNN模型利用不同卷积核来提取尺度不一致的麦穗特征;而改进的CSRNet则采用空洞卷积网络作为后端网络,在保持图片分辨率同时扩大感知域,生成更高质量的密度分布图。并在此基础上,提供一种新网络,即MCSRNet模型,可以在不增加网络体积的情况下获得种类更多、更大的感受野。研究结果表明,MCSRNet无论在准确度还是训练效率上均具有明显优势,预测准确度达到92.7%,较其他两种方法提高1.4%及4%。MCSRNet模型基于独立麦穗数据集上计数的平均准确度为90.6%,相较于其他两种算法提高了4.6%及4.2%,进一步提高了模型的准确度,为高通量的植物表型研究提供新的方法和技术。
图7为本发明实施例提供的麦穗计数装置的结构示意图,如图7所示,本发明实施例提供一种麦穗计数装置,包括麦穗图像采集模块701和麦穗计数模块702,其中,麦穗图像采集模块701用于获取目标区域麦穗图像;麦穗计数模块702用于将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
本发明实施例提供的一种麦穗计数装置,通将应用于密集人群计数领域的计数算法,即多列卷积神经网络和空洞卷积神经网络应用于麦穗计数研究,提高了麦穗计数模型的精确度和效率。
本发明实施例提供的装置是用于执行上述各方法实施例的,具体流程和详细内容请参照上述实施例,此处不再赘述。
图8为本发明实施例提供的自行车小车的结构示意图,如图8所示,本发明实施例提供了一种自行走小车,包括:
信息采集装置801、路径规划装置802和上述实施例所述的麦穗计数装置803;
所述信息采集装置,用于对行驶路径上的麦穗进行图像信息采集,并将采集到的麦穗图像发送到麦穗计数装置;
所述路径规划装置,用于根据预设路径,驱动所述自行走小车在麦穗区域内行驶,并对行驶路径上的麦穗和障碍物进行检测,以根据检测结果调整行驶路径;
所述麦穗计数装置,用于对采集到的麦穗图像中的麦穗进行计数。
本发明实施例提供一种用于田间自动导航及作物表型信息自动分析处理的自行走小车,根据自行走小车实时拍摄的图像信息,采用图像识别,获取前进路线,实时规划路线;优选地,通过超声波探查进行转弯,通过设置可转向液压杆和可调节偏转角的四轮,使转弯时可以实现不同程度的机械转弯效果;将实时获取的图像输入进田间信息识别的深度学习模型进行计算,通过切换计算模型,计算不同需求信息,获得响应信息。在本发明实施例中,以小麦穗为例,可以在小麦田中通过深度学习辨别麦穗进行计数,同时可以估算大田小麦产量。并且可以随时补充不同的分析模型,输入系统,加以应用,有助于田间数据的快速收集。
优选地,在本发明实施例中,麦穗计数装置803在图像分析上通过多次的神经训练,具有极强的应用性;在自行走小车的转弯难题上,路径采集装置802基于超声波和图像处理结合,对行驶路径上的麦穗和障碍物进行检测,实现了自动转弯,适合更广阔的田间活动,实用性更强;通过在信息采集装置801上设置上下可调节双摄像头进行图像信息采集,配备了两个伸缩杆摄像头,可以保证在面对不同情况时(不同秧苗,不同田地等),可以改变不同高度,较高的位置可以摄像获取秧苗的基本信息,低处的位置,可以获取路径规划信息,其中,信息采集涉及到植株高度,植株叶面情况,以及不同植株的不同特性,如小麦的麦穗。
具体地,麦穗计数装置803通过卷积神经网络,使得并行多组数据在处理过程中,可以快速处理,降低了设备的能耗和反应时间,使得信息采集处理更具有即时性,通过局域无线频率信号的发射,使得信息可以快速传递。而且该自行走小车采用组装式机械和模块化系统,可以实现信息采集、处理、反馈等稳定有序地进行,同时具有设备快速替换检修的特点,可以实现设备的量产化和产业化。
进一步地,所述自行走小车上设置有液压杆,以使得所述自行走小车在进行转弯时,所述液压杆按照预设高度,将所述自行走小车撑离地面,从而调整所述自行走小车的车轮偏转角。
图9为本发明实施例提供的自行车小车的侧视图,可参考图9所示,本发明实施例提供的自行走小车采用超声波检测转弯,根据情况也可以补充其他设备代替,例如,红外扫描,图像处理深化,路径规划拟合和GPS导航等,都可以根据各地情况进行代替,由于设备为可组装式,可以更换模块,实现设备改装,适应性强。本发明实施例设置的超声波设备,在自行走小车的正前方和左右两侧,以及前方偏下位置进行检测,判断障碍物,以及周围两侧是否存在秧苗,可以判断是否需要转弯以及前方是否有沟壑;根据路径规划装置驱动自行走小车行进时,在遇到障碍物生成转弯指令,可以根据超声波反馈信息和图像处理的双重配合,采用可升降的液压转向杆和可调节偏转角的车轮,使得面对不同的路况时,制定转弯半径,通过可移动的前端导向轮,实现在不同程度的转弯。具体地,实现面对多种障碍、小型或者易碎型阻碍时,直接通过。面对大型障碍,可以进行规避,在面对无法绕行的情况下,可以发出求救信号(后期可以补充粉碎障碍装置,具有极强的拓展功能的特性)。
本发明实施例提供的自行走小车,通过在设备上添加液压支撑杆,当自行走小车进行转弯时,使设备离地一定高度,在空中实现车体的原地转弯,同时通过图像分析,纠正前后轮角度,实现车体落地后的直接转向。
在上述实施例的基础上,还可以采用局域无线频率信号进行传递信息,可以即时反馈信息,实现信息的快速处理;
在上述实施例的基础上,每一个装置都有专属的物理设备,每个装置之间采用镶嵌式连接,在相应设备产生问题时,可以快速更换,有助于实现产业化生产,快速检修。
在上述实施例的基础上,自行走小车通过安装履带式行走设备,在田间行走过程中,保证了设备的抓地力,保证了摄像设备的稳定性,不会出现大的图像波动;同时,还配备了弹簧缓冲和平稳处理系统,借鉴了现行的防抖图像处理原理,在姿态估计方面,保证了设备的高效的图像采集和处理。
图10为本发明实施例提供的电子设备结构示意图,参照图10,该电子设备可以包括:处理器(processor)1001、通信接口(Communications Interface)1002、存储器(memory)1003和通信总线1004,其中,处理器1001,通信接口1002,存储器1003通过通信总线1004完成相互间的通信。处理器1001可以调用存储器1003中的逻辑指令,以执行如下方法:获取目标区域麦穗图像;将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
此外,上述的存储器1003中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的麦穗计数方法,例如包括:获取目标区域麦穗图像;将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种麦穗计数方法,其特征在于,包括:
获取目标区域麦穗图像;
将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
2.根据权利要求1所述的麦穗计数方法,其特征在于,所述改进的人群计数卷积神经网络是基于多列卷积神经网络和空洞卷积神经网络构建得到的。
3.根据权利要求2所述的麦穗计数方法,其特征在于,所述训练好的麦穗计数模型通过以下步骤获取:
获取样本区域麦穗图像,并对所述样本区域麦穗图像中的麦穗进行标记,得到训练样本集;
通过高斯核函数,对所述训练样本集进行转换,得到对应的麦穗密度图集合;
将所述训练样本集和所述麦穗密度图集合输入到改进的人群计数卷积神经网络进行训练,得到训练好的麦穗计数模型。
4.根据权利要求3所述的麦穗计数方法,其特征在于,在获取样本区域麦穗图像之后,所述方法还包括:
对样本区域麦穗图像进行麦穗标记,得到第一样本麦穗图像;
对所述第一样本麦穗图像进行预处理,得到第二样本麦穗图像;
根据所述第二样本麦穗图像分别构建训练样本集、验证样本集和测试样本集。
5.根据权利要求4所述的麦穗计数方法,其特征在于,所述预处理包括:亮度调整、水平翻转、垂直翻转和高斯白噪声处理。
6.一种麦穗计数装置,其特征在于,包括:
麦穗图像采集模块,用于获取目标区域麦穗图像;
麦穗计数模块,用于将所述目标区域麦穗图像输入到训练好的麦穗计数模型中,输出得到所述目标区域麦穗图像对应的麦穗密度图,以根据所述麦穗密度图得到所述目标区域麦穗图像中的麦穗数量;所述训练好的麦穗计数模型是由具有麦穗标记的样本区域麦穗图像和对应的麦穗密度图,通过改进的人群计数卷积神经网络训练得到的。
7.一种自行走小车,其特征在于,包括:
信息采集装置、路径规划装置和根据权利要求6所述麦穗计数装置;
所述信息采集装置,用于对行驶路径上的麦穗进行图像信息采集,并将采集到的麦穗图像发送到麦穗计数装置;
所述路径规划装置,用于根据预设路径,驱动所述自行走小车在麦穗区域内行驶,并对行驶路径上的麦穗和障碍物进行检测,以根据检测结果调整行驶路径;
所述麦穗计数装置,用于对采集到的麦穗图像中的麦穗进行计数。
8.根据权利要求7所述的自行走小车,其特征在于,所述自行走小车上设置有液压杆,以使得所述自行走小车在进行转弯时,所述液压杆按照预设高度,将所述自行走小车撑离地面,从而调整所述自行走小车的车轮偏转角。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至5任一项所述麦穗计数方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至5任一项所述麦穗计数方法的步骤。
CN202010918023.6A 2020-09-03 2020-09-03 一种麦穗计数方法、装置及自行走小车 Active CN112115988B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010918023.6A CN112115988B (zh) 2020-09-03 2020-09-03 一种麦穗计数方法、装置及自行走小车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010918023.6A CN112115988B (zh) 2020-09-03 2020-09-03 一种麦穗计数方法、装置及自行走小车

Publications (2)

Publication Number Publication Date
CN112115988A true CN112115988A (zh) 2020-12-22
CN112115988B CN112115988B (zh) 2024-02-02

Family

ID=73801816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010918023.6A Active CN112115988B (zh) 2020-09-03 2020-09-03 一种麦穗计数方法、装置及自行走小车

Country Status (1)

Country Link
CN (1) CN112115988B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862849A (zh) * 2021-01-27 2021-05-28 四川农业大学 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN114882385A (zh) * 2022-05-13 2022-08-09 中国农业科学院农业信息研究所 一种基于无人机平台的大田麦穗计数方法
CN116228782A (zh) * 2022-12-22 2023-06-06 中国农业科学院农业信息研究所 基于无人机采集的麦田穗数计数方法和装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104390644A (zh) * 2014-11-25 2015-03-04 浙江理工大学 一种基于田间导航图像采集设备的田间障碍物检测方法
CN204585197U (zh) * 2015-03-18 2015-08-26 重庆交通大学 可自动避障作业机器人
CN105638613A (zh) * 2015-12-22 2016-06-08 中国农业大学 一种药剂喷施机器人系统及控制方法
CN106908062A (zh) * 2017-04-21 2017-06-30 浙江大学 一种自走式叶绿素荧光图像采集机器人及其采集方法
CN109740721A (zh) * 2018-12-19 2019-05-10 中国农业大学 麦穗计数方法及装置
CN110525539A (zh) * 2019-09-29 2019-12-03 江苏省肿瘤医院 一种赤霉病数据原位采集车
CN110853025A (zh) * 2019-11-15 2020-02-28 苏州大学 基于多列残差空洞卷积神经网络的人群密度预测方法
CN110991317A (zh) * 2019-11-29 2020-04-10 中山大学 一种基于多尺度透视感知型网络的人群计数方法
CN111242036A (zh) * 2020-01-14 2020-06-05 西安建筑科技大学 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法
CN111369494A (zh) * 2020-02-07 2020-07-03 中国农业科学院农业环境与可持续发展研究所 冬小麦穗密度检测方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104390644A (zh) * 2014-11-25 2015-03-04 浙江理工大学 一种基于田间导航图像采集设备的田间障碍物检测方法
CN204585197U (zh) * 2015-03-18 2015-08-26 重庆交通大学 可自动避障作业机器人
CN105638613A (zh) * 2015-12-22 2016-06-08 中国农业大学 一种药剂喷施机器人系统及控制方法
CN106908062A (zh) * 2017-04-21 2017-06-30 浙江大学 一种自走式叶绿素荧光图像采集机器人及其采集方法
CN109740721A (zh) * 2018-12-19 2019-05-10 中国农业大学 麦穗计数方法及装置
CN110525539A (zh) * 2019-09-29 2019-12-03 江苏省肿瘤医院 一种赤霉病数据原位采集车
CN110853025A (zh) * 2019-11-15 2020-02-28 苏州大学 基于多列残差空洞卷积神经网络的人群密度预测方法
CN110991317A (zh) * 2019-11-29 2020-04-10 中山大学 一种基于多尺度透视感知型网络的人群计数方法
CN111242036A (zh) * 2020-01-14 2020-06-05 西安建筑科技大学 一种基于编码-解码结构多尺度卷积神经网络的人群计数方法
CN111369494A (zh) * 2020-02-07 2020-07-03 中国农业科学院农业环境与可持续发展研究所 冬小麦穗密度检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAYIO9: "基于密度等级分类的⽥间棉铃计数算", Retrieved from the Internet <URL:https://m.doc88.com/p-70799024381581.html> *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112862849A (zh) * 2021-01-27 2021-05-28 四川农业大学 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN112862849B (zh) * 2021-01-27 2022-12-27 四川农业大学 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN114882385A (zh) * 2022-05-13 2022-08-09 中国农业科学院农业信息研究所 一种基于无人机平台的大田麦穗计数方法
CN116228782A (zh) * 2022-12-22 2023-06-06 中国农业科学院农业信息研究所 基于无人机采集的麦田穗数计数方法和装置
CN116228782B (zh) * 2022-12-22 2024-01-12 中国农业科学院农业信息研究所 基于无人机采集的麦田穗数计数方法和装置

Also Published As

Publication number Publication date
CN112115988B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN112115988A (zh) 一种麦穗计数方法、装置及自行走小车
CN109711325B (zh) 一种芒果采摘点识别方法
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
WO2020173226A1 (zh) 一种时空行为检测方法
Luo et al. Semantic segmentation of agricultural images: A survey
CN110765916B (zh) 一种基于语义和实例分割的农田苗垄识别方法及系统
Song et al. Canopy segmentation and wire reconstruction for kiwifruit robotic harvesting
Chen et al. A YOLOv3-based computer vision system for identification of tea buds and the picking point
CN105184824A (zh) 基于图像传感网的智能农业驱鸟系统和方法
CN112418188A (zh) 基于无人机视觉的农作物生长全程数字化评估方法
CN117409339A (zh) 一种用于空地协同的无人机作物状态视觉识别方法
CN112883915A (zh) 一种基于迁移学习的麦穗自动识别方法和系统
CN112862849A (zh) 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
Ma et al. Towards improved accuracy of UAV-based wheat ears counting: A transfer learning method of the ground-based fully convolutional network
CN104992448B (zh) 机器人防损伤采摘葡萄的自动定位方法
Bhusal et al. Improving pest bird detection in a vineyard environment using super-resolution and deep learning
CN115984698A (zh) 一种基于改进YOLOv5的荔枝果实生长期识别方法
CN110992378A (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN116661498A (zh) 一种基于动态视觉传感和神经网络的障碍物目标跟踪方法
Pramudhita et al. Strawberry Plant Diseases Classification Using CNN Based on MobileNetV3-Large and EfficientNet-B0 Architecture
CN112861755A (zh) 一种目标多类别实时分割方法及系统
Zou et al. Density estimation method of mature wheat based on point cloud segmentation and clustering
CN115861768A (zh) 一种基于改进YOLOv5的金银花目标检测及采摘点定位方法
CN113936019A (zh) 一种基于卷积神经网络技术的大田作物产量估算方法
Wang et al. The identification of straight-curved rice seedling rows for automatic row avoidance and weeding system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant