CN115424257A - 基于改进多列卷积神经网络的作物苗期植株计数方法 - Google Patents

基于改进多列卷积神经网络的作物苗期植株计数方法 Download PDF

Info

Publication number
CN115424257A
CN115424257A CN202210975343.4A CN202210975343A CN115424257A CN 115424257 A CN115424257 A CN 115424257A CN 202210975343 A CN202210975343 A CN 202210975343A CN 115424257 A CN115424257 A CN 115424257A
Authority
CN
China
Prior art keywords
counting
branch
seedling
seedling stage
plant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210975343.4A
Other languages
English (en)
Inventor
羊海潮
袁皓煜
尹子琴
李毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dali University
Original Assignee
Dali University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dali University filed Critical Dali University
Priority to CN202210975343.4A priority Critical patent/CN115424257A/zh
Publication of CN115424257A publication Critical patent/CN115424257A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开基于改进多列卷积神经网络的作物苗期植株计数方法,包括如下步骤:获取待估计苗期植株图像;将待估计苗期植株图像输入预设的苗期植株计数模型中,苗期植株计数模型包括多列卷积分支注意力编码器、多分支融合模块以及上采样可视化模块,多列卷积神经网络模型用于提取不同尺度大小的特征;多分支特征融合模块用于将不同尺度大小的特征进行融合并将融合后的特征通过1维卷积滤波层进行注意力映射;上采样可视化模块用于将映射后的特征恢复密度图的分辨率,获得估计的苗期植株密度图;计算苗期植株密度图中像素点概率值并进行累加,得到待估计苗期植株图像中苗期植株的数量。本发明将提高在大田场景下不同尺度苗期植株的高精度计数。

Description

基于改进多列卷积神经网络的作物苗期植株计数方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及基于改进多列卷积神经网络的作物苗期植株计数方法。
背景技术
近年来,人们提出了一些基于计算机视觉的植株计数方法,可分为传统的机器学习方法和基于深度学习的方法。传统的机器学习方法通常通过图像低阶特征对植物进行分割或检测,并对检测到的对象进行计数。例如,Gonga等用阈值分割去检测苹果色段,进一步通过形态学处理来识别苹果的计数。Qureshi等从超像素中提取SIFT描述符,并使用SVM对芒果和非芒果区域进行分类及计数。然而,低阶图像特征易受噪声影响,鲁棒性较差,计数精确度难以保障。近年来,随着深度学习在图像分类、目标检测以及图像分割等方面获得优异的结果,深度学习开始在植物计数方面进行应用。
基于深度学习的植物计数方法主要有图像分割和目标检测两种方法,Hasan等使用Fast R-CNN图像分割网络来检测苗期植株穗,Madec等使用Fast R-CNN对成熟期后的小麦穗进行检测,因为其穗和背景的差异较为明显,所以检测精度良好。同时图像分割和目标检测的有效性和鲁棒性是以昂贵的边界框和像素级注释为代价的,通常需要大量手动注释。
随着深度学习的发展,出现了一种将密度估计引入深度学习中的计数范式,可以直接从图像中推断计数。基于密度图的方法由于稳健的鲁棒性和较高可计算性成为计数领域的主流方法,在人群及植株计数领域中被广泛应用。Lempitsky等将计数转换为密度图回归是一个开创新的工作。自Lempitsky等和Chen等的工作起,学者专家更加专注于对模型进行创新和改进,使其具有更好的鲁棒性,如Zhang等使用CSRNet同时估计密度图和对象计数来进行植株计数,Wu等结合密度图估计和背景分割来估算水稻幼苗的计数,Xiong等在TasselNetv2中针对穗的局部计数中引入上下文扩展显着提高计数性能。
在Y.Zhang和Sam两项工作中利用多列卷积神经网络(MCNN)具有不同大小的滤波器,以增加对人群的大小鲁棒性。然而基于MCNN的植株计数却鲜有报道,现有研究多是基于简单背景下的单一尺度物体计数,如Feng等基于改进的MCNN进行大米颗粒计数,Hou等在MCNN中引入先验图进行鱼饵颗粒计数。
当前基于深度学习的方法针对大田复杂场景下的苗期植株计数面临着实质性的视觉挑战,包括:(1)苗期植株的密集种植,会导致极密集的空间分布和严重的遮挡(图11(a)),在检测过程中容易产生误判或漏判定等情况;(2)大田场景下存在土壤杂质(秸秆、砖砌)遮挡的情况(图11(b)),苗期植株只占据图像中的少量像素,这必须有差异来区分苗期植株主体和背景;(3)由于光照变化引起的视觉差异,光照影像存在低照度和高照度的图像(图11(c));(4)杂草等影响较大的背景杂质,会在检测过程中造成背景误差估计,并影响计数精度(图11(d));(5)即使在苗期,苗期植株也因为生长差异,有不同的尺寸大小,存在尺度变化问题(图11(e))。
以上问题对于当前场景下的苗期植株计数精度有较大的影响,导致了现有先进模型(CSRNet、SCAR、MCNN、CANNet、TasselNetV2)普遍具有较低的计数精度。分析发现,是因为现有先进计数模型使用相同卷积核的过滤器,估计局部尺度以补偿透视失真,如CANNet虽然具有结合了使用多个感受野大小获得的特征,能够自适应的编码预测目标密度所需的上下文信息的规模,但是针对较大苗期植株在透视场景下仍不能较好的适用;SCAR基于CSRNet进行改进,引入并行的两种注意力机制,能够极大的减轻对背景区域的错误估计,但是忽略了较大苗期植株的大范围尺度信息,最终产生较低的计数精度;TasselNetv2针对具有固定尺度大小穗的局部计数中引入上下文扩展,在一定程度上提升了计数性能,但是总体上计数精度仍处于较低的水平。综上所述,在苗期植株计数场景中并不适用具有相同卷积核的过滤器,同时,MCNN虽然在一定程度上对不同尺度的同一物体有较好的鲁棒性,但是在苗期植株计数场景下的鲁棒性仍有所欠缺,其模型结构改进仍有优化空间。
发明内容
为了解决上述技术问题,本发明提出基于改进多列卷积神经网络的作物苗期植株计数方法,以提高在大田场景下不同尺度苗期植株的高精度计数。
为了达到上述目的,本发明的技术方案如下:
基于改进多列卷积神经网络的作物苗期植株计数方法,包括如下步骤:
获取待估计苗期植株图像;
将待估计苗期植株图像输入预设的苗期植株计数模型中,所述苗期植株计数模型包括多列卷积分支注意力编码器、多分支融合模块以及上采样可视化模块,其中,所述多列卷积神经网络模型用于提取不同尺度大小的特征;所述多分支特征融合模块用于将不同尺度大小的特征进行融合并将融合后的特征通过1维卷积滤波层进行注意力映射;所述上采样可视化模块用于将映射后的特征恢复密度图的分辨率,获得估计的苗期植株密度图;
计算苗期植株密度图中像素点概率值并进行累加,得到待估计苗期植株图像中苗期植株的数量。
优选地,所述多列卷积神经网络模型包括并列连接的分支1、分支2和分支3,所述分支1中引入位置注意力模块,用于得到位置注意力特征,所述分支3中引入通道注意力模块,用于得到通道注意力特征。
优选地,所述分支1的结构,如下所示:
Conv1:卷积核大小为9×9,通道数量为16,步长为4;
最大池化层:过滤器大小为2×2,步长为2;
Conv2:卷积核大小为7×7,通道数量为32,步长为3;
最大池化层:过滤器大小为2×2,步长为2;
位置注意力模块;
Conv3:卷积核大小为7×7,通道数量为16,步长为3;
Conv4:卷积核大小为7×7,通道数量为8,步长为3。
优选地,所述位置注意力模块的处理过程,如下所示:
将分支1提取的特征FB1分别输入到三个不同的1×1卷积层中并使用重组或转置操作,获得三个特征图PB1:1、PB1:2和PB1:3
对特性图PB1:1和PB1:3使用矩阵乘法和Softmax运算,将权重和归一化为和为1的概率分布,得到位置注意图PB1:a,计算公式如下:
Figure BDA0003798095040000031
其中
Figure BDA0003798095040000032
表示第i个位置对第j个位置的影响,
对PB1:a和PB1:1之间应用矩阵乘法,然后将输出维度重组为特征FB1大小,对于FB1的最终和操作,使用一个可学习的因子来缩放输出,计算公式如下:
Figure BDA0003798095040000033
其中,λ是可学习参数。
优选地,所述分支3的结构,如下所示:
Conv1:卷积核大小为5×5,通道数量为24,步长为2;
最大池化层:过滤器大小为2×2,步长为2;
Conv2:卷积核大小为3×3,通道数量为48,步长为1;
最大池化层:过滤器大小为2×2,步长为2;
通道注意力模块;
Conv3:卷积核大小为3×3,通道数量为24,步长为1;
Conv4:卷积核大小为3×3,通道数量为12,步长为1。
优选地,所述通道注意力模块的处理过程,如下所示:
将分支3提取的特征FB3输入到一个1×1的卷积层中,获得三个特征图CB3:1、CB3:2和CB1:3
对CB1:1和CB1:2使用矩阵乘法和Softmax运算,将权重和归一化为概率和为1的概率分布,得到位置注意图CB3:a,计算公式如下:
Figure BDA0003798095040000041
其中
Figure BDA0003798095040000042
表示第i个通道对第j个通道的影响,
对CB3:a和CB3:3应用矩阵乘法,然后将输出维度重组为特征FB3大小,最后通过一个可学习的变量来衡量和操作的输出,计算公式如下:
Figure BDA0003798095040000043
其中,μ是一个区别于λ的可学习参数。
优选地,所述苗期植株计数模型的训练过程中引入密度图损失加上采样绝对计数损失共同组成混合损失的结果,用于对可视化模块上采样后的密度图进行计数精度监督,公式如下:
L=(1-δ)*LossD+δ*LossC 公式7
其中,LossD为密度图损失;LossC为计数损失。
基于上述技术方案,本发明的有益效果是:
1)本发明以多列卷积分支编码器作为主干,其使用不同大小的滤波器捕捉多重尺度的苗期植株基础特征,进而增强特征表示,缓解苗期植株因生长状态不同而产生的不同尺度问题;
2)本发明在分支1中引入位置注意力模块(PAM)。PAM可以模拟较大范围的上下文信息,在与分支1的大卷积相结合后,能捕捉较大苗期植株的范围性信息,将较大尺度的苗期植株的大致位置信息映射至具体的像素区域,尝试编码对空间维度的大范围依赖关系,这对较大植株的密度位置定位性能有较好的效果;
3)本发明在分支3中引入通道注意力模块(CAM)。为了区别特定的较小苗期植株区域和其他区域(稻草、砖砌、杂草、裸土)两种响应,使用通道注意力模块获取任意双通道映射之间的关系,并对通道映射进行加权求和,最后对原始通道进行更新。这能提高总体计数精度并在一定程度上避免背景的误差估计;
4)本发明在苗期植株计数模型的训练过程中引入上采样绝对计数损失。相比较传统单一密度图损失,为了获得更高的计数精度,本节对可视化模块上采样后的密度图进行计数精度监督,在训练过程中引入密度图损失加上采样绝对计数损失共同组成混合损失的结果。
附图说明
图1是一个实施例中基于改进多列卷积神经网络的作物苗期植株计数方法流程图;
图2是苗期植株计数模型的网络架构图;
图3是多列卷积分支编码器的结构图1;
图4是多列卷积分支编码器的结构图2;
图5是位置注意力模块的结构图;
图6是通道注意力模块的结构图;
图7是多分支融合模块的结构图;
图8是常见密度估计网络结构;
图9是增加上采样计数敏感度后并使用混合损失的对比结果图1;
图10是增加上采样计数敏感度后并使用混合损失的对比结果图2;
图11是采集的苗期植株的五种类型图像。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
如图1所示,本实施例提供一种基于改进多列卷积神经网络的作物苗期植株计数方法,包括如下步骤:
S1,获取待估计苗期植株图像。
本实施例中,由于预设的苗期植株计数模型(SRDPNet)的所有卷积层采用全卷积神经网络,不含全连接层,所以能够处理内存允许情况下的任意分辨率图像,不需要将图片裁剪为特定大小。
S2,将待估计苗期植株图像输入预设的苗期植株计数模型中,所述苗期植株计数模型包括多列卷积分支注意力编码器、多分支融合模块以及上采样可视化模块,其中,所述多列卷积神经网络模型用于提取不同尺度大小的特征;所述多分支特征融合模块用于将不同尺度大小的特征进行融合并将融合后的特征通过1维卷积滤波层进行注意力映射;所述上采样可视化模块用于将映射后的特征恢复密度图的分辨率,获得估计的苗期植株密度图。
本实施例中,如图2、3所示,苗期植株计数模型包括多列卷积分支注意力编码器、多分支融合模块以及上采样可视化模块,其中,
1.多列卷积神经网络模型(MAB),参照图4。多列卷积神经网络模型基于具有不同大小滤波器的多列卷积注意力编码器(分支1、分支2和分支3)去捕捉不同尺度的苗期植株基础特征,并在分支1和分支3中分别引入位置注意力模块和通道注意力模块,分别用来编码位置和通道方面的注意特征。之后通过多分支融合模块将多尺度下的特征图进行融合,融合后的特征通过1×1的滤波器将特征图进行映射。最后将融合后的特征映射图送入上采样可视化模块中进行分辨率的恢复,得到最终的预测密度图。
在分支1中引入位置注意力模块(PAM:position attention module),参照图5。PAM可以模拟较大范围的上下文信息,在与分支1的大卷积相结合后,能捕捉较大苗期植株的范围性信息,将较大尺度的苗期植株的大致位置信息映射至具体的像素区域,尝试编码对空间维度的大范围依赖关系,这对较大植株的密度位置定位性能有较好的效果。
在人群场景的视角变化中,全局和局部的密度分布具有一定的规律性,对于全局图像,密度的变化呈一致的渐进趋势。但是对于苗期植株场景,存在大量的由生长状态不一而产生的尺度变化问题,为了对上述观察结果进行编码,需要引入一个可以模拟大范围的上下文信息的模块,并捕捉密度分布的变化。
位置注意力模块来编码能个特征图中的空间依赖性,所以在多列卷积神经网络的分支1引入了位置注意力模型(PAM),其与分支1中的大卷积核滤波器结合后,能够提取提取更大范围内的较大苗期植株上下文信息。总体处理流程如下所示:
1.1对于分支1中大小为C×H×W的输入FB1,将其输入到三个不同的1×1卷积层中并使用重组或转置操作,获得三个特征图PB1:1、PB1:2和PB1:3。为了生成位置注意图,对PB1:1和PB1:2使用矩阵乘法和Softmax运算,将权重和归一化为和为1的概率分布。在此之后,得到了一个大小为HW×HW的位置注意图PB1:a
Figure BDA0003798095040000061
其中
Figure BDA0003798095040000071
表示第i个位置对第j个位置的影响。两个位置的相似特征图越多,它们之间的相关性就越强。
在得到
Figure BDA0003798095040000072
之后,对PB1:a和PB1:3之间应用矩阵乘法,然后将输出维度重组为C×H×W。对于FB1的最终和操作,使用一个可学习的因子来缩放输出。PAM的输出定义如下。
Figure BDA0003798095040000073
其中,λ是一个可学习参数。与CAM一样使用核为1×1的卷积层来学习。
最终输出的特征图Pj B1:f是注意力图和原始局部特征图的加权和,其中包含全局上下文特征和自注意力信息。
1.2.在分支3中引入通道注意力模块(CAM:channel attention module),参照图6。为了区别特定的较小苗期植株区域和其他区域(稻草、砖砌、杂草、裸土)两种响应,使用通道注意力模块获取任意双通道映射之间的关系,并对通道映射进行加权求和,最后对原始通道进行更新。这能提高总体计数精度并在一定程度上避免背景的误差估计。
为了提升SRPDNet在苗期植株计数场景中对前景(较小苗期植株主体区域)和背景(杂草、裸土、砖砌、稻草)的识别,本节在多列卷积神经网络的分支3中引入CAM来学习对通道维度的依赖关系,称为“位置注意模块”。对于高度密集并且较小的苗期植株,前景的纹理与一些背景区域(杂草、裸土等)非常相似,嵌入CAM可以有效地弥补背景估计误差。CAM的总体结构如下图所示。
对于大小为C×H×W的分支3输入FB3,CAM仅用一个1×1的卷积层来处理从主干中获得的特征图,分别为CB3:1、CB3:2和CB1:3。为了生成通道注意图,对CB1:1和CB1:2使用矩阵乘法和Softmax运算,将权重和归一化为和为1的概率分布。在此得到了一个大小为HW×HW的位置注意图CB3:a。在得到CB3:a后,对CB3:a和CB3:3应用矩阵乘法,然后将输出维度重组为C×H×W。最后通过一个可学习的变量来衡量和操作的输出。
Figure BDA0003798095040000074
其中
Figure BDA0003798095040000075
表示第i个通道对第j个通道的影响。大小为C×H×W的
Figure BDA0003798095040000076
计算公式如下:
Figure BDA0003798095040000077
其中,μ是一个区别于λ的可学习参数。
最终输出的特征图
Figure BDA0003798095040000078
是注意力图和原始局部特征图的加权和,其中包含特定于前景和背景响应的特征图和自注意力信息。
2.多分支融合模块(MBFM),参照图7。相比较原本MCNN网络结构的1/4下采样,本发明对MCNN中单一的Fusion操作进行扩充重组,命名为多分支融合模块,主要在其中额外引入一个池化操作,对原本输入进行1/8下采样操作。MBFM主要将三个分支的不同类型特征图进行连接融合多层特征图以增强特征表示,在进行一次池化操作后,通过大小为1×1的滤波器将特征图映射到1/2大小的密度图。调整特征图通道的原因是为了突出高阶特征,并使其在融合的特征图中发挥主要作用。低阶特征仅被视为补充细节的辅助信息。通过使用这个模块,只要单分支的特征通道发生相应的改变,所有分支特征映射都可以被融合。
3.上采样可视化模块(VM)。上采样可视化模块将模型预测的密度图通过卷积,使用双线性插值法将密度图映射投影回原始高分辨率。双线性插值法是一个典型的上采样方法。重新映射后的密度图可以用于上采样绝对计数损失的计算,还可以获得更好的可视化和可解释性效果。
相比较传统单一密度图损失,为了获得更高的计数精度,本节对可视化模块上采样后的密度图进行计数精度监督,在训练过程中引入密度图损失加上采样绝对计数损失共同组成混合损失的结果。
现有先进的计数模型在训练时使用了下采样1/8的密度图损失,即计算预测密度图与真实密度图间的差值,密度图损失LossD具体定义如公式5所示。
Figure BDA0003798095040000081
其中D为真实背景密度图,
Figure BDA0003798095040000082
为模型输出的预测密度图。
与玉米植株、穗计数的相对稀疏场景和固定尺度大小场景不同,苗期植株数据相对密集,并且有大量的尺度不一情况,同时伴随着遮挡。为此引入上采样绝对计数损失来获得更高的计数精度。计数损失LossC具体定义如公式6所示。
Figure BDA0003798095040000083
其中,C和
Figure BDA0003798095040000084
分别表示第n张输入图片的人工真实株数和模型的预测株数。
因为混合损失L受上采样计数损失LossC的影响易产生较大的偏离值进对损失有过大的影响,所以通过加权求和来一定程度上减小其对最终损失的影响,混合损失L定义如公式7所示。
L=(1-δ)*LossD+δ*LossC 公式7
S3,计算苗期植株密度图中像素点概率值并进行累加,得到待估计苗期植株图像中苗期植株的数量。
实验结果
常见的基于密度估计的网络模型(CSRNet、SCAR、MCNN、CANNet、TasselNetV2)通常由前端网络和后端网络组成,所有卷积层使用全卷积神经网络,通常对输入图像进行1/4或1/8下采样操作。如图8所示。其中前端网络通常由VGG16、MixNet、ResNet等卷积结构作为骨架,前端网络主要用于提取基础特征并进行特征编码。后端网络由空洞卷积网络组成,扩大了感受野范围,获得了范围更大的特征信息,最终生成密度预测图。在模型训练时,通常对背景真相的密度图和模型预测的密度图进行监督,并将差值结果作为损失函数。单一密度图损失结构普遍的具有较低的计数精度。将SRDPNet与网络模型CSRNet、SCAR、MCNN、CANNet、TasselNetV2进行对比,实验结果如下表所示:
表1
Figure BDA0003798095040000091
从实验结果中可以看出,单一损失下,在对比的四个优秀深度学习模型中,SRDPNet的综合误差指标最低,计数准确率最高。实验结果表明,在单一密度图损失下,SRDPNet模型在苗期植株计数上的有效性,同时也证明了多列卷积神经网络对不同尺度苗期植株大小识别的有效性。
参照图9,实验结果显示,在增加上采样计数敏感度后的混合损失下,现有计数方法的计数准确率有了明显的提升。SRDPNet的综合误差指标最低,相比较于其余四种密度估计算法中误差最低的SCAR,SRDPNet的MAE降低了3.69,MSE降低了4.31,相对计数误差率也降低了6.16%。实验结果充分表明,相较于单一密度图损失,添加上采样绝对计数损失后对模型精度有较为明显的提升,证明其对模型精度提升的有效性。
参照图10,实验结果显示,相比较传统计数模型,本发明的综合误差指标最低,计数准确率最高。
以上所述实施例仅表达了本申请的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。

Claims (7)

1.基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,包括如下步骤:
获取待估计苗期植株图像;
将待估计苗期植株图像输入预设的苗期植株计数模型中,所述苗期植株计数模型包括多列卷积分支注意力编码器、多分支融合模块以及上采样可视化模块,其中,所述多列卷积神经网络模型用于提取不同尺度大小的特征;所述多分支特征融合模块用于将不同尺度大小的特征进行融合并将融合后的特征通过1维卷积滤波层进行注意力映射;所述上采样可视化模块用于将映射后的特征恢复密度图的分辨率,获得估计的苗期植株密度图;
计算苗期植株密度图中像素点概率值并进行累加,得到待估计苗期植株图像中苗期植株的数量。
2.根据权利要求1所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述多列卷积神经网络模型包括并列连接的分支1、分支2和分支3,所述分支1中引入位置注意力模块,用于得到位置注意力特征,所述分支3中引入通道注意力模块,用于得到通道注意力特征。
3.根据权利要求2所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述分支1的结构,如下所示:
Conv1:卷积核大小为9×9,通道数量为16,步长为4;
最大池化层:过滤器大小为2×2,步长为2;
Conv2:卷积核大小为7×7,通道数量为32,步长为3;
最大池化层:过滤器大小为2×2,步长为2;
位置注意力模块;
Conv3:卷积核大小为7×7,通道数量为16,步长为3;
Conv4:卷积核大小为7×7,通道数量为8,步长为3。
4.根据权利要求3所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述位置注意力模块的处理过程,如下所示:
将分支1提取的特征FB1分别输入到三个不同的1×1卷积层中并使用重组或转置操作,获得三个特征图PB1:1、PB1:2和PB1:3
对特性图PB1:1和PB1:3使用矩阵乘法和Softmax运算,将权重和归一化为和为1的概率分布,得到位置注意图PB1:a,计算公式如下:
Figure FDA0003798095030000011
其中
Figure FDA0003798095030000021
表示第i个位置对第j个位置的影响,
对PB1:a和PB1:1之间应用矩阵乘法,然后将输出维度重组为特征FB1大小,对于FB1的最终和操作,使用一个可学习的因子来缩放输出,计算公式如下:
Figure FDA0003798095030000022
其中,λ是可学习参数。
5.根据权利要求2所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述分支3的结构,如下所示:
Conv1:卷积核大小为5×5,通道数量为24,步长为2;
最大池化层:过滤器大小为2×2,步长为2;
Conv2:卷积核大小为3×3,通道数量为48,步长为1;
最大池化层:过滤器大小为2×2,步长为2;
通道注意力模块;
Conv3:卷积核大小为3×3,通道数量为24,步长为1;
Conv4:卷积核大小为3×3,通道数量为12,步长为1。
6.根据权利要求5所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述通道注意力模块的处理过程,如下所示:
将分支3提取的特征FB3输入到一个1×1的卷积层中,获得三个特征图CB3:1、CB3:2和CB1:3
对CB1:1和CB1:2使用矩阵乘法和Softmax运算,将权重和归一化为概率和为1的概率分布,得到位置注意图CB3:a,计算公式如下:
Figure FDA0003798095030000023
其中
Figure FDA0003798095030000024
表示第i个通道对第j个通道的影响,
对CB3:a和CB3:3应用矩阵乘法,然后将输出维度重组为特征FB3大小,最后通过一个可学习的变量来衡量和操作的输出,计算公式如下:
Figure FDA0003798095030000025
其中,μ是一个区别于λ的可学习参数。
7.根据权利要求1所述的基于改进多列卷积神经网络的作物苗期植株计数方法,其特征在于,所述苗期植株计数模型的训练过程中引入密度图损失加上采样绝对计数损失共同组成混合损失的结果,用于对可视化模块上采样后的密度图进行计数精度监督,公式如下:
L=(1-μ)*LossD+μ*LossC 公式7
其中,LossD为密度图损失;LossC为计数损失。
CN202210975343.4A 2022-08-15 2022-08-15 基于改进多列卷积神经网络的作物苗期植株计数方法 Pending CN115424257A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210975343.4A CN115424257A (zh) 2022-08-15 2022-08-15 基于改进多列卷积神经网络的作物苗期植株计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210975343.4A CN115424257A (zh) 2022-08-15 2022-08-15 基于改进多列卷积神经网络的作物苗期植株计数方法

Publications (1)

Publication Number Publication Date
CN115424257A true CN115424257A (zh) 2022-12-02

Family

ID=84198150

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210975343.4A Pending CN115424257A (zh) 2022-08-15 2022-08-15 基于改进多列卷积神经网络的作物苗期植株计数方法

Country Status (1)

Country Link
CN (1) CN115424257A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117522950A (zh) * 2023-12-28 2024-02-06 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012150A (zh) * 2021-04-14 2021-06-22 南京农业大学 一种特征融合的高密度稻田无人机图像稻穗计数方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012150A (zh) * 2021-04-14 2021-06-22 南京农业大学 一种特征融合的高密度稻田无人机图像稻穗计数方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FANGBO ZHOU ET AL.: ""COMAL: compositional multi-scale feature enhanced learning for crowd counting"", pages 1 - 20 *
JUN FU ET AL.: ""Dual Attention Network for Scene Segmentation"", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, pages 3141 - 3149 *
马永扬: ""基于目标检测和密度估计的玉米植株计数算法研究"", pages 51 - 52 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117522950A (zh) * 2023-12-28 2024-02-06 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法
CN117522950B (zh) * 2023-12-28 2024-03-12 江西农业大学 一种基于机器视觉的植物茎杆生长的几何参数测量方法

Similar Documents

Publication Publication Date Title
CN111126202A (zh) 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN113673590B (zh) 基于多尺度沙漏密集连接网络的去雨方法、系统和介质
CN112597985B (zh) 一种基于多尺度特征融合的人群计数方法
Chen et al. An improved Yolov3 based on dual path network for cherry tomatoes detection
CN113011329A (zh) 一种基于多尺度特征金字塔网络及密集人群计数方法
CN106815576B (zh) 基于连续时空置信图和半监督极限学习机的目标追踪方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN113139489B (zh) 基于背景提取和多尺度融合网络的人群计数方法及系统
CN113450313B (zh) 一种基于区域对比学习的图像显著性可视化方法
CN110909615A (zh) 基于多尺度输入混合感知神经网络的目标检测方法
Sathya et al. RDA-CNN: Enhanced Super Resolution Method for Rice Plant Disease Classification.
CN113409355A (zh) 一种基于fpga的运动目标识别系统及方法
CN114299383A (zh) 基于密度图与注意力机制融合的遥感图像目标检测方法
Sun et al. FBoT-Net: Focal bottleneck transformer network for small green apple detection
CN109815973A (zh) 一种适用于鱼类细粒度识别的深度学习方法
CN115424257A (zh) 基于改进多列卷积神经网络的作物苗期植株计数方法
CN105931184B (zh) 基于联合优化的sar图像超分辨率方法
CN115700737A (zh) 一种基于视频监控的溢油检测方法
Han et al. Progressive Feature Interleaved Fusion Network for Remote-Sensing Image Salient Object Detection
CN114037737B (zh) 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法
CN111415350B (zh) 一种用于检测宫颈病变的阴道镜图像识别方法
Yang et al. Multi-Growth Period Tomato Fruit Detection Using Improved Yolov5
Hu An Improved YOLOv5 Algorithm of Target Recognition
CN118334526B (zh) 一种基于改进Yolov8模型的堤防损坏识别方法
Yang et al. FIDMT-GhostNet: a lightweight density estimation model for wheat ear counting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20221202