CN110503647A - 基于深度学习图像分割的小麦植株实时计数方法 - Google Patents
基于深度学习图像分割的小麦植株实时计数方法 Download PDFInfo
- Publication number
- CN110503647A CN110503647A CN201910811948.8A CN201910811948A CN110503647A CN 110503647 A CN110503647 A CN 110503647A CN 201910811948 A CN201910811948 A CN 201910811948A CN 110503647 A CN110503647 A CN 110503647A
- Authority
- CN
- China
- Prior art keywords
- image
- wheat
- wheat plant
- deep learning
- plant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习图像分割的小麦植株实时计数方法,包括步骤:通过无人机采集多张小麦图像,所述图像为三维张量,包括图像高度、图像宽度和波段数,与所述图像对应的头文件中包括经度坐标、纬度坐标和拍摄高度;所述无机人中包括深度学习模块,实时对采集的所述小麦图像进行深度学习模型处理,预测相幅范围内的小麦植株数量,对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图。本发明使用无人机遥感与计算机视觉目标识别的集成技术,基于深度学习算法对小麦植株数目的空间分布进行实时监测,能够准确识别和定位小麦植株并计算其数目。
Description
技术领域
本发明涉及人工智能领域,更具体地,涉及一种基于深度学习图像分割的小麦植株实时计数方法。
背景技术
小麦作为我国的主要粮食作物,其产量对国家粮食安全有着重要的影响。快速准确地计算出单位面积植株数对小麦测产具有十分重要的意义。随着农业生产机械化和信息化水平的不断提高,农作物产量预测的手段也逐渐多样化。遥感技术以其快速、无损、范围广等优势在大面积产量预测方面表现出了非常积极的作用。而对于小面积农田的产量预测,基于无人机航摄遥感的图像智能处理技术则较为合适。国内外学者的研究工作覆盖了作物测产的各个环节,尤其是在作物果实的计数上,但由于小麦大田环境复杂,密集植株的分割比较困难,因此在大田环境下对小麦植株进行计数的报道较少。
发明内容
有鉴于此,本发明提供了一种基于深度学习图像分割的小麦植株实时计数方法,包括步骤:
通过无人机采集多张小麦图像,所述图像为三维张量,包括图像高度、图像宽度和波段数,与所述图像对应的头文件中包括经度坐标、纬度坐标和拍摄高度;
所述无机人中包括深度学习模块,实时对采集的所述小麦图像进行深度学习模型处理,预测相幅范围内的小麦植株数量,对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图,包括:
对采集的每一张小麦图像进行预处理和标注;
将进行标注后的多张所述小麦图像构建数据集,将所述数据集分为训练集与测试集;
通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型;
将所述测试集输入到所述深度学习模型中,通过LINKNET卷积神经网络中的编码器提取所述测试集中每张小麦图像的语义特征;
通过LINKNET卷积神经网络中的解码器将所述语义特征分割出具有小麦植株轮廓的灰度热力图,所述灰度热力图即为分割结果,所述灰度热力图的尺寸与采集的小麦图像尺寸相同,在所述灰度热力图中任一像素的值代表深度学习模型预测该位置物体所属的语义类别:0代表背景,1代表小麦植株,统计语义列别为1所有属于小麦植株的像素总数;
按照以下方法预测相幅范围内的小麦植株数量:
Q=A/B,
其中Q为相幅范围内的小麦植株数量,A为所有属于小麦植株的像素总数,B为当前拍摄高度下每一株小麦植株的经验参数、即每一株小麦植株的像素数目;
根据经度坐标、维度坐标对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图。
可选的,所述对采集的每一张小麦图像进行预处理和标注,包括:
对每一张小麦图像进行预处理,删除其中没有小麦的图像或者人的视觉辨识小麦困难的图像,得到预处理图像;
对所述预处理图像进行标注,将预处理图像中的小麦植株进行描轮廓。
可选的,所述预处理还包括图像裁剪处理,将每一张小麦图像进行裁剪,裁剪后每一张小麦图像高度小于或等于第一预设像素值,图像宽度小于或等于第二预设像素值。
可选的,所述通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型,包括:
从所述训练集中,每次迭代随机抽取多个训练集中的图像数据构成一个批次进行整个深度学习模型参数更新,计算损失函数Focal Loss,采用梯度下降和反向传播的算法进行优化训练,当每次计算的Loss值与上一次的Loss值的差值不超过预定阈值时,训练结束,保存当前的参数配置。
可选的,所述LINKNET卷积神经网络的编码器和解码器的最底层包括空洞卷机组并联。
可选的,所述波段数为3。
与现有技术相比,本发明提供的基于深度学习图像分割的小麦植株实时计数方法,至少实现了如下的有益效果:
1、本发明使用无人机遥感与计算机视觉目标识别的集成技术,基于深度学习算法对小麦植株数目的空间分布进行实时监测。通过无人机搭载的光学传感器实时拍摄的农田照片,在无人机主板上经过深度学习模型处理,能够准确识别和定位小麦植株并计算其数目,为病虫害防治及产量估测工作提供及时、可靠的参考数据;
2、本发明的损失函数采用的是Focal Loss,提高了训练阶段的稳定性,解决了正负样本比例失衡造成的训练结果被负样本淹没的问题;
3、本发明中在Linknet的编解码最底层采用了空洞卷积组并联,提高了主干网的输出特征图在上采样过程中的感受野,增加了上下文信息,使得小麦植株轮廓边缘更加细腻。
当然,实施本发明的任一产品必不特定需要同时达到以上所述的所有技术效果。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是本发明实施例1中基于深度学习图像分割的小麦植株实时计数方法流程图;
图2是实施例2中得到的灰度热力图;
图3是实施例2中得到的又一个灰度热力图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
实施例1:
结合图1,本发明提供了一种基于深度学习图像分割的小麦植株实时计数方法,包括步骤:
步骤101,通过无人机采集多张小麦图像,所述图像为三维张量,包括图像高度、图像宽度和波段数,与所述图像对应的头文件中包括经度坐标、纬度坐标和拍摄高度;
在一些可选的实施例中,所述波段数为3。
本实施例中,利用大疆M210无人机搭载X4S航拍相机采集水稻田图像,也可使用大疆御MAVIC PRO无人机。
步骤102:所述无机人中包括深度学习模块,实时对采集的所述小麦图像进行深度学习模型处理,预测相幅范围内的小麦植株数量,对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图,包括:
对采集的每一张小麦图像进行预处理和标注;
将进行标注后的多张所述小麦图像构建数据集,将所述数据集分为训练集与测试集;
通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型;
将所述测试集输入到所述深度学习模型中,通过LINKNET卷积神经网络中的编码器提取所述测试集中每张小麦图像的语义特征;
通过LINKNET卷积神经网络中的解码器将所述语义特征分割出具有小麦植株轮廓的灰度热力图,所述灰度热力图即为分割结果;可以理解的是,所述灰度热力图的尺寸与采集的小麦图像尺寸相同;在所述灰度热力图中任一像素的值代表深度学习模型预测该位置物体所属的语义类别:0代表背景,1代表小麦植株,统计语义列别为1所有属于小麦植株的像素总数;
按照以下方法预测相幅范围内的小麦植株数量:
Q=A/B,
其中Q为相幅范围内的小麦植株数量,A为所有属于小麦植株的像素总数,B为当前拍摄高度下每一株小麦植株的经验参数、即每一株小麦植株的像素数目;
根据经度坐标、维度坐标对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图。
也就是对应经度坐标、纬度坐标的位置上的小麦制作数目形成在地图上,能够表示出小麦的空间分布。
本实施例中M210无人机上搭载有NVIDIA Jetson人工智能开发模块,搭建PyTorch环境后,即可在飞行过程中对相机拍摄的图像进行实时处理。处理结果被上传到在线平台,每幅图像对应三个数值:经度、纬度及相幅区域内的小麦植株计数,根据经纬度对植株数目的空间分布插值形成目标区域的植株数目分布图。
本发明中的经验参数是指在数据采集当地种植条件下,通过在同一个飞行参数条件下获得的数据人工清点得出来的值,一般是50次采样取平均,即可作为一般经验参数。
所述对采集的每一张小麦图像进行预处理和标注,包括:
对每一张小麦图像进行预处理,删除其中没有小麦的图像或者人的视觉辨识小麦困难的图像,得到预处理图像;
对所述预处理图像进行标注,将预处理图像中的小麦植株进行描轮廓。
所述预处理还包括图像裁剪处理,将每一张小麦图像进行裁剪,裁剪后每一张小麦图像高度小于或等于第一预设像素值,图像宽度小于或等于第二预设像素值。
所述通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型,包括:
从所述训练集中,每次迭代随机抽取多个训练集中的图像数据构成一个批次进行整个深度学习模型参数更新,计算损失函数Focal Loss,采用梯度下降和反向传播的算法进行优化训练,当每次计算的Loss值与上一次的Loss值的差值不超过预定阈值时,训练结束,保存当前的参数配置。
所述LINKNET卷积神经网络的编码器和解码器的最底层包括空洞卷机组并联。本发明中在Linknet的编解码最底层采用了空洞卷积组并联,提高了主干网的输出特征图在上采样过程中的感受野,增加了上下文信息,使得小麦轮廓边缘更加细腻。
组成LINKNET的基本层类型包括卷积(下略为conv)、反卷积(下略为deconv)、池化层(下略为pool)、线性整流单元(Rectified Linear Unit,下略为relu)、批量正则化(下略为bnorm)和软阈值(softmax)层。
一个卷积层conv(k,c1*c2)或反卷积层deconv(k,c1*c2)表示其读入一组共c1个特征图,经过窗口边长为k的卷积或反卷积的运算,输出一组共c2个特征图。输出图的空间尺寸(长、宽)通常是输入图的空间尺寸的1/s(卷积)或s倍(反卷积),s表示卷积运算时的窗口滑动步长(stride);
一个池化层pool(k,s,type)对输入图像以s的步长作type型的池化运算(如max表示取邻域窗口内的最大值赋给中心像素,average表示取邻域窗口内的所有像素平均值赋给中心像素),每一个邻域窗口的边长为k,则输出图像的空间尺寸为输入图像的1/s;
一个线性整流单元层relu起到激活函数的作用,对于输入数据中任何小于零的值,它将其置为零,而大于等于零的值则不变;
一个批量正则化层bnorm将输入数据减去一个近似均值并除以一个近似标准差,使得输出数据的均值近似为零,标准差近似为1;
一个软阈值层softmax的输入信号X=[x1,...,xn]应当是一个概率向量,其任一分量xi表示网络模型预测input image中相应的像素属于n个类别中的第i类的概率。softmax函数通过对X的每个分量作指数变换和总体归一化输出一个规范化的概率向量y=[y1,...,yn-1],yi∈[0,1],∑yi=1。
构成LINKNET的单元模块是编码器(Encoder)和解码器(Decoder)。一个编码器encoder(m*n)中的数据传输流程为:
encoder_input-conv(3,m*n,s=2)-relu-bnorm-conv1_output-conv(3,n*n,s=1)-bnorm-conv2_output
conv2_output+(encoder_input)↓1/2-relu-conv3_input
conv3_input-conv(3,n*n,s=1)-relu-bnorm-conv3_output-conv(3,n*n,s=1)-bnorm-conv4_output
conv4_output+conv3_input-relu-encoder_output
一个解码器decoder(m*n)中的数据传输流程为:
decoder_input-conv(1,m*(m/4),s=1)-relu-bnorm-conv1_output
conv1_output-deconv(3,(m/4)*(m/4),s=2)-relu-bnorm-deconv1_output
deconv1_output-conv(1,(m/4)*n,s=1)-relu-bnorm-decoder_output
整个LINKNET的数据传输流程为:
Input_image-conv(7,3*64,s=2)-relu-bnorm-pool(3,2,max)-encoder1_input
encoder1_input-encoder(64*64)-encoder1_output-encoder(64*128)-encoder2_output-encoder(128*256)-encoder3_output-encoder(256*512)-encoder4_output
encoder4_output-decoder(512*256)-decoder1_output
decoder1_output+encoder3_output-decoder(256*128)-decoder2_output
decoder2_output+encoder2_output-decoder(128*64)-decoder3_output
decoder3_output+encoder1_output-decoder(64*64)-decoder4_output
decoder4_output-deconv(3,64*32,s=2)-relu-bnorm-conv(3,32*32,s=1)-relu-deconv(2,3*num_of_class,s=1)-relu-softmax-Output_image
在Input_image被输入的conv层中,输入特征图数量c1=3,是因为Input_image含有R,G,B三个波段。
在得到Output_image之前的最后一个deconv层中,输出特征图数量c2=num_of_class,表示任务中定义的类别有几种,Output_image就有几个波段,则Output_image的每一个像素是一个num_of_class维的向量,经过softmax层处理之后,其维数不变,而每个分量的值得到归一化。需要注意的是,每个类别在语义分割图中对应的像素值可以自由定义,将第1类(背景)的像素取值定为0,第2类的像素取值定为1,...,第n类的像素取值定为n-1,这样在语义分割图的视觉呈现中,一切背景物体都为黑色,而其它目标的亮度则更高,符合人眼认知的习惯。
在LINKNET模型中包含有一些迭代更新的参数,将这些参数称为学习的对象。在给定一个Input_image的前提下,Output_image中任一像素的取值都取决于这些参数的取值,这是由于LINKNET模型使用这些参数对Input_image进行了特征提取和类别划分,从而输出Output_image。待学习参数包括conv和deconv层中的卷积滤波器、偏置向量,以及bnorm层中的均值和标准差。示例:对于一个窗口边长为k,输入特征图数量为c1,输出特征图数量为c2的conv或deconv层,其包含的待学习参数数量为:k·k·c1·c2+1·c2。需要为Output_image设定一个“标准答案”,从而以令Output_image和标准答案的差距最小化为目标,对这些参数的取值进行优化配置。为此,选择一些与待处理图像相似的水稻田航拍照片,人工对其每个像素的类别作出标注,这种经过标注的标准答案称为label,而使用照片和label对LINKNET的参数进行优化配置的过程即称为学习(Learning)或训练(Training)。
为了使Output_image中的预测类别尽可能接近label中的正确标签,计算一个损失函数Loss(Output,label),Loss的形式通常采用交叉熵(Cross Entropy)或Focal Loss等。Loss的值越小,说明LINKNET的预测越准确。本发明采用Focal Loss,提高了训练阶段的稳定性,解决了正负样本比例失衡造成的训练结果被负样本淹没的问题。尽管LINKNET的参数一开始是随机初始化的,随之带来的Loss会很大,但通过迭代更新参数,Loss会逐渐收敛至最小值的过程。在一次典型的迭代(Iteration)中,为每个参数计算出使Loss对该参数的偏导为零的值,称为梯度(Gradient),然后将梯度取负值与该参数相加,这使得整个网络的参数组合更新方向与Loss上升最快的方向相反,因此称为梯度下降(Gradient Descent)方法。
每一层的输出数据layer_output是该层输入数据layer_input和该层参数layer_parameters的因变量。则根据链式求导法则(Chain rule),首先需求得两个偏导函数表达式:d_Loss/d_layer_output,以及d_layer_output/d_layer_parameters,然后将其相乘即可得到d_Loss/d_layer_parameters的函数表达式,将偏导函数=0代入,即可得到layer_parameters的梯度。
对于该层的前一层,计算梯度时需要用到d_Loss/d_previous_layer_output,即d_Loss/d_layer_input,显然有d_Loss/d_layer_input=d_Loss/d_layer_output·d_layer_output/d_layer_input,其中d_layer_output/d_layer_input只与layer_parameters相关。
由此即可从后(模型输出端)往前(模型输入端)逐层地计算出所有参数的梯度,这个过程称为后向传播。一次典型的基于梯度下降+后向传播的迭代过程如下:
记本次迭代为第i次。将Input_image输入包含上一次更新后所得参数parameter_i的LINKNET,并储存每一个基本层的输入和输出数据(如encoder1_output等),得到Output_image_i。如果是第一次迭代,则使用随机初始化的参数;
计算Loss_i=Loss(Output_image_i,label);
从Loss_i开始朝Input_image计算所有层中待学习参数的梯度gradient_i;
parameter_i+1=parameter_i-lr·gradient_i,其中lr表示学习率,可形象地理解为本次梯度下降的“步幅”。
当每次Loss与上一次的差值不超过一定阈值时,即认为训练结束,保存当前的参数配置。这样就得到了一个可用于从任意一张符合格式的图像中识别特定目标的LINKNET模型。
对于小麦植株的分割结果图,需要将其转化为对植株数量的预测。首先选取一组拍摄于不同高度(如1m,2m,5m)的图像,通过人工统计,得出植株平均面积(像素数目)在各个高度的经验参数。之后,对于任意一幅小麦植株分割图,只需统计所有属于小麦植株的像素总数,除以该高度(由图片头文件抓取得到)下的植株平均面积参数,即可预测出该相幅范围内的小麦植株数量。
实施例2:
在实施例1的基础上,本实施例为应用实施例。
本实施例中所用冬小麦照片于2018年使用大疆御无人机采集于北京,每张图像高度2992像素,宽度3992像素。共标记10张用于训练和测试。
图2示出了1组图像的小麦植株分割结果。飞行高度为1.5米,对应经验参数为39000像素/植株,被分割为小麦植株的像素总数为3035403,则预测植株数为3035403/39000≈78。
图3示出了另一组图像的小麦植株分割结果。飞行高度为0.5米,经验参数为160000像素/植株,被分割为小麦植株的像素总数为2893072,则预测植株数为2893072/160000≈18。
通过上述实施例可知,本发明提供的基于深度学习图像分割的小麦植株实时计数方法,至少实现了如下的有益效果:
1、本发明使用无人机遥感与计算机视觉目标识别的集成技术,基于深度学习算法对小麦植株数目的空间分布进行实时监测。通过无人机搭载的光学传感器实时拍摄的农田照片,在无人机主板上经过深度学习模型处理,能够准确识别和定位小麦植株并计算其数目,为病虫害防治及产量估测工作提供及时、可靠的参考数据;
2、本发明的损失函数采用的是Focal Loss,提高了训练阶段的稳定性,解决了正负样本比例失衡造成的训练结果被负样本淹没的问题;
3、本发明中在Linknet的编解码最底层采用了空洞卷积组并联,提高了主干网的输出特征图在上采样过程中的感受野,增加了上下文信息,使得小麦植株轮廓边缘更加细腻。
虽然已经通过例子对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上例子仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员应该理解,可在不脱离本发明的范围和精神的情况下,对以上实施例进行修改。本发明的范围由所附权利要求来限定。
Claims (6)
1.一种基于深度学习图像分割的小麦植株实时计数方法,其特征在于,包括步骤:
通过无人机采集多张小麦图像,所述图像为三维张量,包括图像高度、图像宽度和波段数,与所述图像对应的头文件中包括经度坐标、纬度坐标和拍摄高度;
所述无机人中包括深度学习模块,实时对采集的所述小麦图像进行深度学习模型处理,预测相幅范围内的小麦植株数量,对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图,包括:
对采集的每一张小麦图像进行预处理和标注;
将进行标注后的多张所述小麦图像构建数据集,将所述数据集分为训练集与测试集;
通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型;
将所述测试集输入到所述深度学习模型中,通过LINKNET卷积神经网络中的编码器提取所述测试集中每张小麦图像的语义特征;
通过LINKNET卷积神经网络中的解码器将所述语义特征分割出具有小麦植株轮廓的灰度热力图,所述灰度热力图即为分割结果,所述灰度热力图的尺寸与采集的小麦图像尺寸相同,在所述灰度热力图中任一像素的值代表深度学习模型预测该位置物体所属的语义类别:0代表背景,1代表小麦植株,统计语义列别为1所有属于小麦植株的像素总数;
按照以下方法预测相幅范围内的小麦植株数量:
Q=A/B,
其中Q为相幅范围内的小麦植株数量,A为所有属于小麦植株的像素总数,B为当前拍摄高度下每一株小麦植株的经验参数、即每一株小麦植株的像素数目;
根据经度坐标、维度坐标对小麦植株数目的空间分布进行插值形成目标区域的植株数目分布图。
2.根据权利要求1所述的基于深度学习图像分割的小麦植株实时计数方法,其特征在于,所述对采集的每一张小麦图像进行预处理和标注,包括:
对每一张小麦图像进行预处理,删除其中没有小麦的图像或者人的视觉辨识小麦困难的图像,得到预处理图像;
对所述预处理图像进行标注,将预处理图像中的小麦植株进行描轮廓。
3.根据权利要求2所述的基于深度学习图像分割的小麦植株实时计数方法,其特征在于,所述预处理还包括图像裁剪处理,将每一张小麦图像进行裁剪,裁剪后每一张小麦图像高度小于或等于第一预设像素值,图像宽度小于或等于第二预设像素值。
4.根据权利要求1所述的基于深度学习图像分割的小麦植株实时计数方法,其特征在于,所述通过用于图像语义分割的LINKNET卷积神经网络对所述训练集进行训练,得到深度学习模型,包括:
从所述训练集中,每次迭代随机抽取多个训练集中的图像数据构成一个批次进行整个深度学习模型参数更新,计算损失函数Focal Loss,采用梯度下降和反向传播的算法进行优化训练,当每次计算的Loss值与上一次的Loss值的差值不超过预定阈值时,训练结束,保存当前的参数配置。
5.根据权利要求1所述的基于深度学习图像分割的小麦植株实时计数方法,其特征在于,所述LINKNET卷积神经网络的编码器和解码器的最底层包括空洞卷机组并联。
6.根据权利要求1所述的基于深度学习图像分割的小麦植株实时计数方法,其特征在于,所述波段数为3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910811948.8A CN110503647A (zh) | 2019-08-30 | 2019-08-30 | 基于深度学习图像分割的小麦植株实时计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910811948.8A CN110503647A (zh) | 2019-08-30 | 2019-08-30 | 基于深度学习图像分割的小麦植株实时计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110503647A true CN110503647A (zh) | 2019-11-26 |
Family
ID=68590666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910811948.8A Pending CN110503647A (zh) | 2019-08-30 | 2019-08-30 | 基于深度学习图像分割的小麦植株实时计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110503647A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860459A (zh) * | 2020-08-05 | 2020-10-30 | 武汉理工大学 | 一种基于显微图像的禾本科植物叶片气孔指数测量方法 |
CN112712071A (zh) * | 2021-03-26 | 2021-04-27 | 北京简巨科技有限公司 | 作物长势检测方法及其相关设备 |
CN116597296A (zh) * | 2022-11-09 | 2023-08-15 | 中国科学院地理科学与资源研究所 | 基于深度学习和热力图的麦苗密度估算方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942528A (zh) * | 2014-01-28 | 2014-07-23 | 安徽朗坤物联网有限公司 | 蚜虫虫情调查方法及装置 |
CN109977924A (zh) * | 2019-04-15 | 2019-07-05 | 北京麦飞科技有限公司 | 针对农作物的无人机机上实时图像处理方法及系统 |
-
2019
- 2019-08-30 CN CN201910811948.8A patent/CN110503647A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103942528A (zh) * | 2014-01-28 | 2014-07-23 | 安徽朗坤物联网有限公司 | 蚜虫虫情调查方法及装置 |
CN109977924A (zh) * | 2019-04-15 | 2019-07-05 | 北京麦飞科技有限公司 | 针对农作物的无人机机上实时图像处理方法及系统 |
Non-Patent Citations (6)
Title |
---|
ABHISHEK CHAURASIA ET AL: "LinkNet: Exploiting Encoder Representations for Efficient Semantic Segmentation", 《2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP)》 * |
KENTO DOI ET AL: "The Effect of Focal Loss in Semantic Segmentation of High Resolution Aerial Image", 《IGARSS 2018 - 2018 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM》 * |
LICHEN ZHOU ET AL: "D-LinkNet: LinkNet with Pretrained Encoder and Dilated Convolution for High Resolution Satellite Imagery Road Extraction", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 * |
SHUBHRA AICH ET AL: "DeepWheat: Estimating Phenotypic Traits from Crop Images with Deep Learning", 《ARXIV:1710.00241V2》 * |
北京师范大学民俗典籍文字研究中心: "《民俗典籍文字研究 第22辑》", 30 November 2018 * |
高志强: "《深度学习从入门到实战》", 30 June 2018 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111860459A (zh) * | 2020-08-05 | 2020-10-30 | 武汉理工大学 | 一种基于显微图像的禾本科植物叶片气孔指数测量方法 |
CN111860459B (zh) * | 2020-08-05 | 2024-02-20 | 武汉理工大学 | 一种基于显微图像的禾本科植物叶片气孔指数测量方法 |
CN112712071A (zh) * | 2021-03-26 | 2021-04-27 | 北京简巨科技有限公司 | 作物长势检测方法及其相关设备 |
CN116597296A (zh) * | 2022-11-09 | 2023-08-15 | 中国科学院地理科学与资源研究所 | 基于深度学习和热力图的麦苗密度估算方法 |
CN116597296B (zh) * | 2022-11-09 | 2024-05-14 | 中国科学院地理科学与资源研究所 | 基于深度学习和热力图的麦苗密度估算方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517311A (zh) | 基于叶片病斑面积的病虫害监测方法 | |
Jia et al. | Detection and segmentation of overlapped fruits based on optimized mask R-CNN application in apple harvesting robot | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN111582234B (zh) | 基于uav和深度学习的大范围油茶林果智能检测与计数方法 | |
CN108109162B (zh) | 一种利用自适应特征融合的多尺度目标跟踪方法 | |
CN109886225A (zh) | 一种基于深度学习的图像手势动作在线检测与识别方法 | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN110689519B (zh) | 基于yolo网络的雾滴沉积图像检测系统和方法 | |
CN110427922A (zh) | 一种基于机器视觉和卷积神经网络病虫害识别系统和方法 | |
CN109029363A (zh) | 一种基于深度学习的目标测距方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN104463249B (zh) | 一种基于弱监督学习框架的遥感图像机场检测方法 | |
CN109376637A (zh) | 基于视频监控图像处理的人数统计系统 | |
CN110503647A (zh) | 基于深度学习图像分割的小麦植株实时计数方法 | |
CN107220603A (zh) | 基于深度学习的车辆检测方法及装置 | |
CN106951870A (zh) | 主动视觉注意的监控视频显著事件智能检测预警方法 | |
CN107680116A (zh) | 一种监测视频图像中运动目标的方法 | |
CN106228569A (zh) | 一种适用于水质监测的鱼体运动速度检测方法 | |
CN113435282B (zh) | 基于深度学习的无人机影像麦穗识别方法 | |
CN109635634A (zh) | 一种基于随机线性插值的行人再识别数据增强方法 | |
CN109949229A (zh) | 一种多平台多视角下的目标协同检测方法 | |
CN110909672A (zh) | 一种基于双流卷积神经网络和svm的抽烟动作识别方法 | |
CN106023249A (zh) | 一种基于局部二值相似性模式的运动目标检测方法 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191126 |