CN110516648B - 基于无人机遥感和模式识别的苎麻株数识别方法 - Google Patents

基于无人机遥感和模式识别的苎麻株数识别方法 Download PDF

Info

Publication number
CN110516648B
CN110516648B CN201910823107.9A CN201910823107A CN110516648B CN 110516648 B CN110516648 B CN 110516648B CN 201910823107 A CN201910823107 A CN 201910823107A CN 110516648 B CN110516648 B CN 110516648B
Authority
CN
China
Prior art keywords
ramie
image
target
sample set
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910823107.9A
Other languages
English (en)
Other versions
CN110516648A (zh
Inventor
付虹雨
崔国贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Agricultural University
Original Assignee
Hunan Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Agricultural University filed Critical Hunan Agricultural University
Priority to CN201910823107.9A priority Critical patent/CN110516648B/zh
Publication of CN110516648A publication Critical patent/CN110516648A/zh
Application granted granted Critical
Publication of CN110516648B publication Critical patent/CN110516648B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无人机遥感和模式识别的苎麻株数识别方法,在苎麻株数识别的过程中建立目标监测机制,对预处理得到的图像进行分割取样,使神经网络有侧重地学习目标区域的特征信息;其次,基于获得的目标样本建立基于RGB和HOG的多特征模型;最后,利用SVM分类算法对样本集进行训练优化处理。本发明可以满足种植密度大、重叠率高的作物的株数识别,且识别精度高。

Description

基于无人机遥感和模式识别的苎麻株数识别方法
技术领域
本发明涉及作物信息学领域,特别是一种基于无人机遥感和模式识别的苎麻株数识别方法。
背景技术
利用无人机遥感获取作物种植信息已经取得了一定的进展。Anjin Chang等利用DJI多旋翼无人机获取多张具有高重叠度的图像,将SFM算法用于图像生成目标地的最终数字地形模型和数字地表模型,并通过两个模型的高程差实现了高粱的株高提取。李长春等利用无人机获取了大豆高清数码影像,基于B、RGBVI、GLA和B/(R+G+B)四变量组成的多元线性回归模型对作物叶面积指数进行了最优测定,肯定了遥感图像估测LAI的可行性。戴建国等基于无人机遥感获取的可见光图像,利用色彩和纹理两大主要信息对比分析了SVM、ANN、KNN算法对北疆主要农作物进行分类的精准度,为作物特征信息提取以及分类算法选择提供的借鉴。
目前,基于无人机遥感影像的作物种植信息提取研究主要集中于株高、叶面积、植被指数,对作物种植数量的研究较少,随着精准农业对作物密度的空间数据产生的需求,植株株数确定成为热点。Gnadinger等基于不同密度分布,利用无人机RGB图像对4个不同品种玉米苗株进行计数,其采用的阈值分割方式将识别误差控制在约5%。刘帅兵等人利用无人机采集影像,采用骨架提取算法获得高精度作物形态骨架,并结合角点检测对玉米苗期株数信息进行了提取,该方法总体识别率可达97.8%。虽然上述方法在作物株数识别上都取得了较好的效果,但难以满足种植密度大、重叠率高的作物的株数识别,具有一定的局限性。
SVM支持向量机的基本形式是一个按监督学习方式对数据进行二元分类的间隔最大化的分类器,在二十世纪90年代后,SVM得到快速发展牢牢压制神经网络系统多年并广泛地应用于行人识别、文本分类、前向车辆识别等问题中。将这一技术应用与农业作物识别极具创新性。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种基于无人机遥感和模式识别的苎麻株数识别方法,满足种植密度大、重叠率高的作物的株数识别。
为解决上述技术问题,本发明所采用的技术方案是:一种基于无人机遥感和模式识别的苎麻株数识别方法,包括以下步骤:
1)采集苎麻图像,并对所述图像进行预处理,分割预处理后的图像,利用分割后的图像得到目标苎麻图像、非目标区域图像以及未识别图像,生成中心样本组成目标区域样本集和非目标样本集,对所述目标区域样本集和非目标样本集进行色彩特征提取;
2)选取苎麻图像的HOG特征作为形态特征,得到目标区域样本集和非目标区域样本集各N维数HOG特征;
3)各抽取M个样本组成2M个混合样本的训练组,将每个样本集中包含的N维数HOG特征,G特征(色彩特征提取后得到的G通道特征)和二元类别导入SVM分类器进行训练,实现最优化苎麻中心区域目标归类的模型,利用所述模型对全冠层图像范围内的苎麻进行模式识别。
所述目标区域样本为含有80%以上中心区域面积的图片。
所述中心区域是指以苎麻中点为中心点向外延伸到4-6片叶片距离。
将与处理后的图像分割为若干个大小为L×L的小区域,其中含有80%以上中心区域面积的为目标样本。
本发明中,L=90。
步骤2)中,对所述苎麻图像进行灰度化和二值化处理,得到苎麻冠层叶片的形态二值图;将所述形态二值图分割为多个n×n像素的cell,在每个cell中按梯度方向均匀划分m个方向,面向同一cell中所有像素点具有相同梯度方向的梯度幅值进行加权求值,形成该cell的梯度直方图HOG;将4个cell组合成一个block对梯度强度做归一化处理以减少光照因素的影响,得到目标区域样本集和非目标区域样本集各3600维数HOG特征。
与现有技术相比,本发明所具有的有益效果为:本发明在苎麻株数识别的过程中建立目标监测机制,对预处理得到的图像进行分割取样,使神经网络有侧重地学习目标区域的特征信息;其次,基于获得的目标样本建立基于RGB和HOG的多特征模型;最后,利用SVM分类算法对样本集进行训练优化处理。本发明可以满足种植密度大、重叠率高的作物的株数识别,且识别精度高。
附图说明
图1为HOG特征归一化示意图。
图2为提取样本多特征训练SVM分类器示意图。
具体实施方式
在苎麻株数识别的过程中建立目标监测机制,对预处理得到的图像进行分割取样,使神经网络有侧重地学习目标区域的特征信息;其次,基于获得的目标样本建立基于RGB和HOG的多特征特征模型;最后,利用SVM分类算法对样本集进行训练优化处理。
1 样本集建立
苎麻株数识别的关键在于对其特征区域的提取,从苎麻冠层图像观察到其中心区域具有典型的特征,形态呈花蕊状,边缘向内聚拢,因此设定中心区域为目标样本(苎麻中心区域即以苎麻中点为中心点向外延伸到约4-6片叶片距离。规定尺寸为90,将全幅图片分隔为若干个大小为90的小区域,其中含有80%以上中心区域面积的为目标样本。)以对分类识别提供依据。经过多次检验选用90size作为分割图像尺寸,每张图片运用Matlab经由特定分割提取网络提取样本集,并通过目视监测可以得到目标苎麻图像,非目标区域图像以及未识别图像。最终结果生成中心样本组成目标区域和非目标样本。
2 RGB特征构建
颜色特征参数是图像识别中主要的参数之一,作物各个部位对光的吸收能力和反射能力都有差别,因此可将光谱信息作为区分特征进行图像识别。本研究选取最常用的RGB色彩空间模型对两个样本集进行色彩特征提取,该模型由Red、Green、Blue3个通道组成,R、G、B三色不同的分量相互作用形成了各种颜色。通过无人机可见光遥感得到的苎麻图像为彩色图像,每个像素点反应了红绿蓝三波段的不同强度,在这种条件下,颜色信息能够简单容易、直接地获取。
3 HOG特征构建
无人机可见光遥感图像获得的光谱信息较少,仅有RGB三个通道,只使用基于单个像元的光谱信息容易导致分类精度不高,在色彩特征上结合结构、纹理等不同种类特征建立的特征集可以提高检测精度,丰富特征构建。
本研究选取HOG特征作为形态特征,HOG是在计算机视觉和图像处理中用来进行物体检测的一种局部区域描述符,它通过计算局部区域的梯度方向直方图来描述对象的边缘轮廓,HOG特征应用广泛,尤其在进行行人监测中,HOG特征结合SVM分类器已经获得了极大的成功。HOG特征提取之前,对原始图像进行灰度化、二值化处理,得到苎麻冠层叶片的形态二值图,增强对象轮廓对比。在二值化图像中,像素点(x,y)的梯度由水平方向梯度Gx[x,y]=H[x+1,y]–H[x-1,y]和垂直方向梯度Gy[x,y]=H[x,y+1]-H[x,y-1]组成,其中H[x,y]表示该点的像素值。基于水平梯度和垂直梯度我们可以计算出梯度幅值和梯度方向为
Figure BDA0002188206040000041
α[x,y]=arctan(Gx(x,y)/Gy(x,y)) (2)
HOG计算把样本图像(二值图像)分割为多个n×n像素的cell,在每个cell中按梯度方向均匀划分m个方向,面向同一cell中所有像素点将具有相同梯度方向的梯度幅值进行加权求值,形成该cell的梯度直方图(HOG)。为减少光照因素的影响,将4个cell组合成一个block对梯度强度做归一化处理,其原理基于每个cell之间在一定程度上有重叠,组合起来经过多次作用形成的最终HOG特征能有效减少误差影响。如图1所示。本研究中样本像素均为为90×90,最终得到
目标区域样本集和非目标区域样本集各3600维数HOG特征。
4 SVM分类器训练
SVM支持向量机的基本形式是一个按监督学习方式对数据进行二元分类的间隔最大化的分类器,其决策边界是对学习样求解的最大边距超平面。SVM早在1964年就被提出,它具有较好的泛化推广能力,简化高维空间问题的求解难度,对于小样本问题有其特有的优势,在二十世纪90年代后,SVM得到快速发展牢牢压制神经网络系统多年并广泛地应用于人像识别、文本分类等问题中。
SVM就给定的训练样本建立一个最优的超平面决策边界,将样本分为两类,两边的分类点是最大化远离超平面的,而虚线上的点即为支撑向量。本研究从248个目标样本和277个非目标样中各抽取100个样本组成200个混合样本的训练组,将每个样本中包含的3600维数HOG特征,G特征和二元类别导入SVM分类器进行训练。对于训练集非线性属性,采取导入核函数z=Φ(x)的非线性变换方式,将原空间非线性问题转变为特征空间的线性问题。得到线性特征组(1),在(1)中Xn为不同的维度值。核函数在低维空间中将分类效果体现在高维上,有效地避免了直接在高维空间进行计算的复杂。本发明一共有200个样本,1602维特征,相当于一个有多维度的坐标点,如下:
(x1 (0),x2 (0),…x3602 (0),y0),(x1 (1),x2 (1),…x3602 (1),y1),…(x1 (199),x2 (199),…x3602 (199),y199)(1)
在训练数据线性可分的情况下,SVM通过间隔最大化学习分类器,其关键在于得到一个超平面(2)作为决策边界,将目标对象和非目标对象的数据分开。(3)见图2。
Figure BDA0002188206040000051
Figure BDA0002188206040000052
其中
Figure BDA0002188206040000053
经过多次训练,建立实现最优化苎麻中心区域目标归类的模型,运用这一模型可对全冠层图像范围内的苎麻进行模式识别。xn表示第n维的特征值。基于特征训练,样本集中的样本越多,特征值越多,训练就越多。当每一维特征训练结束,训练过程结束。

Claims (6)

1.一种基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,包括以下步骤:
1)采集苎麻图像,并对所述图像进行预处理,分割预处理后的图像,利用分割后的图像得到目标苎麻图像、非目标区域图像以及未识别图像,生成中心样本组成目标区域样本集和非目标样本集,对所述目标区域样本集和非目标样本集进行色彩特征提取;
2)选取苎麻图像的HOG特征作为形态特征,得到目标区域样本集和非目标区域样本集各N维数HOG特征;
3)各抽取M个样本组成2M个混合样本的训练组,将每个样本集中包含的N维数HOG特征,G特征和二元类别导入SVM分类器进行训练,实现最优化苎麻中心区域目标归类的模型,利用所述模型对全冠层图像范围内的苎麻进行模式识别;所述G特征是指色彩特征提取后得到的G通道特征。
2.根据权利要求1所述的基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,所述目标区域样本为含有80%以上中心区域面积的图片。
3.根据权利要求2所述的基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,所述中心区域是指以苎麻中点为中心点向外延伸到4-6片叶片距离。
4.根据权利要求2所述的基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,将与处理后的图像分割为若干个大小为L×L的小区域,其中含有80%以上中心区域面积的为目标样本。
5.根据权利要求4所述的基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,L=90。
6.根据权利要求1所述的基于无人机遥感和模式识别的苎麻株数识别方法,其特征在于,步骤2)中,对所述苎麻图像进行灰度化和二值化处理,得到苎麻冠层叶片的形态二值图;将所述形态二值图分割为多个n×n像素的cell,在每个cell中按梯度方向均匀划分m个方向,面向同一cell中所有像素点具有相同梯度方向的梯度幅值进行加权求值,形成该cell的梯度直方图HOG;将4个cell组合成一个block对梯度强度做归一化处理以减少光照因素的影响,得到目标区域样本集和非目标区域样本集各3600维数HOG特征。
CN201910823107.9A 2019-09-02 2019-09-02 基于无人机遥感和模式识别的苎麻株数识别方法 Active CN110516648B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910823107.9A CN110516648B (zh) 2019-09-02 2019-09-02 基于无人机遥感和模式识别的苎麻株数识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910823107.9A CN110516648B (zh) 2019-09-02 2019-09-02 基于无人机遥感和模式识别的苎麻株数识别方法

Publications (2)

Publication Number Publication Date
CN110516648A CN110516648A (zh) 2019-11-29
CN110516648B true CN110516648B (zh) 2022-04-19

Family

ID=68629089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910823107.9A Active CN110516648B (zh) 2019-09-02 2019-09-02 基于无人机遥感和模式识别的苎麻株数识别方法

Country Status (1)

Country Link
CN (1) CN110516648B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339954B (zh) * 2020-02-27 2022-08-09 广西大学 一种基于图像识别的薇甘菊监测方法
CN112462756B (zh) * 2020-10-29 2022-11-25 久瓴(上海)智能科技有限公司 农林作业任务生成方法、装置、计算机设备和存储介质
CN112989912B (zh) * 2020-12-14 2023-08-04 北京林业大学 一种基于无人机图像的油茶果品种识别方法
CN116052022A (zh) * 2022-12-30 2023-05-02 西北农林科技大学 基于无人机数字地表模型的葡萄行缺株检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104392211A (zh) * 2014-11-12 2015-03-04 厦门美图网科技有限公司 一种基于显著性检测的皮肤识别方法
CN106203302A (zh) * 2016-07-01 2016-12-07 屈桢深 基于视觉和无线感知相结合的行人检测和统计方法
CN108664939A (zh) * 2018-05-16 2018-10-16 东南大学 一种基于hog特征与深度学习的遥感图像飞机识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104392211A (zh) * 2014-11-12 2015-03-04 厦门美图网科技有限公司 一种基于显著性检测的皮肤识别方法
CN106203302A (zh) * 2016-07-01 2016-12-07 屈桢深 基于视觉和无线感知相结合的行人检测和统计方法
CN108664939A (zh) * 2018-05-16 2018-10-16 东南大学 一种基于hog特征与深度学习的遥感图像飞机识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Use of high-resolution multispectral imagery from an unmanned aerial vehicle in precision agriculture;Manal Al-Arab 等;《2013 IEEE International Geoscience and Remote Sensing Symposium - IGARSS》;20140127;全文 *

Also Published As

Publication number Publication date
CN110516648A (zh) 2019-11-29

Similar Documents

Publication Publication Date Title
CN110516648B (zh) 基于无人机遥感和模式识别的苎麻株数识别方法
CN108009542B (zh) 油菜大田环境下杂草图像分割方法
CN112101271B (zh) 一种高光谱遥感影像分类方法及装置
Liu et al. A detection method for apple fruits based on color and shape features
Cecotti et al. Grape detection with convolutional neural networks
Al Bashish et al. Detection and classification of leaf diseases using K-means-based segmentation and
CN113591766B (zh) 一种无人机多源遥感的树种识别方法
CN106845497B (zh) 基于多特征融合的玉米前期图像旱情识别方法
Cai et al. Residual-capsule networks with threshold convolution for segmentation of wheat plantation rows in UAV images
CN112766155A (zh) 一种基于深度学习的海水养殖区提取方法
CN116630960B (zh) 基于纹理-颜色多尺度残差收缩网络的玉米病害识别方法
Singh et al. A review on artificial intelligence techniques for disease recognition in plants
CN116863345A (zh) 一种基于双重注意力和尺度融合的高分影像农田识别方法
CN118230166A (zh) 基于改进Mask2YOLO网络的玉米冠层器官识别方法及冠层表型检测方法
CN112818880B (zh) 基于深度学习的航拍图像植被提取与分类方法
Veramendi et al. Method for maize plants counting and crop evaluation based on multispectral images analysis
CN117437691A (zh) 一种基于轻量化网络的实时多人异常行为识别方法及系统
CN116721385A (zh) 一种基于机器学习的rgb摄像头数据蓝藻水华监测方法
CN111368776A (zh) 一种基于深度集成学习的高分辨率遥感图像分类方法
Cao et al. Plant leaf segmentation and phenotypic analysis based on fully convolutional neural network
Tamilselvi et al. Color based K-Means Clustering For Image Segmentation to Identify the Infected Leaves
CN114332626A (zh) 一种基于视觉分析的水稻产量预测方法
CN112966781A (zh) 基于三元组损失和卷积神经网络的高光谱图像分类方法
Indukuri et al. Paddy Disease Classifier using Deep learning Techniques
Niu et al. A Novel Method for Wheat Spike Phenotyping Based on Instance Segmentation and Classification.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant