CN109325431B - 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 - Google Patents
草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 Download PDFInfo
- Publication number
- CN109325431B CN109325431B CN201811059214.0A CN201811059214A CN109325431B CN 109325431 B CN109325431 B CN 109325431B CN 201811059214 A CN201811059214 A CN 201811059214A CN 109325431 B CN109325431 B CN 109325431B
- Authority
- CN
- China
- Prior art keywords
- vegetation
- image
- coverage
- neural network
- feeding path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/45—Analysis of texture based on statistical description of texture using co-occurrence matrix computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Abstract
本发明公开了草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,植被覆盖度检测方法包括:步骤一、采集并预处理植被图像一;步骤二、建立植被特征库;步骤三、分割所述植被图像一并计算各种植被的覆盖度。所述检测装置包括图像采集机构、图像预处理模块、特征库训练模块、植被分割模块。本发明通过将植被图像与人工法对比标定图像,可以校正摄像头的焦距和图像像素计算时的系数,提高植被图像的准确性。本发明通过采用主成分分析法对图像降维,可以减少特征参数的冗余。本发明通过建立BP神经网络训练模型,方便将一个植被图像分割为多个单一植被图像,从而计算出各个植被的覆盖度,提高放牧绵羊采食路径中植被覆盖度的检测效率。
Description
技术领域
本发明涉及检测技术领域的植被覆盖度的检测方法及其装置,具体为草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置。
背景技术
我国草地资源尤为丰富,全国草地总面积近60亿亩,约占我国总面积的41.7%,为维持区域性及生态系统平衡,草地资源起着极其重要的作用。草地资源是放牧的基础,放牧活动直接影响着草地生态系统,放牧家畜不仅采食草地植物,也通过行走践踏植物,这样就会严重影响草地植被,影响草地资源。
随着动物福利化养殖与智能畜牧业的发展,对放牧绵羊采食路径中的植被进行检测识别成为热点。盖度(Coverage)是指植物冠层的枝叶垂直投影于地面所覆盖地面面积的比率。植被覆盖度作为草地植被生长状况的直观量化指标,为草地生态环境评估、草地退化监测的重要衡量指标之一,在草地退化管理、荒漠化治理方面起着重要的作用。植被覆盖度的计算方法大约为两种:地面测量法与遥感测量法。地面测量法包括目测估计法、样方法和拍照法,准确性较低,并且费时费力,劳动强度大;遥感测量法主要利用卫星云图技术,采用植被指数法实现宏观的、全局的植物覆盖度计算,不能准确地检测出微观的植被覆盖度;因此,没有一种较为完善的放牧绵羊采食路径中植被覆盖度的检测方法。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,具备便捷、准确等优点,解决了现有的草原放牧绵羊采食路径中植被覆盖度的检测准确度低、劳动强度大的问题。
(二)技术方案
为实现上述便捷、准确的目的,本发明提供如下技术方案:草原放牧绵羊采食路径中植被覆盖度的检测方法,其包括:
步骤一、采集并预处理植被图像一;
拍摄草原放牧绵羊采食路径中植被的植被图像一;拍摄所述植被图像一的方法为:在草原放牧绵羊上安装GPS定位模块以记录放牧绵羊的采食路径,拍摄放牧绵羊的采食视频,分离出各个采食时间节点的GPS数据信号,并得到对应各个采食时间节点的采食点,到达各个采食点并拍摄各个采食点的植被图像一;
通过对比一张标准的植被图像一以标定其他植被图像一;标定其他植被图像一的方法为:选取所有植被图像一中的一张植被图像一,计算所述一张植被图像一的植被覆盖度,并以所述一张植被图像一为标准,标定其他的植被图像一的拍摄参数以及图像系数,并校正采集植被的摄像头的焦距对植被覆盖度达到预设值的区域聚焦;计算所述一张植被图像一的植被覆盖度的方法为:首先在实地画与所述一张植被图像一的实际边缘齐平的一个大方格,之后将大方格划分为100个小方格,并制作面积与小方格的面积相同的100个小方框,然后将多个小方框扣在大方格上,最后统计小方框内的植被面积,当植被出现在小方框内的面积超过2/3时,记为1,否则记为0,并依次对100个小方格进行累加计数,统计的总数为植被覆盖度;
对标定后的植被图像一进行滤波去噪;
背景分割滤波去噪后的植被图像一;
步骤二、建立植被特征库;
拍摄多种植被的单一植被图像二,背景分割所述植被图像二;每张单一植被图像二中仅显示有一种植被;
提取背景分割后的植被图像二的多个特征;
对分割后的植被图像二进行降维,获取图像的有效特征;
根据所述植被图像二的多个特征及有效特征建立BP神经网络训练模型;
所述BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数;
步骤三、分割所述植被图像一并计算各种植被的覆盖度;
提取背景分割后的植被图像一的多个特征;
对提取特征后的植被图像一进行降维;
根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三;每张单一植被图像三中仅显示对应的一种植被;
计算多个单一植被图像三中各种植被的植被覆盖度;
其中,在所述步骤二、所述步骤三中,所述多个特征包括颜色特征、形状特征、纹理特征;提取所述颜色特征的方法为:
利用MATLAB图像工具Data Cursor,调用imshow命令,读取并记录每一个x、y坐标下的R、G、B分量值;
将RGB图像转换到HSV颜色空间,且转换公式如下:
式中,arccos为反三角函数中的反余弦函数,θ为中间变量,min(R,G,B)为R,G,B三分量中的最小值;
L*a*b*是经修改后得到的一个简化颜色模型,RGB到L*a*b*颜色模型的转换公式为:
RGB→CIE XYZ
CIE XYZ→L*a*b*
通过颜色矩呈现图像的颜色分布特征,颜色矩的一阶矩、二阶矩和三阶矩的公式分别为:
其中,i为L*a*b*颜色模型分量,i=1为R分量,i=2为G分量,i=3为B分量;Pij为颜色分量i在像素为j时的概率值;N为图像中像素点个数;Mi1、Mi2、Mi3分别为一阶矩、二阶矩、三阶矩的计算值;
提取所述形状特征的方法包括:
(a)定义描述形状特征的基本量为:植被的各叶片以及枝干的面积、周长、长度、宽度;其中,面积A:叶片以及枝干区域内像素点数;周长C:叶片以及枝干边界像素点数的和;长度L:叶片以及枝干最小外接矩形的长度;宽度W:叶片以及枝干最小外接矩形的宽;
(b)对各叶片的面积A、周长C、长度L、宽度W进行统计,其中面积使用像素点进行计算、周长使用叶片边界像素点数的和进行统计,长度和宽度使用外接矩形进行计算;
(c)对所述描述形状特征的基本量进行相互组合,得到形态特征量;
提取所述纹理特征的方法采用灰度共生矩阵法,所述纹理特征包括能量ASM、熵BNT、惯性CON、相关性COR;
建立所述BP神经网络训练模型的方法为:
定义BP神经网络的输入矢量为x∈Rn,其中x=(x0,x1,…,xn)T;隐含层有n1个神经元,且输出为x'∈Rn1,x’=(x’1,x2’,…,x’n)T;输出层有m个神经元,且输出为y∈Rm,y=(y1,y2,…,ym)T;输入层到隐含层的权值为wij,阈值为θj;隐含层到输出层的权值为w’jk,阈值为θ'k;各层神经元的输出为:
进行BP神经网络学习,且学习方法包括以下步骤:
(1)初始化BP神经网络;
(2)随机选择一组样本,作为BP神经网络的输入量;
(3)计算输入层的输出量;
(4)计算隐含层内的净输入与输出向量分别为:
(5)计算输出层神经元的净输入和输出向量分别为:
(6)在输出结果中计算误差为:
(7)计算隐含层中的校正误差为:
(8)设训练速率为0<α<1,分别修正各层连接权值和阈值:
(9)将随机选取的样本输入,并跳转到步骤(3);
(10)当网络误差E满足精度时,结束学习,否则继续学习;
(11)统计学习的次数,当学习次数小于设定的次数时,则返回步骤(2),否则结束学习。
作为上述方案的进一步改进,采用模糊C-均值聚类背景分割滤波去噪后的植被图像一,所述背景分割方法为:应用二层迭代计算目标函数J(u,v1,…,vc)的最小值,根据像素的隶属程度划分像素归属;FCM将n个向量xi(i=0,1,…,n)分成c个模糊组,FCM的目标函数为:
式中,u为划分矩阵,v1为第1个聚类中心,vc为第c个聚类中心,vi为i个聚类中心,uij∈[0,1]为第j个数据属于第i个类的程度,m∈[1,∞]是一个加权指数,xj是x中第j类的中心;dij=vi-xj为第i个聚类中心与第j个数据点间的归一化距离,引入拉格朗日算子λj(j=1,…,n)构造新的目标函数如下:
聚类中心:
其中,以误差平方和SSE为聚类准则函数,选取最优聚类数。
再进一步地,隐层节点数设置为10,隐含层与输出层的传输函数均选择tan-sigmoid(),训练函数选用trainlm(),权值学习函数选用learngdm(),误差精度goal设置为1.9×10-2,训练步长epochs设为1200。
本发明还提供了草原放牧绵羊采食路径中植被覆盖度检测装置,其采用上述任意一种草原放牧绵羊采食路径中植被覆盖度的检测方法,所述检测装置包括图像采集机构、图像预处理模块、特征库训练模块、植被分割模块,其中:
所述图像采集机构用于采集放牧绵羊采食路径上的植被图像一;所述图像采集机构包括底端设置多个车轮的车身、安装在所述车身上的摄像机、驱动所述车轮转动的电机;所述电机转动驱动所述车轮转动并使所述车身在放牧绵羊采食路径上移动,所述摄像机拍摄放牧绵羊采食路径上的植被图像一;
所述图像预处理模块包括先通过对比一张标准的植被图像一以标定其他植被图像一的标定单元,再对标定后的植被图像一进行滤波去噪的过滤单元,最后背景分割滤波去噪后的植被图像一的图像分割单元;
所述特征库训练模块包括先背景分割所述植被图像二的分割提取单元,再提取背景分割后的植被图像二的多个特征的特征提取单元,然后对分割后的植被图像二进行降维的降维单元,再然后根据所述植被图像二的多个特征及有效特征建立BP神经网络训练模型的BP神经网络训练单元,最后利用所述BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数的特征参数存储单元;
所述植被分割模块用于:先提取背景分割后的植被图像一的多个特征,再对提取特征后的植被图像一进行降维,然后根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三,最后计算多个单一植被图像三中各种植被的植被覆盖度。
(三)有益效果
与现有技术相比,本发明提供了草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,具备以下有益效果:
1、本发明的草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,通过将植被图像与人工法对比标定图像,可以校正摄像头的焦距和图像像素计算时的系数,提高植被图像的准确性。本发明通过2G-B-R色差特征的模糊C-均值聚类背景分割植被图像,实现植被图像中植被和土壤背景的分割,方便计算植被的覆盖度。
2、本发明的草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,通过采用主成分分析法对图像降维,可以减少特征参数的冗余,提高识别速度与效率。本发明通过建立BP神经网络训练模型,方便将一个植被图像分割为多个单一植被图像,从而计算出各个植被的覆盖度,避免人工检测植被的覆盖度,提高放牧绵羊采食路径中植被覆盖度的检测效率。
附图说明
图1为本发明实施例1的草原放牧绵羊采食路径中植被覆盖度的检测方法的流程图;
图2为本发明实施例1的羊草和灰绿藜的植被图;
图3为图2中的植被图基于2G-B-R法分割后的示意图;
图4为本发明实施1的放牧绵羊采食牧草的试验样本图;
图5为图4中的牧草特征提取示意图;
图6为图4中三种牧草H分量值曲线图;
图7为图4中三种牧草S分量值曲线图;
图8为图4中三种牧草V分量值曲线图;
图9为图4中三种牧草L分量值曲线图;
图10为图4中三种牧草a*分量值曲线图;
图11为图4中三种牧草b*分量值曲线图;
图12为本发明实施例1中两种牧草R分量值的曲线图;
图13为本发明实施例1中两种牧草G分量值的曲线图;
图14为本发明实施例1中两种牧草B分量值的曲线图;
图15为本发明实施例1中两种牧草H分量值的曲线图;
图16为本发明实施例1中两种牧草S分量值的曲线图;
图17为本发明实施例1中的BP神经网络图;
图18为本发明实施例1中分割植被图像后灰绿藜图像的示意图;
图19为本发明实施例1中分割植被图像后羊草图像的示意图;
图20为本发明实施例1中的羊草和木地肤的植被图;
图21为图20中的植被图基于2G-B-R法分割后的示意图;
图22为图21中的植被图分割后木地肤的示意图;
图23为图21中的植被图分割后羊草的示意图;
图24为本发明实施例1中的羊草和陈茵蒿的植被图;
图25为图24中的植被图基于2G-B-R法分割后的示意图;
图26为图25中的植被图分割后的陈茵蒿的植被图;
图27为图25中的植被图分割后的羊草的植被图;
图28为本发明实施例1中的冷蒿的植被图;
图29为图28中的植被图基于2G-B-R法分割后的示意图;
图30为图4中三种牧草的能量示意图;
图31为图4中三种牧草的相关性示意图;
图32为图4中三种牧草的灰度熵示意图;
图33为图4中三种牧草的梯度熵示意图;
图34为图4中三种牧草的混合熵示意图;
图35为图4中三种牧草的惯性示意图;
图36为图4中三种牧草的逆差矩示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1,本实施例的草原放牧绵羊采食路径中植被覆盖度的检测方法用于检测草原放牧绵羊采食路径中植被的覆盖度。在本实施例中,植被覆盖度定义为单枝植物覆盖度,即放牧绵羊采食点处该植物冠层遮蔽地面面积与样地面积的比值,并且植被仅为牧草。对每种放牧绵羊爱吃牧草的覆盖度进行监测,将对其采食路径与采食植物停留时间产生影响,因此需要监测被采食植物的植被覆盖度,从而与放牧行为产生关联,通过大量试验数据分析,也可以由放牧绵羊的采食路径与采食时间进行反演,推测被采食区域的植物覆盖度与植被品质。
根据盖度定义,通过统计牧草图像中牧草所占像素的个数与整体牧草图像像素个数即可求得植被盖度。具体计算公式如下:
植被整体覆盖度=(植被冠层投影地面面积/样地面积)×100%;
植被整体覆盖度=(植被总像素数量)/样地总像素数量)×100%;
单种植物覆盖度=(单种植物冠层投影地面面积/样地面积)×100%;
单种植物覆盖度=(单种植物像素数量/样地像素总数量)×100%。
因此,本实施例的草原放牧绵羊采食路径中植被覆盖度的检测方法包括。
步骤一、采集并预处理植被图像。
步骤二、建立植被特征库。
步骤三、利用植被特征库分割植被图像。
在步骤一中,先采集植被图像,再将植被图像与人工法对比标定图像,然后对图像滤波去噪,最后采用2G-B-R色差特征的模糊C-均值聚类背景分割植被图像。
在本实施例中,可以通过在放牧绵羊上安装GPS定位模块以记录放牧绵羊的采食路径,拍摄放牧绵羊的采食视频,分离出各个采食时间节点的GPS数据信号,并得到对应各个采食时间节点的采食点,拍摄各个采食点的植被图像。
为实现植被整体覆盖度与单枝植物覆盖度的准确监测,需要对图像进行标定,主要包括摄像头焦距的选择和图像像素计算时的系数校正。因为摄像头焦距影响着成像的大小,即同一枝牧草占整幅图像的比例。将植被图像与人工法对比标定图像具体为:由人工模拟法计算植被覆盖度并以此为标准,校正采集植被的摄像头的焦距,通过设定计算植被覆盖度时的系数以标定图像。人工模拟法采用传统网格法,传统网格法具体为:首先在实地画与采集到的植被图像的边缘齐平的一个大方格,之后将大方格划分为100个小方格,并制作面积与小方格的面积相同的100个小方框,然后将多个小方框扣在大方格上,最后统计小方框内的植被面积,当植被出现在小方框内的面积超过2/3时,记为1,否则记为0,并依次对100个小方格进行计数,统计总数为植被覆盖度。
图像分割是提取试验所需目标的过程,即感兴趣的目标信息。本实施例采用基于2G-B-R色差特征的模糊C-均值聚类(Fuzzy C-means,FCM)进行背景分割。牧草中绿色是主要色调,而土壤背景主色调为黑色或红色。自然光照下,牧草图像中植被的颜色与土壤背景颜色具有显明的区别,经过应用R-G、2G-R-B、(G-B)/|R-G|的背景分割方法比较,最终选用2G-B-R方法对牧草背景图像进行分割,公式如下:
EG=2G-R-B,式中,EG为分割植被指数。
本实施例采用试验,分别对100张实地采集到的牧草图像进行背景分割,其中57张土壤背景分割成功,保留了牧草的绝大多数信息。而另外43张由于色差较小,土壤背景分割后丢失牧草信息或牧草信息中掺杂着土壤信息,导致分割效果不理想。为了解决这类问题,需要对上述分割效果不好的43张图像,采用模糊C-均值聚类方法进行背景分割,试验结果表明43张图像都得到了理想的分割结果。因此在本实施例中,基于2G-B-R的模糊C-均值聚类方法是实现背景分割的重要手段。
模糊C-均值聚类方法以最小二乘法为基础,迭代计算每个像素点与聚类中心的加权值,划分像素点的归属类别。模糊C-均值聚类方法应用2层迭代计算,求目标函数J(u,v1,…,vc)的最小值,根据像素的隶属程度,划分像素归属,实现牧草与土壤背景的分割。FCM把n个向量xi(i=0,1,…,n)分成c个模糊组,FCM的目标函数为:
式中,u为划分矩阵,v1为第1个聚类中心,vc为第c个聚类中心,vi为i个聚类中心,uij∈[0,1]为第j个数据属于第i个类的程度,m∈[1,∞]是一个加权指数,xj是x中第j类的中心;dij=vi-xj为第i个聚类中心与第j个数据点间的归一化距离,引入拉格朗日算子λj(j=1,…,n)构造新的目标函数如下:
聚类中心:其中,以误差平方和SSE为聚类准则函数,选取最优聚类数。在本实施例中,FCM背景分割算法的最优聚类数为3~5,模糊加权指数的取值接近2。请参阅图2以及图3,图2中的图像经基于2G-B-R色差特征的模糊C-均值聚类算法分割后得到图3中的图像。统计得到总像素点为5038848个,统计得到黑色区域即背景像素点为572212个,则羊草和灰绿藜两种牧草总像素点为4466636个,由羊草和灰绿藜两种牧草总像素点除以整幅图像素点总和,计算得到两种牧草的整体覆盖度约为88.644%。
在步骤二中,先手动拍照植被并分割图像,提取ROI,再提取手动拍照的图像的颜色特征、形状特征、纹理特征,然后采用主成分分析法对图像降维,获取图像的有效特征,最后根据植被的特点建立BP神经网络训练模型。
提取手动拍照的图像或者步骤一中植被图像的颜色特征的方法为。
利用MATLAB图像工具Data Cursor,调用imshow命令,读取并记录每一个x、y坐标下的R、G、B分量值。
将RGB图像转换到HSV颜色空间,且转换公式如下:
L*a*b*是经修改后得到的一个简化颜色模型,RGB到L*a*b*颜色模型的转换公式为:
RGB→CIE XYZ
CIE XYZ→L*a*b*
其中,i为L*a*b*颜色模型分量,i=1为R分量,i=2为G分量,i=3为B分量;Pij为颜色分量i在像素为j时的概率值;N为图像中像素点个数;Mi1、Mi2、Mi3分别为一阶矩、二阶矩、三阶矩的计算值。
提取手动拍照的图像的形状特征的方法包括。
(a)定义描述形状特征的基本量为:植被的各叶片以及枝干的面积、周长、长度、宽度;其中,面积A:叶片区域内像素点数;Ri为像素区域;Ai为区域内像素点数:(x,y)∈Ri;周长C:叶片边界像素点数的和,两个倾斜方向相邻像素fi,j和fm,n之间的距离,P8(fi,j,fm,n)=mas{|i-m|,|j-n|}=1;长度L:叶片最小外接矩形的长度;宽度W:叶片最小外接矩形的宽。
(b)对各叶片的面积A、周长C、长度L、宽度W进行统计,其中面积使用像素点进行计算、周长使用叶片边界像素点数的和进行统计,长度和宽度使用外接矩形进行计算。
(c)对描述形状特征的基本量进行相互组合,得到形态特征量。
形状特征计算需要对各叶片的面积A、周长C、长度L、宽度W进行统计,其中面积应用像素点进行计算、周长应用叶片边界像素点数的和统计,长度和宽度应用外接矩形计算,以鹅绒萎菱菜的外接矩形及面积周长计算为例说明,如图4、图5所示。
利用上述基本形态参数相互组合,得出下表2中的形态特征量,其中长宽比、复杂度、圆形度、圆度、伸长度、矩形度均为无量纲特征,它对于叶片的平移、旋转、放大、缩小等均具有不变性。
表1叶片形状特征参数定义
利用上述方法,基本形态参数相互组合运算,应用MATLAB对预处理后的三种典型牧草叶片进行特征提取,得出下表3中的形状特征参数区间,其中宽长比T1=W/L、复杂度T2=4πA/C2、离散度T3=C2/A、圆度T4=4πA/L2、伸长度E=(L-W)/(L+W)、矩形度R=A/(L×W)均为无量纲特征,它对于叶片的平移、旋转、放大、缩小等均具有不变性。
表2形状参数的区间范围
同理,为了更清楚地说明三种牧草无芒隐子草、鹅绒萎菱菜、糙苏的形状特征之间的关系与区别,将表3归类为图6-11的6个图,可以直观地得到各数据之间的差异或数据间的交叉情况。
通过对三种典型牧草叶片6个形状参数的统计,发现宽长比和圆度两个特征参数在识别典型牧草时的特征参数重叠率大,所以,复杂度、离散度、伸长度和矩形度4个形状特征是统计重点。
提取手动拍照的图像的纹理特征的方法采用灰度共生矩阵法,纹理特征包括能量ASM、熵BNT、惯性CON、相关性COR。该方法有计算简单、易分析的优点。
灰度共生矩阵的数学表达式如下:
P(i,j,d,θ)={(x,y),(x+Dx,y+Dy)|f(x,y)=i,f(x+Dx,y+Dy)=j}
其中,灰度共生矩阵的三个重要变量分别为:灰度级数G、移动点的距离d和角度θ。一般来讲,需要对G灰度级进行压缩以减少计算负担,将256级压缩至32级或16级提高运行的效率。经试验证明,计算容易且效果最好。θ取具有代表性且容易计算的4个方向,分别为0度、45度、90度和135度。
需要对灰度共生矩阵进行统计分析,获得更加有效的数据。常用的计算量包括能量、熵、惯性、相关性、差异、逆矩阵等20个特征值,这些特征值可以全面地呈现整幅图像的纹理特征。本实施例选用其中具有代表性的4种特征进行对草原牧草的纹理特征提取,它们分别为能量、熵、惯性和相关性,分别介绍如下:
(1)能量(角二阶矩)
ASM=∑i∑j(pij)2
能量反映了牧草图像灰度分布均匀的程度和纹理的粗细程度。当共生矩阵中元素分布不均匀时,能量值较大。当共生矩阵的所有值相差不大且分布均匀时,能量值较小。
(2)熵
BNT=-∑i∑jpijlg(pij)
熵反映了牧草图像中纹理的不均匀程度或复杂程度。熵值是图像所含信息量多少的度量,当灰度共生矩阵值分布均匀,熵较大。
(3)惯性(对比度)
CON=∑i∑j(i-j)2pij
惯性反映着牧草图像的清晰度或纹理沟纹深浅的程度。当图像沟纹较深、图像清晰时,惯性值大;反之惯性值则小。
(4)相关性
COR=[∑i∑jij×pij-uxuy]/[σxσy]
相关性反映了图像纹理的一致性,即灰度共生矩阵元素在水平或垂直方向上的相似程度。当图像纹理在相邻水平和垂直区域内方向相差比较小的情况下,相关值会较大;反之则相关性数值会比较小。通过5组试验数据说明牧草叶片纹理特征的关系,如表4所示。
表3三种牧草叶片纹理特征参数值区间
由表3可知,三种牧草叶片纹理特征的能量值数据比较接近,几乎不会对后续的图像识别产生影响;鹅绒萎陵菜叶片由于图像对比度大,所含信息丰富等因素,其纹理特征熵值较其它两种牧草熵值有明显的区别,而其它两种牧草的熵值又比较接近;同样由于鹅绒萎陵菜叶片的纹理沟纹较深、图像较清晰,因此其惯性值最大。无芒隐子草较糙苏,惯性值略大一点。由于糙苏叶片图像的纹理分布均匀,从而其相关性的值较大,无芒隐子草、鹅绒萎陵菜的相关性系数几乎相等。由试验结果可看出,能量、熵、惯性和相关性可以作为纹理特征的典型代表,用于识别出不同的牧草。
在自然光照强度下对羊草和灰绿藜两种植物进行图像采集,将采集到的叶片大小形状各不相同的各100幅图像作为样本,图像格式为JPG,对其进行RGB颜色矩统计分析。
RGB颜色模型中的每个颜色分量包括3个颜色矩,即R、G、B三分量共能统计9个特征向量;为了简化数据表格,只取具有代表性的5组数据进行方法的说明,如表4所示。
表4灰绿藜与羊草RGB模型颜色特征参数值统计表
其中,M11、M12、M13分别代表2种牧草R分量的一阶矩、二阶矩、三阶矩;M21、M22、M23分别代表2种牧草G分量的一阶矩、二阶矩、三阶矩;M31、M32、M33分别代表2种牧草B分量的一阶矩、二阶矩、三阶矩。
为了清晰说明两种牧草灰绿藜与羊草的R、G、B一、二、三阶矩之间的关系进行区别,将上述表4归类为图12、图13以及图14,可以较直观的发现各数据之间的差异或数据间的交叉情况。其中,羊草与灰绿藜的个别分量值存在数据交叠现象,因此还需对HSV颜色矩进一步研究以获得分类所需的必要补充数据。
由于代表亮度信息的V分量与色彩无关,本实施例只需提取H和S分量即可。读入图像后,首先将RGB图像转换到HSV颜色空间下。每个颜色分量包括一阶矩、二阶矩、三阶矩,H和S两分量共得到6个特征向量。灰绿藜与羊草颜色特征参数值如表5所示。
表5灰绿藜与羊草HS模型颜色特征参数值统计表
其中,M'11、M'12、M'13分别代表2种牧草H分量的一阶矩、二阶矩、三阶矩;M'21、M'22、M'23分别代表2种牧草S分量的一阶矩、二阶矩、三阶矩。
将上述表5分解为H分量值曲线与S分量曲线,如图15、图16所示。
从图15、图16可以看出灰绿藜与羊草的H、S三阶矩存在较大差异,该数据可以作为草原牧草图像分割与识别的重要依据。
由上可知,2种典型牧草颜色矩特征维数共为15,为了提高识别速度与效率,同样采用主成分分析(principal component analysis,PCA)法对图像进行降维处理,只保留表征牧草能力强的特征分量。试验过程中,将15维的特征参数降为10维,识别率下降了1.23%,误识别率提高了0.68%,但识别时间仅为不降维的30%,在保证识别要求的前提下,极大地提高了识别效率。
建立BP神经网络训练模型的方法为:
定义BP神经网络的输入矢量为x∈Rn,其中x=(x0,x1,…,xn)T;隐含层有n1个神经元,且输出为x’=(x’1,x2’,…,x’n)T;输出层有m个神经元,且输出为y∈Rm,y=(y1,y2,…,ym)T;输入层到隐含层的权值为wij,阈值为θj;隐含层到输出层的权值为w’jk,阈值为θ'k;各层神经元的输出为:
进行BP神经网络学习,且学习方法包括以下步骤:
(1)对BP神经网络进行初始化;
(2)随机选择一组样本,作为BP神经网络的输入量;
(3)计算输入层的输出量;
(4)计算隐含层内的净输入与输出向量分别为:
(5)计算输出层神经元的净输入和输出向量分别为:
(6)在输出结果中计算误差为:
(7)计算隐含层中的校正误差为:
(8)设训练速率为0<α<1,分别修正各层连接权值和阈值:
(9)将随机选取的样本输入,并跳转到步骤(3);
(10)当网络误差E满足精度时,结束学习,否则继续学习;
(11)统计学习的次数,当学习次数小于设定的次数时,则返回步骤(2),否则结束学习。
BP网络的输入节数点为10,输出节点为2个,羊草和灰绿藜分别用二进制表示为(0,1)、(1,0),BP神经网络结构如图17所示。
试验验证,当隐层节点数取10时,网络测试性能最好。隐含层与输出层的传输函数同样选择tan-sigmoid(),训练函数选用trainlm(),权值学习函数选用learngdm(),误差精度goal设为1.9×10-2,训练步长epochs设为1200,神经网络训练性能随迭代次数的变化而变化,由试验得到迭代次数达到16时,该系统具有最优识别率。
将选取的100张图像分为训练样本与测试样本,训练样本为60张,测试样本为40张。图18以及图19显示了BP神经网络图像分类结果,40张牧草照片的分类正确率为89.5%,分类后的灰绿藜如图18所示,分类后的羊草如图19所示。应用该算法对牧草的成功分类识别为单种牧草植被覆盖度计算等科学研究提供基础。
牧草覆盖度是衡量牧草生长情况的重要参数。统计图18整体像素点以及灰绿藜图像像素点个数,可以计算得到灰绿藜牧草的覆盖度约为9.78%,同理计算羊草的覆盖度约为34.21%,裸地所占比例即为56.01%。
请参阅图20-23,羊草和木地肤的图像识别过程中,牧草背景分割效果很理想,但羊草和木地肤的分割产生了较大的误差,分割后的木地肤含有羊草的成份。经计算分别得到羊草、木地肤的覆盖度约为6.88%、37.76%,整体覆盖度约为44.64%。如图24-27,显示了羊草和陈茵蒿的图像识别效果。
请参阅图28、图29,拍摄到的牧草照片中的牧草几乎全部为冷蒿,因此只需对其进行背景分割即可,经过运行该算法得到了相对理想的分割图,但由于拍摄季节为9月,冷蒿与土壤的背景颜色较一致,很难设定准确的阈值完成分割,最理想的分割如图30所示,计算覆盖度约为54.54%。与视觉观测法相比,覆盖度略低。
为了确定图像法计算覆盖度的准确性,试验过程中分别对上述图像进行人工覆盖度计算,经下述表6比较可知,图像法具有较高的准确率,经统计得到计算准确度为84.9%,完全可以用于微观牧草图像的植被覆盖度检测。
表6植被覆盖度计算值及相对误差统计表
由表6可知,图像法测定覆盖度较人工方格方测定覆盖度具有误差小、准确度高的优点,也适合用于大量、快速测定的要求。因人工方格法在测定过程中受到人视觉误差以及该方法固有的不准确性,费时费力且操作较繁琐。因此,基于机器视觉技术的微观植被覆盖度计算方法合适可行,准确的测量微观植被整体覆盖度与单株植被覆盖度,将为分析覆盖度与放牧绵羊的运动行为、采食行为的关系奠定基础。
综上所述,相较于现有的植被覆盖度检测方法,本实施的草原放牧绵羊采食路径中植被覆盖度的检测方法具有以下优点:
1、本发明的草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,通过将植被图像与人工法对比标定图像,可以校正摄像头的焦距和图像像素计算时的系数,提高植被图像的准确性。本发明通过2G-B-R色差特征的模糊C-均值聚类背景分割植被图像,实现植被图像中植被和土壤背景的分割,方便计算植被的覆盖度。
2、本发明的草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置,通过采用主成分分析法对图像降维,可以减少特征参数的冗余,提高识别速度与效率。本发明通过建立BP神经网络训练模型,方便将一个植被图像分割为多个单一植被图像,从而计算出各个植被的覆盖度,避免人工检测植被的覆盖度,提高放牧绵羊采食路径中植被覆盖度的检测效率。
实施例2
本实施例的草原放牧绵羊采食路径中植被覆盖度检测装置采用实施例1中的草原放牧绵羊采食路径中植被覆盖度的检测方法。检测装置包括图像采集机构、图像预处理模块、特征库训练模块、植被分割模块,其中:
图像采集机构用于采集放牧绵羊采食路径上的植被图像一;图像采集机构包括底端设置多个车轮的车身、安装在车身上的摄像机、驱动车轮转动的电机;电机转动驱动车轮转动并使车身在放牧绵羊采食路径上移动,摄像机拍摄放牧绵羊采食路径上的植被图像一。
图像预处理模块包括先通过对比一张标准的植被图像一以标定其他植被图像一的标定单元,再对标定后的植被图像一进行滤波去噪的过滤单元,最后背景分割滤波去噪后的植被图像一的图像分割单元。
特征库训练模块包括先背景分割植被图像二的分割提取单元,再提取背景分割后的植被图像二的多个特征的特征提取单元,然后对分割后的植被图像二进行降维的降维单元,再然后根据植被图像二的多个特征及有效特征建立BP神经网络训练模型的BP神经网络训练单元,最后利用BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数的特征参数存储单元。
植被分割模块用于:先提取背景分割后的植被图像一的多个特征,再对提取特征后的植被图像一进行降维,然后根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三,最后计算多个单一植被图像三中各种植被的植被覆盖度。实施例3
本实施例的草原放牧绵羊采食路径中植被覆盖度的检测方法与实施例1的相似,区别在于本实施例未采用灰度共生矩阵法提取图像的纹理特征,而是采用灰度-梯度共生矩阵算法。灰度-梯度共生矩阵算法把图像分成大小相同的子区域,统计各区域的灰度-梯度平均值特征量,进而解决因图像旋转带来的误差。
灰度-梯度共生矩阵实现方法:由灰度矩阵F(m,n)和梯度矩阵G(m,n)联合统计F(m,n)=i且G(m,n)=j的像素出现的频率,并将其归一化处理,得到第(i,j)个元素的值。可被提取的二次特征有很多,本发明选取7种不变旋转量进行纹理特征提取,它们分别为能量、相关性、灰度熵、梯度熵、混合熵、惯性和逆差矩。设图像的灰度级为L,梯度级为Lg,7个主要参数如下所示:
(1)能量:
(2)相关性:
(3)灰度熵:
(4)梯度熵:
(5)混合熵:
(6)惯性:
(7)逆差矩:
算法具体过程是:(1)采用平方求和方法,计算图像少一维的梯度矩阵;(2)由灰度、梯度矩阵计算出整体矩阵,并将其进行归一化处理;(3)特征向量提取。在信号不失真的情况下,为了减少计算工作量,同样需要对256个灰度级的图像进行级数压缩,试验表明32个灰度级为理想级数。试验数据结果如图30~36所示。
由上述图30~36分析可知,三种牧草叶片纹理特征的能量值数据比较接近,几乎不会对后续的图像识别产生影响;由于糙苏叶片图像的纹理分布均匀,从而其相关性的值较大,无芒隐子草和鹅绒萎陵菜的相关性系数几乎相等;三种熵的规律几乎一样,三种牧草中,糙苏的熵值最高,而无芒隐子草和鹅绒萎陵菜熵值比较接近;糙苏纹理沟纹较深、图像较清晰,因此其惯性值最大,无芒隐子草较糙苏,惯性值略大一点;无芒隐子草的逆差矩值相对较小,但其它二者的差距非常小。试验所得统计规律(上述图30~36所示)与单一灰度试验所得规律表2几乎相同,只是结合梯度后的算法具有旋转不变的特性,能够有效、精确地提取纹理特征,该方法所得数据为牧草识别提供重要基础。
实施例4
本实施例的草原放牧绵羊采食路径中植被覆盖度的检测方法包括:
步骤S1:在草原放牧绵羊上安装GPS定位模块以记录放牧绵羊的采食路径,拍摄放牧绵羊的采食视频,分离出各个采食时间节点的GPS数据信号,并得到对应各个采食时间节点的采食点,远程遥控无人机飞行至各个采食点并利用摄像机拍摄各个采食点的植被图像一。
步骤S2:选取所有植被图像一中的一张植被图像一,计算一张植被图像一的植被覆盖度,并以一张植被图像一为标准,标定其他的植被图像一的拍摄参数以及图像系数,并校正采集植被的摄像头的焦距对植被覆盖度达到预设值的区域聚焦。
步骤S3:对标定后的植被图像一进行滤波去噪。
步骤S4:采用模糊C-均值聚类背景分割滤波去噪后的植被图像一。
步骤S5:进行多组试验,每组试验拍摄多种植被的单一植被图像二,采用模糊C-均值聚类背景分割植被图像二;每张单一植被图像二中仅显示有一种植被。
步骤S6:提取背景分割后的植被图像二的多个特征。
步骤S7:对分割后的植被图像二进行降维,获取图像的有效特征。
步骤S8:根据植被图像二的多个特征及有效特征建立BP神经网络训练模型。
步骤S9:BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数。
步骤S10:提取背景分割后的植被图像一的多个特征。
步骤S11:对提取特征后的植被图像一进行降维。
步骤S12:根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三。每张单一植被图像三中仅显示对应的一种植被。
步骤S13:计算多个单一植被图像三中各种植被的植被覆盖度。
在其他一些实施例中,步骤S5-S9可以放在步骤S1之前,其他步骤顺序不变。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (4)
1.草原放牧绵羊采食路径中植被覆盖度的检测方法,其特征在于:其包括:
步骤一、采集并预处理植被图像一;
拍摄草原放牧绵羊采食路径中植被的植被图像一;拍摄所述植被图像一的方法为:在草原放牧绵羊上安装GPS定位模块以记录放牧绵羊的采食路径,拍摄放牧绵羊的采食视频,分离出各个采食时间节点的GPS数据信号,并得到对应各个采食时间节点的采食点,到达各个采食点并拍摄各个采食点的植被图像一;
通过对比一张标准的植被图像一以标定其他植被图像一;标定其他植被图像一的方法为:选取所有植被图像一中的一张植被图像一,计算所述一张植被图像一的植被覆盖度,并以所述一张植被图像一为标准,标定其他的植被图像一的拍摄参数以及图像系数,并校正采集植被的摄像头的焦距对植被覆盖度达到预设值的区域聚焦;计算所述一张植被图像一的植被覆盖度的方法为:首先在实地画与所述一张植被图像一的实际边缘齐平的一个大方格,之后将大方格划分为100个小方格,并制作面积与小方格的面积相同的100个小方框,然后将多个小方框扣在大方格上,最后统计小方框内的植被面积,当植被出现在小方框内的面积超过2/3时,记为1,否则记为0,并依次对100个小方格进行累加计数,统计的总数为植被覆盖度;
对标定后的植被图像一进行滤波去噪;
背景分割滤波去噪后的植被图像一;
步骤二、建立植被特征库;
拍摄多种植被的单一植被图像二,背景分割所述植被图像二;每张单一植被图像二中仅显示有一种植被;
提取背景分割后的植被图像二的多个特征;
对分割后的植被图像二进行降维,获取图像的有效特征;
根据所述植被图像二的多个特征及有效特征建立BP神经网络训练模型;
所述BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数;
步骤三、分割所述植被图像一并计算各种植被的覆盖度;
提取背景分割后的植被图像一的多个特征;
对提取特征后的植被图像一进行降维;
根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三;每张单一植被图像三中仅显示对应的一种植被;
计算多个单一植被图像三中各种植被的植被覆盖度;
其中,在所述步骤二、所述步骤三中,所述多个特征包括颜色特征、形状特征、纹理特征;提取所述颜色特征的方法为:
利用MATLAB图像工具Data Cursor,调用imshow命令,读取并记录每一个x、y坐标下的R、G、B分量值;
将RGB图像转换到HSV颜色空间,且转换公式如下:
式中,arccos为反三角函数中的反余弦函数,θ为中间变量,min(R,G,B)为R,G,B三分量中的最小值;
L*a*b*是经修改后得到的一个简化颜色模型,RGB到L*a*b*颜色模型的转换公式为:
RGB→CIE XYZ
CIE XYZ→L*a*b*
通过颜色矩呈现图像的颜色分布特征,颜色矩的一阶矩、二阶矩和三阶矩的公式分别为:
其中,i为L*a*b*颜色模型分量,i=1为R分量,i=2为G分量,i=3为B分量;Pij为颜色分量i在像素为j时的概率值;N为图像中像素点个数;Mi1、Mi2、Mi3分别为一阶矩、二阶矩、三阶矩的计算值;
提取所述形状特征的方法包括:
(a)定义描述形状特征的基本量为:植被的各叶片以及枝干的面积、周长、长度、宽度;其中,面积A:叶片以及枝干区域内像素点数;周长C:叶片以及枝干边界像素点数的和;长度L:叶片以及枝干最小外接矩形的长度;宽度W:叶片以及枝干最小外接矩形的宽;
(b)对各叶片的面积A、周长C、长度L、宽度W进行统计,其中面积使用像素点进行计算、周长使用叶片边界像素点数的和进行统计,长度和宽度使用外接矩形进行计算;
(c)对所述描述形状特征的基本量进行相互组合,得到形态特征量;
提取所述纹理特征的方法采用灰度共生矩阵法,所述纹理特征包括能量ASM、熵BNT、惯性CON、相关性COR;
建立所述BP神经网络训练模型的方法为:
定义BP神经网络的输入矢量为x∈Rn,其中x=(x0,x1,…,xn)T;隐含层有n1个神经元,且输出为x’=(x’1,x2’,…,x’n)T;输出层有m个神经元,且输出为y∈Rm,y=(y1,y2,…,ym)T;输入层到隐含层的权值为wij,阈值为θj;隐含层到输出层的权值为w’jk,阈值为θ'k;各层神经元的输出为:
进行BP神经网络学习,且学习方法包括以下步骤:
(1)初始化BP神经网络;
(2)随机选择一组样本,作为BP神经网络的输入量;
(3)计算输入层的输出量;
(4)计算隐含层内的净输入与输出向量分别为:
(5)计算输出层神经元的净输入和输出向量分别为:
(6)在输出结果中计算误差为:
(7)计算隐含层中的校正误差为:
(8)设训练速率为0<α<1,分别修正各层连接权值和阈值:
(9)将随机选取的样本输入,并跳转到步骤(3);
(10)当网络误差E满足精度时,结束学习,否则继续学习;
(11)统计学习的次数,当学习次数小于设定的次数时,则返回步骤(2),否则结束学习。
2.根据权利要求1所述的草原放牧绵羊采食路径中植被覆盖度的检测方法,其特征在于:采用模糊C-均值聚类背景分割滤波去噪后的植被图像一,所述背景分割方法为:应用二层迭代计算目标函数J(u,v1,…,vc)的最小值,根据像素的隶属程度划分像素归属;FCM将n个向量xi(i=0,1,…,n)分成c个模糊组,FCM的目标函数为:
式中,u为划分矩阵,v1为第1个聚类中心,vc为第c个聚类中心,vi为i个聚类中心,uij∈[0,1]为第j个数据属于第i个类的程度,m∈[1,∞]是一个加权指数,xj是x中第j类的中心;dij=vi-xj为第i个聚类中心与第j个数据点间的归一化距离,引入拉格朗日算子λj(j=1,…,n)构造新的目标函数如下:
聚类中心:
其中,以误差平方和SSE为聚类准则函数,选取最优聚类数。
3.根据权利要求1所述的草原放牧绵羊采食路径中植被覆盖度的检测方法,其特征在于:隐层节点数设置为10,隐含层与输出层的传输函数均选择tan-sigmoid(),训练函数选用trainlm(),权值学习函数选用learngdm(),误差精度goal设置为1.9×10-2,训练步长epochs设为1200。
4.草原放牧绵羊采食路径中植被覆盖度检测装置,其应用如权利要求1至3中任意一项所述的草原放牧绵羊采食路径中植被覆盖度的检测方法,所述检测装置包括图像采集机构、图像预处理模块、特征库训练模块、植被分割模块,其特征在于:
所述图像采集机构用于采集放牧绵羊采食路径上的植被图像一;所述图像采集机构包括底端设置多个车轮的车身、安装在所述车身上的摄像机、驱动所述车轮转动的电机;所述电机转动驱动所述车轮转动并使所述车身在放牧绵羊采食路径上移动,所述摄像机拍摄放牧绵羊采食路径上的植被图像一;
所述图像预处理模块包括先通过对比一张标准的植被图像一以标定其他植被图像一的标定单元,再对标定后的植被图像一进行滤波去噪的过滤单元,最后背景分割滤波去噪后的植被图像一的图像分割单元;
所述特征库训练模块包括先背景分割所述植被图像二的分割提取单元,再提取背景分割后的植被图像二的多个特征的特征提取单元,然后对分割后的植被图像二进行降维的降维单元,再然后根据所述植被图像二的多个特征及有效特征建立BP神经网络训练模型的BP神经网络训练单元,最后利用所述BP神经网络训练模型进行BP神经网络学习以分类产生各种植被的图像特征参数的特征参数存储单元;
所述植被分割模块用于:先提取背景分割后的植被图像一的多个特征,再对提取特征后的植被图像一进行降维,然后根据各种植被的图像特征参数,采用BP神经网络分割降维后的植被图像一,并产生分别对应多种植被的多个单一植被图像三,最后计算多个单一植被图像三中各种植被的植被覆盖度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811059214.0A CN109325431B (zh) | 2018-09-12 | 2018-09-12 | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811059214.0A CN109325431B (zh) | 2018-09-12 | 2018-09-12 | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325431A CN109325431A (zh) | 2019-02-12 |
CN109325431B true CN109325431B (zh) | 2021-03-23 |
Family
ID=65264853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811059214.0A Active CN109325431B (zh) | 2018-09-12 | 2018-09-12 | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325431B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977901A (zh) * | 2019-04-03 | 2019-07-05 | 山东理工大学 | 一种基于无人机遥感的玉米田间杂草识别方法 |
CN113191175A (zh) * | 2020-01-14 | 2021-07-30 | 靳爱丛 | 信息提醒平台及方法 |
CN111325760B (zh) * | 2020-01-26 | 2023-07-04 | 四川大学 | 仿真植被阻水面积的确定方法 |
CN111582246A (zh) * | 2020-06-10 | 2020-08-25 | 河西学院 | 一种基于高寒草甸草地产草量估算放牧率的方法和系统 |
CN112369497B (zh) * | 2020-10-27 | 2023-05-26 | 贵州省草地技术试验推广站 | 牧草基乳酸菌强化发酵方法及行走式多功能牧草加工机 |
CN112347894B (zh) * | 2020-11-02 | 2022-05-20 | 东华理工大学 | 基于迁移学习和高斯混合模型分离的单株植被提取方法 |
CN113229161A (zh) * | 2021-03-02 | 2021-08-10 | 内蒙古大学 | 智慧型牧场管理方法及系统 |
CN113191302B (zh) * | 2021-05-14 | 2022-11-01 | 成都鸿钰网络科技有限公司 | 一种草原生态监测方法及系统 |
CN113537174B (zh) * | 2021-09-16 | 2021-12-28 | 中国科学院烟台海岸带研究所 | 一种珊瑚礁生境调查视频分析方法 |
CN114332657B (zh) * | 2022-01-11 | 2022-09-16 | 兰州大学 | 一种调控黄帚橐吾种群密度的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6356646B1 (en) * | 1999-02-19 | 2002-03-12 | Clyde H. Spencer | Method for creating thematic maps using segmentation of ternary diagrams |
CN107527038A (zh) * | 2017-08-31 | 2017-12-29 | 复旦大学 | 一种三维地物自动提取与场景重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101832769B (zh) * | 2010-03-30 | 2011-12-28 | 中国农业大学 | 一种基于近景摄影估算矿区植被覆盖度的方法和系统 |
-
2018
- 2018-09-12 CN CN201811059214.0A patent/CN109325431B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6356646B1 (en) * | 1999-02-19 | 2002-03-12 | Clyde H. Spencer | Method for creating thematic maps using segmentation of ternary diagrams |
CN107527038A (zh) * | 2017-08-31 | 2017-12-29 | 复旦大学 | 一种三维地物自动提取与场景重建方法 |
Non-Patent Citations (1)
Title |
---|
Method for estimating leaf coverage in strawberry plants using digital image processing;Juan D. Sandino et al.;《Revista Brasileira de Engenharia Agrícola e Ambiental》;20160831;第20卷(第8期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109325431A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325431B (zh) | 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置 | |
Chouhan et al. | Applications of computer vision in plant pathology: a survey | |
US11521380B2 (en) | Shadow and cloud masking for remote sensing images in agriculture applications using a multilayer perceptron | |
Pang et al. | Improved crop row detection with deep neural network for early-season maize stand count in UAV imagery | |
Zhou et al. | Wheat ears counting in field conditions based on multi-feature optimization and TWSVM | |
Zhou et al. | Strawberry maturity classification from UAV and near-ground imaging using deep learning | |
Yun et al. | PNN based crop disease recognition with leaf image features and meteorological data | |
Gebhardt et al. | Identification of broad-leaved dock (Rumex obtusifolius L.) on grassland by means of digital image processing | |
Gaikwad et al. | Wheat disease detection using image processing | |
Gebhardt et al. | A new algorithm for automatic Rumex obtusifolius detection in digital images using colour and texture features and the influence of image resolution | |
CN111161362A (zh) | 一种茶树生长状态光谱影像鉴别方法 | |
Ji et al. | In-field automatic detection of maize tassels using computer vision | |
CN109190571B (zh) | 一种放牧绵羊采食典型植物种类的检测识别方法及其装置 | |
CN110765977A (zh) | 一种基于无人机多时相遥感数据提取小麦倒伏信息的方法 | |
Liang et al. | Low-cost weed identification system using drones | |
Lin et al. | Identification of pumpkin powdery mildew based on image processing PCA and machine learning | |
Kumar et al. | An identification of crop disease using image segmentation | |
CN114965501A (zh) | 基于冠层参数处理的花生病害检测与产量预测方法 | |
Grbovic et al. | Wheat ear detection in RGB and thermal images using deep neural networks | |
CN114973024A (zh) | 一种机采棉脱叶效果综合评价指标监测与评价方法及系统 | |
Kuswidiyanto et al. | Airborne hyperspectral imaging for early diagnosis of kimchi cabbage downy mildew using 3D-ResNet and leaf segmentation | |
CN115205691B (zh) | 一种水稻种植区域识别方法、装置、存储介质及设备 | |
Kannan | An efficient deep neural network for disease detection in rice plant using XGBOOST ensemble learning framework | |
CN112528726A (zh) | 一种基于光谱成像和深度学习的棉蚜虫害监测方法及系统 | |
Prat | Image-based plant phenotyping using machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |