CN105139023B - 一种基于多尺度特征融合和极限学习机的种子识别方法 - Google Patents

一种基于多尺度特征融合和极限学习机的种子识别方法 Download PDF

Info

Publication number
CN105139023B
CN105139023B CN201510438672.5A CN201510438672A CN105139023B CN 105139023 B CN105139023 B CN 105139023B CN 201510438672 A CN201510438672 A CN 201510438672A CN 105139023 B CN105139023 B CN 105139023B
Authority
CN
China
Prior art keywords
window
seeds picture
tested
sample
seeds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510438672.5A
Other languages
English (en)
Other versions
CN105139023A (zh
Inventor
柯逍
杜明智
周铭柯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201510438672.5A priority Critical patent/CN105139023B/zh
Publication of CN105139023A publication Critical patent/CN105139023A/zh
Application granted granted Critical
Publication of CN105139023B publication Critical patent/CN105139023B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于多尺度特征融合和极限学习机的种子识别方法,通过对样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征进行融合提取,利用ELM极限学习机进行特征训练,得出集成分类模型,对待测试的种子图像采用滑动窗口机制,对其进行多尺度的融合特征提取,并将结果输入到该模型中,并通过对分类结果进行加权投票表决,进而得出待测试种子图像的分类信息。本发明所提出的一种基于多尺度特征融合和极限学习机的种子识别方法,简单灵活,设备要求简单,并且具有较强的实用性。

Description

一种基于多尺度特征融合和极限学习机的种子识别方法
技术领域
本发明涉及基于机器视觉的种子识别领域,特别是一种基于多尺度特征融合和极限学习机的种子识别方法。
背景技术
种子是农业生产中最基本的生产资料,是一切农业生产的基础。种子的准确、快速鉴别对生产具有重要的指导意义。国内外种子鉴别常用的方法主要有荧光扫描鉴定法、化学鉴定法和电泳鉴定法。这些方法需要较强的专业背景知识和较长的鉴别时间并且会对种子产生一定损伤。因此,如何对农作物种子类别进行无损、快速鉴别是一个重要的研究方向。近年来,随着机器学习的快速发展,国内外已有许多学者将机器学习应用于农产品种子自动检测上。与人的视觉相比,基于机器视觉的农产品自动检测具有检测速度快、识别精度高以及无损伤等特点。总的来说,基于机器视觉的种子识别具有如下优点:
1)无损伤测量,对于测试的种子对象或者观察者本身均不会产生任何损伤,从而提高了系统的安全性。
2)客观性强,能够定量描述所需的测试指标,避免了因人为主观因素而产生的测量误差,提高了对象识别的准确率。
3)计算机视觉信号易于处理,并且能够对海量的信息进行无间断处理,可以快速完成对种子的分析和识别任务。
从机器视觉的角度出发,一般来说,对于玉米种子的识别研究上,主要是先提取种子的颜色类,形态类等外观特征,然后通过诸如贝叶斯分类器、BP神经网络、支持向量机等分类器对玉米种子进行识别。
如:杨蜀秦、宁纪锋和何东健将BP神经网络应用到玉米品种的识别研究中。他分析了玉米籽粒的形态特征,将提取的玉米籽粒形状、尺寸、颜色等相关的结构特征放入BP神经网络进行了分类识别,但是利用BP神经网络进行训练所需的时间较长,并且最终的识别准确率并不高。王宏勇,侯慧芳,刘素华将遗传算法和支持向量机相结合用于玉米种子的分类识别。利用遗传算法将玉米种子图像的特征信息提取到支持向量机进行训练分类,从而实现对玉米品种进行识别,该方法综合识别率较高,但是检测的时间和所消耗的空间也较高。黄敏等利用高光谱反射图像处理技术,提取了玉米种子在563.6~911.4nm共55个波段范围内的12个形状特征信息,对9个品种约432粒玉米种子,获得了测试集内93.98%的识别精度。此外,黄敏等也采用过光谱图像特征法对玉米种子品种的单粒识别问题进行了研究,在玉米种子测试集数据内也取得了较高的识别精度。但这些研究都是基于单一特征的识别模型、识别数目较少、并且需要专门的硬件设备。
发明内容
本发明的目的在于提供一种基于多尺度特征融合和极限学习机的种子识别方法,以克服现有技术中存在的缺陷,并实现对待测试种子的快速准确识别。
为实现上述目的,本发明的技术方案是:一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,按照如下步骤实现:
步骤S1:对图像数据集中样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征进行多尺度融合特征提取,获取样本种子图像的多尺度融合特征信息;
步骤S2:采用ELM(Extreme Learning Machine)极限学习机的交叉验证训练对样本种子图像的多尺度融合特征信息进行特征训练,建立集成分类模型;
步骤S3:在多尺度下通过采用滑动窗口机制对待测试种子图像进行分类检测识别,将待测试种子图像进行块状分割,分割为大小一致的窗口,并采用所述步骤S1的方式提取所有划分窗口内待测试种子图像的多尺度融合特征信息,将所提取待测试种子图像的多尺度融合特征信息通过集成分类模型进行基于极限学习机的集成分类判断,并通过投票表决的方式,得到待测试种子图像的分类检测结果。
在本发明一实施例中,所述步骤S1中多尺度局部HOG特征按照如下步骤提取:
步骤S11:对样本种子图像进行颜色空间的归一化,I(x,y)=I(x,y)gamma,其中,x、y分别为样本种子图像中像素点的坐标位置,I(x,y)为的坐标位置的像素值;
步骤S12:计算样本种子图像中所有像素点的一阶梯度,并将样本种子图像中像素点(x,y)的一阶梯度表示为:
Gx(x,y)=H(x+1,y)-H(x-1,y),
Gy(x,y)=H(x,y+1)-H(x,y-1);
其中,Gx(x,y)、Gy(x,y)以及H(x,y)分别对应表示样本种子图像中像素点(x,y)处的水平方向梯度、垂直方向梯度以及像素值,且像素点(x,y)处的梯度幅值和梯度方向分别为:
步骤S13:将样本种子图像进行按序逐级分割,并根据每个级别对应将每一级的样本种子图像均匀分割为若干个区域,计算每个区域中所有像素点的边缘梯度直方图,并将边缘梯度直方图对应投影到预设固定角度,通过统计投影后的边缘梯度直方图的边缘梯度信息,得到每一级样本种子图像的边缘梯度局部区域特征;
步骤S14:将每一级样本种子图像的边缘梯度局部区域特征采用如下归一化因子进行归一化:其中v表示一个还没有被归一化的向量,它包含了给定区间(block)的所有直方图信息,||v||k表示v的k阶范数,且k=2,e为一常数;
步骤S15:采用滑动窗口机制,选取窗口像素、滑动块大小、单元大小以及滑动步长,并以单元为扫描步长,利用块对每一级样本种子图像归一化后的边缘梯度局部区域特征进行密集扫描,并计算每一级样本种子图像对应的滑动窗口内的HOG特征;
步骤S16:将所有级别样本种子图像对应的HOG特征按序进行级联,获取样本种子图像的HOG特征。
在本发明一实施例中,在所述步骤S13中,所述逐级分割的级别包括第一级、第二级以及第三级;所述第一级采用L=0进行表示,且该L=0表示所述第一级的轮廓分割图,也即表示整个样本种子图像的边缘轮廓图;所述第二级采用L=1进行表示,且在所述第二级中,将整个样本种子图像进行均分,分为四个子区域;所述第三级采用L=2进行表示,且在所述第三级中,将所述第二级中的每个子区域再对应划分为四个子区域。
在本发明一实施例中,在所述步骤S1中,对样本种子图像的全局分布的HSV特征采 用如下进行提取:记HSV颜色空间的色调为H、饱和度为S、亮度为V,且令V=max(R,G,B), 并有:
H∈[0,360],S∈[0,1],V∈[0,1];
采用如下方式将HSV空间中的色调H、饱和度S以及亮度V进行非等间隔量化,并采用直方图对应进行表示:
在本发明一实施例中,在所述步骤S2中,还包括以下步骤:
步骤S21:建立平方损失函数:其中,hv表示的是样本输入的特征向量,L个隐层单元的单隐层网络:且该fL(hv)用以趋近于零的误差逼近样本种子图像中Z个互异的数据样本{(hu,tu)}∈Rc×Rd,au为输入权重,bu为隐层单元偏置值,βu表示连接第u个隐层单元和网络之间的输出权重,G(au,bu,hv)表示第u个隐层对应于数据样本hv的隐层单元的输出,且G(au,bu,hv)=g(au·hv+bu),g为激活函数,au·hv代表输入权重au与数据样本hv在Rc中的内积,1≤u≤L,1≤v≤Z,L、Z、c以及d均为正整数;
步骤S22:将式改写为J=(Hβ-T)T(Hβ-T),H为隐层单元输出矩阵,通过求解最小化平方损失函数获取ELM极限学习机的网络参数,即通过求解最小二乘解获取ELM极限学习机的网络参数,使得:
并进一步得:
其中:H+=(HTH)-1HT
在本发明一实施例中,在所述步骤S3中,按照以下步骤实现:
S31:将待测试种子图像进行无损压缩,记待测试种子图像的原图像为F(o,p),大小为M×N,缩小后的图像为G(o',p'),大小为k1M×k2N;
S32:采用滑动窗口机制对待测试种子图像进行分类检测识别,选取窗口像素、滑动块大小、单元大小以及滑动步长;在同一大小的窗口下,对待测试种子图像进行分层缩放,采用步骤S1中的方式,对每层缩放后、滑动窗口中待测试种子图像的多尺度融合特征信息进行提取;将所提取的待测试种子图像的多尺度融合特征信息输入集成分类模型,采用均等权重投票表决的方式进行投票表决,且在该投票过程中,集成分类模型中每一个分类器的投票权重均相同,并且各个分类器之间相互独立;
S33:采用基于模糊聚类的局部窗口融合方法,对多尺度条件下待测试种子图像进行滑动窗口分类检测识别过程中产生的多区域窗口混叠进行局部融合,获取待测试种子图像的分类检测结果。
在本发明一实施例中,在所述步骤S31中,计算待测试种子图像像素中的采样间隔 Δo和Δp:g(o,p)=f(Δo·o,Δp·p),其中,g(o,p)表示的是采样 之后待测试种子图像中的各个子块的均值,并得出相临两个采样点之间所包含的原图像的 子块,即:其中,1≤o≤M,1≤p≤N,k1,k2均为缩 小倍数,1≤o≤k1M,1≤p≤k2N,当k1=k2时为按比例缩小,当k1≠k2为不按比例缩小,且k1< 1,k2<1;
在本发明一实施例中,在所述步骤S33中,所述基于模糊聚类的局部窗口融合方法通过如下步骤实现:
S331:记U={x1,x2,…,xn},表示的是待分类检测窗口集合,其中,待分类检测窗口xi通过窗口质心坐标xix以及窗口质心坐标xiy进行描述,xix=xit+wi,xiy=yit+hi,且待分类检测窗口xi={xit,yit,wi,hi},{xit,yit}表示滑动窗口的左上角坐标,wi表示滑动窗口的宽,hi表示滑动窗口的高;采用最大法归一化对用以表征所述待分类检测窗口集合的模糊矩阵进行归一化:MJ=max(x1J,x2J,...,xnJ),将模糊矩阵压缩到[0,1]区间上,其中,xIJ为所述模糊矩阵中第I行,第J列的元素,xIJ'为经最大法归一化后的模糊矩阵中第I行,第J列的元素,1≤I≤n,1≤J≤2;
S332:通过计算模糊相似矩阵R=(rij)n×n中的元素rij,确定待分类检测窗口集合U的模糊相似矩阵R=(rij)n×n;且采用如下方式计算元素rij
元素rij表示待分类检测窗口xi和待分类检测窗口xj的相似度,也即待分类检测窗口xi和待分类检测窗口xj的相似度系数,p为惩罚因子,且p为一常数,用于调节待分类窗口之间质心距离以及重叠域;
相似度函数overlap(xi,xj)=area(xi∩xj)表示窗口重叠域,且该相似度函数overlap(xi,xj)通过以下方式确定:
为窗口重叠密度,即窗口重叠域与质心距离的比值;
S333:根据模糊相似矩阵R=(rij)n×n,求解模糊相似矩阵R=(rij)n×n的传递闭包t(R),并通过有限次平方自相合运算,得到模糊相似矩阵R=(rij)n×n的模糊等价矩阵R*
S334:通过预设最优值λ,获取待分类检测窗口集合U关于预设最优值λ截等价矩阵的商集进而获取所有待分类检测窗口的聚类结果;通过每个待分类检测窗口对应的聚类结果,获取每个聚类结果所对应的窗口集合;
S335:计算每个聚类结果所对应的窗口集合的质心;采用高斯密度分布,通过加权平均获取窗口集合中各个窗口的宽度和高度,且距离窗口集合质心越近的窗口,该窗口的权重越大;进而得出每个聚类结果对应的窗口集合经局部融合后的窗口位置。
相较于现有技术,本发明具有以下有益效果:针对传统种子识别方法存在检测速度慢、训练时间长、识别精度不高以及硬件设备要求严苛等问题,本发明提出一种基于多尺度融合特征提取和极限学习机的种子识别方法,利用极限学习机特有的快速训练能力以及其强大的泛化能力,并基于对机器学习与计算机视觉的认识,提出了用于解决种子识别的基于极限学习机的种子识别模型,得到了一种全新的种子识别方法,该方法具有简单,实现灵活,实用性较强。该方法实现了对玉米种子的准确识别,通过对深受广大农业主欢迎的奥玉311,滑玉986,鑫玉35等玉米种子进行测试,且通过实验结果表明识别样本的测试精度达到97.66%,同时误差控制在0.1%。相比传统方法,本发明所提出的方法在检测速度、训练速度、识别精度均有所改善,并且无需额外高要求的硬件设备。
附图说明
图1为本发明中基于多尺度特征融合和极限学习机的种子识别方法的流程图。
图2为本发明一实施例中采用基于多尺度特征融合和极限学习机的种子识别方法进行识别的结果示意图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供一种基于多尺度特征融合和极限学习机的种子识别方法,如图1所示,按照如下步骤实现:
步骤S1:对图像数据集中样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征进行多尺度融合特征提取,获取样本种子图像的多尺度融合特征信息;
步骤S2:采用ELM(Extreme Learning Machine)极限学习机的交叉验证训练对样本种子图像的多尺度融合特征信息进行特征训练,建立集成分类模型;
步骤S3:在多尺度下通过采用滑动窗口机制对待测试种子图像进行分类检测识别,将待测试种子图像进行块状分割,分割为大小一致的窗口,并采用所述步骤S1的方式提取所有划分窗口内待测试种子图像的多尺度融合特征信息,将所提取待测试种子图像的多尺度融合特征信息通过集成分类模型进行基于极限学习机的集成分类判断,并通过投票表决的方式,得到待测试种子图像的分类检测结果。
进一步的,在本实施例中,所述步骤S1中多尺度局部HOG特征按照如下步骤提取:
步骤S11:对样本种子图像进行颜色空间的归一化,I(x,y)=I(x,y)gamma,其中,x、y分别为样本种子图像中像素点的坐标位置,I(x,y)表示的是对应的坐标位置的像素值;
步骤S12:计算样本种子图像中所有像素点的一阶梯度,并将样本种子图像中像素点(x,y)的一阶梯度表示为:
Gx(x,y)=H(x+1,y)-H(x-1,y),
Gy(x,y)=H(x,y+1)-H(x,y-1);
其中,Gx(x,y)、Gy(x,y)以及H(x,y)分别对应表示样本种子图像中像素点(x,y)处的水平方向梯度、垂直方向梯度以及像素值,且像素点(x,y)处的梯度幅值和梯度方向分别为:
步骤S13:将样本种子图像进行按序逐级分割,并根据每个级别对应将每一级的样本种子图像均匀分割为若干个区域(Cell),计算每个区域中所有像素的边缘梯度直方图,并将边缘梯度直方图对应投影到预设固定角度,通过统计投影后的边缘梯度直方图的边缘梯度信息,得到每一级样本种子图像的边缘梯度局部区域特征;在本实施例中,该预设固定角度代表的是0~180度之间,将180度分为九等分,每个区间占20度,且与下面bin为一个意思。用以上公式计算该像素点的梯度大小和角度(方向),该处的梯度和角度均用到了二线插值,每一个点的投影的梯度角度是0~180度之间的任意值,而且将其离散化为9个bin,即每个bin占20度。所以,如果滑动窗口中每个像素点的梯度角度要离散化到这9个bin中,则一般它都会有2个相邻的bin(如果恰好位于某个bin的中心,则可认为对该bin的权重为1即可)。梯度的幅值是用来计算梯度直方图时权重投票的,所以每个像素点的梯度幅值就分解到了其角度相邻的2个bin了,越近的那个bin得到的权重越大;边缘梯度信息包括投影到对应预设固定角度内的边缘梯度直方图中的像素点的个数;
步骤S14:将每一级样本种子图像的边缘梯度局部区域特征采用如下归一化因子进行归一化:其中v表示一个还没有被归一化的向量,它包含了给定区间(block)的所有直方图信息,||v||k表示v的k阶范数,且k=2,e为一常数;
步骤S15:采用滑动窗口机制,选取窗口像素、滑动块大小、单元大小以及滑动步长,并以单元(Cell)为扫描步长,利用块(Block)对每一级样本种子图像归一化后的边缘梯度局部区域特征进行密集扫描,并计算每一级样本种子图像对应的滑动窗口内的HOG特征;
步骤S16:将所有级别样本种子图像对应的HOG特征;按序进行级联,获取样本种子图像的HOG特征。
进一步的,在本实施例中,在所述步骤S13中,所述逐级分割的级别包括第一级、第二级以及第三级;所述第一级采用L=0进行表示,且该L=0表示所述第一级的轮廓分割图,也即表示整个样本种子图像的边缘轮廓图;所述第二级采用L=1进行表示,且在所述第二级中,将整个样本种子图像进行均分,分为四个子区域;所述第三级采用L=2进行表示,且在所述第三级中,将所述第二级中的每个子区域再对应划分为四个子区域。在本实施例中,第一级可以用直方图的K个部分来描述,即有K维特征向量,第二级有4K维特征向量,第三级有16K维的特征向量,对于整个图像来说总共就有21K维的特征向量。且本实施例中,所采用的是三级尺度结构,并且K=9,因此多尺度边缘梯度维数为189维。最终的多尺度特征就是将不同级别下的边缘梯度特征进行级联,最后将级联后的特征数据进行归一化操作。
进一步的,在本实施例中,在所述步骤S1中,对样本种子图像的全局分布的HSV特 征采用如下进行提取:记HSV颜色空间的色调为H、饱和度为S、亮度为V,且令V=max(R,G, B), 并有:
H∈[0,360],S∈[0,1],V∈[0,1];
采用如下方式将HSV空间中的色调H、饱和度S以及亮度V进行非等间隔量化,并采用直方图对应进行表示:
此外,本实施例中,通过上述对步骤S1的细化步骤,样本种子图像多尺度融合特征信息可以描述为多尺度下的HOG特征和HSV颜色特征融合。
进一步的,在本实施例中,在所述步骤S2中,还包括以下步骤:
步骤S21:建立平方损失函数:其中,hv表示的是样本输入的特征向量,H为隐层单元输出矩阵,L个隐层单元的单隐层网络:且该fL(hv)用以趋近于零的误差逼近样本种子图像中Z个互异的数据样本{(hu,tu)}∈Rc×Rd,au为输入权重,bu为隐层单元偏置值,βu表示连接第u个隐层单元和网络之间的输出权重,G(au,bu,hv)表示第u个隐层对应于数据样本hv的隐层单元的输出,且G(au,bu,hv)=g(au·hv+bu),g为激活函数,au·hv代表输入权重au与数据样本hv在Rc中的内积,1≤u≤L,1≤v≤Z,L、Z、c以及d均为正整数;
步骤S22:将式改写为J=(Hβ-T)T(Hβ-T),通过求解最小化平方损失函数获取ELM极限学习机的网络参数,即通过求解最小二乘解获取ELM极限学习机的网络参数,使得:
并进一步得:
其中:H+=(HTH)-1HT
在本实施例中,在ELM极限学习机的网络参数获取时,针对训练数据样本(h,t),构 建一个有L个隐层单元的单隐层前向神经网络:其中,au为输入权 重,bu为隐层单元偏置值,βu表示连接第u个隐层单元和网络之间的输出权重,G(au,bu,h)表 示第i个隐层对应于样本x的隐层单元的输出,且在本实施例中,G(ai,bi,h)的表达式为:G (au,bu,h)=g(au·h+bu),其中,g为激活函数,au·h代表输入权重au和样本h在Rc中的内积。 假设存在Z个互异的数据样本{(hu,tu)}∈Rc×Rd,构建一个具有L个隐层单元的单隐层网络 以趋近于零的误差来逼近这Z个互异的数据样本,即存在au,bu和βu,u=1,2…,L,使得将上述公式简记为Hβ=T,其中,H称为隐层单元 输出矩阵。然而,在多数情况下,由于实际上的隐层单元个数远小于互异的训练样本个数(L <<N),很难实现构建的具有L个隐层单元的单隐层网络能够以趋近于零的误差逼近这N个互 异的数据样本,因此,训练样本的网络输出和实际输出之间具有一定的误差。在这种情况下 可以将式子修改为Hβ=T+E,并定义平方损失函数: 并将其改写为J=(Hβ-T)T(Hβ-T),那么就可以通过对最小化平方损失函数的求解来实现 ELM网络参数的训练问题。也即通过寻找最小二乘解使得 求得H+=(HTH)-1HT。在本实施例中,该ELM的隐层个数为单隐 层,设置的隐层结点个数分别为500个到1000个不等。
进一步的,在本实施例中,在所述步骤S3中,如图1所示,按还包括以下步骤:
S31:待测试种子图像识别采用的是滑动窗口检测机制,针对图像分辨率过高带来的机器消耗问题,本实施例中采用一种无损压缩图像算法对待测试种子图像进行无损压缩,记待测试种子图像的原图像为F(o,p),大小为M×N,缩小后的图像为G(o',p'),大小为k1M×k2N;
计算待测试种子图像像素中的采样间隔Δo和Δp:g(o,p)=f (Δo·o,Δp·p),其中g(o,p)表示的是采样之后待测试种子图像中的各个子块的均值,并 得出相临两个采样点之间所包含的原图像的子块,即: 其中,1≤o≤M,1≤p≤N,k1,k2均为缩小倍数,1≤o≤k1M,1≤p≤k2N,当k1=k2时为按比例缩 小,当k1≠k2为不按比例缩小,且k1<1,k2<1;在本实施例中,较佳的,所选取的原图的分辨率 大小为3696*2448,通过该方法对图片进行缩放,缩小的倍数k1=0.7,k2=0.6。
S32:采用滑动窗口机制对待测试种子图像进行分类检测识别,选取窗口像素、滑动块大小、单元大小以及滑动步长;较佳地,在本实施例中,选取的窗口大小为25*25像素,其中滑动块(Block)大小为10*10,单元(Cell)大小为5*5,滑动步长为5*5。在同一大小的窗口下,对待测试种子图像进行分层缩放,采用步骤S1中的方式,对每层缩放后、滑动窗口中待测试种子图像的多尺度融合特征信息进行提取;较佳地,在本实施例中,所选取的检测缩放尺度大小为1.2倍,分别进行6层的尺度缩放,即分6层分别对待测试种子图像进行缩放,每层对应的方法倍数为1.2倍;
较佳地,在本实施例中,采用的步骤S1中所提供的提取样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征的方法,提取待测试种子图像的多尺度融合特征信息,且具体采用采用步骤S11至S16所提供的多尺度局部HOG特征提取方法以及全局分布的HSV特征的提取方法;
将所提取的待测试种子图像的多尺度融合特征信息输入集成分类模型,采用均等权重投票表决的方式进行投票表决,且在该投票过程中,集成分类模型中每一个分类器的投票权重均相同,并且各个分类器之间相互独立;
S33:多尺度条件下对待测试种子图像进行滑动窗口扫描时会出现多区域混叠现象,这样便会导致一幅待测种子图像中存在着多个大小不一并且相互重叠的识别窗口映射到同一个种子对象。因此,为了提高识别的精度,必须对这些同一对象上的多个重叠窗口进行局部融合,在本实施例中,采用基于模糊聚类的局部窗口融合方法,对多尺度条件下待测试种子图像进行滑动窗口分类检测识别过程中产生的多区域窗口混叠进行局部融合,获取待测试种子图像的分类检测结果。
进一步的,在本实施例中,在所述步骤S33中,所述基于模糊聚类的局部窗口融合方法通过如下步骤实现:
S331:记U={x1,x2,…,xn},表示的是待分类检测窗口集合,其中待分类检测的第i个窗口xi,通过窗口质心横坐标xix以及窗口质心纵坐标xiy进行描述,xix=xit+wi,xiy=yit+hi,且待分类检测窗口xi={xit,yit,wi,hi},{xit,yit}表示第i个滑动窗口的左上角横坐标以及纵坐标的组合表示,wi表示第i个滑动窗口的宽,hi表示第i个滑动窗口的高。采用最大法归一化对用以表征所述待分类检测窗口集合的模糊矩阵进行归一化:MJ=max(x1J,x2J,...,xnJ),将模糊矩阵压缩到[0,1]区间上,即归一化后的xIJ'的取值在[0,1]之间,其中,xIJ为所述模糊矩阵中第I行,第J列的元素,xIJ'为经最大法归一化后的模糊矩阵中第I行,第J列的元素。
S332:通过计算模糊相似矩阵R=(rij)n×n中的元素rij,确定待分类检测窗口集合U的模糊相似矩阵R=(rij)n×n;且采用如下方式计算元素rij
元素rij表示待分类检测窗口xi和待分类检测窗口xj的相似度,也即待分类检测窗口xi和待分类检测窗口xj的相似度系数,p为惩罚因子,且p为一常数,用于调节待分类窗口之间质心距离以及重叠域;
相似度函数overlap(xi,xj)=area(xi∩xj)表示窗口重叠域,且该相似度函数overlap(xi,xj)通过以下方式确定:
且由上述方式定义的相似度函数overlap(xi,xj)综合考虑到领域窗口之间的重叠域以及质心距离,这两个因素是导致领域窗口是否可以进行局部融合的关键。
为窗口重叠密度,即窗口重叠域与质心距离的比值;当窗口之间的重叠域较大并且质心距离较小时,则表示待分类窗口的相似度越高,便越有可能聚合为同一类。
S333:根据模糊相似矩阵R=(rij)n×n,求解模糊相似矩阵R=(rij)n×n的传递闭包t(R),并通过有限次平方自相合运算,得到模糊相似矩阵R=(rij)n×n的模糊等价矩阵R*
S334:通过预设最优值λ,获取待分类检测窗口集合U关于预设最优值λ截等价矩阵的商集进而获取所有待分类检测窗口的聚类结果;通过每个待分类检测窗口对应的聚类结果,获取每个聚类结果所对应的窗口集合;本实施例中在融合时候只需要给出一个预设最优值λ进行融合就可以得到分类结果,该预设最优值λ的确定可以通过多次实验来筛选。
S335:对于隶属于同一个类别的多个窗口,先计算每个聚类结果所对应的窗口集合的质心;采用高斯密度分布,通过加权平均获取窗口集合中各个窗口的宽度和高度,且距离窗口集合质心越近的窗口,该窗口的权重越大;进而得出每个聚类结果对应的窗口集合经局部融合后的窗口位置。
特别地,在上述步骤中,从步骤S331到步骤S334中,待检分类测窗口xi或xj中的i以及j分别代表的是在窗口集合之中,这些窗口的序号。模糊矩阵中元素xIJ以及模糊相似矩阵rij,则I或i代表的是一个矩阵的行标号,J或j代表的是一个矩阵的列标号。
此外,xIJ表示的是原始的模糊矩阵的元素,即用以表征待分类检测窗口集合U的矩阵,且I取值是1≤I≤n,J取值是1或2。该模糊矩阵是一个n行2列的矩阵,矩阵中n代表的是待分类检测窗口集合中窗口的个数。由于其对应表征待分类检测窗口集合U,则对于U中的第i个窗口xi,在模糊矩阵中通过元素xIJ对应进行表征;具体地,I与窗口xi的序号i对应,J取值1代表的是第i个窗口的质心横坐标,J取值为2代表的是第i个窗口的质心纵坐标。而xIJ'表示的是归一化以后的模糊矩阵,这里的I取值同样是是1≤I≤n,这里的J取值同样是1或者2。而rij表示的是模糊相似矩阵,在这里1≤i≤n,1≤j≤n,它是一个n阶矩阵,代表的是矩阵中第i个元素和第j个元素的相似程度或者说第i个窗口和第j个窗口的相似程度。
如图2所示,为本发明一实施例中的实验结果表,为了验证算法的有效性,本次实验从农业公司所提供的玉米种子图像数据集中,随机抽取了100张玉米种子图像,分别是深受广大农业主欢迎的奥玉311,滑玉986,鑫玉35玉米种子,每张图片上种子数量在1000颗或者1500颗,共130000颗玉米种子进行测试。测试的衡量指标有检测的时间消耗(单位为秒),内存消耗(单位为兆),准确率,召回率,综合指标。其中:A代表准确率,表示的是(正确识别的种子个数)/(正确识别的种子个数+误判的种子个数)。R代表召回率。表示的是(正确识别的种子个数)/(总的种子个数)。F代表的是综合指标,表示的是(2*A*R)/(A+R)。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (6)

1.一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,按照如下步骤实现:
步骤S1:对图像数据集中样本种子图像的多尺度局部HOG特征以及全局分布的HSV特征进行多尺度融合特征提取,获取样本种子图像的多尺度融合特征信息;
步骤S2:采用ELM(Extreme Learning Machine)极限学习机的交叉验证训练对样本种子图像的多尺度融合特征信息进行特征训练,建立集成分类模型;
步骤S3:在多尺度下通过采用滑动窗口机制对待测试种子图像进行分类检测识别,将待测试种子图像进行块状分割,分割为大小一致的窗口,并采用所述步骤S1的方式提取所有划分窗口内待测试种子图像的多尺度融合特征信息,将所提取待测试种子图像的多尺度融合特征信息通过集成分类模型进行基于极限学习机的集成分类判断,并通过投票表决的方式,得到待测试种子图像的分类检测结果;
在所述步骤S3中,按照以下步骤实现:
S31:将待测试种子图像进行无损压缩,记待测试种子图像的原图像为F(o,p),大小为M×N,缩小后的图像为G(o',p'),大小为k1M×k2N;
S32:采用滑动窗口机制对待测试种子图像进行分类检测识别,选取窗口像素、滑动块大小、单元大小以及滑动步长;在同一大小的窗口下,对待测试种子图像进行分层缩放,采用步骤S1中的方式,对每层缩放后、滑动窗口中待测试种子图像的多尺度融合特征信息进行提取;将所提取的待测试种子图像的多尺度融合特征信息输入集成分类模型,采用均等权重投票表决的方式进行投票表决,且在该投票过程中,集成分类模型中每一个分类器的投票权重均相同,并且各个分类器之间相互独立;
S33:采用基于模糊聚类的局部窗口融合方法,对多尺度条件下待测试种子图像进行滑动窗口分类检测识别过程中产生的多区域窗口混叠进行局部融合,获取待测试种子图像的分类检测结果;
在所述步骤S33中,所述基于模糊聚类的局部窗口融合方法通过如下步骤实现:
S331:记U={x1,x2,···,xn},表示的是待分类检测窗口集合,其中,待分类检测窗口xi通过窗口质心坐标xix以及窗口质心坐标xiy进行描述,xix=xit+wi,xiy=yit+hi,且待分类检测窗口xi={xit,yit,wi,hi},{xit,yit}表示滑动窗口的左上角坐标,wi表示滑动窗口的宽,hi表示滑动窗口的高;采用最大法归一化对用以表征所述待分类检测窗口集合的模糊矩阵进行归一化:MJ=max(x1J,x2J,...,xnJ),将模糊矩阵压缩到[0,1]区间上,其中,xIJ为所述模糊矩阵中第I行,第J列的元素,xIJ'为经最大法归一化后的模糊矩阵中第I行,第J列的元素,1≤I≤n,1≤J≤2;
S332:通过计算模糊相似矩阵R=(rij)n×n中的元素rij,确定待分类检测窗口集合U的模糊相似矩阵R=(rij)n×n;且采用如下方式计算元素rij
元素rij表示待分类检测窗口xi和待分类检测窗口xj的相似度,也即待分类检测窗口xi和待分类检测窗口xj的相似度系数,p为惩罚因子,且p为一常数,用于调节待分类窗口之间质心距离以及重叠域;
相似度函数overlap(xi,xj)=area(xi∩xj)表示窗口重叠域,且该相似度函数overlap(xi,xj)通过以下方式确定:
为窗口重叠密度,即窗口重叠域与质心距离的比值;
S333:根据模糊相似矩阵R=(rij)n×n,求解模糊相似矩阵R=(rij)n×n的传递闭包t(R),并通过有限次平方自相合运算,得到模糊相似矩阵R=(rij)n×n的模糊等价矩阵R*
S334:通过预设最优值λ,获取待分类检测窗口集合U关于预设最优值λ截等价矩阵的商集进而获取所有待分类检测窗口的聚类结果;通过每个待分类检测窗口对应的聚类结果,获取每个聚类结果所对应的窗口集合;
S335:计算每个聚类结果所对应的窗口集合的质心;采用高斯密度分布,通过加权平均获取窗口集合中各个窗口的宽度和高度,且距离窗口集合质心越近的窗口,该窗口的权重越大;进而得出每个聚类结果对应的窗口集合经局部融合后的窗口位置。
2.根据权利要求1所述的一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,所述步骤S1中多尺度局部HOG特征按照如下步骤提取:
步骤S11:对样本种子图像进行颜色空间的归一化,I(x,y)=I(x,y)gamma,其中,x、y分别为样本种子图像中像素点的坐标位置,I(x,y)为的坐标位置的像素值;
步骤S12:计算样本种子图像中所有像素点的一阶梯度,并将样本种子图像中像素点(x,y)的一阶梯度表示为:
Gx(x,y)=H(x+1,y)-H(x-1,y),
Gy(x,y)=H(x,y+1)-H(x,y-1);
其中,Gx(x,y)、Gy(x,y)以及H(x,y)分别对应表示样本种子图像中像素点(x,y)处的水平方向梯度、垂直方向梯度以及像素值,且像素点(x,y)处的梯度幅值和梯度方向分别为:
步骤S13:将样本种子图像进行按序逐级分割,并根据每个级别对应将每一级的样本种子图像均匀分割为若干个区域,计算每个区域中所有像素点的边缘梯度直方图,并将边缘梯度直方图对应投影到预设固定角度,通过统计投影后的边缘梯度直方图的边缘梯度信息,得到每一级样本种子图像的边缘梯度局部区域特征;
步骤S14:将每一级样本种子图像的边缘梯度局部区域特征采用如下归一化因子进行归一化:其中v表示一个还没有被归一化的向量,它包含了给定区间(block)的所有直方图信息,||v||k表示v的k阶范数,且k=2,e为一常数;
步骤S15:采用滑动窗口机制,选取窗口像素、滑动块大小、单元大小以及滑动步长,并以单元为扫描步长,利用块对每一级样本种子图像归一化后的边缘梯度局部区域特征进行密集扫描,并计算每一级样本种子图像对应的滑动窗口内的HOG特征;
步骤S16:将所有级别样本种子图像对应的HOG特征按序进行级联,获取样本种子图像的HOG特征。
3.根据权利要求2所述的一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,在所述步骤S13中,所述逐级分割的级别包括第一级、第二级以及第三级;所述第一级采用L=0进行表示,且该L=0表示所述第一级的轮廓分割图,也即表示整个样本种子图像的边缘轮廓图;所述第二级采用L=1进行表示,且在所述第二级中,将整个样本种子图像进行均分,分为四个子区域;所述第三级采用L=2进行表示,且在所述第三级中,将所述第二级中的每个子区域再对应划分为四个子区域。
4.根据权利要求1所述的一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,在所述步骤S1中,对样本种子图像的全局分布的HSV特征采用如下进行提取:记HSV颜色空间的色调为H、饱和度为S、亮度为V,且令V=max(R,G,B), 并有:
H∈[0,360],S∈[0,1],V∈[0,1];
采用如下方式将HSV空间中的色调H、饱和度S以及亮度V进行非等间隔量化,并采用直方图对应进行表示:
5.根据权利要求1所述的一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,在所述步骤S2中,还包括以下步骤:
步骤S21:建立平方损失函数:其中,hv表示的是样本输入的特征向量,L个隐层单元的单隐层网络:且该fL(hv)用以趋近于零的误差逼近样本种子图像中Z个互异的数据样本{(hu,tu)}∈Rc×Rd,au为输入权重,bu为隐层单元偏置值,βu表示连接第u个隐层单元和网络之间的输出权重,G(au,bu,hv)表示第u个隐层对应于数据样本hv的隐层单元的输出,且G(au,bu,hv)=g(au·hv+bu),g为激活函数,au·hv代表输入权重au与数据样本hv在Rc中的内积,1≤u≤L,1≤v≤Z,L、Z、c以及d均为正整数;
步骤S22:将式改写为J=(Hβ-T)T(Hβ-T),H为隐层单元输出矩阵,通过求解最小化平方损失函数获取ELM极限学习机的网络参数,即通过求解最小二乘解获取ELM极限学习机的网络参数,使得:
并进一步得:
其中:H+=(HTH)-1HT
6.根据权利要求1所述的一种基于多尺度特征融合和极限学习机的种子识别方法,其特征在于,在所述步骤S31中,计算待测试种子图像像素中的采样间隔Δo和Δp:g(o,p)=f(Δo·o,Δp·p),其中,g(o,p)表示的是采样之后待测试种子图像中的各个子块的均值,并得出相临两个采样点之间所包含的原图像的子块,即:其中,1≤o≤M,1≤p≤N,k1,k2均为缩小倍数,1≤o≤k1M,1≤p≤k2N,当k1=k2时为按比例缩小,当k1≠k2为不按比例缩小,且k1<1,k2<1。
CN201510438672.5A 2015-07-24 2015-07-24 一种基于多尺度特征融合和极限学习机的种子识别方法 Active CN105139023B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510438672.5A CN105139023B (zh) 2015-07-24 2015-07-24 一种基于多尺度特征融合和极限学习机的种子识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510438672.5A CN105139023B (zh) 2015-07-24 2015-07-24 一种基于多尺度特征融合和极限学习机的种子识别方法

Publications (2)

Publication Number Publication Date
CN105139023A CN105139023A (zh) 2015-12-09
CN105139023B true CN105139023B (zh) 2018-12-25

Family

ID=54724366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510438672.5A Active CN105139023B (zh) 2015-07-24 2015-07-24 一种基于多尺度特征融合和极限学习机的种子识别方法

Country Status (1)

Country Link
CN (1) CN105139023B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678342B (zh) * 2016-02-24 2018-11-30 江南大学 基于联合偏度的玉米种子高光谱图像波段选择方法
US9950700B2 (en) * 2016-03-30 2018-04-24 GM Global Technology Operations LLC Road surface condition detection with multi-scale fusion
CN106446854A (zh) * 2016-10-06 2017-02-22 西北工业大学 基于旋转不变hog特征的高分辨率光学遥感图像目标检测方法
CN106803237B (zh) * 2016-12-14 2019-12-20 银江股份有限公司 一种基于极限学习机的改进自适应加权平均图像去噪方法
CN107133643A (zh) * 2017-04-29 2017-09-05 天津大学 基于多特征融合及特征选择的乐音信号分类方法
CN109377496B (zh) * 2017-10-30 2020-10-02 北京昆仑医云科技有限公司 用于分割医学图像的系统和方法及介质
CN108038893A (zh) * 2017-12-06 2018-05-15 深圳市未来媒体技术研究院 一种基于混合相机阵列的十亿像素视频的生成方法
CN108257136A (zh) * 2018-02-09 2018-07-06 天津海达奥普光电技术股份有限公司 一种玉米种子形状特征提取的图像分割方法
CN108875753A (zh) * 2018-04-03 2018-11-23 南昌奇眸科技有限公司 一种商标图像检索特征提取方法
CN108804499B (zh) * 2018-04-03 2022-04-29 南昌奇眸科技有限公司 一种商标图像检索方法
CN108763263A (zh) * 2018-04-03 2018-11-06 南昌奇眸科技有限公司 一种商标检索方法
CN108763266B (zh) * 2018-04-03 2022-04-29 南昌奇眸科技有限公司 一种基于图像特征提取的商标检索方法
CN108845998B (zh) * 2018-04-03 2022-04-29 南昌奇眸科技有限公司 一种商标图像检索匹配方法
CN109308936B (zh) * 2018-08-24 2020-09-01 黑龙江省稻无疆农业科技有限责任公司 一种粮食作物产地的识别方法、识别装置及终端识别设备
CN109886897B (zh) * 2019-03-04 2023-04-18 重庆工商大学 一种高光谱图像解混设备
CN110246133B (zh) * 2019-06-24 2021-05-07 中国农业科学院农业信息研究所 一种玉米籽粒分类方法、装置、介质及设备
CN112668370B (zh) * 2019-10-16 2023-08-25 杭州海康威视数字技术股份有限公司 一种基于深度图像的生物特征活体识别检测方法、装置
CN113469224A (zh) * 2021-06-16 2021-10-01 浙江大学 一种基于卷积神经网络与特征描述算子相融合的大米分类方法
CN113409316B (zh) * 2021-08-19 2021-12-21 明品云(北京)数据科技有限公司 一种图像分类方法、装置、计算机可读存储介质及设备
WO2023044935A1 (zh) * 2021-09-27 2023-03-30 西门子股份公司 分割块状物体图像的方法、装置及计算机可读存储介质
CN115619784B (zh) * 2022-12-16 2023-06-02 福建帝视科技集团有限公司 一种基于深度特征记忆库的无监督缺陷检测方法及终端

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"HSV颜色空间及纹理特征映射方法研究";王兰莎等;《图像图形技术研究与应用》;20101231;第2.2节 *
"基于图像隐式语义分析与极限学习机的多生物特征识别";焦焰斌;《中国优秀硕士学位论文全文数据库 信息科技辑》;20131215(第12期);第3.3、4.2节 *
"基于高光谱成像技术的沙金杏成熟度判别";薛建新等;《农业工程学报》;20150615;第31卷(第11期);全文 *
"视频中基于LW-PGD和SVM的头肩部检测";钦爽等;《计算机应用研究》;20140331;第31卷(第3期);摘要、第1、2节 *

Also Published As

Publication number Publication date
CN105139023A (zh) 2015-12-09

Similar Documents

Publication Publication Date Title
CN105139023B (zh) 一种基于多尺度特征融合和极限学习机的种子识别方法
CN109857889B (zh) 一种图像检索方法、装置、设备及可读存储介质
CN111476827B (zh) 目标跟踪方法、系统、电子装置及存储介质
CN109325431B (zh) 草原放牧绵羊采食路径中植被覆盖度的检测方法及其装置
CN106503739A (zh) 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统
US8588519B2 (en) Method and system for training a landmark detector using multiple instance learning
CN108732172A (zh) 中药材质量评定方法、设备及介质
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN113435282B (zh) 基于深度学习的无人机影像麦穗识别方法
CN111666900B (zh) 基于多源遥感影像的土地覆盖分类图的获取方法和装置
CN104021396A (zh) 基于集成学习的高光谱遥感数据分类方法
CN110363246A (zh) 一种高时空分辨率植被指数ndvi的融合方法
Tu et al. Automatic building damage detection method using high-resolution remote sensing images and 3D GIS model
CN115439654B (zh) 动态约束下的弱监督农田地块精细化分割方法及系统
CN107895136A (zh) 一种煤矿区域识别方法及系统
CN107506769A (zh) 一种城市水体信息的提取方法及系统
CN105654452A (zh) 一种基于边缘结构的背景杂波度量方法
CN115661703A (zh) 一种基于深度学习的门店招牌信息提取的方法
CN116863341B (zh) 基于时间序列卫星遥感影像的作物分类和识别方法和系统
Engstrom et al. Evaluating the Relationship between Contextual Features Derived from Very High Spatial Resolution Imagery and Urban Attributes: A Case Study in Sri Lanka
CN112347926A (zh) 基于建筑形态分布的高分辨率影像城中村检测方法
CN109726679B (zh) 一种遥感分类误差空间分布制图方法
CN115147726B (zh) 城市形态图的生成方法、装置、电子设备和可读存储介质
CN113469019B (zh) 一种景观图像特征值计算方法、装置、设备及存储介质
CN109063749A (zh) 一种基于角点辐射域的鲁棒卷积核数量适配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant