CN110009000B - 基于adaboost+svm改进分类算法的粮堆目标检测方法 - Google Patents

基于adaboost+svm改进分类算法的粮堆目标检测方法 Download PDF

Info

Publication number
CN110009000B
CN110009000B CN201910179504.7A CN201910179504A CN110009000B CN 110009000 B CN110009000 B CN 110009000B CN 201910179504 A CN201910179504 A CN 201910179504A CN 110009000 B CN110009000 B CN 110009000B
Authority
CN
China
Prior art keywords
grain
grain pile
image
camera
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910179504.7A
Other languages
English (en)
Other versions
CN110009000A (zh
Inventor
王骄
程云龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeastern University China
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910179504.7A priority Critical patent/CN110009000B/zh
Publication of CN110009000A publication Critical patent/CN110009000A/zh
Application granted granted Critical
Publication of CN110009000B publication Critical patent/CN110009000B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,涉及粮仓机器人视觉技术领域。本发明步骤如下:步骤1:建立粮堆的识别模型;步骤2:通过图像采集设备采集一组粮仓实际场景图片;步骤3:将彩色图像转换为灰度图,将灰度图与识别模型进行对比,并储存成功检测出的候选区域;步骤4:将候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,对彩色图像进行二次判别,输出标注出框选区域的彩色图像;步骤5:通过彩色图像获得参数集,根据参数集计算出粮堆底部宽度,并储存粮堆的宽度、粮堆质心距相机的距离、粮堆质心与相机的夹角方位角。该方法实现了对粮堆的准确、快速地识别,同时也减少了人工平仓作业的成本。

Description

基于ADABOOST+SVM改进分类算法的粮堆目标检测方法
技术领域
本发明涉及粮仓机器人视觉技术领域,尤其涉及一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法。
背景技术
粮食储备关系到国家安全和社会稳定,粮食仓储技术创新和发展也格外备受关注。平整粮面作为粮食入仓即将进入常规储藏阶段的最后一个处理环节是至关重要的。粮面平整度直接关系到粮食储藏期间通风、熏蒸,粮温测控等储粮技术的实施效果,进而影响到粮食在储藏期的安全。
然而,我国目前粮食仓储的平仓工作,大多还保留着纯人工作业,造成平仓速度慢、劳动强度大、平仓效率低下,不能满足平仓作业的需要,甚至会对人的生命安全带来严重威胁,随着工业技术的不断革新,机器人悄然走进了粮油仓储行业。现阶段粮仓机器人在巡仓、检仓、报仓等功能上有了很大的进步,但是在平仓作业上,现阶段的机器人还无法实现全自动自主工作的功能,需要人工去远程操控,这样费时费力并且平仓效果不太理想。
自主平仓机器人在对粮仓进行翻平,首先要检测出粮堆所在的方位及距离。但由于粮仓内部光线不足、空间过大等原因,使得粮堆的检测变得困难。
发明内容
本发明要解决的技术问题是针对上述现有技术的不足,提供一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,实现了对粮堆的准确、快速地识别,同时也减少了人工平仓作业的成本。
为解决上述技术问题,本发明所采取的技术方案是:
本发明提供一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,包括以下步骤:
步骤1:建立粮堆的识别模型;
步骤2:通过图像采集设备采集一组粮仓实际场景图片;一组图片包括一张彩色图和一张深度图;
步骤3:对采集的彩色图像转换为灰度图,将转换后的灰度图与步骤1中获得的识别模型进行对比,并储存成功检测出的候选区域;
步骤3.1:将彩色图转换为灰度图,并提取图像的LBP特征;
步骤3.2:将图像的LBP特征与模型进行对比,直到检测不出粮堆为止,将所有成功检测的候选区域都存储在迭代器中,形成集合P;成功检测的标准为:设定允许检测出的粮堆框选区面积大小范围为(a1,b1)至(a2,b2),其中a1为最小范围的长度值,b1为最小范围的宽度值,a2为最大范围的长度值,b2为最大范围的宽度值,设定对比成功次数为n,每对比成功一次对候选区域进行尺寸缩小,缩小比例为ζ;
步骤3.4:判断步骤3.2中的集合P是否为空集或集合中样本数量少于预设样本数量S,是则执行步骤3.5;否则执行步骤4;
步骤3.5:将图像采集设备调整角度或位置,采集一组粮仓实际场景图片,包括一张彩色图和一张深度图;采集完成后执行步骤3.1。
步骤4:将步骤3中获得的候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,根据选择的f个粮堆对步骤1中的彩色图像按照判别条件进行二次判别,输出标注出框选区域的彩色图像,若判别失败则执行步骤3.5;
所述判别条件为:设置位于图像中心处宽度像素范围为(w1,w2)、高度像素范围为(h1,h2)的粮堆框选区域,其中w1为粮堆框选区宽度的最小像素值,w2为粮堆框选区宽度的最大像素值,h1为粮堆框选区高度的最小像素值,h2为粮堆框选区高度的最大像素值;所述粮堆框选区域中的粮堆候选区必须完整且数量大于等于1;
步骤5:通过步骤1中的彩色图和深度图获得参数集,根据参数集计算出粮堆底部宽度W,并储存粮堆的宽度W、粮堆质心距相机的距离Dc、粮堆质心与相机的夹角方位角θc
步骤5.1:首先将步骤1中的彩色图中的像素坐标点转换为深度图中的像素坐标点;再通过像素坐标系与世界坐标系之间的转换得到粮堆质心与摄像头的方位角θc和粮堆左下顶点与右下顶点之间的夹角θ;并提取出深度图像素坐标下的各个粮堆的质心坐标(x,y)、质心距相机距离Dc、左下顶点坐标(x1,y1)、左下顶点距相机距离Dl、右下顶点坐标(x2,y2)、右下顶点距相机距离Dr,将上述参数形成参数集;
步骤5.2:根据左下顶点距相机距离Dl,右下顶点距相机距离Dr,左下顶点的与右下顶点之间的夹角θ,计算出粮堆底部宽度W,计算公式如下:
Figure BDA0001990704050000021
式中:Dl表示粮堆左下顶点距相机距离;Dr表示粮堆右下顶点距相机距离;
θ表示粮堆左下顶点与右下顶点之间的夹角;abs表示计算值取绝对值。
所述步骤1的具体步骤如下:
步骤1.1:数据集的处理;根据采集条件采集包括正反两例的数据集,其中正例为粮堆的图像;反例为除粮堆之外的图像;所述采集条件为正反例数据集制作要满足反例数量大于正例图像,其比例为:反例:正例>10;
步骤1.2:建立粮堆的识别模型;模型的建立方法如下:选出每级SVM分类模型中共同分错的样本,将正例错分反例的样本个数记为Np-n,反例错分为正例的个数记为Nn-p,然后分别算出正例错分反例样本向量特征的聚类中心Cp-n和反例错分为正例样本向量特征的聚类中心Cn-p
随机提取框选区域的向量特征,根据欧氏距离公式计算离上述两类聚类中心的距离;权重优化公式分为下列两种情况,详情如下:
情况一:划分为Cp-n
投票正例分类器权重优化公式为:
Figure BDA0001990704050000031
投票反例分类器权重优化公式为:
Figure BDA0001990704050000032
情况二:划分为Cn-p
投票正例分类器权重优化公式为:
Figure BDA0001990704050000033
投票反例分类器权重优化公式为:
Figure BDA0001990704050000034
式中:ηi表示投票正例分类器的权重;ηj表示投票反例分类器的权重;Np-n表示各级分类器共同将正例错分为反例的个数;Nn-p表示各级分类器共同将反例错分为正例的个数;N表示样本总个数;N+表示分类器投票为正例的个数;N-表示分类器投票为反例的个数;
所述步骤4的具体步骤如下:
步骤4.1:迭代器中粮堆候选区按粮堆相似度大小降次排序进行存储,通过筛选,选择出相似度最大的f个粮堆候选区,其中f≤S;
步骤4.2:根据选择的f个粮堆对步骤3.1中的彩色图像按照判别条件进行二次判别,若判别成功将排除粮堆框选区以外的粮堆候选区,输出标记粮堆框选区域的彩色图像;若判别失败则执行步骤3.5。
采用上述技术方案所产生的有益效果在于:本发明提供的一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法;该方法填补了粮仓中对粮堆检测方法的空白,充分发挥了全自主平仓机器人的智能性和安全性的优势。该发明运用的粮堆检测的模型训练方法以及粮堆目标检测系统都具有开创性的尝试。相比于传统的人工或人工远程控制机器人平仓过程,具有独创性多、识别准确度高、可靠性强等特点,实现了对粮堆的准确、快速地识别,同时也减少了人工平仓作业的成本。
附图说明
图1为本发明实施例提供的粮堆目标检测方法的流程图;
图2为本发明实施例提供的使用的ADABOOST+SVM改进分类算法原理图;
图3为本发明实施例提供的粮堆二次判别的流程图;
图4为本发明实施例提供的粮堆检测实验效果图;
图5为本发明实施例提供的输出的标记粮堆框选区域的彩色图;
图6为本发明实施例提供的粮堆宽度图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本实施例的方法如下所述。
本发明提供一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,包括以下步骤:
步骤1:建立粮堆的识别模型;
步骤1.1:数据集的处理;根据采集条件采集包括正反两例的数据集;其中正例为粮堆的图像,由于自然粮堆的横纵比例有一定规律,本实施例中经过测量我们在手动标记正例粮堆框选区域的时候设置的范围统一为(300,100),由于选取的图像特征为LBP,正例数据集背景的纹理不能过于光滑;反例为除粮堆之外的图像,包含的分辨率不固定(也可以是同一幅照片的几种分辨率形式);所述采集条件为要满足反例数量大于正例图像,其比例为:反例:正例>10;
步骤1.2:建立粮堆的识别模型;模型的建立方法选用ADABOOST+SVM,如图2所示,方法如下:选出每级SVM分类模型中共同分错的样本(两类:即将正例错分为反例、反例错分为正例),,将正例错分反例的样本个数记为Np-n,反例错分为正例的个数记为Nn-p,然后分别算出正例错分反例样本向量特征的聚类中心Cp-n和反例错分为正例样本向量特征的聚类中心Cn-p
随机提取框选区域的向量特征,根据欧氏距离公式计算离上述两类聚类中心的距离;例如划分为Cn-p类,表示在此区域各级分类器易将反例错分为正例,这就需要减小投票为正例的各级分类器权重,增加投票为反例的各级分类器权重,反之亦然;权重优化公式分为下列两种情况,详情如下:
情况一:划分为Cp-n
投票正例分类器权重优化公式为:
Figure BDA0001990704050000051
投票反例分类器权重优化公式为:
Figure BDA0001990704050000052
情况二:划分为Cn-p
投票正例分类器权重优化公式为:
Figure BDA0001990704050000053
投票反例分类器权重优化公式为:
Figure BDA0001990704050000054
式中:ηi表示投票正例分类器的权重;ηj表示投票反例分类器的权重;Np-n表示各级分类器共同将正例错分为反例的个数;Nn-p表示各级分类器共同将反例错分为正例的个数;N表示样本总个数;N+表示分类器投票为正例的个数;N-表示分类器投票为反例的个数;
步骤2:通过图像采集设备采集一组粮仓实际场景图片;一组图片包括一张彩色图和一张深度图;
本实施例中图像采集设备为Kinect v2;彩色图的分辨率是1920x1080像素,深度图的分辨率为512x424像素。
步骤3:对采集的彩色图像转换为灰度图,将转换后的灰度图与步骤1中获得的识别模型进行对比,并储存成功检测出的候选区域;
步骤3.1:将彩色图转换为灰度图,并提取图像的LBP特征;
步骤3.2:将图像的LBP特征与模型进行对比,直到检测不出粮堆为止,将所有成功检测的候选区域都存储在迭代器中,形成集合P;成功检测的标准为:设定允许检测出的粮堆框选区面积大小范围为(a1,b1)至(a2,b2),其中a1为最小范围的长度值,b1为最小范围的宽度值,a2为最大范围的长度值,b2为最大范围的宽度值,设定对比成功次数为n,每对比成功一次对候选区域进行尺寸缩小,缩小比例为ζ;
步骤3.4:判断步骤3.2中的集合P是否为空集或集合中样本数量少于预设样本数量S,是则执行步骤3.5;否则执行步骤4;
步骤3.5:将图像采集设备调整角度或位置,采集一组粮仓实际场景图片,包括一张彩色图和一张深度图;采集完成后执行步骤3.1。
步骤4:将步骤3中获得的候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,根据选择的f个粮堆对步骤1中的彩色图像按照判别条件进行二次判别,输出标注出框选区域的彩色图像,若判别失败则执行步骤3.5;
步骤4.1:迭代器中粮堆候选区按粮堆相似度大小降次排序进行存储,通过筛选,选择出相似度最大的f个粮堆候选区,其中f≤S;
步骤4.2:根据选择的f个粮堆对步骤3.1中的彩色图像按照判别条件进行二次判别,若判别成功将排除粮堆框选区以外的粮堆候选区,输出标记粮堆框选区域的彩色图像;若判别失败则执行步骤3.5,如图3所示。
所述判别条件为:设置位于图像中心处宽度像素范围为(w1,w2)、高度像素范围为(h1,h2)的粮堆框选区域,其中w1为粮堆框选区宽度的最小像素值,w2为粮堆框选区宽度的最大像素值,h1为粮堆框选区高度的最小像素值,h2为粮堆框选区高度的最大像素值;所述粮堆框选区域中的粮堆候选区必须完整且数量大于等于1;
步骤5:通过步骤1中的彩色图和深度图获得参数集,根据参数集计算出粮堆底部宽度W,并储存粮堆的宽度W、粮堆质心距相机的距离Dc、粮堆质心与相机的夹角方位角θc
步骤5.1:首先将步骤1中的彩色图中的像素坐标点转换为深度图中的像素坐标点;再通过像素坐标系与世界坐标系之间的转换得到粮堆质心与摄像头的方位角θc和粮堆左下顶点与右下顶点之间的夹角θ;并提取出深度图像素坐标下的各个粮堆的质心坐标(x,y)、质心距相机距离Dc、左下顶点坐标(x1,y1)、左下顶点距相机距离Dl、右下顶点坐标(x2,y2)、右下顶点距相机距离Dr,将上述参数形成参数集,如图4所示;
步骤5.2:根据左下顶点距相机距离Dl,右下顶点距相机距离Dr,左下顶点的与右下顶点之间的夹角θ,计算出粮堆底部宽度W,计算公式如下:
Figure BDA0001990704050000071
式中:Dl表示粮堆左下顶点距相机距离;Dr表示粮堆右下顶点距相机距离;
θ表示粮堆左下顶点与右下顶点之间的夹角;abs表示计算值取绝对值。
本实施例的中数据集包括33张分辨率为300x100的粮堆框选区域作为正例;反例一共为350张分辨率不同的场景(包含同一幅图的几种分辨率模式)。
在改进ADABOOST+SVM方法中,共选用12级SVM分类器(级数过高会导致过拟合现象),在各级SVM分类器中共同将正例误分为反例的个数Np-n=5;投票正例的个数N+=5;投票反例的个数N-=7;则每一个投票正例分类器的权重优化计算为:
Figure BDA0001990704050000072
投票反例分类器权重优化计算为:
Figure BDA0001990704050000073
首先利用相机Kinect v2采集一组深度图和彩色图片,对分辨率为1920x1080彩色图片进行灰度空间转换并提取图像LBP特征。对彩色图片进行框选与模型进行比对,为了增强识别的准确性,每次要对图像进行缩放。例如缩放比例ζ设置为1.1,就是每次图像以上一幅图像为基础进行1.1的比例缩放,如果框选区的匹配成功次数为n=3则符合要求,同时对框选区面积范围进行一定的设置,设面积范围为(120,60)至(300,100),表示框选区像素长乘高最小是120x60像素点,最大为300x100像素点,长乘高的比例设置要参考实际粮堆长和高的比例范围。如果满足以上条件的框选区域就会存储在迭代器里面。上述过程为粮堆的第一次判别过程;
由于迭代器中粮堆候选区是按粮堆相似度大小降次排序进行存储的,我们只需要留下相似度较高的几个区域,例如我们想要找出3个,则在迭代器中会存储前三个粮堆框选区域L1、L2、L3。同时二次判别过程会将图像四周边缘的粮堆候选区排除掉,一般四周的区域离机器人距离较远,到达较为困难。设置粮堆框选区位于图像中心处宽度像素范围为(400,1520)、高度像素范围(400,850)进行筛选,此时满足条件的只有L1,则最终只输出将L1框选的彩色图片,如图5所示。上述过程为第二次判别过程。
现只对框选区L1进行信息提取,首先对L1储存左下顶点和右下顶点在彩色图像上的坐标转换到深度图坐标下,并且在深度图中得到粮堆质心距相机距离。例如此时的左下顶点坐标为[188,304],右下顶点坐标为[352,304],质心距离为0.874m,左下顶点距相机为0.893m,右下顶点距相机为0.929m,通过像素坐标系与世界坐标系之间的转换可以得到粮堆质心以相机中心的方位角约为+1.38度(+表示相机中心右侧,-表示相机中心左侧),左下顶点与右下顶点之间的夹角约为25.96度。通过计算公式可以得到粮堆的宽度,公式如下:
Figure BDA0001990704050000081
式中:Dl表示粮堆左下顶点距相机距离;Dr表示粮堆右下顶点距相机距离;
θ表示粮堆左下顶点与右下顶点之间的夹角;abs表示计算值取绝对值。则此时的粮堆宽度为为0.4108m,如图6所示,本实施例通过用米尺手动测量粮堆宽度,证实了本方法的有效性。粮堆信息以数组的形式进行存储:[0.874,1.38,0.4108],分别表示粮堆质心距相机的距离、方位以及粮堆的宽度。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (2)

1.一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,其特征在于:包括以下步骤:
步骤1:建立粮堆的识别模型;
步骤1.1:数据集的处理;根据采集条件采集包括正反两例的数据集,其中正例为粮堆的图像;反例为除粮堆之外的图像;所述采集条件为正反例数据集制作要满足反例数量大于正例图像,其比例为:反例:正例>10;
步骤1.2:建立粮堆的识别模型;模型的建立方法如下:选出每级SVM分类模型中共同分错的样本,将正例错分反例的样本个数记为Np-n,反例错分为正例的个数记为Nn-p,然后分别算出正例错分反例样本向量特征的聚类中心Cp-n和反例错分为正例样本向量特征的聚类中心Cn-p
随机提取框选区域的向量特征,根据欧氏距离公式计算离上述两类聚类中心的距离;权重优化公式分为下列两种情况,详情如下:
情况一:划分为Cp-n
投票正例分类器权重优化公式为:
Figure FDA0003743611490000011
投票反例分类器权重优化公式为:
Figure FDA0003743611490000012
情况二:划分为Cn-p
投票正例分类器权重优化公式为:
Figure FDA0003743611490000013
投票反例分类器权重优化公式为:
Figure FDA0003743611490000014
式中:ηi表示投票正例分类器的权重;ηj表示投票反例分类器的权重;Np-n表示各级分类器共同将正例错分为反例的个数;Nn-p表示各级分类器共同将反例错分为正例的个数;N表示样本总个数;N+表示分类器投票为正例的个数;N-表示分类器投票为反例的个数;
步骤2:通过图像采集设备采集一组粮仓实际场景图片;一组图片包括一张彩色图和一张深度图;
步骤3:对采集的彩色图像转换为灰度图,将转换后的灰度图与步骤1中获得的识别模型进行对比,并储存成功检测出的候选区域;
步骤3.1:将彩色图像转换为灰度图,并提取图像的LBP特征;
步骤3.2:将图像的LBP特征与模型进行对比,直到检测不出粮堆为止,将所有成功检测的候选区域都存储在迭代器中,形成集合P;成功检测的标准为:设定允许检测出的粮堆框选区面积大小范围为(a1,b1)至(a2,b2),其中a1为最小范围的长度值,b1为最小范围的宽度值,a2为最大范围的长度值,b2为最大范围的宽度值,设定对比成功次数为n,每对比成功一次对候选区域进行尺寸缩小,缩小比例为ζ;
步骤3.4:判断步骤3.2中的集合P是否为空集或集合中样本数量少于预设样本数量S,是则执行步骤3.5;否则执行步骤4;
步骤3.5:将图像采集设备调整角度或位置,采集一组粮仓实际场景图片,包括一张彩色图和一张深度图;采集完成后执行步骤3.1;
步骤4:将步骤3中获得的候选区域按照相似度大小排列,选择出相似度最大的f个粮堆,根据选择的f个粮堆对步骤1中的彩色图像按照判别条件进行二次判别,输出标注出框选区域的彩色图像,若判别失败则执行步骤3.5;
所述判别条件为:设置位于图像中心处宽度像素范围为(w1,w2)、高度像素范围为(h1,h2)的粮堆框选区域,其中w1为粮堆框选区宽度的最小像素值,w2为粮堆框选区宽度的最大像素值,h1为粮堆框选区高度的最小像素值,h2为粮堆框选区高度的最大像素值;所述粮堆框选区域中的粮堆候选区必须完整且数量大于等于1;
步骤5:通过步骤1中的彩色图和深度图获得参数集,根据参数集计算出粮堆底部宽度W,并储存粮堆的宽度W、粮堆质心距相机的距离Dc、粮堆质心与相机的夹角方位角θc
步骤5.1:首先将步骤1中的彩色图中的像素坐标点转换为深度图中的像素坐标点;再通过像素坐标系与世界坐标系之间的转换得到粮堆质心与摄像头的方位角θc和粮堆左下顶点与右下顶点之间的夹角θ;并提取出深度图像素坐标下的各个粮堆的质心坐标(x,y)、质心距相机距离Dc、左下顶点坐标(x1,y1)、左下顶点距相机距离Dl、右下顶点坐标(x2,y2)、右下顶点距相机距离Dr,将上述参数形成参数集;
步骤5.2:根据左下顶点距相机距离Dl,右下顶点距相机距离Dr,左下顶点的与右下顶点之间的夹角θ,计算出粮堆底部宽度W,计算公式如下:
Figure FDA0003743611490000031
式中:Dl表示粮堆左下顶点距相机距离;Dr表示粮堆右下顶点距相机距离;
θ表示粮堆左下顶点与右下顶点之间的夹角;abs表示计算值取绝对值。
2.根据权利要求1所述的一种基于ADABOOST+SVM改进分类算法的粮堆目标检测方法,其特征在于:所述步骤4的具体步骤如下:
步骤4.1:迭代器中粮堆候选区按粮堆相似度大小降次排序进行存储,通过筛选,选择出相似度最大的f个粮堆候选区,其中f≤S;
步骤4.2:根据选择的f个粮堆对步骤3.1中的彩色图像按照判别条件进行二次判别,若判别成功将排除粮堆框选区以外的粮堆候选区,输出标记粮堆框选区域的彩色图像;若判别失败则执行步骤3.5。
CN201910179504.7A 2019-03-11 2019-03-11 基于adaboost+svm改进分类算法的粮堆目标检测方法 Active CN110009000B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910179504.7A CN110009000B (zh) 2019-03-11 2019-03-11 基于adaboost+svm改进分类算法的粮堆目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910179504.7A CN110009000B (zh) 2019-03-11 2019-03-11 基于adaboost+svm改进分类算法的粮堆目标检测方法

Publications (2)

Publication Number Publication Date
CN110009000A CN110009000A (zh) 2019-07-12
CN110009000B true CN110009000B (zh) 2022-09-02

Family

ID=67166691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910179504.7A Active CN110009000B (zh) 2019-03-11 2019-03-11 基于adaboost+svm改进分类算法的粮堆目标检测方法

Country Status (1)

Country Link
CN (1) CN110009000B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116358500B (zh) * 2023-06-01 2023-08-18 中粮资本科技有限责任公司 一种基于图像分析检测粮堆形变的方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923063A (zh) * 2010-08-19 2010-12-22 河南工业大学 一种粮堆中异物的识别方法
CN102024030A (zh) * 2010-11-30 2011-04-20 辽宁师范大学 基于最大期望参数估计的多分类器集成方法
CN103235954A (zh) * 2013-04-23 2013-08-07 南京信息工程大学 一种基于改进AdaBoost算法的地基云图识别方法
CN106295460A (zh) * 2015-05-12 2017-01-04 株式会社理光 人的检测方法及设备
CN106650668A (zh) * 2016-12-27 2017-05-10 上海葡萄纬度科技有限公司 一种实时检测可移动目标物的方法及系统
WO2017187249A1 (en) * 2016-04-26 2017-11-02 Agco Corporation A combine harvester having a grain bin
CN108491498A (zh) * 2018-03-20 2018-09-04 山东神博数字技术有限公司 一种基于多特征检测的卡口图像目标搜索方法
CN108759980A (zh) * 2018-04-03 2018-11-06 长沙沃哲信息技术有限公司 一种粮库管理的方法、设备及计算机可读存储介质
CN108921201A (zh) * 2018-06-12 2018-11-30 河海大学 基于特征组合与cnn的大坝缺陷识别与分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170332B2 (en) * 2009-10-07 2012-05-01 Seiko Epson Corporation Automatic red-eye object classification in digital images using a boosting-based framework

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101923063A (zh) * 2010-08-19 2010-12-22 河南工业大学 一种粮堆中异物的识别方法
CN102024030A (zh) * 2010-11-30 2011-04-20 辽宁师范大学 基于最大期望参数估计的多分类器集成方法
CN103235954A (zh) * 2013-04-23 2013-08-07 南京信息工程大学 一种基于改进AdaBoost算法的地基云图识别方法
CN106295460A (zh) * 2015-05-12 2017-01-04 株式会社理光 人的检测方法及设备
WO2017187249A1 (en) * 2016-04-26 2017-11-02 Agco Corporation A combine harvester having a grain bin
CN106650668A (zh) * 2016-12-27 2017-05-10 上海葡萄纬度科技有限公司 一种实时检测可移动目标物的方法及系统
CN108491498A (zh) * 2018-03-20 2018-09-04 山东神博数字技术有限公司 一种基于多特征检测的卡口图像目标搜索方法
CN108759980A (zh) * 2018-04-03 2018-11-06 长沙沃哲信息技术有限公司 一种粮库管理的方法、设备及计算机可读存储介质
CN108921201A (zh) * 2018-06-12 2018-11-30 河海大学 基于特征组合与cnn的大坝缺陷识别与分类方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
A site-directed CO2 detection method for monitoring the spoilage of stored grains by insects and fungi in Chinese horizontal warehouses;Shuai-Bing Zhang等;《Journal of Stored Products Research》;20141031;第59卷;第146-151页 *
GENDER IDENTIFICATION IN UNCONSTRAINED SCENARIOS USING SELF-SIMILARITY OF GRADIENTS FEATURES;Hong Liu等;《ICIP》;20141231;第5911-5915页 *
基于Kinect传感器的移动机器人环境检测方法;张博;《电子科技》;20180715;第31卷(第7期);第89-95页 *
基于深度学习的储粮害虫检测方法研究;程尚坤;《中国优秀硕士学位论文全文数据库 农业科技辑》;20180215(第(2018)02期);D045-22 *
基于温度场云图的储粮数量监控方法研究;崔宏伟等;《农业工程学报》;20190228;第35卷(第4期);第290-298页 *
基于计算机视觉的储粮活虫检测系统软件设计;张红涛等;《农业机械学报》;20120825(第08期);第180-186页 *
基于遗传改进人工势场法的全区域平粮机器人路径规划;蒋林等;《中国农机化学报》;20150930;第36卷(第5期);第220-243页 *
改进的AdaBoost算法与SVM的组合分类器;李亚军等;《计算机工程与应用》;20081231;第44卷(第32期);第140-142页 *
智慧粮库控制系统的设计与实现;杨恩泽;《中国优秀硕士学位论文全文数据库 农业科技辑》;20180615(第(2018)06期);D045-2 *

Also Published As

Publication number Publication date
CN110009000A (zh) 2019-07-12

Similar Documents

Publication Publication Date Title
CN103426186B (zh) 一种改进的surf快速匹配方法
US8041080B2 (en) Method for recognizing traffic signs
CN102214309B (zh) 一种基于头肩模型的特定人体识别方法
CN107103317A (zh) 基于图像融合和盲反卷积的模糊车牌图像识别算法
CN101807257A (zh) 图像标签信息识别方法
CN102196182A (zh) 逆光检测设备及逆光检测方法
CN103984953A (zh) 基于多特征融合与Boosting决策森林的街景图像的语义分割方法
CN106529461A (zh) 一种基于积分特征通道和svm训练器的车型识别算法
US20090169066A1 (en) Multidirectonal face detection method
CN106503748A (zh) 一种基于s‑sift特征和svm训练器的车型识别算法
CN102147867B (zh) 一种基于主体的国画图像和书法图像的识别方法
CN102184411B (zh) 基于彩色信息的尺度不变特征点描述和匹配方法
CN104966348B (zh) 一种票据图像要素完整性检测方法及系统
CN109886086B (zh) 基于hog特征和线性svm级联分类器的行人检测方法
CN105447492A (zh) 一种基于二维局部二值模式的图像描述方法
CN103413312B (zh) 基于邻里成分分析和尺度空间理论的视频目标跟踪方法
CN107240112A (zh) 一种复杂场景下个体x角点提取方法
CN109360179A (zh) 一种图像融合方法、装置及可读存储介质
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
CN103353941A (zh) 基于视角分类的自然标志物注册方法
CN110009000B (zh) 基于adaboost+svm改进分类算法的粮堆目标检测方法
CN116740758A (zh) 一种防止误判的鸟类图像识别方法及系统
CN111950654A (zh) 基于svm分类的魔方色块颜色还原方法
CN113505808B (zh) 基于深度学习用于配电类设施开关检测识别算法
CN108154130A (zh) 一种目标图像的检测方法、装置及存储介质、机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant