CN111754498B - 一种基于YOLOv3的传送带托辊检测方法 - Google Patents
一种基于YOLOv3的传送带托辊检测方法 Download PDFInfo
- Publication number
- CN111754498B CN111754498B CN202010611209.7A CN202010611209A CN111754498B CN 111754498 B CN111754498 B CN 111754498B CN 202010611209 A CN202010611209 A CN 202010611209A CN 111754498 B CN111754498 B CN 111754498B
- Authority
- CN
- China
- Prior art keywords
- yolov
- training
- data set
- yolov3
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 66
- 238000012549 training Methods 0.000 claims abstract description 54
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 238000011056 performance test Methods 0.000 claims abstract description 4
- 238000002372 labelling Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000052 comparative effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 abstract description 5
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 238000005457 optimization Methods 0.000 description 7
- 238000003064 k means clustering Methods 0.000 description 4
- 238000011897 real-time detection Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明涉及一种基于YOLOv3的传送带托辊检测方法,属于计算机视觉和深度学习领域,通过将YOLOv3的特征提取网络darknet53更换为轻量级特征提取网络Mobilenet,将YOLOv3损失函数中的边框损失和中心损失替换为GIOU损失,构建改进YOLOv3‑Mobilenet的皮带托辊检测模型。在训练集上训练所述模型,在测试集上测试其性能,将性能测试结果和其他模型性能进行比较。本发明提出的目标识别方法泛化能力强,实现了对托辊的有效检测,为后续判别皮带是否脱离轨道及监测运行状态提供了有效保障,减小参数计算量的同时,提高了原YOLOv3目标检测模型的速度及准确度。
Description
技术领域
本发明属于计算机视觉和深度学习领域,特别是涉及一种传送带托辊运行状态的检测方法。
背景技术
托辊是传送带的重要组成部分,主要作用是支撑传送带和物料重量,由于传送带托辊损耗及故障率较高,托辊容易发生形变而造成较大的安全隐患;长期以来,托辊故障依靠人工巡检,工作强度大且漏检严重,无法对其运行状态进行有效监测;因此,实现传送带托辊的智能检测,对后续托辊的故障诊断以及生产线的智能化改造具有重要意义。
目前主流的基于深度学习的目标检测方法主要分为以候选框和以回归方法为基础的两大类方法。基于候选框的方法主要有R-CNN、Fast-RCNN、Faster-RCNN等方法,这类方法虽然检测精度高,但是计算量大,且检测速度慢,无法实时检测目标;基于回归的目标检测方法,主要有SSD和YOLO两大系列方法,SSD算法虽然从不同尺寸提取特征,但没有考虑不同尺寸之间的关系,只是单纯的提取,特征表达能力不强,而YOLOv3采用FPN结构,利用多尺寸特征融合进行预测,可同时预测检测对象的类别和位置,但YOLOv3对小目标检测准确率不高,且训练参数较大,耗费计算资源,在移动端和嵌入式端无法直接使用。
发明内容
为了解决现有技术中的不足,本发明的目的在于提供一种基于改进YOLOv3-mobilenet的传送带托辊运行状态检测方法,所述检测方法能够实现传送带托辊的实时性检测,旨在保证提升托辊检测速度和准确率的同时,尽可能的减小模型参数量,用以加快模型的部署。
为了实现上述目的,本发明采用的具体方案为:
一种基于YOLOv3的传送带托辊检测方法,包括以下步骤:
S1、在不同环境下采集皮带托辊图片,制作初始样本数据集;
S2、对步骤S1得到的初始样本数据集中的图片数据进行预处理及数据增强,得到最终样本数据集;
S3、对步骤S2得到的最终样本数据集进行标注,并划分为训练集、测试集和验证集;
S4、构建YOLOv3-mobilenet目标检测模型;
S5、将步骤S4得到的YOLOv3-mobilenet目标检测模型中的作为定位损失的边框损失和中心点损失改为GIOU损失,得到改进YOLOv3-Mobilenet目标检测模型;
S6、在训练集上训练改进YOLOv3-mobilenet目标检测模型,并在测试集上测试改进YOLOv3-mobilenet算法性能;
S7、将步骤S6得到的改进YOLOv3-mobilenet目标检测模型在测试集上的性能测试结果与YOLOv3-mobilenet、YOLOv3、SSD进行比较,得到性能比较结果;
作为对上述方案的进一步优化,步骤S1具体包括:
S11、通过在皮带两侧不同位置安装摄像头,实时拍摄皮带转动情况下托辊的图片信息,获得托辊视频;
S12、将S11获取到的托辊视频进行分帧处理,提取每一帧的图像,得到不同时间段的托辊图像序列集;
S13、筛选S12得到的序列集,选取不同光照、不同时间段、不同天气环境下的托辊图像序列集,得到初始样本数据集。
作为对上述方案的进一步优化,步骤S2具体包括:对步骤S1得到的初始样本数据集进行处理操作,扩充数据集,进而得到最终样本数据集;所述处理操作包括但不限于平移、旋转、调整饱和度和增加噪声。
作为对上述方案的进一步优化,步骤S3具体包括:利用Labelimg标注软件对最终样本数据集进行标注,共两个类别,分别是uproller和bufferroller,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练数据、评估数据和测试数据。
作为对上述方案的进一步优化,步骤S4具体包括:构建轻量化Mobilenet网络代替原有的darknet53进行特征提取,由keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型。
作为对上述方案的进一步优化,步骤S5具体包括:利用Kmeans聚类算法对训练集中手工标记的目标框进行聚类,得到聚类的初始anchor,训练过程中,更改定位损失的边框损失和中心点损失为GIOU损失,得到改进YOLOv3-Mobilenet目标检测模型;通过更改定位损失的边框损失和中心点损失为GIOU损失,以提高预测框和真实框不相交情况下的关注度,进而提高检测精度。
作为对上述方案的进一步优化,步骤S6具体包括:
S61、采取mobilenet在Image数据集上的预训练权重文件,在训练集上训练模型并保存最终训练权重;
S62、训练结束后,将测试集输入到上述训练好的网络模型中,经过卷积层、池化层、mobilenet网络结构及上采样层,得到多尺度特征图;
S63、将特征图中的预测结果分别与真实框计算IOU值,然后与IOU阈值进行对比,筛选出大于IOU阈值的预测框;
S64、将步骤S63得到的结果通过NMS处理去除冗余检测框后,挑选IOU阈值最大的预测框作为最终识别结果。
作为对上述方案的进一步优化,步骤S7包括:通过与YOLOv3、YOLOv3-mobilenet、SSD对比,在自制传送带托辊数据集和官方VOC2007公共数据集上进行训练并对比预测,从精度和速度验证有效性。
有益效果:
本发明针对现有方法对于托辊在复杂环境下监测速度慢、准确率不够精确的问题,将YOLOv3的特征提取网络darknet53替换为轻量级网络mobilenet以提高检测速度;将YOLOv3-mobilenet网络损失函数中的定位损失部分,包括中心点损失和边框损失,替换为GIOU损失,增加模型对两框不相交部分的关注度,用以提高检测精度。此网络模型有如下优点:首先,此网络模型泛化能力强,可以满足托辊的多类别检测;另外,此网络模型可极大提高检测速度,满足托辊的实时性检测需求;最后,在满足实时性检测需求的同时,提高了检测的精确度,满足了检测的精确度要求。运用本申请提出的托辊识别方法可以将摄像头记录仪等工具采集到的实时皮带视频图像进行快速、实时、精确的处理,为后续传送带运行状态监测提供科学依据。
附图说明
图1是本发明系统训练及测试整体流程图;
图2是本发明改进的mobilenet结构中主要构成单元深度可分离卷积的结构图;
图3是本发明所述YOLOv3-mobilenet的整体结构图。
具体实施方式
一种基于改进YOLOv3-mobilenet轻量级框架的传送带托辊识别方法,包括如下步骤:
S1、在不同光照、温度等环境下采集皮带托辊图片,制作初始样本数据集;具体而言,步骤S1包括:
S11、通过在皮带两侧不同位置安装摄像头,实时拍摄皮带转动情况下托辊的图片信息;
S12、将获取到的托辊视频进行分帧处理,提取每一帧的图像,得到不同时间段的托辊图像序列集;
S13、筛选步骤S12得到的序列集,选取不同光照、不同时间段、不同天气等环境下的托辊图像序列集;得到初始样本数据集。
S2、对初始样本数据集进行预处理和数据增强,得到最终样本数据集;具体步骤包括:对步骤S1得到的初始数据集进行平移、旋转和调整饱和度及增加噪声等操作来扩充数据集,进而得到最终样本数据集。
S3、对步骤S2得到的最终样本数据集进行标注,并划分为训练集、测试集和验证集;具体而言,步骤S3包括:利用Labelimg标注软件对样本数据集进行标注,共两个类别,分别是uproller和bufferroller,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练数据、评估数据和测试数据。
S4、构建改进YOLOv3-mobilenet目标检测模型;具体而言,步骤S4包括:
S41、由keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型,用轻量化mobilenet网络代替原darknet53进行特征提取;
S42、通过更改YOLOv3-mobilenet模型中的定位损失,即将边框损失和中心点损失改为GIOU损失,构建改进YOLOv3-mobilenet目标检测模型;更改YOLOv3-mobilenet模型中的定位损失是为了提高预测框和真实框不相交情况下的关注度,进而提高检测精度。
S5、训练并保存权重,利用测试集检测改进YOLOv3-mobilenet目标检测模型性能指标,得到检测精度map,具体而言,步骤S5包括:
S51、在S3得到的训练数据集上,利用K-means聚类方法进行皮带托辊环境中的anchorbox值的计算,步骤如下:读取已标注好的训练数据集,随机取出其中一个图片的宽度和高度值作为坐标点并作为初始聚类中心,再使用K-means聚类方法进行迭代计算得到具体的anchorbox值;
S52、设置训练超参数和网络参数,采取mobilenet在Image数据集上的预训练权重文件,在训练集上训练模型并保存最终训练权重;
S53、利用最终生成的权重文件,将测试集输入到以上网络模型中,经卷积层、池化层、mobilenet网络结构及上采样层,得到多尺度特征图;
S54、将特征图中的预测结果分别与真实框计算IOU值,然后与IOU阈值进行对比,筛选出大于IOU阈值的预测框;
S55、将步骤S54得到的结果通过NMS处理去除冗余检测框后,挑选IOU阈值最大的预测框作为最终识别结果。
S56、针对单个类别检测结果与真实框进行对比,计算单个类别的精确度,然后将所有类别的精确度求和取平均,得出map值。
S6、为验证所提方法的有效性,分别在公共数据集VOC2007和自制的传送带托辊数据集上,训练并测试YOLOv3、YOLOv3-mobilenet、SSD算法模型,并与所提算法进行对比,分析并比较性能。
下面将结合具体的实施例,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例1
如图1所示为本发明的训练及测试的整体流程图,具体包括如下步骤:
S1、在训练之前,首先要准备训练所需的数据集,在不同光照、温度等环境下采集皮带托辊图片,制作初始样本数据集;具体而言,步骤S1包括:
S11、通过在皮带两侧不同位置安装摄像头,实时拍摄皮带转动情况下托辊的图片信息;
S12、将获取到的托辊视频进行分帧处理,提取每一帧的图像,得到不同时间段的托辊图像序列集;
S13、筛选步骤S12得到的序列集,选取不同光照、不同时间段、不同天气等环境下的托辊图像序列集;得到初始样本数据集。
S2、对初始样本数据集进行预处理和数据增强,得到最终样本数据集;具体步骤包括:对步骤S1得到的初始数据集进行平移、旋转和调整饱和度及增加噪声等操作来扩充数据集,进而得到最终样本数据集。
S3、对步骤S2得到的最终样本数据集进行标注,并划分为训练集、测试集和验证集;具体而言,步骤S3包括:利用Labelimg标注软件对样本数据集进行标注,共两个类别,分别是uproller和bufferroller,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练数据、评估数据和测试数据。
S4、利用K-means聚类方法进行皮带托辊环境中的anchorbox值的计算,步骤如下:读取已标注好的训练数据集,随机取出其中一个图片的宽度和高度值作为坐标点并作为初始聚类中心,再使用K-means聚类方法进行迭代计算得到具体的anchorbox值。
S5、构建改进的YOLOv3-mobilenet目标检测模型;具体而言,步骤S5包括:
S51、由keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型,用轻量化mobilenet网络代替原darknet53进行特征提取。Mobilenet减小卷积计算量的最重要原因为其内用深度可分离卷积替代原卷积层,对比图如图2所示,将一层普通卷积改为一层深度卷积和一层可分离卷积,假设一次卷积计算量变为原来的L倍,则其中N为通道数,DK为深度卷积的卷积核大小。
YOLOv3-mobilenet网络结构如图3所示,由图可知,若把深度卷积和点卷积看作不同的层的话,mobilenet包含28层网络,第一个卷积为传统卷积,之后全部使用depth-wiseconvolution和point-wise convolution。用mobilenet替换darknet-53作特征提取,并保留YOLOv3的FPN结构,分别从mobilenet的第7、21和28层输出13*13、26*26、52*52的特征图,通过当前特征图经上采样后与上层特征图融合,提高多重scale目标的识别精度。
S52、通过更改YOLOv3-mobilenet模型中的定位损失,即将边框损失和中心点损失改为GIOU损失,提高预测框和真实框不相交情况下的关注度,进而提高检测精度。
S6、在训练集上训练改进YOLOv3-mobilenet网络模型,具体包括如下步骤:
S61、对于训练集中标注的待识别目标的真实目标边框进行聚类,采用IOU值作为评价指标以获得训练集中的预测目标的初始候选框,将初始候选框作为初始参数输入到改进YOLOv3-mobilenet网络模型中,具体步骤如下:
采用K-means方法,以距离公式D=1-IOU对训练数据的真实边框聚类当两框IOU值不小于0.5时,将此时预测的候选框作为初始目标边框;面积交并比IOU公式如下所示:
其中,boxpred和boxtruth分别为预测框和真实框的面积,两者交集与并集之比即为IOU值。
S62、调取mobilenet网络的初始权重,设置学习率、步长、迭代次数及相应的超参数;然后将训练数据集输入到YOLOv3-mobilenet网络模型中进行训练,直到loss值达到提前终止训练的条件或达到最大迭代次数后停止训练,得到最终训练模型;
所述损失函数loss如下所示:
上述损失函数中,原损失函数中的定位损失,包括预测框中心点损失和边框损失,替换为GIOU损失,置信度损失和类别损失不变;λnoobj为不包含识别目标时的置信度误差系数,S*S为将输入图像划分的网格数量,B为每个网格预测的目标边框数量,表示第j个候选框所在的第i个网格负责检测该对象,/>表示第j个候选框所在的第i个网格不负责检测该对象,Ci和/>分别表示第i个网格中存在待检测目标的预测置信度和真实置信度,pi和分别表示第i个网格中目标识别属于某个类别的预测概率值和真实概率值。
S7、在测试集上测试改进YOLOv3-mobilenet网络模型性能,具体而言,步骤S7包括:
S71、加载训练好的网络权重,将测试集输入到训练好的网络中,得到多尺度特征图;
S72、采用logistic函数对网络预测的x、y、置信度、类别概率进行激活,并与真实框计算IOU值,经阈值判断,得到所有预测框坐标、置信度和类别概率;
S73、将上述结果通过NMS去除冗余检测框,产生最终目标检测框和识别结果;
S74、将S3得到的测试集分别输入到S61对应的网络中进行性能测试,得出最终对于模型性能的包括平均精度均值mAP、每秒检测帧率FPS和召回率的评价指标。
S8、将S7得到的改进YOLOv3-mobilenet网络模型在测试集上的测试结果与YOLOv3、YOLOv3-mobilenet和SSD性能进行对比,得到性能比较结果。
本发明提出的目标识别方法泛化能力强,实现了对皮带托辊的有效检测,为后续的皮带是否脱离轨道的判别及运行状态的监测提供了有效保障,减小参数计算量的同时,提高了原YOLOv3目标检测模型的检测速度及准确度。
需要说明的是,以上所述的实施方案应理解为说明性的,而非限制本发明的保护范围,本发明的保护范围以权利要求书为准。对于本领域技术人员而言,在不背离本发明实质和范围的前提下,对本发明作出的一些非本质的改进和调整仍属于本发明的保护范围。
Claims (8)
1.一种基于YOLOv3的传送带托辊检测方法,其特征在于:包括以下步骤:
S1、在不同环境下采集皮带托辊图片,制作初始样本数据集;
S2、对步骤S1得到的初始样本数据集中的图片数据进行预处理及数据增强,得到最终样本数据集;
S3、对步骤S2得到的最终样本数据集进行标注,并划分为训练集、测试集和验证集;
S4、构建YOLOv3-mobilenet目标检测模型;
S5、将步骤S4得到的YOLOv3-mobilenet目标检测模型中的作为定位损失的边框损失和中心点损失改为GIOU损失,得到改进YOLOv3-Mobilenet目标检测模型;
S6、在训练集上训练改进YOLOv3-mobilenet目标检测模型,并在测试集上测试改进YOLOv3-mobilenet算法性能;
S7、将步骤S6得到的改进YOLOv3-mobilenet目标检测模型在测试集上的性能测试结果与YOLOv3-mobilenet、YOLOv3、SSD进行比较,得到性能比较结果。
2.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S1具体包括:
S11、通过在皮带两侧不同位置安装摄像头,实时拍摄皮带转动情况下托辊的图片信息,获得托辊视频;
S12、将S11获取到的托辊视频进行分帧处理,提取每一帧的图像,得到不同时间段的托辊图像序列集;
S13、筛选S12得到的序列集,选取不同光照、不同时间段、不同天气环境下的托辊图像序列集,得到初始样本数据集。
3.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S2具体包括:对步骤S1得到的初始样本数据集进行处理操作,扩充数据集,进而得到最终样本数据集;所述处理操作包括但不限于平移、旋转、调整饱和度和增加噪声。
4.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S3具体包括:利用Labelimg标注软件对最终样本数据集进行标注,共两个类别,分别是uproller和bufferroller,并制成VOC2007标准数据集的格式,然后利用voc_annotation.py文件程序划分训练数据、评估数据和测试数据。
5.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S4具体包括:构建轻量化Mobilenet网络代替原有的darknet53进行特征提取,由keras/tensorflow深度学习框架构建YOLOv3-mobilenet目标检测模型。
6.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S5具体包括:利用Kmeans聚类算法对训练集中手工标记的目标框进行聚类,得到聚类的初始anchor,训练过程中,更改定位损失的边框损失和中心点损失为GIOU损失,得到改进YOLOv3-Mobilenet目标检测模型。
7.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S6具体包括:
S61、采取mobilenet在Image数据集上的预训练权重文件,在训练集上训练模型并保存最终训练权重;
S62、训练结束后,将测试集输入到经S61训练好的网络模型中,经过卷积层、池化层、mobilenet网络结构及上采样层,得到多尺度特征图;
S63、将特征图中的预测结果分别与真实框计算IOU值,然后与IOU阈值进行对比,筛选出大于IOU阈值的预测框;
S64、将步骤S63得到的结果通过NMS处理去除冗余检测框后,挑选IOU阈值最大的预测框作为最终识别结果。
8.根据权利要求1所述的一种基于YOLOv3的传送带托辊检测方法,其特征在于:步骤S7包括:通过与YOLOv3、YOLOv3-mobilenet、SSD对比,在自制传送带托辊数据集和官方VOC2007公共数据集上进行训练并对比预测,从精度和速度验证有效性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010611209.7A CN111754498B (zh) | 2020-06-29 | 2020-06-29 | 一种基于YOLOv3的传送带托辊检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010611209.7A CN111754498B (zh) | 2020-06-29 | 2020-06-29 | 一种基于YOLOv3的传送带托辊检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111754498A CN111754498A (zh) | 2020-10-09 |
CN111754498B true CN111754498B (zh) | 2023-11-21 |
Family
ID=72676595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010611209.7A Active CN111754498B (zh) | 2020-06-29 | 2020-06-29 | 一种基于YOLOv3的传送带托辊检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111754498B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464705A (zh) * | 2020-10-13 | 2021-03-09 | 泰安市泰山森林病虫害防治检疫站 | 一种基于YOLOv3-CIoU的松材线虫病树检测方法及系统 |
CN112485257A (zh) * | 2020-10-27 | 2021-03-12 | 中材邦业(杭州)智能技术有限公司 | 一种基于机器视觉的辊压机辊面磨损检测方法及装置 |
CN112287884B (zh) * | 2020-11-19 | 2024-02-20 | 长江大学 | 一种考试异常行为检测方法、装置及计算机可读存储介质 |
CN113052200B (zh) * | 2020-12-09 | 2024-03-19 | 江苏科技大学 | 一种基于yolov3网络的声呐图像目标检测方法 |
CN112464883B (zh) * | 2020-12-11 | 2022-12-06 | 武汉工程大学 | 一种自然场景下船舶目标自动检测识别方法与系统 |
CN112699762A (zh) * | 2020-12-24 | 2021-04-23 | 广东工业大学 | 一种适用于嵌入式设备的食材识别方法 |
CN112785557A (zh) * | 2020-12-31 | 2021-05-11 | 神华黄骅港务有限责任公司 | 皮带料流检测方法及装置、皮带料流检测系统 |
CN112884090A (zh) * | 2021-04-14 | 2021-06-01 | 安徽理工大学 | 基于改进YOLOv3的火灾检测识别方法 |
CN113221749A (zh) * | 2021-05-13 | 2021-08-06 | 扬州大学 | 基于图像处理与深度学习的作物病害遥感监测方法 |
CN113191335A (zh) * | 2021-05-31 | 2021-07-30 | 景德镇陶瓷大学 | 基于深度学习的日用陶瓷类型识别方法 |
CN113468992B (zh) * | 2021-06-21 | 2022-11-04 | 四川轻化工大学 | 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法 |
CN114937028B (zh) * | 2022-06-21 | 2023-12-08 | 苏州上舜精密工业科技有限公司 | 一种智能标识识别的直线滑台模组质量检测方法及系统 |
CN115330702A (zh) * | 2022-08-01 | 2022-11-11 | 无锡雪浪数制科技有限公司 | 一种基于深度视觉的饮料瓶灌装缺陷识别方法 |
CN114972349B (zh) * | 2022-08-01 | 2022-10-25 | 山东西曼克技术有限公司 | 基于图像处理的托辊运行状态检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390691A (zh) * | 2019-06-12 | 2019-10-29 | 合肥合工安驰智能科技有限公司 | 一种基于深度学习的矿石尺度测量方法及应用系统 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
-
2020
- 2020-06-29 CN CN202010611209.7A patent/CN111754498B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110390691A (zh) * | 2019-06-12 | 2019-10-29 | 合肥合工安驰智能科技有限公司 | 一种基于深度学习的矿石尺度测量方法及应用系统 |
CN110929577A (zh) * | 2019-10-23 | 2020-03-27 | 桂林电子科技大学 | 一种基于YOLOv3的轻量级框架改进的目标识别方法 |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
Non-Patent Citations (1)
Title |
---|
Tiny YOLOV3目标检测改进;马立;巩笑天;欧阳航空;;光学精密工程(04);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111754498A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111754498B (zh) | 一种基于YOLOv3的传送带托辊检测方法 | |
CN111553929B (zh) | 基于融合网络的手机屏幕缺陷分割方法、装置及设备 | |
CN106971152B (zh) | 一种基于航拍图像的检测输电线路中鸟巢的方法 | |
CN107123131B (zh) | 一种基于深度学习的运动目标检测方法 | |
WO2021238019A1 (zh) | 基于Ghost卷积特征融合神经网络实时车流量检测系统及方法 | |
CN108711148B (zh) | 一种基于深度学习的轮胎缺陷智能检测方法 | |
CN109544522A (zh) | 一种钢板表面缺陷检测方法及系统 | |
CN110765865B (zh) | 基于改进的yolo算法的水下目标检测方法 | |
CN111807183A (zh) | 基于深度学习的电梯门状态智能检测方法 | |
CN116229052B (zh) | 一种基于孪生网络的变电站设备状态变化检测方法 | |
CN111091101A (zh) | 基于一步法的高精度行人检测方法、系统、装置 | |
Geng et al. | An improved helmet detection method for YOLOv3 on an unbalanced dataset | |
CN113822185A (zh) | 一种群养生猪日常行为检测方法 | |
CN112766218A (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
CN111985325A (zh) | 特高压环境评价中的航拍小目标快速识别方法 | |
CN113487610B (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN116543303A (zh) | 一种基于深度学习的桥梁板式橡胶支座病害识别检测方法 | |
Li et al. | Electronic product surface defect detection based on a MSSD network | |
CN113506281B (zh) | 一种基于深度学习框架的桥梁裂缝检测方法 | |
CN115830302B (zh) | 一种多尺度特征提取融合配电网设备定位识别方法 | |
CN111339950B (zh) | 一种遥感图像目标检测方法 | |
CN110765900B (zh) | 一种基于dssd的自动检测违章建筑方法及系统 | |
CN112084941A (zh) | 一种基于遥感图像的目标检测与识别方法 | |
CN110503092B (zh) | 基于领域适应的改进ssd监控视频目标检测方法 | |
CN111767826A (zh) | 一种定时定点场景异常检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |