CN112507929A - 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法 - Google Patents

一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法 Download PDF

Info

Publication number
CN112507929A
CN112507929A CN202011489477.2A CN202011489477A CN112507929A CN 112507929 A CN112507929 A CN 112507929A CN 202011489477 A CN202011489477 A CN 202011489477A CN 112507929 A CN112507929 A CN 112507929A
Authority
CN
China
Prior art keywords
welding slag
image
target
responsible
vehicle body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011489477.2A
Other languages
English (en)
Other versions
CN112507929B (zh
Inventor
朱大虎
涂秋平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202011489477.2A priority Critical patent/CN112507929B/zh
Publication of CN112507929A publication Critical patent/CN112507929A/zh
Application granted granted Critical
Publication of CN112507929B publication Critical patent/CN112507929B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法,首先利用图像工具对车身点焊焊渣进行拍摄,获取焊渣原始图像;之后对原始图像进行预处理,得到焊渣图像;利用标注软件对焊渣图像中的焊渣进行标注,得到焊渣数据集;对焊渣数据集进行聚类分析,得到适用于焊渣数据集的先验框;利用所得先验框参数,针对焊渣识别特性修改YOLOv3网络算法,得到改进后的算法框架;之后以预构建的损失函数最小为目标,利用标注好的数据集对改进后的模型进行训练,得到训练后的权重参数,建立焊渣检测模型;最后利用该模型调用图像工具进行在线检测。本发明充分考虑了不同场景下目标尺寸、形态、数量等差异,识别结果准确,效率高。

Description

一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法
技术领域
本发明属于汽车缺陷自动化检测加工技术领域,涉及一种加工过程中检测方法,具体涉及一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法。
背景技术
车身点焊过程中,由于焊接参数、设备、工艺、材质等因素引起熔核过分扩展使得塑性焊接环失压而难以形成,极易导致点焊工艺后出现不规则的焊渣飞溅,残留焊渣多、飞溅区域广,被认为是一种极难避免的焊接缺陷。当前国内汽车生产企业普遍采用目视检测再进行人工打磨,检测过程存在检测效率低、误检和漏检等问题,因此对焊渣的位姿、数量、分布情况及几何信息的在线精准识别与获取提出了很高要求。
将机器视觉技术应用于缺陷检测是近年来迅速发展的研究方向,主流的检测算法包括SSD、YOLO和R-CNN系列等。YOLO算法相比SSD和R-CNN,具有实时性高、检测速度快等特点,适用于工业上的实时检测。当前大部分利用YOLO算法进行缺陷检测的方法,都是将标注的数据集直接放入原有的神经网络中进行训练,但由于不同场景下的检测目标尺寸、形状、数量不同,制作的数据集与Common Objects in Context(COCO)数据集差异会比较大,从而导致检测效果可能不是最优,无法满足后续自动化加工的要求。申请号为CN202010873329.4的中国发明专利申请公开了一种基于改进Tiny-YOLOv3网络的航天电子焊点缺陷检测方法,该方法使用轻量级网络Mobilenet替换Tiny-YOLOv3主干网络中的7层卷积与最大池化网络层,以得到改进的Tiny-YOLOv3网络。由于输出特征图直接对应目标检测能力,输出特征图越大,一定程度上检测小目标的能力越强。Tiny-YOLOv3网络输出特征图只有13×13,26×26两个,客观上对于诸如焊渣等小目标的检测能力尚存在一定限制。
发明内容
本发明针对现有方法在检测车身点焊焊渣时存在的效率低、检测精度低等问题,提出一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法。该方法通过删除原YOLOv3算法13×13的输出特征并添加104×104的输出特征,以提高检测焊渣的精度和召回率;同时,通过对Darknet53网络做一定的删减来减少模型训练时间,以保证车身随机点焊焊渣的检测效果。
为了实现上述目的,本发明采用的技术方案是:
一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于,包括以下步骤:
步骤1、焊渣图像获取,利用图像工具对车身点焊焊渣进行拍摄,获取焊渣原始图像;
步骤2、对原始图像进行预处理,得到焊渣图像;
步骤3、利用标注软件对焊渣图像中的焊渣进行标注,得到焊渣数据集;
步骤4、通过k-means算法对焊渣数据集进行聚类分析,得到适用于焊渣数据集的若干大小不同的先验框;
步骤5、利用步骤4所得的先验框修改YOLOv3网络算法中的先验框参数,针对焊渣识别特性修改YOLOv3网络算法,删除原有的COCO数据集类别,添加识别焊渣的类别,得到改进后的算法框架;
步骤6、以预构建的损失函数最小为目标,利用标注好的数据集对改进后的模型进行训练,得到训练后的权重参数,建立基于改进YOLOv3网络的焊渣检测模型;
步骤7、利用焊渣检测模型,调用图像工具进行在线检测。
作为优选,步骤1中,所述图像工具包括工业相机、手机和摄像机。
作为优选,步骤2中,对原始图像进行预处理包括以下步骤:
步骤2.1、图像解码,即将图像转化为Numpy格式的数组;
步骤2.2、图像随机裁剪,随机将图片的长宽裁减为设定的大小;
步骤2.3、水平或竖直方向随机翻转;
步骤2.4、图像数据的归一化;
步骤2.5、图像数据的重排,原始图像的数据格式重排为神经网络使用的训练数据的格式;
步骤2.6、多幅图像数据组成batch数据。
作为优选,步骤3中,采用LabelImg软件对图像进行标注。
作为优选,步骤4中具体方法为:
步骤4.1、选取K个点作为初始聚类的簇核心;
步骤4.2、分别计算每个样本点到K个簇核心之间的欧式距离d1,找到离该样本点最近的簇核心,将它划分到相应的簇中;
步骤4.3、当所有点都归属到簇之后,就有了K个簇,然后重新计算每个簇的质心,将质心定义为新的簇核心,所述质心是指该族中距离所有点平均距离最小的点;
步骤4.4、利用新的簇核心反复迭代步骤4.2–步骤4.3,直到每个簇所有样本点到对应簇核心的距离d2的总和达到最小则停止迭代,此时K个族及族核心记为K个先验框参数。
作为优选,所述步骤6中,修改YOLOv3模型框架的改进如下:
(1)删除Darknet53网络的最后四个残差块;
(2)删除相应的13×13输出特征;
(3)在第三个残差块最后添加104×104输出特征。
作为优选,所述步骤7中,所述损失函数表达式如下:
Figure BDA0002840320700000031
式中,λcoord为定位损失权重,λnoobj为不包含目标的网格的置信度损失权重,S为网格的长度或宽度,B为该网格所预测框的个数,xi为该网格所负责的目标框中心点横坐标的预测值,yi为该网格所负责的目标框中心点纵坐标的预测值,
Figure BDA0002840320700000032
为该网格所负责的目标框宽度的预测值,
Figure BDA0002840320700000033
为该网格所负责的目标框高度的预测值,
Figure BDA0002840320700000034
为该网格所负责的目标框是否含有目标的置信值,Pi j为第i个网格所预测目标的类别概率,
Figure BDA0002840320700000035
为该网格所负责的目标框中心点横坐标真实值,
Figure BDA0002840320700000036
为该网格所负责的目标框中心点纵坐标真实值,
Figure BDA0002840320700000037
为该网格所负责的目标框宽度的真实值,
Figure BDA0002840320700000038
为该网格所负责的目标框高度的真实值,
Figure BDA0002840320700000039
为第i个网格是否含有目标的置信值,
Figure BDA00028403207000000310
为该网格所负责的目标框的类别概率,
Figure BDA00028403207000000311
为第i个网格的第j个anchor box是否负责这个目标,
Figure BDA00028403207000000312
为第i个网格的第j个anchor box是不负责这个目标,
Figure BDA00028403207000000313
为第i个网格是否含有目标,classes为第i个网格预测所有目标种类。
与现有技术相比,本发明的有益效果是:
本发明充分考虑了不同场景下目标尺寸、形态、数量等差异,提出一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法,用于解决当前人工检测车身点焊焊渣效率低下、效果不佳等问题。
附图说明
图1为本发明方法实施例基于改进YOLOv3网络的车身点焊焊渣精准检测方法的流程示意图。
图2为本发明实施例中所述的YOLOv3网络结构示意图。
图3为本发明实施例中所述的检测方法进行焊渣检测前后效果对比图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细描述:
本发明提出一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法,主要工作流程如图1所示,包括以下步骤:
步骤1、焊渣图像获取,利用图像工具对车身点焊焊渣进行拍摄,获取焊渣原始图像;所述图像工具包括工业相机、手机和摄像机。
步骤2、图像预处理,对原始图像进行预处理,得到焊渣图像;
a首先,筛选图片,去除一些无效的图片数据,比如无焊渣的图片或者图片中焊渣数量极少的图片,这样能保证训练效果。
b其次,图像解码,即将图像转化为Numpy格式的数组;
c接着,图像随机裁剪,随机将图片的长宽裁剪为设定的大小、水平或竖直方向随机翻转;
d然后,图像数据的归一化;
e之后,图像数据的重排,原始图像的数据格式重排为神经网络使用的训练数据的格式;图像的数据格式为[H,W,C](即高度、宽度和通道数),而神经网络使用的训练数据的格式为[C,H,W],因此需要对图像数据重新排列。
f最后,多幅图像数据组成batch数据。
步骤3、图像标注,利用标注软件LabelImg对图像进行标注,给每张图片的焊渣添加对应的标签,得到后缀名为xml格式的焊渣数据集。
步骤4、通过k-means算法对焊渣数据集进行聚类分析,得到适用于焊渣数据集的若干大小不同的先验框。
具体方法为:
步骤4.1、选取9个点作为初始聚类的簇核心;
步骤4.2、分别计算每个样本点到9个簇核心之间的欧式距离d1,找到离该样本点最近的簇核心,将它划分到相应的簇中;
步骤4.3、当所有点都归属到簇之后,就有了9个簇,然后重新计算每个簇的质心,将质心定义为新的簇核心,所述质心是指该族中距离所有点平均距离最小的点;
步骤4.4、利用新的簇核心反复迭代步骤4.2–步骤4.3,直到每个簇所有样本点到对应簇核心的距离d2的总和达到最小则停止迭代,此时9个族及族核心记为9个先验框参数。
步骤5、修改模型,利用步骤4所得的9个先验框输入到YOLOv3网络算法中需要修改先验框参数的地方,针对焊渣识别特性修改YOLOv3网络算法,删除原有的COCO数据集类别,添加识别焊渣的类别,得到改进后的算法框架;
修改YOLOv3模型框架的改进如下:
(1)删除Darknet53网络的最后四个残差块;
(2)删除相应的13×13输出特征;
(3)在第三个残差块最后添加104×104输出特征。
步骤6、以预构建的损失函数最小为目标,利用标注好的数据集对改进后的模型进行训练,得到训练后的权重参数,建立基于改进YOLOv3网络的焊渣检测模型;
所述损失函数表达式如下:
Figure BDA0002840320700000051
式中,λcoord为定位损失权重,λnoobj为不包含目标的网格的置信度损失权重,S为网格的长度(或宽度),B为该网格所预测框的个数,xi为该网格所负责的目标框中心点横坐标的预测值,yi为该网格所负责的目标框中心点纵坐标的预测值,
Figure BDA0002840320700000052
为该网格所负责的目标框宽度的预测值,
Figure BDA0002840320700000053
为该网格所负责的目标框高度的预测值,
Figure BDA0002840320700000054
为该网格所负责的目标框是否含有目标的置信值,Pi j为第i个网格所预测目标的类别概率,
Figure BDA0002840320700000061
为该网格所负责的目标框中心点横坐标真实值,
Figure BDA0002840320700000062
为该网格所负责的目标框中心点纵坐标真实值,
Figure BDA0002840320700000063
为该网格所负责的目标框宽度的真实值,
Figure BDA0002840320700000064
为该网格所负责的目标框高度的真实值,
Figure BDA0002840320700000065
为第i个网格是否含有目标的置信值,
Figure BDA0002840320700000066
为该网格所负责的目标框的类别概率,
Figure BDA0002840320700000067
为第i个网格的第j个anchor box是否负责这个目标,如果负责
Figure BDA0002840320700000068
为1,否则为0;
Figure BDA0002840320700000069
为第i个网格的第j个anchor box是不负责这个目标,为第i个网格是否含有目标,classes为第i个网格预测所有目标种类。
其中,损失函数的第一项为中心坐标误差,表示的是当第i个网格的第j个先验框负责一个真实目标时,那么这个先验框所产生的边界框就应该和标注时的边界框去比较,计算得到中心坐标误差。损失函数的第二项为宽高坐标误差,表示的第i个网格的第j个先验框负责一个真实目标时,这个先验框所产生的边界框就应该和标注的边界框去比较,计算得到宽高误差。损失函数的第三、四项为置信度误差,第三项表示存在对象时边界框置信度误差,第四项表示不存在对象时边界框的置信度误差。损失函数的最后一项为分类误差,当第i个网格的第j个先验框负责某一个真实目标时,则该先验框产生的边界框才会去计算分类损失函数。
步骤7、利用焊渣检测模型,调用图像工具进行在线检测。将摄像头实时获取的视频信息输入到训练好的网络模型中,标记出点焊焊渣。实验验证,该方法检测焊渣的精度高达95%以上,召回率高达83.3%,检测效果对比如图3所示。
本发明方法具有以下特点:1)建立了一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法;2)能够实现车身随机焊渣的精准检测,提高检测加工的自动化程度和效率。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (7)

1.一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于,包括以下步骤:
步骤1、焊渣图像获取,利用图像工具对车身点焊焊渣进行拍摄,获取焊渣原始图像;
步骤2、对原始图像进行预处理,得到焊渣图像;
步骤3、利用标注软件对焊渣图像中的焊渣进行标注,得到焊渣数据集;
步骤4、通过k-means算法对焊渣数据集进行聚类分析,得到适用于焊渣数据集的若干大小不同的先验框;
步骤5、利用步骤4所得的先验框修改YOLOv3网络算法中的先验框参数,针对焊渣识别特性修改YOLOv3网络算法,删除原有的COCO数据集类别,添加识别焊渣的类别,得到改进后的算法框架;
步骤6、以预构建的损失函数最小为目标,利用标注好的数据集对改进后的模型进行训练,得到训练后的权重参数,建立基于改进YOLOv3网络的焊渣检测模型;
步骤7、利用焊渣检测模型,调用图像工具进行在线检测。
2.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:步骤1中,所述图像工具包括工业相机、手机和单反相机等设备。
3.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:步骤2中,对原始图像进行预处理包括以下步骤:
步骤2.1、图像解码,即将图像转化为Numpy格式的数组;
步骤2.2、图像随机裁剪,随机将图片的长宽裁减为设定的大小;
步骤2.3、水平或竖直方向随机翻转;
步骤2.4、图像数据的归一化;
步骤2.5、图像数据的重排,原始图像的数据格式重排为神经网络使用的训练数据的格式;
步骤2.6、多幅图像数据组成batch数据。
4.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:步骤3中,采用LabelImg软件对图像进行标注。
5.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:步骤4中具体方法为:
步骤4.1、选取K个点作为初始聚类的簇核心;
步骤4.2、分别计算每个样本点到K个簇核心之间的欧式距离d1,找到离该样本点最近的簇核心,将它划分到相应的簇中;
步骤4.3、当所有点都归属到簇之后,就有了K个簇,然后重新计算每个簇的质心,将质心定义为新的簇核心,所述质心是指该族中距离所有点平均距离最小的点;
步骤4.4、利用新的簇核心反复迭代步骤4.2–步骤4.3,直到每个簇所有样本点到对应簇核心的距离d2的总和达到最小则停止迭代,此时K个族及族核心记为K个先验框参数。
6.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:所述步骤6中,修改YOLOv3模型框架的改进如下:
(1)删除Darknet53网络的最后四个残差块;
(2)删除相应的13×13输出特征;
(3)在第三个残差块最后添加104×104输出特征。
7.如权利要求1所述基于改进YOLOv3网络的车身点焊焊渣精准检测方法,其特征在于:所述步骤7中,所述损失函数表达式如下:
Figure FDA0002840320690000021
式中,λcoord为定位损失权重,λnoobj为不包含目标的网格的置信度损失权重,S为网格的长度或宽度,B为该网格所预测框的个数,xi为该网格所负责的目标框中心点横坐标的预测值,yi为该网格所负责的目标框中心点纵坐标的预测值,
Figure FDA0002840320690000022
为该网格所负责的目标框宽度的预测值,
Figure FDA0002840320690000023
为该网格所负责的目标框高度的预测值,
Figure FDA0002840320690000024
为该网格所负责的目标框是否含有目标的置信值,Pi j为第i个网格所预测目标的类别概率,
Figure FDA0002840320690000025
为该网格所负责的目标框中心点横坐标真实值,
Figure FDA0002840320690000026
为该网格所负责的目标框中心点纵坐标真实值,
Figure FDA0002840320690000027
为该网格所负责的目标框宽度的真实值,
Figure FDA0002840320690000028
为该网格所负责的目标框高度的真实值,
Figure FDA0002840320690000029
为第i个网格是否含有目标的置信值,
Figure FDA0002840320690000031
为该网格所负责的目标框的类别概率,
Figure FDA0002840320690000032
为第i个网格的第j个anchorbox是否负责这个目标,
Figure FDA0002840320690000033
为第i个网格的第j个anchor box是不负责这个目标,
Figure FDA0002840320690000034
为第i个网格是否含有目标,classes为第i个网格预测所有目标种类。
CN202011489477.2A 2020-12-16 2020-12-16 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法 Active CN112507929B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011489477.2A CN112507929B (zh) 2020-12-16 2020-12-16 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011489477.2A CN112507929B (zh) 2020-12-16 2020-12-16 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法

Publications (2)

Publication Number Publication Date
CN112507929A true CN112507929A (zh) 2021-03-16
CN112507929B CN112507929B (zh) 2022-05-13

Family

ID=74972815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011489477.2A Active CN112507929B (zh) 2020-12-16 2020-12-16 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法

Country Status (1)

Country Link
CN (1) CN112507929B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191335A (zh) * 2021-05-31 2021-07-30 景德镇陶瓷大学 基于深度学习的日用陶瓷类型识别方法
CN115847398A (zh) * 2022-11-09 2023-03-28 武汉理工大学 一种基于区域的机器人智能加工方法及系统
WO2023134097A1 (zh) * 2022-01-11 2023-07-20 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN110909666A (zh) * 2019-11-20 2020-03-24 西安交通大学 一种基于改进型YOLOv3卷积神经网络的夜间车辆检测方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN111460919A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN111563557A (zh) * 2020-05-12 2020-08-21 山东科华电力技术有限公司 一种电力电缆隧道内目标检测的方法
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020206861A1 (zh) * 2019-04-08 2020-10-15 江西理工大学 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN110796186A (zh) * 2019-10-22 2020-02-14 华中科技大学无锡研究院 基于改进的YOLOv3网络的干湿垃圾识别分类方法
CN110909666A (zh) * 2019-11-20 2020-03-24 西安交通大学 一种基于改进型YOLOv3卷积神经网络的夜间车辆检测方法
CN111428558A (zh) * 2020-02-18 2020-07-17 东华大学 一种基于改进YOLOv3方法的车辆检测方法
CN111401148A (zh) * 2020-02-27 2020-07-10 江苏大学 一种基于改进的多级YOLOv3的道路多目标检测方法
CN111460919A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN111563557A (zh) * 2020-05-12 2020-08-21 山东科华电力技术有限公司 一种电力电缆隧道内目标检测的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HAOJIE MA等: "Detection of Collapsed Buildings in Post-Earthquake Remote Sensing Images Based on the Improved YOLOv3", 《REMOTE SENSING》 *
史建伟等: "基于改进YOLOv3和BGRU的车牌识别系统", 《计算机工程与设计》 *
罗小权等: "改进YOLOV3的火灾检测方法", 《计算机工程与应用》 *
赵朵朵等: "基于深度学习的实时人流统计方法研究", 《传感技术学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191335A (zh) * 2021-05-31 2021-07-30 景德镇陶瓷大学 基于深度学习的日用陶瓷类型识别方法
WO2023134097A1 (zh) * 2022-01-11 2023-07-20 南方医科大学顺德医院(佛山市顺德区第一人民医院) 基于残差网络结构的子宫肌瘤目标图像获取方法
CN115847398A (zh) * 2022-11-09 2023-03-28 武汉理工大学 一种基于区域的机器人智能加工方法及系统

Also Published As

Publication number Publication date
CN112507929B (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN112507929B (zh) 一种基于改进YOLOv3网络的车身点焊焊渣精准检测方法
CN111353413B (zh) 一种输电设备低漏报率缺陷识别方法
CN111626128B (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN110322453B (zh) 基于位置注意力和辅助网络的3d点云语义分割方法
CN111754498A (zh) 一种基于YOLOv3的传送带托辊检测方法
CN109544501B (zh) 一种基于无人机多源图像特征匹配的输电设备缺陷检测方法
CN110765865B (zh) 基于改进的yolo算法的水下目标检测方法
CN110838112A (zh) 一种基于霍夫变换和YOLOv3网络的绝缘子缺损检测方法
CN111914720B (zh) 一种输电线路绝缘子爆裂识别方法及装置
CN114749342B (zh) 一种锂电池极片涂布缺陷识别方法、装置及介质
CN113643228B (zh) 一种基于改进的CenterNet网络的核电站设备表面缺陷检测方法
CN115205264A (zh) 一种基于改进YOLOv4的高分辨率遥感船舶检测方法
CN110781882A (zh) 一种基于yolo模型的车牌定位和识别方法
CN109949209B (zh) 一种基于深度学习的绳索检测与去除方法
CN115272204A (zh) 一种基于机器视觉的轴承表面划痕检测方法
CN111523535B (zh) 基于机器视觉与深度学习的类圆对象识别计数检测算法
CN115032648B (zh) 一种基于激光雷达密集点云的三维目标识别与定位方法
CN114627502A (zh) 一种基于改进YOLOv5的目标识别检测方法
CN112861646B (zh) 复杂环境小目标识别场景下的卸油工安全帽级联检测方法
CN112711981A (zh) 一种高精度输电线路缺陷识别方法
CN113657423A (zh) 适用于小体积零件与堆叠零件的目标检测方法及其应用
CN115456955A (zh) 一种球笼防尘罩内部毛刺缺陷检测方法
CN112597919A (zh) 基于YOLOv3剪枝网络和嵌入式开发板的实时药盒检测方法
CN116385958A (zh) 一种用于电网巡检和监控的边缘智能检测方法
CN112396042A (zh) 实时更新的目标检测方法及系统、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant