CN114511519A - 一种基于图像处理的列车车底螺栓丢失检测方法 - Google Patents
一种基于图像处理的列车车底螺栓丢失检测方法 Download PDFInfo
- Publication number
- CN114511519A CN114511519A CN202210067611.2A CN202210067611A CN114511519A CN 114511519 A CN114511519 A CN 114511519A CN 202210067611 A CN202210067611 A CN 202210067611A CN 114511519 A CN114511519 A CN 114511519A
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle bottom
- algorithm
- correction
- train
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000012545 processing Methods 0.000 title claims abstract description 15
- 238000012937 correction Methods 0.000 claims abstract description 62
- 238000005286 illumination Methods 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 29
- 230000003044 adaptive effect Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 12
- 229910000831 Steel Inorganic materials 0.000 claims abstract description 8
- 239000010959 steel Substances 0.000 claims abstract description 8
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 5
- 238000010845 search algorithm Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012417 linear regression Methods 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 2
- 238000009434 installation Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于图像处理的列车车底螺栓丢失检测方法,步骤为:利用多个线阵相机获取列车车底原始图像,采用两组双磁钢测速方式获取车速;进行车速曲线拟合,对车底原始图像进行畸变校正;对畸变校正后的图像进行光照不均校正,得到光照不均校正后的车底图像;将FAST算法和SURF算法相结合,对光照不均校正后的车底图像进行特征点提取和描述,将改进的k‑d树最近邻查找算法与双向匹配的自适应阈值方法相结合,对不同相机采集的光照不均校正后的车底图像进行图像拼接得到车底完整图像;对车底完整图像集进行数据集制作和模型训练,利用深度学习目标检测SSD算法对车底螺栓丢失进行检测。本发明实时性强、检测精度高。
Description
技术领域
本发明涉及图像处理及目标检测技术领域,特别是一种基于图像处理的列车车底螺栓丢失检测方法。
背景技术
对于地铁来说,地铁列车底部是其中结构最为复杂、零件最为繁杂的一部分,因此保障地铁列车底部的安全性是至关重要的。地铁列车底部检查主要是以进车辆段、进厂检修为主,成本很高并且存在漏检的情况,检测方法比较落后。人工检测存在诸多问题,主要是依靠列检员最原始的排查方式,例如用眼睛看,用手摸,可能还会借助工具例如用锤轻敲等,这些方式不仅效率低下,对于列检员来说也是一项负担很重的工作,总的来说这种检测方式完全依赖于列检员的状态,当列检员劳动强度过大而状态不好时则可能造成安全隐患。
螺栓是一种细小但又缺一不可的重要部件,目前螺栓的排查主要依赖于列检员的经验和状态,主观性非常严重,并且螺栓种类繁多且形态各异,检测难度大,另外螺栓的检测需要实时性。近年来,科学的发展日新月异,图像识别的技术也已越来越成熟,它的特点适用于列车车底故障检测。对于车底图像的采集,传统采用面阵相机来完成,当列车通过时,采集系统触发面阵相机拍照。采用面阵相机拍照时会存在一些问题,例如,由于面阵相机的特性其在车底图像采集时的频率不变,而列车的车速是上下浮动的,因此在采集频率与车速无法对应的情况下会产生图像畸变的情况,比如图像的压缩和拉伸,另外,地铁的长度是相对较长的,对于面阵相机来说一次采集无法完成整个车底图像的采集,因此需要多次采集才能完成整个车底图像的采集,采集效率不高。
目前国内针对不同车型开发的图像检测系统主要为:TFDS、TVDS。在如今的TFDS系统中,因为硬件方面的像素相对较低,对故障判定存在阻碍,另外故障判定需要人工对所拍摄的图像进行故障判断,可能会造成人为漏检。现有TEDS存在的问题主要是图像之间的错位情况比较严重,图像配准效果较差,导致对疑似故障的判别效果不是特别理想。TVDS主要存在的问题有图片的拼接效果不理想、图像的亮度不均、特殊环境下图像质量不理想。
发明内容
本发明的目的在于提供一种实时性强、检测精度高的列车车底螺栓丢失自动检测方法,能够实现列车车底螺栓丢失的在线动态检测。
实现本发明目的的技术解决方案为:一种基于图像处理的列车车底螺栓丢失检测方法,步骤如下:
步骤1,车底原始图像的采集:利用多个线阵相机获取列车车底原始图像,同时采用两组双磁钢测速方式获取车速;
步骤2,车底原始图像的畸变校正:获取的车底原始图像由于车速与相机扫描速率不相适应产生压缩或者拉伸的畸变,根据获得的车速数据利用圆弧曲线拟合技术进行车速曲线拟合,根据拟合曲线对车底原始图像通过拉伸或压缩进行畸变校正;
步骤3,光照不均校正:利用二维Gamma函数自适应校正算法对畸变校正后的图像进行光照不均校正,得到光照不均校正后的车底图像;
步骤4,多个相机模块图像的拼接:将FAST算法和SURF算法相结合,对光照不均校正后的车底图像进行特征点提取和描述,然后将改进的k-d树最近邻查找算法即BBF算法与双向匹配的自适应阈值方法相结合,对不同相机采集的光照不均校正后的车底图像进行图像拼接得到车底完整图像;
步骤5,螺栓丢失检测:对获取到的车底完整图像集进行数据集制作和模型训练,利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测。
本发明与现有技术相比,其显著优点为:(1)使用内部集成补偿光源的线阵相机进行图像采集,线阵相机是线式扫描,因此横向分辨率高,并且触发频率可以在采集过程中改变,也可以减小畸变,还有清晰度高、精度高等优点;(2)因为现场硬件设备安装条件的限制,补偿光源并没有很好的安装条件,而ET系列线扫描模块产品很好的解决了这个问题,其模块内部集成了线阵相机和大功率光源;(3)采用车速曲线拟合对图像进行畸变校正,解决了图像采集过程中出现的图像畸变,并且对图像进行光照不均校正,解决了图像采集过程中因为光源补偿不均匀出现的图像质量问题;(4)使用对小目标检测精度更高的目标检测算法,提高了检测精度,能实现列车车底螺栓丢失实时在线检测,降低了人工检测的成本。
附图说明
图1为车轮传感器安装示意图。
图2为线阵相机模块安装示意图。
图3为车底图像数据集标注图。
图4为目标检测算法模型训练过程图。
具体实施方式
本发明基于图像处理的列车车底螺栓丢失检测方法,包括以下步骤:
步骤1,车底原始图像的采集:利用多个线阵相机获取列车车底原始图像,同时采用两组双磁钢测速方式获取车速;
步骤2,车底原始图像的畸变校正:获取的车底原始图像由于车速与相机扫描速率不相适应产生压缩或者拉伸的畸变,根据获得的车速数据利用圆弧曲线拟合技术进行车速曲线拟合,根据拟合曲线对车底原始图像通过拉伸或压缩进行畸变校正;
步骤3,光照不均校正:利用二维Gamma函数自适应校正算法对畸变校正后的图像进行光照不均校正,得到光照不均校正后的车底图像;
步骤4,多个相机模块图像的拼接:将FAST算法和SURF算法相结合,对光照不均校正后的车底图像进行特征点提取和描述,然后将改进的k-d树最近邻查找算法即BBF算法与双向匹配的自适应阈值方法相结合,对不同相机采集的光照不均校正后的车底图像进行图像拼接得到车底完整图像;
步骤5,螺栓丢失检测:对获取到的车底完整图像集进行数据集制作和模型训练,利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测。
进一步地,步骤1具体包括以下步骤:
将测量车速的两组车轮传感器配合安装夹具安装于轨侧,一组车轮传感器的数量为2个,车轮传感器距离轨面50mm,每组两个车轮传感器之间间隔250mm,第一组和第二组车轮传感器之间间隔13200mm,车轮传感器的信号线接入PLC,PLC接收车轮传感器采集的信号;
将进行车底原始图像采集的内部集成补偿光源的多个线阵相机摆放于轨道中间,分为左、中、右三个相机分别进行列车车底图像左、中、右三个部分采集,线阵相机与上位机连接进行图像传输。
进一步地,步骤2具体操作如下:
步骤2.1,利用两组双磁钢对列车车速进行测量,获取12组离散的车速数据;
步骤2.2,针对12组离散的车速数据,利用圆弧曲线拟合技术获得列车车速曲线;
步骤2.3,对已经拟合好的车速曲线以0.1秒为采样间隔进行采样,根据拟合曲线对车底原始图像通过拉伸或压缩进行畸变校正,具体如下:
假设线阵相机第一次检测到的速度为v0,根据此速度v0得出相适应的线阵相机拍摄频率为f0,采集的车底原始图像宽度为W、高度为H,采用的相机分辨率为4K、宽度W为4096px,高度H表达式如下:
其中,L为车底原始图像的物理长度,fy为线阵相机纵分辨率。
设Hi为线阵相机拍摄的第i幅图像的高度,其中0≤i≤N-2,HN-1为最后一幅图像的高度,并且采集时间不大于0.1秒,则得出如下式子:
经过畸变校正之后,Hj校正为Htj:
校正之后,每幅图像的高度由H校正为HT。上述校正方式对于后续图像拼接及螺栓检测都有很重要的支撑作用。
进一步地,步骤3具体操作如下:
F(x,y)表示图像的一个二维函数,F(x,y)的值是图像中点(x,y)的亮度值,根据成像原理,图像由亮度分量和实际物体的反射分量组成,如式所示:
F(x,y)=I(x,y)·R(x,y)
其中,I(x,y)为光照分量,R(x,y)为反射分量;
设P为所需要光照不均校正的图像,I表示引导图像,q表示结果图像,存在以下变换关系:
其中,k表示图像中某个像素点,r表示以k为中心的半径,ωk表示以k为圆心r为半径的窗口;ak、bk都为线性变换因子,为窗口内为常数。
由上式可知,在任意一个窗口内,都存在如上式的梯度关系,可知P的边缘和I的边缘有良好的对应。为了使P和q的差距达到最小,窗口ωk中所需要使用的代价函数E(ak,bk)如下式:
其中,ε是为了限制ak过大的参数,为了求得ak和bk的最优值,使用线性回归方法,求得:
对于不同的窗口来说,可能会包含同一个像素点,因此ak和bk的值也会发生变换,为了求得qi的值,取该像素点为中心的不同窗口中ak、bk的平均值作为参数求得qi:
步骤32,对提取出的亮度分量利用二维Gamma函数自适应校正算法进行校正,具体如下:
提取出光照分量,在基于二维伽马函数的亮度校正函数的基础上进行改进,改进的二维Gamma函数如下式所示,m理论上的取值范围是0到255,因此光照系数ε理论上的取值范围为0到1。本发明取ε为0.5,m为128对图像进行校正,发现有较好的自适应校正效果。
其中,O(x,y)为输出图像,I(x,y)为图像的亮度,L(x,y)为图像中某点(x,y)的亮度分量,γ是Gamma校正参数,ε为光照系数,m为一张图像的光照亮度的均值。
步骤33,将校正后的亮度分量与输入图像融合,合成光照均匀的输出图像。
进一步地,步骤4具体操作如下:
步骤4.1,使用FAST算法对图像提取特征点,目的在于提升提取的速度和质量,FAST算法由于计算相对简单,也提升了提取效率。本发明对图像中的每一个像素点都进行扫描,然后进行判别每一个像素点周围的16个像素点的灰度值大小是否大于该像素点,利用FAST算法种的角点公式来进行判别,如下式所示。
其中,N表示灰度值,c为圆周,I(x)表示c内某点的灰度值,P为圆周中心,I(P)为中心点的灰度值;εd为阈值且设置为9,如果N超过εd的话,那么该像素点就是角点,本发明εd设置为9。
步骤4.2,采用SURF算法对特征点进行描述:提取一个特征点作为圆心,半径为6σ,其中σ是所选择的特征点的尺度,然后计算出在所得圆的邻域中所有像素点的水平方向、垂直方向的Harr小波响应总和,对图像Haar小波响应的水平方向、垂直方向叠加得到矢量(mw,θw):
其中,dx和dy分别为水平方向和垂直方向;mw取最大时,θw即为特征点选取的主方向。
步骤4.3,主方向选取完成之后,计算特征描述子,其中特征描述子为在以选取的特征点为中心的矩形中的,矩形边长为20s,其中s为特征点的尺度值。
描述特征点的向量V4如下式所示:
V4=(∑dx,∑|dx|,∑dy,∑|dy|)
步骤4.4,提取完特征点之后对特征点之间的相似度进行判别,使用BBF算法对参照图和检测图特征点之间的距离进行计算,假设T为最近的特征点和第二最近的特征点的壁纸的阈值,然后进行分类统计,得到两个集合X1和X2,求出它们的比值为x1、x2。计算出两个集合的交集,假设Y是对交集每个对应匹配点的比值,求出Y中的最小值,该值即为特征匹配的阈值。
步骤4.5,采用渐入渐出加权融合法对图像拼接,如下式所示:
在式中,x1和x2都为等待拼接的输入车底图像,X为输出图像,γ为加权因子,其中,γ如下式所示:
其中,ω表示待拼接的两幅输入车底图像的重叠部分的横坐标距离,ωd为待拼接的两幅输入车底图像的重叠部分的像素点距离重叠部分的横坐标距离。
进一步地,步骤5具体操作如下:
步骤51,对每张车底完整图像进行手工标注,制作属于车底完整图像自己的PASCAL VOC数据集;
步骤52,对制作好的数据集进行模型训练,利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测,具体如下:
在模型训练时设置一个默认预测边框,根据默认预测边框和真实目标边框的交并比辨别样本的正负,当默认预测边框含有目标物体时属于正样本,当默认预测边框不含有目标物体时属于负样本;
图像中包含的与目标无关的背景部分多于目标所占的比例,在检测过程中会使样本比例失衡,为了使样本比例处于一个平衡的状态,使正负样本为1:3,SSD算法对负样本进行排序,排序之后选取一部分符合要求的默认预测边框作为负样本,排序的依据是默认预测边框和真实目标边框的置信度差异;
对于正样本来说,会发生多个默认预测边框同时出现在一个目标上,对于这种情况,SSD算法采用非极大值抑制算法进行改善;大于置信度阈值的默认预测边框认为含有目标物体,小于置信度阈值的默认预测边框认为不含有目标物体;
SSD目标检测过程中,一个特征点上会有K个默认预测边框,假设目标物体一共有C个类别,每个默认预测边框都会预测目标物体属于每一个类比的得分和4个对比默认预测边框的偏移量,假设特征图大小为M×N,则SSD网络输出的预测值有(C+4)×K×M×N个;默认预测边框的大小如式所示:
其中,m表示有多个特征图,Sk为默认预测边框在特征图中所占的比例,Smax、Smin分别表示Sk的最大和最小值,默认预测边框的宽度、高度如下式所示:
本发明采用线阵相机对列车车底的图像进行采集,再通过图像处理技术得到地铁车底的完整图像,之后对车底图像关键螺栓进行故障识别,判断是否存在螺栓脱落等故障,时性强、检测精度高;列检员也可以根据完整的车底图像自行判断是否存在故障,对于地铁的安全运行非常重要,安全可靠。
下面结合附图及具体实施例对本发明作进一步详细描述。
实施例
实现本发明目的的技术解决方案为:一种基于图像处理的列车车底螺栓丢失检测方法,包括以下步骤:
步骤1、利用多个线阵相机模块获取列车车底原始图像同时采用两组双磁钢测速方式获取车速;
将测量车速的两组车轮传感器(一组两个)配合安装夹具安装于轨侧,距离轨面50mm,每组两个车轮传感器之间间隔L1为250mm,第一组和第二组车轮传感器之间间隔L2为13200mm,如图1所示,图中S1是地铁一节车厢两个比较近的车轮之间的距离,S2是地铁一节车厢两个比较远的车轮之间的距离。
将进行车底图像采集的内部集成补偿光源的线阵相机摆放于轨道中间,分为左、中、右三个相机分别进行列车车底图像左、中、右三个部分采集,如图2所示,线阵相机与上位机连接进行图像传输。
步骤2、获取到的车底图像由于车速与相机扫描速率不相适应会产生压缩或者拉伸的畸变,根据获得的12组车速数据利用圆弧曲线拟合技术进行车速曲线拟合,根据拟合曲线对车底原始图像进行一定的拉伸或压缩进行畸变校正;
步骤2.1,利用两组双磁钢进对列车车速进行测量获取12组车速数据;
步骤2.2、对这12组离散的车速数据利用圆弧曲线拟合技术获得列车车速曲线;
步骤2.3、对已经拟合好的车速曲线以0.1秒为采样间隔进行采样,之后根据计算,对图像进行畸变补偿。假设相机第一次检测到的速度为v0,此时根据此速度得出相适应的相机拍摄频率为f0。采集的图像宽度为W,高度为H,其中图像宽度与相机分辨率息息相关,本发明所采用的相机分辨率为4K,因此宽度W为4096px。而高度H表达式如式所示:
其中,L为图像的物理长度,fy为相机纵分辨率。
设Hi为相机拍摄的第i幅图像的高度,其中0≤i≤N-2,HN-1为最后一幅图像的高度,并且采集时间不大于0.1秒,则得出式子如下所示。
经过畸变校正之后,Hj校正为Htj,如式所示。
校正之后,每幅图像的高度由H校正为HT。上述校正方式对于后续图像拼接及螺栓检测都有很重要的支撑作用。
步骤3,利用二维Gamma函数自适应校正算法对畸变校正后的图像进行光照不均校正,得到高质量车底图像;
F(x,y)是用来表示图像的一个二维函数,其值就是图像中某点的亮度值,根据成像原理,图像可以看成是光照分量也就是亮度分量和实际物体的反射分量组成的,如式所示。
F(x,y)=I(x,y)·R(x,y)
其中,I(x,y)为光照分量,R(x,y)为反射分量。设P为所需要校正的图像,I表示引导图像,q表示结果图像,存在以下变换关系如式所示。
其中,k表示图像中某个像素点,r表示以k为中心的半径,ωk表示以k为圆心r为半径的窗口;ak、bk都为线性变换因子,为窗口内为常数。由上式可知,在任意一个窗口内,都存在如上式的梯度关系,可知P的边缘和I的边缘有良好的对应。为了使P和q的差距达到最小,窗口ωk中所需要使用的代价函数如式所示。
其中,ε是为了限制ak过大的参数,为了求得ak和bk的最优值,使用线性回归方法,求得:
其中,|ω|为窗口中像素的个数,μk为I中的均值,σk为I中的方差,是窗口中pk的平均值。对于不同的窗口来说,可能会包含同一个像素点,因此ak和bk的值也会发生变换,为了求得qi的值,取该像素点为中心的不同窗口中ak、bk的平均值作为参数求得qi:
从而提取出光照分量,在基于二维伽马函数的亮度校正函数的基础上进行改进,改进的二维Gamma函数如下式所示,m理论上的取值范围是0到255,因此光照系数ε理论上的取值范围为0到1。本文取ε为0.5,m为128对图像进行校正,发现有较好的自适应校正效果。
其中,O(x,y)为输出图像,I(x,y)为图像的亮度,L(x,y)为图像中某点(x,y)的亮度分量,γ是Gamma校正参数,ε为光照系数,m为一张图像的光照亮度的均值。
步骤4、将FAST算法也就是加速分割检测特征算法和SURF算法相结合,利用它们各自的优点,对图像进行特征点提取和描述,然后将改进的k-d树最近邻查找算法即BBF算法以及双向匹配的自适应阈值方法相结合,对校正后的不同相机采集的车底图像进行图像拼接得到车底高质量完整图像;
步骤4.1、使用FAST算法对图像提取特征点,目的在于提升提取的速度和质量,FAST算法由于计算相对简单,也提升了提取效率。本文对图像中的每一个像素点都进行扫描,然后进行判别每一个像素点周围的16个像素点的灰度值大小是否大于该像素点,其手段是利用FAST算法种的角点公式来进行判别,如下式所示。
其中,N表示灰度值,c为圆周,I(x)表示c内某点的灰度值,P为圆周中心,I(P)为中心点的灰度值,εd为阈值,如果N超过εd的话,那么该像素点就是角点,本文εd设置为9。
步骤4.2、采用SURF算法对特征点进行描述[45]。该算法提取一个特征点作为圆心,半径为6σ,其中σ是所选择的特征点的尺度,然后计算出在该圆的邻域中所有像素点的水平方向和垂直方向的Harr小波响应总和。对图像Haar小波响应的水平方向、垂直方向叠加得到矢量(mw,θw)。
其中,dx和dy分别为水平方向和垂直方向。mw取最大时,θw即为特征点选取的主方向。
步骤4.3、主方向选取完成之后,计算特征描述子,其中特征描述子为在以选取的特征点为中心的矩形中的,矩形边长为20s,其中s为特征点的尺度值。描述特征点的向量如式所示。
V4=(∑dx,∑|dx|,∑dy,∑|dy|)
提取完特征点之后对特征点之间的相似度进行判别,使用BBF算法对参照图和检测图特征点之间的距离进行计算,假设T为最近的特征点和第二最近的特征点的壁纸的阈值,然后进行分类统计,得到两个集合X1和X2,求出它们的比值为x1、x2。计算出两个集合的交集,假设Y是对交集每个对应匹配点的比值,求出Y中的最小值,该值即为特征匹配的阈值。
步骤4.4、采用渐入渐出加权融合法对图像拼接,如下式所示。
在式中,x1和x2都为等待拼接的输入车底图像,X为输出图像,γ为加权因子,其中,γ如下式所示。
其中,ω表示待拼接的两幅输入车底图像的重叠部分的横坐标距离,ωd为待拼接的两幅输入车底图像的重叠部分的像素点距离重叠部分的横坐标距离。
步骤5、对获取到的高质量完整车底图像集进行数据集制作和模型训练;
步骤5.1、对每张高质量完整车底图像进行手工标注,制作属于自己的PASCALVOC数据集,使用LableImage开元软件对获取的图像集进行逐一标注,对于车底螺栓来说,只有丢失和不丢失两种情况,标注bolt代表螺栓没有丢失,标注lose表示螺栓丢失,如图3所示。
步骤5.2、对制作好的数据集进行模型训练,如图4所示。
步骤6、利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测。
在网络模型训练时会设置一个默认预测边框,根据默认预测边框和真实目标边框的交并比可以辨别样本的正负,当预测边框含有目标物体时属于正样本,当预测边框不含有目标物体时属于负样本。一般来说,图像中包含的与目标无关的背景部分多于目标所占的比例,因此在检测过程中会使样本比例失衡,为了使样本比例尽量处于一个平衡的状态,一般来说会使正负样本为1:3左右,SSD会对负样本进行排序,排序之后选取一部分符合要求的预测边框作为负样本,排序的依据是预测边框和真实目标边框的置信度差异。而对于正样本来说,也会发生多个预测边框同时出现在一个目标上,对于这种情况,SSD采用非极大值抑制算法进行改善。置信度阈值是在目标检测过程中的一个重要分水岭,大于置信度阈值的预测边框认为含有目标物体,小于置信度阈值的预测边框认为不含有目标物体。
SSD目标检测过程中,一个特征点上会有K个预测边框,其中,假设目标物体一共有C个类别,每个预测边框都会预测目标物体属于每一个类比的得分和4个对比预测边框的偏移量,假设特征图大小为M×N,则SSD网络输出的预测值有(C+4)×K×M×N个。默认预测边框的大小如式所示。
其中,m表示有多个特征图,Sk为默认预测边框在特征图中所占的比例,而Smax、Smin分别表示Sk的最大和最小值。
默认预测边框的宽度如式所示,高度如式所示:
本发明使用内部集成补偿光源的线阵相机进行图像采集,相比于传统的面阵相机,线阵相机是线式扫描,因此横向分辨率高,并且触发频率可以在采集过程中改变,也可以减小畸变,还有清晰度高、精度高等优点。另外因为现场硬件设备安装条件的限制,补偿光源并没有很好的安装条件,而ET系列线扫描模块产品很好的解决了这个问题,其模块内部集成了线阵相机和大功率光源。采用车速曲线拟合对图像进行畸变校正,解决了图像采集过程中出现的图像畸变,并且对图像进行光照不均校正,解决了图像采集过程中因为光源补偿不均匀出现的图像质量问题。使用对小目标检测精度更高的目标检测算法,提高了检测精度;能实现列车车底螺栓丢失实时在线检测,降低了人工检测的成本。
Claims (6)
1.一种基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤如下:
步骤1,车底原始图像的采集:利用多个线阵相机获取列车车底原始图像,同时采用两组双磁钢测速方式获取车速;
步骤2,车底原始图像的畸变校正:获取的车底原始图像由于车速与相机扫描速率不相适应产生压缩或者拉伸的畸变,根据获得的车速数据利用圆弧曲线拟合技术进行车速曲线拟合,根据拟合曲线对车底原始图像通过拉伸或压缩进行畸变校正;
步骤3,光照不均校正:利用二维Gamma函数自适应校正算法对畸变校正后的图像进行光照不均校正,得到光照不均校正后的车底图像;
步骤4,多个相机模块图像的拼接:将FAST算法和SURF算法相结合,对光照不均校正后的车底图像进行特征点提取和描述,然后将改进的k-d树最近邻查找算法即BBF算法与双向匹配的自适应阈值方法相结合,对不同相机采集的光照不均校正后的车底图像进行图像拼接得到车底完整图像;
步骤5,螺栓丢失检测:对获取到的车底完整图像集进行数据集制作和模型训练,利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测。
2.根据权利要求1所述的基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤1具体包括以下步骤:
将测量车速的两组车轮传感器配合安装夹具安装于轨侧,一组车轮传感器的数量为2个,车轮传感器距离轨面50mm,每组两个车轮传感器之间间隔250mm,第一组和第二组车轮传感器之间间隔13200mm,车轮传感器的信号线接入PLC,PLC接收车轮传感器采集的信号;
将进行车底原始图像采集的内部集成补偿光源的多个线阵相机摆放于轨道中间,分为左、中、右三个相机分别进行列车车底图像左、中、右三个部分采集,线阵相机与上位机连接进行图像传输。
3.根据权利要求1所述的基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤2具体包括以下步骤:
步骤21,利用两组双磁钢对列车车速进行测量,获取12组离散的车速数据;
步骤22,针对12组离散的车速数据,利用圆弧曲线拟合技术获得列车车速曲线;
步骤23,对已经拟合好的车速曲线以0.1秒为采样间隔进行采样,根据拟合曲线对车底原始图像通过拉伸或压缩进行畸变校正,具体如下:
假设线阵相机第一次检测到的速度为v0,根据此速度v0得出相适应的线阵相机拍摄频率为f0,采集的车底原始图像宽度为W、高度为H,采用的相机分辨率为4K、宽度W为4096px,高度H表达式如下:
其中,L为车底原始图像的物理长度,fy为线阵相机纵分辨率;
设Hi为线阵相机拍摄的第i幅图像的高度,其中0≤i≤N-2,HN-1为最后一幅图像的高度,并且采集时间不大于0.1秒,则得出如下式子:
经过畸变校正之后,Hj校正为Htj:
校正之后,每幅图像的高度由H校正为HT:
4.根据权利要求1所述的基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤3具体包括以下步骤:
步骤31,提取畸变校正后的图像的亮度分量,具体如下:
F(x,y)表示图像的一个二维函数,F(x,y)的值是图像中点(x,y)的亮度值,根据成像原理,图像由亮度分量和实际物体的反射分量组成,如式所示:
F(x,y)=I(x,y)·R(x,y)
其中,I(x,y)为光照分量,R(x,y)为反射分量;
设P为所需要光照不均校正的图像,I表示引导图像,q表示结果图像,存在以下变换关系:
其中,k表示图像中像素点,r表示以k为中心的半径,ωk表示以k为圆心r为半径的窗口;ak、bk为线性变换因子;
由上式可知,在任意一个窗口内,都存在如上式的梯度关系,P的边缘和I的边缘对应,为了使P和q的差距最小,窗口ωk中所需要使用的代价函数E(ak,bk)如下式:
其中,ε是为了限制ak过大的参数,为了求得ak和bk的最优值,使用线性回归方法,求得:
对于不同的窗口,可能会包含同一个像素点,因此ak和bk的值也会发生变换,为了求得qi的值,取该像素点为中心的不同窗口中ak、bk的平均值作为参数求得qi:
步骤32,对提取出的亮度分量利用二维Gamma函数自适应校正算法进行校正,具体如下:
提取出光照分量,在基于二维Gamma函数的亮度校正函数的基础上进行改进如下式所示,光照系数ε取0.5,m取128对图像进行校正:
其中,O(x,y)为输出图像,I(x,y)为图像的亮度,L(x,y)为图像中某点(x,y)的亮度分量,γ是Gamma校正参数,ε为光照系数,m为一张图像的光照亮度的均值;
步骤33,将校正后的亮度分量与输入图像融合,合成光照均匀的输出图像。
5.根据权利要求1所述的基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤4具体包括以下步骤:
步骤41,对对光照不均校正后的车底图像中的每一个像素点都进行扫描,然后判别每一个像素点周围的16个像素点的灰度值大小是否大于该像素点,利用FAST算法种的角点公式来进行判别:
其中,N表示灰度值,c为圆周,I(x)表示c内某点的灰度值,P为圆周中心,I(P)为中心点的灰度值;εd为阈值且设置为9,如果N超过εd的话,那么该像素点就是角点;
步骤42,采用SURF算法对特征点进行描述:提取一个特征点作为圆心,半径为6σ,其中σ是所选择的特征点的尺度,然后计算出在所得圆的邻域中所有像素点的水平方向、垂直方向的Harr小波响应总和,对图像Haar小波响应的水平方向、垂直方向叠加得到矢量(mw,θw):
其中,dx和dy分别为水平方向和垂直方向;mw取最大时,θw即为特征点选取的主方向;
步骤43,计算特征描述子,其中特征描述子为在以选取的特征点为中心的矩形中,矩形边长为20s,其中s为特征点的尺度值;描述特征点的向量V4如下式所示:
V4=(∑dx,∑|dx|,∑dy,∑|dy|)
步骤44,提取完特征点之后对特征点之间的相似度进行判别,使用BBF算法对参照图和检测图特征点之间的距离进行计算,假设T为最近的特征点和第二最近的特征点的比值的阈值,然后进行分类统计,得到两个集合X1和X2;计算出两个集合的交集,假设Y是对交集每个对应匹配点的比值,求出Y中的最小值,该值即为特征匹配的阈值;
步骤45,采用渐入渐出加权融合法对图像拼接,如下式所示:
在式中,x1和x2都为等待拼接的输入车底图像,X为输出图像,γ为加权因子,其中,γ如下式所示:
其中,ω表示待拼接的两幅输入车底图像的重叠部分的横坐标距离,ωd为待拼接的两幅输入车底图像的重叠部分的像素点距离重叠部分的横坐标距离。
6.根据权利要求1所述的基于图像处理的列车车底螺栓丢失检测方法,其特征在于,步骤5具体包括以下步骤:
步骤51,对每张车底完整图像进行手工标注,制作属于车底完整图像自己的PASCALVOC数据集;
步骤52,对制作好的数据集进行模型训练,利用深度学习目标检测算法SSD算法对车底螺栓丢失进行检测,具体如下:
在模型训练时设置一个默认预测边框,根据默认预测边框和真实目标边框的交并比辨别样本的正负,当默认预测边框含有目标物体时属于正样本,当默认预测边框不含有目标物体时属于负样本;
图像中包含的与目标无关的背景部分多于目标所占的比例,在检测过程中会使样本比例失衡,为了使样本比例处于一个平衡的状态,使正负样本为1:3,SSD算法对负样本进行排序,排序之后选取一部分符合要求的默认预测边框作为负样本,排序的依据是默认预测边框和真实目标边框的置信度差异;
对于正样本来说,会发生多个默认预测边框同时出现在一个目标上,对于这种情况,SSD算法采用非极大值抑制算法进行改善;大于置信度阈值的默认预测边框认为含有目标物体,小于置信度阈值的默认预测边框认为不含有目标物体;
SSD目标检测过程中,一个特征点上会有K个默认预测边框,假设目标物体一共有C个类别,每个默认预测边框都会预测目标物体属于每一个类比的得分和4个对比默认预测边框的偏移量,假设特征图大小为M×N,则SSD网络输出的预测值有(C+4)×K×M×N个;默认预测边框的大小如式所示:
其中,m表示有多个特征图,Sk为默认预测边框在特征图中所占的比例,Smax、Smin分别表示Sk的最大和最小值,默认预测边框的宽度、高度如下式所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210067611.2A CN114511519A (zh) | 2022-01-20 | 2022-01-20 | 一种基于图像处理的列车车底螺栓丢失检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210067611.2A CN114511519A (zh) | 2022-01-20 | 2022-01-20 | 一种基于图像处理的列车车底螺栓丢失检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114511519A true CN114511519A (zh) | 2022-05-17 |
Family
ID=81550207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210067611.2A Pending CN114511519A (zh) | 2022-01-20 | 2022-01-20 | 一种基于图像处理的列车车底螺栓丢失检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114511519A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820620A (zh) * | 2022-06-29 | 2022-07-29 | 中冶建筑研究总院(深圳)有限公司 | 一种螺栓松动缺陷检测方法、系统及装置 |
CN115471468A (zh) * | 2022-09-05 | 2022-12-13 | 哈尔滨市科佳通用机电股份有限公司 | 基于深度神经网络的列车小零部件检测方法 |
CN116519787A (zh) * | 2023-07-05 | 2023-08-01 | 成都盛锴科技有限公司 | 一种第三轨受电靴检测系统及方法 |
-
2022
- 2022-01-20 CN CN202210067611.2A patent/CN114511519A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820620A (zh) * | 2022-06-29 | 2022-07-29 | 中冶建筑研究总院(深圳)有限公司 | 一种螺栓松动缺陷检测方法、系统及装置 |
CN114820620B (zh) * | 2022-06-29 | 2022-09-13 | 中冶建筑研究总院(深圳)有限公司 | 一种螺栓松动缺陷检测方法、系统及装置 |
CN115471468A (zh) * | 2022-09-05 | 2022-12-13 | 哈尔滨市科佳通用机电股份有限公司 | 基于深度神经网络的列车小零部件检测方法 |
CN116519787A (zh) * | 2023-07-05 | 2023-08-01 | 成都盛锴科技有限公司 | 一种第三轨受电靴检测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114511519A (zh) | 一种基于图像处理的列车车底螺栓丢失检测方法 | |
CN111784633B (zh) | 一种面向电力巡检视频的绝缘子缺损自动检测算法 | |
CN110033431B (zh) | 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法 | |
CN110211101A (zh) | 一种铁轨表面缺陷快速检测系统及方法 | |
CN110490842B (zh) | 一种基于深度学习的带钢表面缺陷检测方法 | |
CN112465706A (zh) | 一种闸口集装箱自动验残方法 | |
CN113177924A (zh) | 一种工业流水线产品瑕疵检测方法 | |
CN113989257A (zh) | 基于人工智能技术的电力综合管廊沉降裂缝识别方法 | |
CN111611907A (zh) | 一种图像增强的红外目标检测方法 | |
CN112270658A (zh) | 一种基于机器视觉的电梯钢丝绳检测方法 | |
CN116665011A (zh) | 一种基于机器视觉的煤矿带式输送机煤流异物识别方法 | |
CN111199194A (zh) | 基于机器视觉和深度学习的汽车智能座舱仪表测试方法 | |
CN114529839A (zh) | 一种面向无人机巡检的输电线金具异常检测方法及系统 | |
CN112508911A (zh) | 基于巡检机器人的轨交接触网悬挂支撑部件裂纹检测系统及其检测方法 | |
CN112862744A (zh) | 一种基于超声图像的电容内部缺陷智能检测方法 | |
CN112288682A (zh) | 基于图像配准的电力设备缺陷定位方法 | |
CN114820597B (zh) | 一种基于人工智能的冶炼品缺陷检测方法、装置及系统 | |
CN110688876A (zh) | 一种基于视觉的车道线检测方法及装置 | |
CN112712055B (zh) | 一种双路可变形cnn煤矿顺槽皮带运输异物监测方法 | |
CN202650248U (zh) | 基于图像处理的智能交通管控装置 | |
CN110135274A (zh) | 一种基于人脸识别的人流量统计方法 | |
CN115880476A (zh) | 一种基于可见光红外图像融合的皮带跑偏检测方法 | |
CN117392043A (zh) | 一种基于深度学习的钢板表面缺陷视频检测方法及系统 | |
CN111583341B (zh) | 云台像机移位检测方法 | |
CN115482207A (zh) | 一种螺栓松动检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |