CN113591973B - 一种轨道板外观状态变化智能比对方法 - Google Patents
一种轨道板外观状态变化智能比对方法 Download PDFInfo
- Publication number
- CN113591973B CN113591973B CN202110861909.6A CN202110861909A CN113591973B CN 113591973 B CN113591973 B CN 113591973B CN 202110861909 A CN202110861909 A CN 202110861909A CN 113591973 B CN113591973 B CN 113591973B
- Authority
- CN
- China
- Prior art keywords
- image
- track plate
- detected
- comparison method
- grids
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8887—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及铁路工务轨道线路自动巡检技术领域,尤其是一种轨道板外观状态变化智能比对方法,通过采用扣件目标检测算法优化、扣件检测、基于扣件大小、对称性、等间距性的扣件异常状态初筛、基于扣件位置的轨道板区域分步对齐、图像全域多尺寸、多位置网格切分、网格图像特征提取、特征向量化及相关性分析等技术对轨道板的待检图像与其历史图像进行比对,从而筛选出存在状态变化的轨道板。本发明的优点是:1)节省人工成本;2)检测范围广;3)计算速度快;4)检测精度高;5)检测方法灵活。
Description
技术领域
本发明涉及铁路工务轨道线路自动巡检技术领域,尤其是一种轨道板外观状态变化智能比对方法。
背景技术
随着我国高铁里程的日益增长,高铁线路巡检工作量持续加重,同时高铁线路精细化管理要求更高,因此高精度自动化巡检工作正在全面铺开。目前的技术路线是应用轨道巡检车采集高铁线路原始图像,经切割和重新拼接后形成轨道板图像。根据轨道车运行控制设备(简称GYK设备)的里程数据,每块轨道板图像被赋予唯一的里程编号。目前,对于轨道板图像可通过轨道巡检车进行数据采集,采集的轨道板图像分左、右两侧,可分别进行处理。
这些轨道板图像的后处理目前有两种模式。第一种是利用人工查看,高速铁路每公里约有211-215张轨道板,以沪宁客运专线为例,上下行共有近13万张轨道板图像,但外观变化点非常稀疏,在海量数据中寻找变化点很困难,看图人员亦因视觉和心理疲劳容易漏图,精度不高。
第二种如一种基于图像识别的轨道缺陷检测系统及方法(专利申请号:202010982473.1)所示,采用目标检测算法YOLOV3进行目标检测。YOLOV3是一种深度学习算法,需要大量的样本、尤其是缺陷样本对模型进行训练,才能得到较好的检测算法。但由于我国高铁运营维护质量很高,缺陷样本极少,因此很难训练出理想模型;其次,轨道板故障缺陷种类繁多,深度学习必须要有明确的类别才能找到故障目标,每个类别收集到足够正负样本几乎不可能实现;最后,工务巡检不仅要找到轨道板及附属设备的缺陷,还要检验上次已发现缺陷是否已经修复。因此,单纯用目标检测方法,很难实现铁路工务线路轨道板的故障检测与外观状态持续跟踪。
同时,轨道板图像由巡检车所采集,但车辆在行驶过程中不可避免会产生蠕滑,蠕滑具有随机性,因此在同一采集位置,编码器触发线阵相机的采集频率可能会较大差别,导致图像在列车行进方向上产生压缩或拉伸,无法保证后续的检测精度。
发明内容
本发明的目的是根据上述现有技术的不足,提供了一种轨道板外观状态变化智能比对方法,利用目标检测方法,检出轨道板历史图像和待检图像中每个扣件的精确位置,以此为依据对局部图像进行变形使之对齐。其次对图像进行网格化,提取每个网格区域图像的hog特征,将hog特征转成一维向量进行相关性计算,相关性低于阈值者为显著差异点,从而可检测出包括设备缺陷、遗留污渍、轨道板破损、裂纹、前次检测缺陷的修复等等在内的外观差异,为轨道状态跟踪提供完备的资料。
本发明目的实现由以下技术方案完成:
一种轨道板外观状态变化智能比对方法,其特征在于:该比对方法包括以下步骤:
训练目标检测算法;
使用所述目标检测算法对单块轨道板的待检图像上的扣件与其历史图像上的扣件进行目标检测,确定扣件外接矩形框的坐标;
通过比对所述待检图像和所述历史图像上扣件外接矩形框筛选出扣件异常的非理想轨道板;
将扣件正常的理想轨道板的所述待检图像与其历史图像进行对齐和切边;
利用K邻近算法对理想轨道板的所述历史图像和所述待检图像之间的差异区域进行计算,计算出2类最接近真实差异区域尺寸的网格;
参照该网格将历史图像和所述待检图像全区划分网格;
提取所述历史图像和所述待检图像中每个单元网格的hog特征并向量化,分别计算对应单元网格hog向量的相关系数,筛选出单块轨道板中相关系数最低的网格,若该网格的相关系数低于阈值,则该单块轨道板存在状态变化。
采用深度学习算法YOLOV5训练所述目标检测算法,所述深度学习算法YOLOV5的模型采用单通道捕捉图像特征,仅输出适应于轨道板上扣件大小的输出结果,同时加大其损失函数在高度方向定位部分的权重。
所述扣件异常的轨道板的筛选条件包括扣件尺寸、扣件的左右对称性、扣件在高度方向上的等间距性。
所述理想轨道板的待检图像与历史图像的对齐是通过:沿所述待检图像的顶部到底部,将所述待检图像的每个扣件的上边沿或下边沿与其历史图像的每个扣件的对应上边沿或下边沿通过逐段图像缩放的方式水平对齐。
所述理想轨道板的待检图像与历史图像的切边是通过:采用自动检测黑边算法将轨道板的图像左侧或右侧的无目标黑色部分删除。
将历史图像和所述待检图像均匀划分为多种形状的网格,每种形状的网格分别以向下滑动半个网格高度,向右滑动半个网格宽度的滑动窗口方式增加覆盖方式数。
所述hog特征的相关系数计算是先将hog特征扁平化为一维向量,并将所述历史图像和所述待检图像中的两个一维向量前若干个元素统一加上一定常量。
所述单元网格的形状通过所述K邻近算法确定。
本发明的优点是:
1) 节省人工成本:经本发明方法比对后,仅有0.5%的轨道板图像还需人工复核,大大缩减技术人员的工作量;
2) 检测范围广:不仅能检测可列出的故障类型,还可检测只要有外观变化的任意状态,包括故障修复后的状态跟踪;
3) 计算速度快:对扣件目标检测算法进行了优化,去除了多余的卷积核和输出尺度;
4) 检测精度高:利用图像对齐、多尺度、多位置网格捕捉和基于hog特征的相关系数计算,可找出所有状态变化区域,漏检概率极低;
5) 检测方法灵活:只需调整检测网格大小,即可捕捉更小的外观状态变化。
附图说明
图1为本发明的流程图;
图2为本发明的扣件目标框示意图;
图3为本发明的检测效果图。
具体实施方式
以下结合附图通过实施例对本发明特征及其它相关特征作进一步详细说明,以便于同行业技术人员的理解:
实施例:如图1所示,本实施例中的轨道板外观状态变化智能对比方法包括以下步骤:
首先制作扣件目标检测算法,对历史图像和待检图像中的扣件位置进行提取。这一步的目的有两个,首先扣件是轨道板检测中最重要的目标之一,而扣件的大小基本一致,在轨道板中的分布也也呈对称和等间距排列,根据这些特征可以直接判断由于扣件变化引起的轨道板状态变化;其次,每块轨道板上均有较多扣件,利用其等间距特征对历史与待检图像进行区域分步对齐,是一个很好的锚。
选取深度学习算法YOLOV5训练扣件目标检测算法。首先精标大量历史轨道板图像,紧贴边缘框出扣件,并制作数据集索引文件;其次对YOLOV5模型进行改造。该YOLOV5模型具有如下特点:1)将捕捉图像特征的三通道卷积核变为单通道,以提高计算速度;2)为了捕捉不同大小的目标,YOLOV5输出3个不同尺度的输出结果,本实施例去掉2个不匹配的尺度输出,只留下最适应扣件大小的输出,以进一步提高计算速度;3)本实施例进行扣件检测的目标是为了取得区域分步对齐的锚点,定位精度的要求高,因此需修改损失函数,加大竖直方向上定位部分的权重,以提高定位精度,损失函数与定位有关的部分修改如下:
(1)
式(1)中,为损失函数中定位部分的权重,不予改动,/>表示如果i,j处的网格中有目标,其值为1,否则为0。x,y,w,h分别为标注数据集中定位框的坐标和宽、高,分别为训练过程中推理得出的定位框坐标和宽、高。这些数据根据整张图像的宽和高进行了归一化处理。每训练一步,求取真实框与推理框的欧式距离即为式(1)的结果。训练的过程就是使得这个公式最小的过程。因此本实施例将纵坐标与框高乘以一个大于1的系数/>以放大垂直空间上的位置差距,使得训练过程中有更大空间压缩此差距,以提高图像在垂直方向上的位置精度。
算法训练好以后,对历史图像和待检图像进行扣件目标检测,将图像中所有扣件检出,并确定位置。如图2所示,根据扣件尺寸、根据轨道左右对称和间距较为均匀的特征确定待检图像中是否有异常扣件或扣件缺失。如在待检图像中,扣件目标框的大小失去均匀性、对称性或等间距性,则判断缺陷(非理想轨道板),交由人工进一步核实。
若单块轨道板的待检图像上的扣件目标框经上述判断没有问题(此待检的轨道板为理想轨道板),则根据扣件目标框的上、下边缘两个位置进行对齐。轨道板单侧扣件数量从5-9个不等,这样可以取到10-18个较为均匀的锚点。具体如下:首先计算该块轨道板的历史图像的顶部到第一个扣件上端的高度,如果待检图像的对应高度不一致,则将待检图像中此段子图像的高度伸缩至历史图像对应高度,接着对齐从第一个扣件上端到下端的高度、从第一个扣件下端到第二个扣件下端的高度,依次类推,完成全部待检图像与历史图像在高度方向上(垂直方向上)的对齐。最后将待检图像中所有经过伸缩对齐的子图像进行拼接,形成与历史图像高度完全一致、内部像素基本对齐的新待检图像。
对上述步骤得到的两张轨道板图像,即一张待检图像及一张历史图像,采用自动黑边检测算法检测轨道板左侧的黑色部分(例如图2所示的左侧部分),自动裁剪掉左侧无目标的黑色部分,减少后续步骤中所划分的网格可能覆盖到的无效区域,减少误检。
在本步骤中,首先用Canny边缘检测算法将图像二值化,突出非轨道板黑色部分和轨道板明亮部分的分界线,然后通过求取图像列和的方式确定分界线。
对历史图像和处理后的待检图像进行压缩。压缩的目的,一方面是为了提高下述相关系数计算的速度,另一方面可以部分去除局部区域对齐偏差的影响。
对压缩后的历史图像和待检图像描画全域网格,该网格覆盖全图。网格尺寸由下述方法确定:收集大量历史轨道板图像,紧贴边缘框出其状态变化区域(差异区域),同一压缩比下框的长、宽为一组数据。利用K邻近算法对数据进行2分类,以此确定2类网格尺寸。每个尺寸的网格进行2次检测,第一次网格左上角与图像左上角重合,进行网格描画,第二次将网格整体移动,将网格的每个顶点移动到第一次每个网格的中央位置;具体可将每类网格再向下和向右偏移半格,使第2次的网格顶点在第1次网格的中央,形成4种形状和位置组合。
在本步骤中:利用k邻近算法确定网格尺寸,是为了更真实地捕捉到差异位置。网格尺寸不能过大也不能过小,网格过小时一些微小的无害变化,其在网格中占比过大,很容易导致后续置信度计算中超出阈值误检,网格过大时需要报出的变化因在网格中占比较小,不超出阈值发生漏检。因此采用真实的差异区域作为网格尺寸最为合适。
网格进行移动的目的是:网格是盲张的,一个需要检出的变化区域,可能会分布在2个甚至4个网格中。这样对于单个网格,变化区域占比过小无法触发阈值报警,造成漏检。网格移动后,在上个网格位置中很分散的变化区域,很可能在这次检测时集中体现在一个网格中并检出,降低漏检概率。
确定网格后,对每个网格区域进行如下操作:
分别求取历史图像和待检图像对应网格的方向梯度直方图(hog)特征,并将hog特征向量化。计算这两个向量的相关系数。相关系数公式如下:
(2)
式(2)中,Cov(X,Y)为X与Y的协方差,Var[X]为X的方差,Var[Y]为Y的方差。若两个网格中的子图像基本一致,其像素空间变化的方向和大小是基本一致的,相关性较高,若两个网格中图像有差异,则其像素的空间变化将失去协同性,相关系数低。对应网格中图像差异性越大,其相关系数越低。因相关系数是考虑向量变化的协同性,只与变化的相对性有关,因此其对于整体图像的明暗不敏感,比结构相似性(SSIM)算法更适用于轨道板场景的检测。
利用hog特征而非图像原始像素进行向量化,是因为图像不可能完全对齐,可能存在上下左右1-2个像素的偏差,而hog特征对于像素小范围偏差具有较强的鲁棒性。亦可用其它图像特征提取算法进行向量化,效果类似。
如图3所示,通过对2类尺寸×2类位置的4类网格进行相关系数的计算,并求出图像中最小的相关系数,如果此数据小于阈值,则判定此图像有显著外观变化,交由人工处理。
阈值的确定:对确定网格尺寸时标定的数据进行4类网格的相关系数计算,取其最大值作为阈值。
本实施例在具体实施时:除了上述的扣件以外,钢轨磨损、轨道板边缘破损、轨道板裂纹等各种病害均可在外观上与理想轨道板存在差异,通过本实施例的比对方法可将这些病害都筛选出来,保证检测精度。
本实施例采用多尺度、周边水平、垂直微调检测框的方法进行轨道板的待检图像上异常状态捕捉,其创新点在于:
1)多尺度对比框的尺寸来源于历史异常状态图像数据的聚类,最优尺寸的检测框能最大概率捕捉图像差异,提高检测精度。
2)因图像差异位置可发生在任何位置,因此通过围绕中心的周边扫描的方式对盲张的单元网格进行逐个计算,各单元网格中差异区域最大的框,其hog特征的相关系数必然最小。只需找出最小相关系数与阈值进行对比即可,小于阈值即认为存在差异,在保证检测精度的同时,提高检测速度。
3)因是计算相同位置的图像差异程度,相比传统的SSIM(图像结构相似性算法),直接用框定图像的hog特征进行相关性计算即可。只要差异区域(不仅包括边缘,还把所有不相似的像素点计算在内)超过一定比例,即可检测出差异位置。不同时期的轨道板上可能存在水渍等情况,而这些情况属于正常状态,因此本实施例利用hog方法提取图像特征是适用的,避免因太多细节特征反而会产生更多误检,无需对区域图像本身做子图像切割和金字塔特征堆叠。
虽然以上实施例已经参照附图对本发明目的的构思和实施例做了详细说明,但本领域普通技术人员可以认识到,在没有脱离权利要求限定范围的前提条件下,仍然可以对本发明作出各种改进和变换,故在此不一一赘述。
Claims (7)
1.一种轨道板外观状态变化智能比对方法,其特征在于:该比对方法包括以下步骤:
训练目标检测算法;
使用所述目标检测算法对单块轨道板的待检图像上的扣件与其历史图像上的扣件进行目标检测,确定扣件外接矩形框的坐标;
通过比对所述待检图像和所述历史图像上扣件外接矩形框筛选出扣件异常的非理想轨道板;
将扣件正常的理想轨道板的所述待检图像与其历史图像进行对齐和切边;
利用K邻近算法对理想轨道板的所述历史图像和所述待检图像之间的差异区域进行计算,计算出2类最接近真实差异区域尺寸的网格;
参照该网格将历史图像和所述待检图像全区划分网格;
提取所述历史图像和所述待检图像中每个单元网格的hog特征并向量化,分别计算对应单元网格hog向量的相关系数,筛选出单块轨道板中相关系数最低的网格,若该网格的相关系数低于阈值,则该单块轨道板存在状态变化;
采用深度学习算法YOLOV5训练所述目标检测算法,所述深度学习算法YOLOV5的模型采用单通道捕捉图像特征,仅输出适应于轨道板上扣件大小的输出结果,同时加大其损失函数在高度方向定位部分的权重。
2.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:所述扣件异常的轨道板的筛选条件包括扣件尺寸、扣件的左右对称性、扣件在高度方向上的等间距性。
3.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:所述理想轨道板的待检图像与历史图像的对齐是通过:沿所述待检图像的顶部到底部,将所述待检图像的每个扣件的上边沿或下边沿与其历史图像的每个扣件的对应上边沿或下边沿通过逐段图像缩放的方式水平对齐。
4.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:所述理想轨道板的待检图像与历史图像的切边是通过:采用自动检测黑边算法将轨道板的图像左侧或右侧的无目标黑色部分删除。
5.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:将历史图像和所述待检图像均匀划分为多种形状的网格,每种形状的网格分别以向下滑动半个网格高度,向右滑动半个网格宽度的滑动窗口方式增加覆盖方式数。
6.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:所述hog特征的相关系数计算是先将hog特征扁平化为一维向量,并将所述历史图像和所述待检图像中的两个一维向量前若干个元素统一加上一定常量。
7.根据权利要求1所述的一种轨道板外观状态变化智能比对方法,其特征在于:所述单元网格的形状通过所述K邻近算法确定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110861909.6A CN113591973B (zh) | 2021-07-29 | 2021-07-29 | 一种轨道板外观状态变化智能比对方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110861909.6A CN113591973B (zh) | 2021-07-29 | 2021-07-29 | 一种轨道板外观状态变化智能比对方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113591973A CN113591973A (zh) | 2021-11-02 |
CN113591973B true CN113591973B (zh) | 2023-08-01 |
Family
ID=78251559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110861909.6A Active CN113591973B (zh) | 2021-07-29 | 2021-07-29 | 一种轨道板外观状态变化智能比对方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113591973B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114677342A (zh) * | 2022-03-14 | 2022-06-28 | 西南交通大学 | 一种无监督缺陷检测方法 |
CN114821165A (zh) * | 2022-04-19 | 2022-07-29 | 北京运达华开科技有限公司 | 一种轨道检测图像采集分析方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796643A (zh) * | 2019-10-18 | 2020-02-14 | 四川大学 | 一种铁轨扣件缺陷检测方法和系统 |
CN111311567A (zh) * | 2020-02-12 | 2020-06-19 | 北京交通大学 | 对轨道线路图像进行扣件和钢轨病害识别的方法 |
CN111311560A (zh) * | 2020-02-10 | 2020-06-19 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 钢轨扣件状态的检测方法及装置 |
CN111899227A (zh) * | 2020-07-06 | 2020-11-06 | 北京交通大学 | 基于无人机作业的铁路扣件缺陷自动采集辨识方法 |
-
2021
- 2021-07-29 CN CN202110861909.6A patent/CN113591973B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110796643A (zh) * | 2019-10-18 | 2020-02-14 | 四川大学 | 一种铁轨扣件缺陷检测方法和系统 |
CN111311560A (zh) * | 2020-02-10 | 2020-06-19 | 中国铁道科学研究院集团有限公司基础设施检测研究所 | 钢轨扣件状态的检测方法及装置 |
CN111311567A (zh) * | 2020-02-12 | 2020-06-19 | 北京交通大学 | 对轨道线路图像进行扣件和钢轨病害识别的方法 |
CN111899227A (zh) * | 2020-07-06 | 2020-11-06 | 北京交通大学 | 基于无人机作业的铁路扣件缺陷自动采集辨识方法 |
Non-Patent Citations (1)
Title |
---|
《基于YOLO 的轨道扣件状态检测》;王兵水;《传感器与微系统》;第第40卷卷(第第4期期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113591973A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108009515B (zh) | 一种基于fcn的无人机航拍图像的输电线定位识别方法 | |
CN113591973B (zh) | 一种轨道板外观状态变化智能比对方法 | |
CN109800824A (zh) | 一种基于计算机视觉与机器学习的管道缺陷识别方法 | |
CN106290388A (zh) | 一种绝缘子故障自动检测方法 | |
CN108549864A (zh) | 面向车载热成像行人检测的感兴趣区域过滤方法和装置 | |
CN108711148B (zh) | 一种基于深度学习的轮胎缺陷智能检测方法 | |
CN106991668B (zh) | 一种天网摄像头拍摄画面的评价方法 | |
CN108804992B (zh) | 一种基于深度学习的人群统计方法 | |
CN108010025B (zh) | 基于rcnn的屏柜的开关与指示灯定位和状态识别方法 | |
CN110807355A (zh) | 一种基于移动机器人的指针仪表检测与读数识别方法 | |
CN113324864B (zh) | 一种基于深度学习目标检测的受电弓碳滑板磨耗检测方法 | |
CN111080691A (zh) | 一种光伏组件红外热斑检测方法、装置 | |
CN114973002A (zh) | 一种基于改进的YOLOv5的麦穗检测方法 | |
CN113962929B (zh) | 光伏电池组件缺陷检测方法、系统及光伏电池组件生产线 | |
CN113393426A (zh) | 一种轧钢板表面缺陷检测方法 | |
CN116740652B (zh) | 一种基于神经网络模型的锈斑面积扩大的监测方法与系统 | |
CN109271904A (zh) | 一种基于像素自适应分割和贝叶斯模型的黑烟车检测方法 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN101908150B (zh) | 一种人体检测方法 | |
CN111597939A (zh) | 一种基于深度学习的高铁线路鸟窝缺陷检测方法 | |
JP2011013924A (ja) | 駐車場における車両の検知システムおよび検知方法 | |
CN111582332B (zh) | 一种高速铁路接触网吊弦部件的图片识别方法 | |
CN107545565B (zh) | 一种太阳能网版检测方法 | |
CN113610799A (zh) | 基于人工智能的光伏电池板彩虹纹检测方法、装置及设备 | |
CN113591735A (zh) | 一种基于深度学习的行人检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |