CN112215263B - 基于深度卷积神经网络的钢轨波磨检测方法 - Google Patents
基于深度卷积神经网络的钢轨波磨检测方法 Download PDFInfo
- Publication number
- CN112215263B CN112215263B CN202011011012.6A CN202011011012A CN112215263B CN 112215263 B CN112215263 B CN 112215263B CN 202011011012 A CN202011011012 A CN 202011011012A CN 112215263 B CN112215263 B CN 112215263B
- Authority
- CN
- China
- Prior art keywords
- neural network
- convolutional neural
- pictures
- training
- deep convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/16—File or folder operations, e.g. details of user interfaces specifically adapted to file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及钢轨波磨检测技术领域,涉及一种基于深度卷积神经网络的钢轨波磨检测方法,其包括以下步骤:一、拍摄钢轨顶面图像,并保存;二、挑选出长波磨、短波磨和非波磨的图片并标定;三、提取图像中间的钢轨区域;四、创建训练集数据存放文件夹;五、创建测试文件夹;六、将图片按照原图片灰度值的0.6倍、0.8倍、1.2倍和1.4倍进行变换;七、使用DenseNet模型构造深度卷积神经网络;八、将训练集导入构建的深度卷积神经网络模型进行训练;九、将测试集输入到深度卷积神经网络中进行测试,并统计评价指标值。本发明能够实现长、短波磨的有效和高速检测,并实现对光照强度变化的鲁棒性。
Description
技术领域
本发明涉及钢轨波磨检测技术领域,具体地说,涉及一种基于深度卷积神经网络的钢轨波磨检测方法。
背景技术
随着深度学习理论的提出和数值计算设备的改进,卷积神经网络得到了快速发展,并被广泛应用于图像识别领域。卷积神经网络由于其独特的卷积运算和多层次的网络结构,具有稀疏连接的性质和表征学习的能力,计算效率高且对图像的平移和旋转不敏感,在图像识别领域取得了巨大成功。深度卷积神经网络相比普通的卷积神经网络有更深层次和更加精妙的网络结构,因此可以提取更高阶的特征从而具有更加优异的识别性能。
基于计算机视觉的车载轨道巡检系统在国内外得到广泛应用,该类系统可以实时采集线路环境的高分辨率数字图像,然后运用先进的模式识别技术对采集到的图像进行分类。目前已有的钢轨波磨图像分类的方法是先提取图像特征(Gabor纹理特征、局部频率特征),再使用机器学习的方法(K-近邻方法、支持向量机)对提取到的特征进行分类,达到检测波磨的目的。
现有的波磨检测方法主要是通过SVM(支持向量机)的方法进行波磨线的分类,由于SVM算法本身并不是一种高效的算法,无法处理大量数据,因此该方法的作者先要使用算法将钢轨区域从图片分割出来,然后对采集到的图像手工提取特征,再使用SVM(支持向量机)的方法对特征进行分类,这样导致过程繁琐,检测时间过长无法在列车高速运行的环境下实现实时检测,而且该类方法没有对波磨的类型加以区分。该波磨检测方法的实现流程是在轨检车车厢下安装图像采集设备包括线阵相机、光源来获取钢轨顶面的清晰图像,然后采集到的图像通过基于位置加权的钢轨定位算法对图像中的钢轨区域从背景中分离,提取图像的频率特征,然后使用支持向量机的方法对特征进行分类达到波磨检测的目的。
发明内容
本发明的内容是提供一种基于深度卷积神经网络的钢轨波磨检测方法,其能够克服现有技术的某种或某些缺陷。
根据本发明的一种基于深度卷积神经网络的钢轨波磨检测方法,其包括以下步骤:
一、拍摄钢轨顶面图像,并保存;
二、挑选出长波磨、短波磨和非波磨的图片并标定;
三、提取图像中间的钢轨区域;
四、创建训练集数据存放文件夹,在其内部创建三个训练文件夹,将标定的长波磨、短波磨和非波磨图片移动到对应的文件夹内制作原始的训练集;
五、将原始训练集内的图片的分辨率转变成一致,创建测试文件夹,在测试文件夹下创建5个主文件夹,并在每个文件夹下再创建三个子文件夹来对应图片类别,然后随机将各类图片的30%对应移动到其中一个主文件夹内的三个子文件夹内;
六、将所述其中一个主文件夹下的图片按照原图片灰度值的0.6倍、0.8倍、1.2倍和1.4倍进行变换,并将变换后图片保存到测试集内剩下的4个文件夹内;
七、使用DenseNet稠密连接网络模型作为基础模型构造深度卷积神经网络;
八、将训练集导入构建的深度卷积神经网络模型进行训练,使用分类交叉熵作为损失函数,使用Adam算法,进行训练参数的更新;当批次的平均训练损失值小于0.0001时,认为达到要求,保存训练模型,停止训练;
九、将测试集内5个灰度类别的数据输入到深度卷积神经网络中进行测试,并统计评价指标值;使用精准率、召回率、F1度量、单张图片的测试时间及每一个类别对应的TOP-1准确率作为评价指标;
精准率、召回率、F1度量的计算公式如下:
精准率:P=TP/(TP+FP);召回率:R=TP/(TP+FN);F1度量:F1=2×(P×R)/(P+R);
式中TP为真正例,FP为假正例,FN为假反例,TN为真反例;将长波磨和短波磨图片作为正例,非波磨图片作为反例。
作为优选,步骤一中,拍摄钢轨顶面图像的具体方法为:在检测小车上搭载高速摄像机,调整摄像机安装位置,使拍摄角度垂直于钢轨顶面。
作为优选,步骤一中,保存方法为:将拍摄的钢轨顶面图像导出并保存为jpg格式图片。
作为优选,步骤二中,挑选出长波磨、短波磨和非波磨的图片并标定后,统计各类图片数量,舍弃部分数量远高于其他类别的类别图片。
作为优选,步骤五中,将原始训练集内的图片的分辨率全部转变为224*224。
作为优选,步骤五中,测试文件夹的文件名为test,5个主文件夹的文件名为gray0.6、gray0.8、gray1.0、gray1.2、gray1.4,三个子文件夹的文件名为long、short和normal,随机将各类图片的30%移动到gray1.0对应的文件夹内。
作为优选,步骤七中,深度卷积神经网络是含有更多网络层的卷积神经网络,卷积神经网络包括卷积模块和全连接模块,卷积模块提取特征,全连接模块对特征进行分类;卷积神经网络的公式表达如下:
作为优选,步骤八中,分类交叉熵的计算公式如下:
B是训练批次的大小,C是分类数目,y是训练数据标签,取所有批次的平均损失作为最终指标。
本发明能够实现长、短波磨的有效和高速检测,并实现对光照强度变化的鲁棒性;通过对长波磨、短波磨和非波磨的图片的处理和分类,使用DenseNet稠密连接网络模型作为基础模型构造成深度卷积神经网络进行测试,使用精准率、召回率、F1度量、单张图片的测试时间及每一个类别对应的TOP-1准确率作为评价指标,能较佳地检测钢轨波磨。
附图说明
图1为实施例1中一种基于深度卷积神经网络的钢轨波磨检测方法的流程图;
图2为实施例1中挑选的短波磨和非波磨的图片;
图3为实施例1中提取后的短波磨和非波磨的图片;
图4为实施例1中卷积神经网络的原理图;
图5为实施例1中2*2的平均池化计算原理图;
图6为实施例1中DenseNet的示意图;
图7为实施例1中深度卷积神经网络工作流程图;
图8为实施例1中光带小车的示意图。
具体实施方式
为进一步了解本发明的内容,结合附图和实施例对本发明作详细描述。应当理解的是,实施例仅仅是对本发明进行解释而并非限定。
实施例1
如图1所述,本实施例提供了一种基于深度卷积神经网络的钢轨波磨检测方法,其包括以下步骤:
一、拍摄钢轨顶面图像,并保存;
二、挑选出长波磨、短波磨和非波磨的图片并标定;挑选的短波磨和非波磨的图片如图2所示。
三、提取图像中间的钢轨区域;鉴于钢轨区域均在图像的中间区域在图像的中部区域,因此可人为提取钢轨区域,减少计算量,如图3所示为提取后的短波磨和非波磨的图片,挑选的图片分辨率为2976*3968,提取后的分辨率为2976*825。
四、创建训练集数据存放文件夹,在其内部创建三个训练文件夹,将标定的长波磨、短波磨和非波磨图片移动到对应的文件夹内制作原始的训练集;
五、将原始训练集内的图片的分辨率转变成一致,创建测试文件夹,在测试文件夹下创建5个主文件夹,并在每个文件夹下再创建三个子文件夹来对应图片类别,然后随机将各类图片的30%对应移动到其中一个主文件夹内的三个子文件夹内;
六、考虑光线强度对测试精度的影响,将所述其中一个主文件夹下的图片按照原图片灰度值的0.6倍、0.8倍、1.2倍和1.4倍进行变换,并将变换后图片保存到测试集内剩下的4个文件夹内;
七、使用DenseNet稠密连接网络模型作为基础模型构造深度卷积神经网络;
八、将训练集导入构建的深度卷积神经网络模型进行训练,使用分类交叉熵作为损失函数,使用Adam(Adaptive moment estimation)算法,进行训练参数的更新;当批次的平均训练损失值小于0.0001时,认为达到要求,保存训练模型,停止训练;
九、将测试集内5个灰度类别的数据输入到深度卷积神经网络中进行测试,并统计评价指标值;使用精准率、召回率、F1度量、单张图片的测试时间及每一个类别对应的TOP-1准确率作为评价指标;
精准率、召回率、F1度量的计算公式如下:
精准率:P=TP/(TP+FP);召回率:R=TP/(TP+FN);F1度量:F1=2×(P×R)/(P+R);
式中TP为真正例,FP为假正例,FN为假反例,TN为真反例;将长波磨和短波磨图片作为正例,非波磨图片作为反例。
步骤一中,拍摄钢轨顶面图像的具体方法为:在检测小车上搭载高速摄像机,调整摄像机安装位置,使拍摄角度垂直于钢轨顶面。检测小车为光带小车,如图8所示。
步骤一中,保存方法为:将拍摄的钢轨顶面图像导出并保存为jpg格式图片。
步骤二中,挑选出长波磨、短波磨和非波磨的图片并标定后,统计各类图片数量,舍弃部分数量远高于其他类别的类别图片。
步骤五中,将原始训练集内的图片的分辨率全部转变为224*224。
步骤五中,测试文件夹的文件名为test,5个主文件夹的文件名为gray0.6、gray0.8、gray1.0、gray1.2、gray1.4,这样,与后面的灰度变化对应;三个子文件夹的文件名为long、short和normal,随机将各类图片的30%移动到gray1.0对应的文件夹内。
步骤七中,深度卷积神经网络是含有更多网络层的卷积神经网络,卷积神经网络包括卷积模块和全连接模块,卷积模块提取特征,全连接模块对特征进行分类;卷积神经网络的原理如图4所示,公式表达如下:
深度卷积神经网络还包括池化层和卷积层,池化层和卷积层常常成对出现。2*2的平均池化计算原理如图5所示,它可以显著降低计算维度。
DenseNet(稠密连接网络),其基础模块Denseblock(稠密块),如图6所示,其中某一层的输出会和随后的所有层在通道维进行连接作为下一层的输入,而不会像ResNet那样直接进行相加。这样DenseNet可以将提取图像的浅层特征和深层特征并进行融合,从而提高识别的精度,并且可以防止梯度弥散,加强特征传播,减少参数量。由于每个稠密块都会带来通道数的增加,因此使用1*1卷积来减小通道数,并且使用步幅为2的平均池化层减半高和宽,从而降低模型复杂度,该模块称为Transition_layer。实验使用DenseNet模型作为基础模型来构造深度卷积神经网络,深度卷积神经网络工作流程和网络结构见图7和表一。
表一 网络结构
步骤八中,分类交叉熵的计算公式如下:
B是训练批次的大小,C是分类数目,y是训练数据标签,取所有批次的平均损失作为最终指标。
本发明能实现长、短波磨的有效和高速检测,对应的TOP-1准确率和召回率达到90%,单张图片检测时间小于10ms(在采样长度为1m且不重复采样时,检测速度高于360km/h);由于光照强度会严重影响拍摄图片的质量,模型要实现对光照条件的鲁棒性,在不同光照强度下长、短波磨的检测准确率和召回率要大于90%。另外还会采用精准率和F1度量评价模型的检测效果。
由于光照强度会严重影响拍摄图片的灰度值,为实现模型对光照条件的鲁棒性,测试集内共设置了5个灰度级别,以采集图像时的灰度值为基准1.0,其他的为基准灰度的0.6倍、0.8倍、1.2倍、1.4倍,每一个灰度级别对应长波磨图片195张,短波磨图片185张,非波磨图片354张。将长波磨和短波磨图片作为正例,非波磨图片作为反例,共有正例样本380,反例354。各个指标的测试结果见下表:
表二 精准率、召回率、F1度量和测试时间
灰度级别 | 精准率(%) | 召回率(%) | F1度量 | 测试时间(ms) |
Gray0.6 | 96.77 | 94.47 | 0.956 | 6.2 |
Gray0.8 | 98.08 | 93.95 | 0.960 | 6.2 |
Gray1.0 | 98.90 | 94.47 | 0.966 | 0.63 |
Gray1.2 | 98.62 | 93.95 | 0.962 | 6.2 |
Gray1.4 | 97.81 | 94.21 | 0.960 | 6.2 |
表三 TOP-1准确率(%)
灰度级别 | 长波磨 | 短波磨 | 非波磨 |
Gray0.6 | 95.90 | 92.97 | 96.61 |
Gray0.8 | 94.87 | 92.97 | 98.02 |
Gray1.0 | 95.90 | 92.97 | 98.87 |
Gray1.2 | 94.87 | 92.97 | 98.59 |
Gray1.4 | 94.87 | 93.51 | 97.74 |
可以发现在不同灰度条件下各个类别的TOP-1准确率及精准率、召回率均超过了90%,这表明该方法对光照强度具有鲁棒性,且可以实现长、短波磨的精准检测;单张图片测试时间平均为6.2ms约为目标值的60%,表明在采样长度为1m且不重复采样时,可以实现速度超过360km/h的高速检测。
以上示意性的对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际的结构并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。
Claims (8)
1.基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:包括以下步骤:
一、拍摄钢轨顶面图像,并保存;
二、挑选出长波磨、短波磨和非波磨的图片并标定;
三、提取图像中间的钢轨区域;
四、创建训练集数据存放文件夹,在其内部创建三个训练文件夹,将标定的长波磨、短波磨和非波磨图片移动到对应的文件夹内制作原始的训练集;
五、将原始训练集内的图片的分辨率转变成一致,创建测试文件夹,在测试文件夹下创建5个主文件夹,并在每个文件夹下再创建三个子文件夹来对应图片类别,然后随机将各类图片的30%对应移动到其中一个主文件夹内的三个子文件夹内;
六、将所述其中一个主文件夹下的图片按照原图片灰度值的0.6倍、0.8倍、1.2倍和1.4倍进行变换,并将变换后图片保存到测试集内剩下的4个文件夹内;
七、使用DenseNet稠密连接网络模型作为基础模型构造深度卷积神经网络;
八、将训练集导入构建的深度卷积神经网络模型进行训练,使用分类交叉熵作为损失函数,使用Adam算法进行训练参数的更新;当批次的平均训练损失值小于0.0001时,认为达到要求,保存训练模型,停止训练;
九、将测试集内5个灰度类别的数据输入到深度卷积神经网络中进行测试,并统计评价指标值;使用精准率、召回率、F1度量、单张图片的测试时间及每一个类别对应的TOP-1准确率作为评价指标;
精准率、召回率、F1度量的计算公式如下:
精准率:P=TP/(TP+FP);召回率:R=TP/(TP+FN);F1度量:F1=2×(P×R)/(P+R);
式中TP为真正例,FP为假正例,FN为假反例,TN为真反例;将长波磨和短波磨图片作为正例,非波磨图片作为反例。
2.根据权利要求1所述的基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:步骤一中,拍摄钢轨顶面图像的具体方法为:在检测小车上搭载高速摄像机,调整摄像机安装位置,使拍摄角度垂直于钢轨顶面。
3.根据权利要求1所述的基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:步骤一中,保存方法为:将拍摄的钢轨顶面图像导出并保存为jpg格式图片。
4.根据权利要求1所述的基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:步骤二中,挑选出长波磨、短波磨和非波磨的图片并标定后,统计各类图片数量,舍弃部分数量远高于其他类别的类别图片。
5.根据权利要求1所述的基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:步骤五中,将原始训练集内的图片的分辨率全部转变为224*224。
6.根据权利要求1所述的基于深度卷积神经网络的钢轨波磨检测方法,其特征在于:步骤五中,测试文件夹的文件名为test,5个主文件夹的文件名为gray0.6、gray0.8、gray1.0、gray1.2、gray1.4,三个子文件夹的文件名为long、short和normal,随机将各类图片的30%移动到gray1.0对应的文件夹内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011011012.6A CN112215263B (zh) | 2020-09-23 | 2020-09-23 | 基于深度卷积神经网络的钢轨波磨检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011011012.6A CN112215263B (zh) | 2020-09-23 | 2020-09-23 | 基于深度卷积神经网络的钢轨波磨检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112215263A CN112215263A (zh) | 2021-01-12 |
CN112215263B true CN112215263B (zh) | 2022-08-02 |
Family
ID=74050942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011011012.6A Active CN112215263B (zh) | 2020-09-23 | 2020-09-23 | 基于深度卷积神经网络的钢轨波磨检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215263B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI800230B (zh) * | 2022-01-20 | 2023-04-21 | 中國鋼鐵股份有限公司 | 研磨區域偵測系統 |
CN115239632B (zh) * | 2022-06-23 | 2024-04-09 | 西南交通大学 | 一种融合巡检图像和超声波图像的钢轨表面伤损检测方法 |
CN115600086B (zh) * | 2022-11-15 | 2023-04-07 | 西南交通大学 | 一种基于卷积回归的钢轨波磨粗糙度车载式定量检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105292177A (zh) * | 2015-11-26 | 2016-02-03 | 唐智科技湖南发展有限公司 | 一种用轴箱振动、冲击信息测量轨道波磨的方法 |
CN110223266A (zh) * | 2019-03-08 | 2019-09-10 | 湖南工业大学 | 一种基于深度卷积神经网络的列车轮对踏面损伤故障诊断方法 |
CN110992345A (zh) * | 2019-12-06 | 2020-04-10 | 中科(徐州)人工智能研究院有限公司 | 一种轨道磨损检测方法及装置 |
CN111311567A (zh) * | 2020-02-12 | 2020-06-19 | 北京交通大学 | 对轨道线路图像进行扣件和钢轨病害识别的方法 |
CN111623868A (zh) * | 2020-05-12 | 2020-09-04 | 西南交通大学 | 用于钢轨波磨识别的卷积神经网络构建方法 |
CN111626976A (zh) * | 2019-11-01 | 2020-09-04 | 东莞灵虎智能科技有限公司 | 一种基于脉冲耦合神经网络的钢轨表面伤损检测方法 |
CN111637964A (zh) * | 2020-05-12 | 2020-09-08 | 西南交通大学 | 钢轨波磨识别方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050279240A1 (en) * | 2004-06-22 | 2005-12-22 | Pedanekar Niranjan R | Enhanced method and apparatus for deducing a correct rail weight for use in rail wear analysis of worn railroad rails |
US11001283B2 (en) * | 2017-07-28 | 2021-05-11 | Ensco, Inc. | Systems and methods for visualizing and analyzing a rail surface |
-
2020
- 2020-09-23 CN CN202011011012.6A patent/CN112215263B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105292177A (zh) * | 2015-11-26 | 2016-02-03 | 唐智科技湖南发展有限公司 | 一种用轴箱振动、冲击信息测量轨道波磨的方法 |
CN110223266A (zh) * | 2019-03-08 | 2019-09-10 | 湖南工业大学 | 一种基于深度卷积神经网络的列车轮对踏面损伤故障诊断方法 |
CN111626976A (zh) * | 2019-11-01 | 2020-09-04 | 东莞灵虎智能科技有限公司 | 一种基于脉冲耦合神经网络的钢轨表面伤损检测方法 |
CN110992345A (zh) * | 2019-12-06 | 2020-04-10 | 中科(徐州)人工智能研究院有限公司 | 一种轨道磨损检测方法及装置 |
CN111311567A (zh) * | 2020-02-12 | 2020-06-19 | 北京交通大学 | 对轨道线路图像进行扣件和钢轨病害识别的方法 |
CN111623868A (zh) * | 2020-05-12 | 2020-09-04 | 西南交通大学 | 用于钢轨波磨识别的卷积神经网络构建方法 |
CN111637964A (zh) * | 2020-05-12 | 2020-09-08 | 西南交通大学 | 钢轨波磨识别方法 |
Non-Patent Citations (5)
Title |
---|
A Method of Determining Rail Grinding Parameters Based On Life-Cycle Cost;Wang Jianxi等;《The Open Mechanical Engineering Journal》;20141231;544-550 * |
Rail Corrugation Detection of High-Speed Railway Using Wheel Dynamic Responses;Jianbo Li等;《https://doi.org/10.1155/2019/2695647》;20190225;1-13 * |
基于激光位移的钢轨磨耗动态检测方法研究;李艳福;《中国博士学位论文全文数据库_工程科技Ⅱ辑》;20190115;C033-7 * |
钢轨波浪磨耗检测算法研究;朱崇巧;《中国优秀硕士学位论文全文数据库_工程科技Ⅱ辑》;20180615;C033-3 * |
钢轨缺陷无损检测与评估技术综述;张辉等;《仪器仪表学报》;20190215;第40卷(第02期);第11-25页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112215263A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112215263B (zh) | 基于深度卷积神经网络的钢轨波磨检测方法 | |
CN106875373B (zh) | 基于卷积神经网络剪枝算法的手机屏幕mura缺陷检测方法 | |
CN110806736B (zh) | 一种模锻成形智能制造生产线锻件质量信息检测方法 | |
CN110232341B (zh) | 基于卷积-堆叠降噪编码网络的半监督学习图像识别方法 | |
CN109271895B (zh) | 基于多尺度特征学习和特征分割的行人重识别方法 | |
CN111160249A (zh) | 基于跨尺度特征融合的光学遥感图像多类目标检测方法 | |
CN108564025A (zh) | 一种基于可变形卷积神经网络的红外图像物体识别方法 | |
CN111368825B (zh) | 一种基于语义分割的指针定位方法 | |
CN101059425A (zh) | 基于多光谱图像的纹理分析鉴别不同品种绿茶的方法和装置 | |
CN106610969A (zh) | 基于多模态信息的视频内容审查系统及方法 | |
CN110298227B (zh) | 一种基于深度学习的无人机航拍图像中的车辆检测方法 | |
CN103679187B (zh) | 图像识别方法和系统 | |
CN112233067A (zh) | 一种热轧钢卷端面质量检测方法及系统 | |
CN108960342B (zh) | 基于改进Soft-Max损失函数的图像相似度计算方法 | |
CN113673509B (zh) | 一种基于图像文本的仪表检测分类方法 | |
CN113808180B (zh) | 一种异源图像配准方法、系统及装置 | |
CN108460400A (zh) | 一种结合多种特征信息的高光谱图像分类方法 | |
CN110516525A (zh) | 基于gan和svm的sar图像目标识别方法 | |
CN111652273A (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN114549446A (zh) | 一种基于深度学习的气缸套缺陷标检测方法 | |
CN116912674A (zh) | 基于改进的YOLOv5s网络模型复杂水环境下目标检测方法及系统 | |
CN110569764B (zh) | 一种基于卷积神经网络的手机型号识别方法 | |
CN114065798A (zh) | 基于机器识别的视觉识别方法及装置 | |
Li et al. | Evaluation the performance of fully convolutional networks for building extraction compared with shallow models | |
Volna et al. | Vision system for licence plate recognition based on neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |