CN112465818A - 一种裙板异物故障检测方法 - Google Patents
一种裙板异物故障检测方法 Download PDFInfo
- Publication number
- CN112465818A CN112465818A CN202011505925.3A CN202011505925A CN112465818A CN 112465818 A CN112465818 A CN 112465818A CN 202011505925 A CN202011505925 A CN 202011505925A CN 112465818 A CN112465818 A CN 112465818A
- Authority
- CN
- China
- Prior art keywords
- foreign matter
- apron board
- feature
- feature map
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims description 19
- 230000004927 fusion Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 claims description 9
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 5
- 230000003321 amplification Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
一种裙板异物故障检测方法,属于故障检测领域。本发明解决了人工对高铁裙板故障检测易出现漏检、错检而导致列车运行存在安全隐患的问题。本发明通过成像设备获取全车灰度图像并截取带有裙板部位的图像,选用RetinaNet作为裙板异物故障检测模型的网络,改变RetinaNet中FPN的结构,通过带有裙板部位的图像对裙板异物故障检测模型进行训练,进而通过训练好的模型对待检测图像进行检测,将故障部件信息上传到报警平台保证列车安全运行。本发明用于高铁裙板的异物故障检测。
Description
技术领域
本发明涉及一种裙板异物故障检测方法。属于故障检测与图像处理领域。
背景技术
高铁裙板具有导流、防护、检修等功能,有着至关重要的作用,一旦存在异物,就可能会危机行车安全。在高铁裙板的异物故障检测中,现有的方法往往是采用人工检查图像的方式来进行异物故障检测。
在人工检测过程中,检测结果会受检车人员的主观因素影响,因此容易出现对故障检测的漏检、错检等问题,存在行车安全隐患。
发明内容
本发明是为了解决人工对裙板故障检测易出现漏检、错检而导致列车运行存在安全隐患的问题。现提出一种裙板异物故障检测方法。
一种裙板异物故障检测方法,包括:
步骤一、获取裙板图像,对裙板图像进行标记,获取与裙板图像一一对应的标记文件,利用裙板图像和对应的标记文件形成原始图像数据集;
步骤二、利用原始图像数据集对裙板异物故障检测模型进行训练,其中,裙板异物故障检测模型包括RetinaNet,RetinaNet网络包括ResNet50特征提取网络和FPN网络;
步骤三、利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果。
在一些实施例中,步骤二利用原始图像数据集对裙板异物故障检测模型进行训练;具体过程为:利用ResNet50特征提取网络对裙板图像进行特征提取,得到特征图,以得到的特征图作为FPN网络的输入,对特征图进行融合;对融合后的特征图分别进行激活函数激活-卷积-归一化操作,通过FPN每个特征图预测框的Focal损失函数,计算得到各个输出特征图的损失值,预测框即为FPN网络根据特征预测的故障的位置,每个预测框损失值加和用于训练模型,损失函数收敛后,即完成对裙板异物故障检测模型的训练。
在一些实施例中,利用ResNet50特征提取网络对包含裙板的图像进行特征提取,得到特征图;具体过程为:ResNet50特征提取网络包括下采样块和残差块,设置最初的卷积步长,通过下采样块对特征图进行下采样,再经过残差块,获得候选特征图,所述候选特征图与输入残差块的特征图的尺寸相同,再经过平均池化层得到特征再经过全连接层得到最终输出的特征图。
在一些实施例中,经过下采样块设置最初的卷积步长,其中卷积步长为2。
在一些实施例中,以得到的特征图作为FPN网络的输入,对特征图进行融合;具体过程为:
S1、FPN网络得到的特征图作为初始的特征金字塔,从特征金字塔中随机选取第一个特征图作为融合输入;
S2、从特征金字塔的除S1中选取的特征图的其他特征图中随机选取第二个特征图作为另一个融合输入;
S3、从特征金字塔中随机选取第三个特征图的分辨率作为输出分辨率,基于输出分辨率,对第一个特征图和第二个特征图进行融合操作,获得新融合的特征图,其中,新融合的特征图的分辨率为输出分辨率;
S4、以新融合的特征图作为新的特征图,再放回特征金字塔中;
S5、重复S1~S4,形成融合后的特征金字塔,则完成融合。
在一些实施例中,步骤三利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果;具体过程为:获取待检测裙板图像,将待检测裙板图像输入训练好的裙板异物故障检测模型;通过选取FPN每个特征图预测框计算Focal损失,得到预测框存在异物的置信度,通过阈值选取置信度大于阈值的预测框,该预测框指示的区域对应裙板异物故障。
在一些实施例中,在得到预测框存在异物的置信度之后,在通过阈值选取置信度大于阈值的预测框之前,该方法还包括:若两个预测框重叠面积大于50%,则过滤掉置信度小的预测框。
在一些实施例中,步骤一中还需对包含裙板的图像进行扩增,扩增包括:对图像进行翻转、缩放和平移。
在一些实施例中,裙板图像通过灰度图像截取得到,灰度图像通过照相机或摄像机拍摄获得。
有益效果:
1、利用图像自动识别的方式代替人工检测,不仅能够提高检测效率,而且能够极大地提升检测准确率。
2、将深度学习算法应用到裙板变形破损故障的自动识别中,提高整体算法的稳定性及精度,并有效缩短故障检测的时间。
3、引入适用于异物检测的RetinaNet网络框架,提高了对小目标的检测精度。
4、对RetinaNet网络框架进行优化,应用NAS方法优化后的FPN架构对RetinaNet提取的特征图进行融合和更新,获得了更好的检测精度。
附图说明
图1为本发明方法的主要流程图;
图2为本发明具体故障检测流程图;
图3为Merging cell操作过程图;
图4为NAS_FPN网络结构图。
具体实施方式
需要特别说明的是,在不冲突的情况下,本申请公开的各个实施例之间可以相互组合。
具体实施方式一:结合图1来具体说明本实施方式,本实施方式一种裙板异物故障检测方法,包括:
步骤一、获取裙板图像,对裙板图像进行标记,获取与裙板图像一一对应的标记文件,利用裙板图像和对应的标记文件形成原始图像数据集;
其中,裙板图像可以采用以下方式获取:利用固定设备搭载照相机或摄像机,对高速行驶的高铁进行拍摄,获取全车高清灰度图像;根据硬件的轴距信息和裙板的位置等先验知识,从全车高清灰度图像中截取包含裙板的图像,并调整图像的大小,减小后续计算量以提高检测速率。
由于裙板上分布有不同尺寸和不同样式的格栅、盖板以及螺母等部件,不同车厢的裙板有其各自的特征,而且裙板故障图像和正常图像存在不平衡的问题,为了进一步提高算法的鲁棒性,需要对原始图像数据集进行扩增,扩增可以包括对图像进行翻转、缩放和平移等操作。
在本实施方式中,获得裙板图像后,可以对裙板图像进行标记,获取与裙板图像一一对应的标记文件(对裙板故障部位标记),利用裙板图像和对应的标记文件形成用于训练裙板异物故障检测模型原始图像数据集。
步骤二、选用RetinaNet网络作为裙板异物故障检测模型的网络,RetinaNet网络包含ResNet特征提取网络和FPN网络;利用原始图像数据集对裙板异物故障检测模型进行训练。
步骤三、利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果。
实践中,获得裙板异物故障检索结果后,可以通过子图到大图像、大图像到原始图像的映射关系,计算出故障在原始图像中的位置,进而将故障部件的位置信息等上传到报警平台,在显示界面上进行故障显示。
具体实施方式二:本实施方式与具体实施方式一不同的是,步骤二选用RetinaNet网络作为裙板异物故障检测模型的网络,RetinaNet网络包含ResNet特征提取网络和FPN网络;利用包含裙板的图像对裙板异物故障检测模型进行训练;具体过程为:
步骤二一、将包含裙板的图像作为输入;
步骤二二、利用ResNet特征提取网络对带有裙板部位的图像进行特征提取;选用深度为50的ResNet网络进行训练,ResNet网络包含4个layer(不算7*7卷积层和3*3maxpooling层),ResNet网络结构如表1所示,Conv2_x对应layer1,Conv3_x对应layer2,Conv4_x对应layer3,Conv5_x对应layer4;表1中的“*3”、“*4”、“*6”等指的是该layer由包括几个相同的结构;
步骤二三、利用NAS方法对RetinaNet架构中的FPN结构进行优化,即利用FPN结构对ResNet特征提取网络提取的特征进行融合与更新;NAS方法可以利用强化学习训练控制器在给定的FPN结构中选择最优的模型结构;优化后的FPN结构由很多融合层(mergingcells)组成,合并一些来自不同层融合的特征表示;一个Merging cell将两个来自不同特征图的特征连接融合产生一个特征输出,图2为Merging cell操作过程图,其中featurelayer为特征图,构成特征金字塔,Binary op为二进制操作。
其它步骤及参数与具体实施方式一相同。具体实施方式三:本实施方式与具体实施方式一或二不同的是,步骤二利用ResNet特征提取网络对带有裙板部位的图像进行特征提取;选用深度为50的ResNet网络进行训练;具体过程为:
首先由一个7*7的卷积核负责进行特征的抽取,卷积核的步长为2,使得包含裙板的图像的长宽降低为原来的1/2;随后,再经过一个3*3的max pool(最大池化)层,进一步降低图像的分辨率;然后依次进行四个layer的操作,即对输入的包含裙板的图像,使得其通道数(每个卷积层中卷积核的数量)扩展为原来的两倍,而长宽都缩减为原先的1/2;具体而言,每一个阶段(即每一层)先经过下采样块,下采样会设置最初的卷积步长为2,通过这样的方式进行对特征图的下采样,使得长宽得到缩减;再经过残差块,通过对卷积相关参数(卷积核的步长和数量等)的设置,可以控制使得残差块的输入和输出的特征图尺寸一致,从而进行处理。经过Average pool(平均池化层)层得到2048维特征再经过用于分类和框回归的全连接层(fc)得到网络的最终输出;
表1ResNet50网络架构表
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是,将特征图作为FPN网络的输入,对特征图进行融合;即Merging cell操作分6步进行:
S1、FPN网络中以得到的特征图作为初始的特征金字塔,从初始的特征金字塔中选取第一个特征图作为融合输入;
S2、从特征金字塔的P3—P7层除S1中选取的特征图的其他特征图中选取第二个特征图作为另一个融合输入;
S3、从特征金字塔中P1—P7层中随机选取第三个特征图的分辨率作为输出分辨率,基于输出分辨率,对第一个特征图和第二个特征图进行融合操作,获得新融合的特征图,其中,新融合的特征图的分辨率为输出分辨率;
S4:从操作池选择融合操作;
S5、以新融合的特征图作为新的特征图,再放回特征金字塔中;
S6:遍历以上步骤,直到填满输出金字塔(T3-T7层)的每一层,即重复S1~S5,形成融合后的特征金字塔,则完成融合。
优化后的FPN网络结构中,如图4所示,从上到下(图4中最左边)依次为5个输入层P3-P7,停止上述步骤时最后生成的5个输出层特征图即为FPN的输出;GP代表全局池化操作,R-C-B代表ReLU-Conv-BatchNorm(激活函数层-卷积层-归一化层)三个连续操作;对5个输出层的特征图分别进行R-C-B操作,每个输出的特征图的所有example(预测框)都被用于计算Focal Loss,得到各输出层的loss值,loss值加到一起用来训练,以此根据loss值是否收敛选取本次训练的最优模型作为最终输出。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是,利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果;具体过程为:
检测过程中,在全车图像中裁出裙板图像作为输入,利用RetinaNet网络框架和模型对裙板异物故障进行检测,其中FPN的每个特征图只选取预测置信度(预测框中包含故障的概率)最大的1000个example(预测框)计算Focal Loss,得到当前位置存在异物的概率值,通过IoU=0.5的NMS过滤重叠框(NMS是指非极大值抑制,即局部最大搜索,如果两个预测框的重叠面积大于50%,即进行过滤,选取置信度较高的),再根据预先设置的阈值对检测结果进行筛选,将大于阈值的结果作为故障识别的最终结果进行输出。
其它步骤及参数与具体实施方式一至四之一相同。
Claims (9)
1.一种裙板异物故障检测方法,其特征在于,包括:
步骤一、获取裙板图像,对裙板图像进行标记,获取与裙板图像一一对应的标记文件,利用裙板图像和对应的标记文件形成原始图像数据集;
步骤二、利用原始图像数据集对裙板异物故障检测模型进行训练,其中,裙板异物故障检测模型包括RetinaNet,所述RetinaNet网络包括ResNet50特征提取网络和FPN网络;
步骤三、利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果。
2.根据权利要求1所述一种裙板异物故障检测方法,其特征在于,所述步骤二利用原始图像数据集对裙板异物故障检测模型进行训练,具体过程为:
利用ResNet50特征提取网络对裙板图像进行特征提取,得到特征图,以得到的特征图作为FPN网络的输入,对特征图进行融合;
对融合后的特征图分别进行激活函数激活-卷积-归一化操作,通过FPN每个特征图预测框的Focal损失函数,所述预测框即为FPN网络根据特征预测的故障的位置,计算得到各个输出特征图的损失值,每个预测框的损失值加和用于训练模型,损失函数收敛后,即完成对裙板异物故障检测模型的训练。
3.根据权利要求2所述一种裙板异物故障检测方法,其特征在于,所述利用ResNet50特征提取网络对包含裙板的图像进行特征提取,得到特征图;具体过程为:
ResNet50特征提取网络包括下采样块和残差块,设置最初的卷积步长,通过下采用块对特征图进行下采样,再经过残差块,获得候选特征图,所述候选特征图与输入残差块的特征图的尺寸相同,再经过平均池化层得到特征再经过全连接层得到最终输出的特征图。
4.根据权利要求3所述一种裙板异物故障检测方法,其特征在于,所述经过下采样块设置最初的卷积步长,其中卷积步长为2。
5.根据权利要求2所述一种裙板异物故障检测方法,其特征在于,所述以得到的特征图作为FPN网络的输入,对特征图进行融合;具体过程为:
S1、FPN网络得到的特征图作为初始的特征金字塔,从特征金字塔中随机选取第一个特征图作为融合输入;
S2、从特征金字塔的除S1中选取的特征图的其他特征图中随机选取第二个特征图作为另一个融合输入;
S3、从特征金字塔中随机选取第三个特征图的分辨率作为输出分辨率,基于输出分辨率,对第一个特征图和第二个特征图进行融合操作,获得新融合的特征图,其中,新融合的特征图的分辨率为输出分辨率;
S4、以新融合的特征图作为新的特征图,再放回特征金字塔中;
S5、重复S1~S4,形成融合后的特征金字塔,则完成融合。
6.根据权利要求1或2所述一种裙板异物故障检测方法,其特征在于,所述步骤三利用训练好的裙板异物故障检测模型对裙板异物故障进行检测,得到裙板异物故障检测结果;具体过程为:
获取待检测裙板图像,将待检测裙板图像输入训练好的裙板异物故障检测模型;通过选取FPN每个特征图预测框计算Focal损失,得到预测框存在异物的置信度,通过阈值选取置信度大于阈值的预测框,该预测框指示的区域对应裙板异物故障。
7.根据权利要求6所述的一种裙板异物故障检测方法,其特征在于,通过选取FPN每个特征图预测框计算Focal损失,得到预测框存在异物的置信度之后,在通过阈值选取置信度大于阈值的预测框之前,还需要进行如下步骤:
若两个预测框重叠面积大于50%,则过滤掉置信度小的预测框。
8.根据权利要求1所述一种裙板异物故障检测方法,其特征在于,所述步骤一中还需对包含裙板的图像进行扩增,所述扩增包括:对图像进行翻转、缩放和平移。
9.根据权利要求1所述一种裙板异物故障检测方法,其特征在于,所述裙板图像通过灰度图像截取得到,所述灰度图像通过照相机或摄像机拍摄获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011505925.3A CN112465818A (zh) | 2020-12-18 | 2020-12-18 | 一种裙板异物故障检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011505925.3A CN112465818A (zh) | 2020-12-18 | 2020-12-18 | 一种裙板异物故障检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112465818A true CN112465818A (zh) | 2021-03-09 |
Family
ID=74803060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011505925.3A Pending CN112465818A (zh) | 2020-12-18 | 2020-12-18 | 一种裙板异物故障检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112465818A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643258A (zh) * | 2021-08-12 | 2021-11-12 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于深度学习的列车侧部裙板丢失故障的检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109559301A (zh) * | 2018-11-20 | 2019-04-02 | 江苏第二师范学院(江苏省教育科学研究院) | 一种端到端的动车组入所缺陷检测的孪生网络方法 |
CN111027491A (zh) * | 2019-12-12 | 2020-04-17 | 江西洪都航空工业集团有限责任公司 | 一种基于无锚点机制的火焰检测方法及装置 |
CN111079629A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车心盘脱出故障图像识别方法 |
CN111340787A (zh) * | 2020-02-28 | 2020-06-26 | 广东电网有限责任公司 | 输电线路的导线缺陷检测识别方法、装置及计算机设备 |
-
2020
- 2020-12-18 CN CN202011505925.3A patent/CN112465818A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109559301A (zh) * | 2018-11-20 | 2019-04-02 | 江苏第二师范学院(江苏省教育科学研究院) | 一种端到端的动车组入所缺陷检测的孪生网络方法 |
CN111027491A (zh) * | 2019-12-12 | 2020-04-17 | 江西洪都航空工业集团有限责任公司 | 一种基于无锚点机制的火焰检测方法及装置 |
CN111079629A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车心盘脱出故障图像识别方法 |
CN111340787A (zh) * | 2020-02-28 | 2020-06-26 | 广东电网有限责任公司 | 输电线路的导线缺陷检测识别方法、装置及计算机设备 |
Non-Patent Citations (4)
Title |
---|
GOLNAZ GHIASI ET AL: "NAS-FPN: Learning Scalable Feature Pyramid Architecture for Object Detection", 《CVPR 2019》 * |
KAIMING HE ET AL: "Deep Residual Learning for Image Recognition", 《CVPR 2016》 * |
TSUNG-YI LIN ET AL: "Focal Loss for Dense Object Detection", 《ICCV 2017》 * |
王恒 等: "基于ResNet50网络的乳腺癌病理图像分类研究", 《中国计量大学学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643258A (zh) * | 2021-08-12 | 2021-11-12 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于深度学习的列车侧部裙板丢失故障的检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112967243B (zh) | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 | |
CN110232380B (zh) | 基于Mask R-CNN神经网络的火灾夜间场景复原方法 | |
CN111292026A (zh) | 一种基于神经网络模型融合的废钢评级方法及装置 | |
CN111489339A (zh) | 高速铁路定位器螺栓备母缺陷的检测方法 | |
CN107644221A (zh) | 基于参数压缩的卷积神经网络交通标志识别方法 | |
CN112233096B (zh) | 一种车辆裙板故障检测方法 | |
CN113221839B (zh) | 一种货车图像自动识别方法及识别系统 | |
CN111080600A (zh) | 一种铁路货车弹簧托板上开口销的故障识别方法 | |
CN102567955A (zh) | 图像修复的方法与系统 | |
CN111079821A (zh) | 一种脱轨自动制动拉环脱落故障图像识别方法 | |
CN110991447B (zh) | 基于深度学习的列车车号精确定位与识别方法 | |
CN111091543A (zh) | 铁路货车摇枕弹簧丢失故障目标检测方法 | |
CN111079629A (zh) | 铁路货车心盘脱出故障图像识别方法 | |
CN112465818A (zh) | 一种裙板异物故障检测方法 | |
CN111815616A (zh) | 一种基于深度学习的x光安检图像中危险品检测方法 | |
CN111429510A (zh) | 基于自适应特征金字塔的花粉检测方法 | |
CN112669301B (zh) | 一种高铁底板脱漆故障检测方法 | |
CN114022837A (zh) | 车站遗留物品检测方法、装置、电子设备及存储介质 | |
CN110363198B (zh) | 一种神经网络权重矩阵拆分与组合的方法 | |
CN116596895A (zh) | 一种变电设备图像缺陷识别方法及系统 | |
CN101600115A (zh) | 一种剔除图像稳像系统周期性特征块的方法 | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
CN115953387A (zh) | 一种基于深度学习的射线图像焊缝缺陷检测方法 | |
CN115984378A (zh) | 一种轨道异物检测方法、装置、设备及介质 | |
YAMANE et al. | Reflection of the position of cracks in a 3-d model of a bridge using semantic segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210309 |