CN108009591B - 一种基于深度学习的接触网关键部件识别方法 - Google Patents
一种基于深度学习的接触网关键部件识别方法 Download PDFInfo
- Publication number
- CN108009591B CN108009591B CN201711341384.3A CN201711341384A CN108009591B CN 108009591 B CN108009591 B CN 108009591B CN 201711341384 A CN201711341384 A CN 201711341384A CN 108009591 B CN108009591 B CN 108009591B
- Authority
- CN
- China
- Prior art keywords
- image
- training
- network model
- training set
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的接触网关键部件识别方法,包括主要步骤有:(1)目标图像采集;(2)图像数据增强;(3)图像分层识别;(4)关键部件及部件特征识别;所述步骤(3)包括(3a)图像区域识别和(3e)关键部件识别网络模型训练两个步骤。针对接触网图像集的特点,本发明采用了多种数据增强、分层次识别和错误集微调等方法,主要有以下优点:提高对小部件的识别率;减少了计算上的损耗;减少标注量,提高标注效率;提高了网络的泛化能力;显著提高接触网图像网络识别率,建立的模型在不同线路之间可方便转化,当模型应用于新线路时,可以仅进行针对性的微调,节省了大量的设计、标注、训练工作,方便人工、自动检测工作。
Description
技术领域
本发明涉及接触网缺陷检测领域,具体涉及一种基于深度学习的接触网关键部件识别方法。
背景技术
铁路运输事业一直处于不断发展的过程中,近年来,为了满足中国社会高速发展的需要,铁路系统在不断提速,提速的同时所带来的便是越来越重要的安全问题:接触网系统分布广泛、且通常位于露天系统下,由于其工作环境恶劣,支撑悬挂部件易出现各类缺陷,一旦发生一些即使细小的问题,也很容易发生连锁反应,造成严重的安全事故,威胁国民的安全与社会生产的发展。
目前各铁路局主要采用人工查看的方式对“接触网悬挂状态检测监测装置”(4C)采集的海量图像进行分析,人工甄别出线路出那些地方存在安全隐患。由于人的一些因素,再加上接触网图片存在过度曝光、对比度较低等问题,对于海量的离线图片人工很难做到高效率、高可靠性的检测,同时检测的频率也很难得到有效提升。另外,目前采用的传统的自动检测算法往往通过人工设计特征,再将特征送入较为复杂的分类器中进行分类,但是由于图像中各零件尺寸差异大,图片存在过度曝光、对比度较低,图片量大等问题,导致人工提取的特征难度高,识别结果的可靠性低,无法胜任接触网这样复杂的环境。因此,传统的算法存在误检率和漏检率较高的情况,且算法泛化能力较差。
深度学习在图像识别领域得到了飞速的发展,取得了较好的效果,但是现有技术都是只搭建了单层Faster R-CNN网络模型,没有进行分层识别,图像数据增强得到的样本多样性不足,对复杂的接触网关键部件的识别率达不到要求,泛化能力较差,且由于没有配合图像缩放处理,训练识别效率相对较低。
发明内容
针对现有技术的不足,本发明在于提出一种基于深度学习的接触网关键部件识别方法,该方法基于深度学习的方法,利用Caffe框架平台,通过图像数据增强、图像分层识别以及利用错误集来产生训练集等方式,丰富了训练样本集的多样性,增强了算法泛化能力,搭建了双层识别网络模型,解决了由于接触网各部件尺寸差异大造成的识别率低的问题,合理利用图像缩放算法配合训练,减少了训练时间,提高了训练识别效率。
为了达到上述的目的,本发明所采用的技术方案是:
一种基于深度学习的接触网关键部件识别方法,包括以下几个步骤:
(1)目标图像采集:采集目标图像,形成原始图像样本集;
(2)图像数据增强:对原始图像样本集进行测试和探索,根据测试结果,选择合适的灰度变换、剪切、旋转、镜像、加噪声图像处理方法的一种或几种进行数据处理,形成增强后图像样本集,并将增强图像样本集与原始图像样本集进行整合,组成训练集,从训练集中抽取一部分作为验证集与测试集,训练集在训练过程中,可以随着模型对未标注图片识别得到错误集的方式而以较低成本扩充;
(3)图像分层识别:利用训练集进行图像区域识别和关键部件识别的网络模型训练,得到针对不同目标区域的网络模型,用该训练得到的模型对训练集以外的4C图片(未训练图片)进行识别;
(4)关键部件及部件特征识别:先使用网络模型一对目标图片进行识别,并得到不同区域坐标;根据区域坐标得到目标区域;利用与目标区域标号所对应的网络模型二对区域内零部件及零件特征进行检测与识别,从而得到零部件坐标以及零部件长度等特征。
进一步的是,步骤(3)具体步骤如下:
(3a)将训练集图像尺寸缩小,得到训练集一;
(3b)图像区域识别:利用训练集一进行Faster R-CNN网络模型训练,形成网络模型一,利用网络模型一对训练集一图像识别并提取多个目标区域,得到目标区域的坐标;
(3c)将目标区域坐标映射到训练集一图像上,得到训练集一图像上的目标区域坐标,并将目标区域从训练集一图像剪裁下来,分别对剪裁下的不同目标区域尺寸进行变化,形成训练集二;
(3d)训练集二数据增强:利用图像识别模块对训练集二进行测试和探索,根据测试结果,运用灰度变换以及旋转、镜像、加噪声图像处理方法进行数据处理,形成训练集三,并将训练集三与训练集二进行整合,组成训练集四,从中随机抽取部分图片作为验证集二、测试集二;
(3e)关键部件识别网络模型训练:利用训练集四不同区域图像分别进行FasterR-CNN网络训练,得到针对不同目标区域的网络模型,统称为网络模型二;
进一步的是,步骤(3b)中所述图像区域识别的具体步骤如下:
(3.1)利用训练集一对Faster R-CNN模型训练,产生用于识别目标区域的初级网络模型一;
(3.2)利用初级网络模型一对测试集和验证集进行测试,根据训练集、测试集、验证集识别率关系调整模型参数,并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集;
其中w为用于微调的网络模型的权重,w'为每次更新得到的权重,β为该惩罚项的影响因子,得到新的初级网络模型一,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(3.3),直到目标区域识别率达标,建立最终图像目标区域识别Faster R-CNN网络模型,即网络模型一;
(3.4)利用网络模型一进行目标区域识别并提取。
进一步的是,步骤(3e)中所述关键部件识别网络模型训练的具体步骤如下:
(4.1)利用训练集四不同区域图片分别进行关键部件识别的网络训练,得到针对不同区域的初级网络模型二;
(4.2)利用初级网络模型二对测试集二和验证集二进行测试,根据训练集四、测试集二、验证集二识别率关系调整模型参数。并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集四;
(4.3)分别统计不同区域关键部件在测试集下的识别率是否达到标准,若达到则流程继续,否则,根据测试集二、训练集四、验证集二识别率调整参数并利用加入错误集后的训练集四进行微调,得到新的初级网络模型二,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(4.3),直到关键部件识别率达标,得到最终关键部件识别网络模型,即网络模型二。进一步的是,步骤(2)和(3d)中所述灰度变换方法具体为:
(1)灰度线性变换
灰度线性变化是将直方图以类似“平移”的方式移动,其变化函数如下所示:
g(x,y)=k·f(x,y)+d
其中,f(x,y)是原始图像灰度值,g(x,y)为变换后的灰度图像灰度值;
(2)对数变换
对数变化的特点是对低像素值进行拉伸,对高像素值进行抑制,其函数如下所示:
y=c·logv+1(1+v·x)
通过将c恒定设置为1,改变v的值,是v越大,对低灰度级的增强作用越强,对高灰度级的压制作用越大;
(3)幂次变换
对于灰度幂次变换,其基本表达式为:
y=cxr+b
其中c和r均为正数;
(4)灰度拉伸
灰度拉伸的基本原理利用分段函数来对原图像进行变换,通过观察发现需要主要突出的像素值主要集中在4-60之间,这样,便将整个灰度曲线分为3个部分,假设像素值在0-4,5-60,61-255之间的斜率分别为a1,a2,a3,由此可以计算出3个部分的折线表达式分别为:
其中,a1,a2,a3为斜率;
进一步的是,步骤(2)和(3d)中所述旋转、镜像、加噪声方法具体为:
(1)增加噪声
通过具体分析不同线路图片在不同环境下拍摄所可能遇到的噪声,对训练集图片增加噪声;
(2)镜像与旋转
镜像操作时,对于图像的每个像素点位置(x,y),其中(1≤x≤图像宽度W,1≤y≤图像宽度H),镜像操作后该点位置为(W-x+1,y)。旋转操作时,对于图像的每个像素点位置(x,y),若旋转角度为θ,则旋转后的坐标(xr,yr)为:
进一步的是,所述的图像区域识别和关键部件识别的Faster R-CNN网络模型其特征提取网络采用ZF网络,但分别进行参数配置。
进一步的是,步骤(3.2)和(4.2)所述的测试集由原始图像样本集中的图像组成。。
进一步的是,步骤(3.2)、(3.3)、(4.2)和(4.3)所述的错误集并非特指某个特定的图像样本集,而是泛指单次或多次测试后产生的未识别图像的集合。
进一步的是,步骤(3b)中所述多个目标区域具体包括:平腕臂绝缘子左、平腕臂绝缘子、平腕臂绝缘子右、平腕臂支撑、斜腕臂支撑、承力索底座、斜腕臂绝缘子左、腕臂绝缘子、斜腕臂绝缘子右、斜腕臂支撑、定位器沟环、防风拉线、定位器线夹等。
本发明的有益效果是:
该方法基于深度学习的方法,利用Caffe框架平台,通过利用图像处理方法测试和探索,根据接触网以及模型特定,在两次网络模型训练前均择优选择一种或多种图像数据增强方法进行样本扩充,丰富了训练样本集的多样性,增强了网络的泛化能力,同时方便了标注工作以及后续的缺陷提取工作的进行;采用图像分层识别策略解决了传统模型对尺寸过小图片难以识别的问题;本方法针对接触网零件在适当选择参数的情况下几乎没有误识别,且漏识别对产生训练集不会有影响的特点,节省了大量的标注工作,显著提高网络模型的识别率,降低了误检率和漏检率,并合理利用图像缩放算法配合训练,减少了训练时间,提高了训练识别效率。在充足的图片库下,按照本方法训练得到网络模型有望实现对全国各线路的检测,本方法也为完整的基于深度学习的故障自动诊断提供了思路。
附图说明
图1是本发明接触网关键部件识别方法整体步骤示意图;
图2是本发明的错误集微调流程示意图;
图3是本发明的图像区域识别流程示意图;
图4是本发明的关键部件识别网络模型训练流程示意图;
图5是本发明图像区域识别率测试实验结果统计;
图6是本发明关键部件识别率测试实验结果统计;
图7是本发明图像区域识别图像效果示意图;
图8是本发明关键部件识别图像效果示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步阐述。
在本实例中,如图1-8所示,一种基于深度学习的接触网关键部件识别方法,包括以下几个步骤:
(1)利用接触网悬挂状态监测检测系统(4C)来采集目标图像,形成原始图像样本集。
(2)图像数据增强:利用灰度变换以及旋转、剪切、镜像、加噪声图像处理方法进行数据处理,扩充数据集,形成增强后图像样本集,并将增强图像样本集与原始图像样本集进行整合,组成训练集,从训练集中抽取一部分作为验证集与测试集,训练集在训练过程中,可以随着模型对未标注图片识别得到错误集的方式而以较低成本扩充。
(3)图像分层识别:利用训练集进行图像区域识别和关键部件识别的网络模型训练,得到针对不同目标区域的网络模型,其具体步骤如下:
(3a)将训练集图像尺寸由6600×4400缩小到1100×732,得到训练集一;
(3b)图像区域识别:利用训练集一进行Faster R-CNN网络模型训练,形成网络模型一,利用网络模型一对训练集一图像识别并提取多个目标区域,得到目标区域的坐标;
(3c)将目标区域坐标映射到训练集一图像上,尺寸变为6600×4400,得到训练集一图像上的目标区域坐标,并将目标区域从训练集一图像剪裁下来,对剪裁下的不同目标区域尺寸缩小至800×600,形成训练集二;
(3d)训练集二数据增强:利用灰度变换以及旋转、镜像、加噪声等图像处理操作进行数据增强,形成训练集三,并将训练集三与训练集二进行整合,组成训练集四;
(3e)关键部件识别网络模型训练:利用训练集四不同区域图像分别进行FasterR-CNN网络训练,得到针对不同目标区域的网络模型,统称为网络模型二。
(4)关键部件及部件特征识别:先使用网络模型一对目标图片进行识别,并得到不同区域坐标;根据区域坐标得到目标区域;利用与目标区域标号所对应的网络模型二对区域内零部件及零件特征进行检测与识别,从而得到零部件坐标以及零部件长度等特征。
作为一种优化方案,步骤(3b)中所述图像区域识别的具体步骤如下:
(3.1)利用训练集一对Faster R-CNN模型训练,产生用于识别目标区域的初级网络模型一;
(3.2)利用初级网络模型一对测试集和验证集进行测试,根据训练集、测试集、验证集识别率关系调整模型参数,并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集;
其中w为用于微调的网络模型的权重,w'为每次更新得到的权重,β为该惩罚项的影响因子,得到新的初级网络模型一,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(3.3),直到目标区域识别率达标,建立最终图像目标区域识别Faster R-CNN网络模型,即网络模型一;
(3.4)利用网络模型一进行目标区域识别并提取。
作为一种优化方案,步骤(3e)中所述关键部件识别网络模型训练的具体步骤如下:
(4.1)利用训练集四不同区域图片分别进行关键部件识别的网络训练,得到针对不同区域的初级网络模型二;
(4.2)利用初级网络模型二对测试集二和验证集二进行测试,根据训练集四、测试集二、验证集二识别率关系调整模型参数。并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集四;
(4.3)分别统计不同区域关键部件在测试集下的识别率是否达到标准,若达到则流程继续,否则,根据测试集二、训练集四、验证集二识别率调整参数并利用加入错误集后的训练集四进行微调,得到新的初级网络模型二,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(4.3),直到关键部件识别率达标,得到最终关键部件识别网络模型,即网络模型二。作为一种优化方案,步骤(2)和(3d)中所述的灰度变换方法具体为:
(1)对数变换
对数变化的特点是对低像素值进行拉伸,对高像素值进行抑制,其函数如下所示:
y=c·logv+1(1+v·x)
通过将c恒定设置为1,改变v的值,是v越大,对低灰度级的增强作用越强,对高灰度级的压制作用越大;
作为一种优化方案,步骤(2)和(3d)中所述旋转、镜像、加噪声方法具体为:
(1)增加噪声
通过具体分析不同线路图片在不同环境下拍摄所可能遇到的噪声,对训练集图片增加噪声;
(2)镜像与旋转
镜像操作时,对于图像的每个像素点位置(x,y),其中(1≤x≤图像宽度W,1≤y≤图像宽度H),镜像操作后该点位置为(W-x+1,y)。旋转操作时,对于图像的每个像素点位置(x,y),若旋转角度为θ,则旋转后的坐标(xr,yr)为:
作为一种优化方案,所述的图像区域识别和关键部件识别的Faster R-CNN网络模型其特征提取网络采用ZF网络,但分别进行参数配置,训练参数主要指Faster R-CNN网络内部在求取损失函数值时所需要的一些参数,例如Fast R-CNN训练时建议框被认为是前景的交并比阈值等。
作为一种优化方案,步骤(3.2)和(4.2)所述的测试集由原始图像样本集中的图像组成。
作为一种优化方案,步骤(3.2)、(3.3)、(4.2)和(4.3)所述的错误集并非特指某个特定的图像样本集,而是泛指单次或多次测试后产生的未识别图像的集合。
作为一种优化方案,步骤(3b)中所述多个目标区域具体包括:平腕臂绝缘子左、平腕臂绝缘子、平腕臂绝缘子右、平腕臂支撑、斜腕臂支撑、承力索底座、斜腕臂绝缘子左、腕臂绝缘子、斜腕臂绝缘子右、斜腕臂支撑、定位器沟环、防风拉线、定位器线夹等。
下面结合一个具体测试实验例子对本发明做进一步的说明。
实验平台采用Caffe,CPU采用E5-1620处理器,GPU采用GTX 1080。下文中,原始图像样本集称为原始图片集,仅包含数据处理后得到的图片集称为图像处理图片集,包含图像处理图片集与原始图片集的称为数据增强图片集,即训练集。
(1)利用接触网悬挂状态监测检测系统(4C)采集武广铁路长沙段(350km/h高铁)的4C图片,形成原始图片样本集,包括637张(武广铁路长沙段,350km/h高铁)图像,图像尺寸6600×4400。
(2)对原始图片样本集进行对数变换、增加噪声、镜像与旋转处理,形成图像处理图片集;原始图片集和图像处理图片集统称为训练集。
(3)图像分层识别:
(3a)将训练集图像尺寸由6600×4400缩小到1100×732,得到训练集一。
(3b)图像区域识别:
利用训练集一进行Faster R-CNN网络模型训练,形成网络模型一,网络模型一包括3个网络模型,即分别针对原始图片集、图像处理图片集和数据增强图片集训练得到的网络模型;
为了验证网络模型一对4C图像的识别率,用网络模型一对测试集进行识别率测试,测试集为871张图像(武广铁路长沙段,350km/h高铁);
再针对图像处理图片集和数据增强图片集网络模型测试结果,使用针对错误集的微调策略(1575张错误集)对实验二的网络模型微调,得到2个网络模型,即针对图像处理图片集错误集微调和针对数据增强图片集错误集微调得到的网络模型,称为微调网络模型一,再利用微调网络模型一对测试集进行识别率测试,测试集为871张图像(武广铁路长沙段,350km/h高铁);
网络模型一和微调网络模型一对测试集的识别率结果如图5,所述识别率为测试集中未识别图片占测试集总数的比例;
利用针对数据增强图片集错误集微调得到的网络模型对训练集一中的原始图片集图像识别并提取多个目标区域,得到目标区域的坐标。
(3c)将目标区域坐标映射到原始图片集图像上,尺寸变为6600×4400,得到原始图片集图像上的目标区域坐标,并将目标区域从原始图片集图像剪裁下来,对剪裁下的不同目标区域尺寸缩小至800×600,形成训练集二。
(3d)对训练集二进行对数变换、增加噪声、镜像与旋转处理,形成训练集三,并将训练集三与训练集二进行整合,组成训练集四。
(3e)关键部件识别网络模型训练:
利用训练集四不同区域图像分别进行Faster R-CNN网络训练,并利用错误集进行微调,得到针对不同目标区域的网络模型,统称为网络模型二。
(4)利用网络模型二对300张图像(分为经过图像处理和未经过图像处理)进行识别率测试,其结果如图6,提取关键部件。
实验结果表明:
利用本方法对于原始图片的平均识别率达到了98.9%,平均每张图片识别耗时约0.14秒,对于4C图片中所有部件总提取时间可在1.5秒内完成,网络的泛化能力和识别能力大大提高。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (9)
1.一种基于深度学习的接触网关键部件识别方法,其特征在于:包括以下几个步骤:
(1)目标图像采集:采集目标图像,形成原始图像样本集;
(2)图像数据增强:对原始图像样本集进行测试和探索,根据测试结果,选择灰度变换、剪切、旋转、镜像、加噪声图像处理方法中的至少一种方法进行数据处理,形成图像处理图片集,并将图像处理图片集与原始图像样本集进行整合,组成训练集,从训练集中抽取一部分作为验证集与测试集;
(3)图像分层识别:利用训练集进行图像区域识别和关键部件识别的网络模型训练,得到针对不同目标区域的网络模型;
(4)关键部件及部件特征识别:识别零部件以及零部件各个部位;
所述步骤(3)具体步骤如下:
(3a)将训练集图像尺寸缩小,得到训练集一;
(3b)图像区域识别:利用训练集一进行Faster R-CNN网络模型训练,形成网络模型一,利用网络模型一对训练集一图像识别并提取多个目标区域,得到目标区域的坐标;
(3c)将目标区域坐标映射到训练集一图像上,得到训练集一图像上的目标区域坐标,并将目标区域从训练集一图像剪裁下来,分别对剪裁下的不同目标区域尺寸进行变化,形成训练集二;
(3d)训练集二数据增强:利用图像识别模块对训练集二进行测试和探索,根据测试结果,运用灰度变换以及旋转、镜像、加噪声图像处理方法进行数据处理,形成训练集三,并将训练集三与训练集二进行整合,组成训练集四,从中随机抽取部分图片作为验证集二、测试集二;
(3e)关键部件识别网络模型训练:利用训练集四不同区域图像分别进行Faster R-CNN网络训练,得到针对不同目标区域的网络模型,统称为网络模型二。
2.如权利要求1所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:所述步骤(3b)中所述图像区域识别的具体步骤如下:
(3.1)利用训练集一对Faster R-CNN模型训练,产生用于识别目标区域的初级网络模型一;
(3.2)利用初级网络模型一对测试集和验证集进行测试,根据训练集、测试集、验证集识别率关系调整模型参数,并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集;
其中,w为用于微调的网络模型的权重,w'为每次更新得到的权重,β为该惩罚项的影响因子,pi为目标区域是关键部件的概率,为目标区域是否为关键部件的标签,ti为网络模型预测得到的目标区域坐标,为目标区域中交并比最大的包含关键部件的区域的坐标,Ncls是模型训练时一次可分析处理的图片数量,Nreg是每张图片中识别的可能存在关键部件的图像区域的数量,Lcls是关于某个目标区域的对数损失函数,Lreg是预测的目标区域和标注的图像区域之间坐标的差的回归损失函数,l为加权系数;得到新的初级网络模型一,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(3.3),直到目标区域识别率达标,建立最终图像目标区域识别Faster R-CNN网络模型,即网络模型一;
(3.4)利用网络模型一进行目标区域识别并提取。
3.如权利要求1所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:步骤(3e)中所述关键部件识别网络模型训练的具体步骤如下:
(4.1)利用训练集四不同区域图片分别进行关键部件识别的网络训练,得到针对不同区域的初级网络模型二;
(4.2)利用初级网络模型二对测试集二和验证集二进行测试,根据训练集四、测试集二、验证集二识别率关系调整模型参数;并利用模型对未标注过的图片进行测试,根据识别出区域数量,挑选出没有识别到的图片的未识别区域,标注时仅标注未识别图片的未识别区域,并将其他区域以黑色覆盖,形成错误集,并将错误集添加入训练集四;
(4.3)分别统计不同区域关键部件在测试集下的识别率是否达到标准,若达到则流程继续,否则,根据测试集二、训练集四、验证集二识别率调整参数并利用加入错误集后的训练集四进行微调,得到新的初级网络模型二,并用该网络模型对未标注图片进行测试,得到错误集,并重复步骤(4.3),直到关键部件识别率达标,得到最终关键部件识别网络模型,即网络模型二。
4.如权利要求1所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:步骤(2)和(3d)中所述灰度变换方法具体为:
(1)灰度线性变换
灰度线性变化是将直方图以类似“平移”的方式移动,其变化函数如下所示:
g(x,y)=k·f(x,y)+d
其中,f(x,y)是原始图像灰度值,g(x,y)为变换后的灰度图像灰度值;
(2)对数变换
对数变化的特点是对低像素值进行拉伸,对高像素值进行抑制,其函数如下所示:
y=c·logv+1(1+v·x)
通过将c恒定设置为1,改变v的值,是v越大,对低灰度级的增强作用越强,对高灰度级的压制作用越大;
(3)幂次变换
对于灰度幂次变换,其基本表达式为:
y=cxr+b
其中c和r均为正数;
(4)灰度拉伸
灰度拉伸的基本原理利用分段函数来对原图像进行变换,通过观察发现需要突出的像素值主要集中在4-60之间,这样,便将整个灰度曲线分为3个部分,假设像素值在0-4,5-60,61-255之间的斜率分别为a1,a2,a3,由此可以计算出3 个部分的折线表达式分别为:
其中,a1,a2,a3为斜率。
6.如权利要求1或3所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:所述的图像区域识别和关键部件识别的Faster R-CNN网络模型其特征提取网络采用ZF网络,但分别进行参数配置。
7.如权利要求2或3所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:步骤(3.2)和(4.2)所述的测试集由原始图像样本集中的图像组成。
8.如权利要求2或3所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:步骤(3.2)、(3.3)、(4.2)和(4.3)所述的错误集并非特指某个特定的图像样本集,而是泛指单次或多次测试后产生的未识别图像的集合。
9.如权利要求1所述的一种基于深度学习的接触网关键部件识别方法,其特征在于:步骤(3b)中所述多个目标区域具体包括:平腕臂绝缘子左、平腕臂绝缘子、平腕臂绝缘子右、平腕臂支撑、斜腕臂支撑、承力索底座、斜腕臂绝缘子左、腕臂绝缘子、斜腕臂绝缘子右、斜腕臂支撑、定位器沟环、防风拉线、定位器线夹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711341384.3A CN108009591B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的接触网关键部件识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711341384.3A CN108009591B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的接触网关键部件识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108009591A CN108009591A (zh) | 2018-05-08 |
CN108009591B true CN108009591B (zh) | 2021-02-09 |
Family
ID=62058814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711341384.3A Active CN108009591B (zh) | 2017-12-14 | 2017-12-14 | 一种基于深度学习的接触网关键部件识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108009591B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108357517A (zh) * | 2018-05-21 | 2018-08-03 | 北京京天威科技发展有限公司 | 动车组列车运行故障信息检测方法和系统 |
CN108921057B (zh) * | 2018-06-19 | 2021-06-01 | 厦门大学 | 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置 |
CN108921120B (zh) * | 2018-07-13 | 2021-08-24 | 北京优创新港科技股份有限公司 | 一种适应广泛零售场景下的香烟识别方法 |
CN109543179A (zh) * | 2018-11-05 | 2019-03-29 | 北京康夫子科技有限公司 | 口语化症状归一化的方法及系统 |
CN109709452A (zh) * | 2018-12-21 | 2019-05-03 | 深圳供电局有限公司 | 输电线路的绝缘子检测方法、系统和装置 |
CN109753929B (zh) * | 2019-01-03 | 2022-10-28 | 华东交通大学 | 一种高铁绝缘子巡检图像识别方法 |
CN109635881A (zh) * | 2019-01-08 | 2019-04-16 | 浙江大学 | 基于集成学习的强鲁棒采煤机故障诊断系统 |
CN110569841B (zh) * | 2019-09-02 | 2022-09-16 | 中南大学 | 基于卷积神经网络的接触网关键部件目标检测方法 |
CN110490342B (zh) * | 2019-09-19 | 2023-05-02 | 江苏新绿能科技有限公司 | 一种基于Faster R-CNN的接触网静态几何参数检测方法 |
CN110826476A (zh) * | 2019-11-02 | 2020-02-21 | 国网浙江省电力有限公司杭州供电公司 | 识别目标物体的图像检测方法、装置、电子设备和存储介质 |
CN111159150A (zh) * | 2019-12-19 | 2020-05-15 | 北京文安智能技术股份有限公司 | 一种数据扩充方法及装置 |
CN111079849A (zh) * | 2019-12-23 | 2020-04-28 | 西南交通大学 | 语音辅助的视听协同学习新目标网络模型的构建方法 |
CN111291657B (zh) * | 2020-01-21 | 2022-09-16 | 同济大学 | 一种基于难例挖掘的人群计数模型训练方法及应用 |
CN111325758A (zh) * | 2020-02-20 | 2020-06-23 | 北京推想科技有限公司 | 肺部图像分割方法及装置、图像分割模型的训练方法 |
CN111488989B (zh) * | 2020-04-16 | 2024-03-29 | 山东浪潮科学研究院有限公司 | 一种在手机端实现轻量级目标检测的方法及模型 |
CN111899216A (zh) * | 2020-06-16 | 2020-11-06 | 西安交通大学 | 一种高铁接触网绝缘子紧固件的异常检测方法 |
CN111815581A (zh) * | 2020-06-27 | 2020-10-23 | 国网上海市电力公司 | 一种电力隔离开关及其部件自动识别方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145846A (zh) * | 2017-04-26 | 2017-09-08 | 贵州电网有限责任公司输电运行检修分公司 | 一种基于深度学习的绝缘子识别方法 |
CN107451568A (zh) * | 2017-08-03 | 2017-12-08 | 重庆邮电大学 | 使用深度卷积神经网络的姿态检测方法及设备 |
-
2017
- 2017-12-14 CN CN201711341384.3A patent/CN108009591B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145846A (zh) * | 2017-04-26 | 2017-09-08 | 贵州电网有限责任公司输电运行检修分公司 | 一种基于深度学习的绝缘子识别方法 |
CN107451568A (zh) * | 2017-08-03 | 2017-12-08 | 重庆邮电大学 | 使用深度卷积神经网络的姿态检测方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108009591A (zh) | 2018-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108009591B (zh) | 一种基于深度学习的接触网关键部件识别方法 | |
CN108562589B (zh) | 一种对磁路材料表面缺陷进行检测的方法 | |
CN106290388B (zh) | 一种绝缘子故障自动检测方法 | |
CN111797890A (zh) | 一种用于检测输电线路设备缺陷的方法及系统 | |
CN111784633B (zh) | 一种面向电力巡检视频的绝缘子缺损自动检测算法 | |
CN110148130B (zh) | 用于检测零件缺陷的方法和装置 | |
CN109671058B (zh) | 一种大分辨率图像的缺陷检测方法及系统 | |
CN103279765B (zh) | 基于图像匹配的钢丝绳表面损伤检测方法 | |
CN110569841B (zh) | 基于卷积神经网络的接触网关键部件目标检测方法 | |
CN111242185A (zh) | 一种基于深度学习的缺陷快速初筛方法及系统 | |
CN111127448B (zh) | 一种基于孤立森林检测空气弹簧故障的方法 | |
CN105931246A (zh) | 一种基于小波变换和遗传算法的织物瑕疵检测方法 | |
CN108664997A (zh) | 基于级联Faster R-CNN的高铁接触网等电位线不良状态检测方法 | |
CN111833328A (zh) | 基于深度学习的飞机发动机叶片表面缺陷检测方法 | |
CN110599453A (zh) | 一种基于图像融合的面板缺陷检测方法、装置及设备终端 | |
CN110457996A (zh) | 基于vgg-11卷积神经网络的视频运动对象篡改取证方法 | |
CN115205256A (zh) | 一种融合迁移学习的输电线路绝缘子缺陷检测方法及系统 | |
CN114187505A (zh) | 输电线路防振锤脱落的检测方法、装置、介质及终端设备 | |
CN110618129A (zh) | 一种电网线夹自动检测与缺陷识别方法及装置 | |
CN111179278B (zh) | 一种图像检测的方法、装置、设备和存储介质 | |
CN111862023A (zh) | 一种基于计算机视觉的受电弓结构异常检测方法 | |
CN111161233A (zh) | 一种用于冲孔皮革缺陷检测方法及系统 | |
CN115100546A (zh) | 一种基于mobilenet的电力设备小目标缺陷识别方法及系统 | |
CN115393346A (zh) | 一种用于钢轨轨道表面探伤的探测方法 | |
CN112614094B (zh) | 基于序列状态编码的绝缘子串异常定位识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |