CN115393802A - 一种基于小样本学习的铁路场景不常见入侵目标识别方法 - Google Patents
一种基于小样本学习的铁路场景不常见入侵目标识别方法 Download PDFInfo
- Publication number
- CN115393802A CN115393802A CN202210811818.6A CN202210811818A CN115393802A CN 115393802 A CN115393802 A CN 115393802A CN 202210811818 A CN202210811818 A CN 202210811818A CN 115393802 A CN115393802 A CN 115393802A
- Authority
- CN
- China
- Prior art keywords
- training
- network
- railway
- learning
- mapping network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000009545 invasion Effects 0.000 title abstract description 11
- 238000013507 mapping Methods 0.000 claims abstract description 49
- 230000006870 function Effects 0.000 claims abstract description 24
- 238000005259 measurement Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 71
- 238000011176 pooling Methods 0.000 claims description 10
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 claims description 2
- 239000011435 rock Substances 0.000 abstract description 10
- 238000001514 detection method Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100455978 Arabidopsis thaliana MAM1 gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
- B61L23/04—Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
- B61L23/041—Obstacle detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于小样本学习的铁路场景不常见入侵目标识别方法。本发明可以实时采集铁路沿线相机获取的铁路场景图像,利用改进的度量元学习网络模型进行铁路场景中不常见入侵目标的识别。该模型包括预训练的特征映射网络,自学习类中心微调网络,距离度量模块三部分,并采用中心相关损失函数进行度量元学习模型的训练。本发明可以对铁路空场景以及场景中包含但不限于列车、落石、行人、泥石流等类别的图像进行分类识别。当列车经过时不报警,而当铁路场景中有落石、行人、泥石流等异物入侵铁路限界时则发出报警信息,通过有线或无线方式提醒相关人员。
Description
技术领域
本发明涉及铁路运营安全监测技术领域,具体说是一种基于小样本学习的铁路场景不常见入侵目标识别方法。
背景技术
保障列车行车安全是铁路安全保障系统的重中之重。其中泥石流等自然灾害或人为原因导致的人员和异物侵限等线路危情是造成铁路上重大事故的重要原因之一,泥石流和落石等灾害发生概率较低但危害极大,由于高速列车制动距离远大于司机目视距离,当司机发现灾害后再采取紧急制动措施为时已晚。同时,这类图像很难收集到足够的样本用于传统深度学习识别模型的网络训练,如何在仅有少量图像样本的基础上实现铁路场景中泥石流、落石等入侵异物的准确识别对保障铁路运营安全具有重要意义。
近几年,随着人工智能飞速发展,基于智能视频分析的方法因为安装简单和造价等优势被越来越多地应用在铁路异物入侵检测系统中,但基于传统深度学习方法往往需要收集足够多的训练样本使得网络具有更好的泛化性能。而在实际中,一方面线路落石、泥石流等铁路危情往往无法收集到足够多的样本,另一方面随着社会不断发展,新的异物类别会不断出现,而传统深度学习无法识别这些新类别的入侵异物。为了解决上述问题,本发明通过改进度量元学习模型设计了适用于铁路场景中的小样本学习方法并设计了相应的系统,用于铁路场景中泥石流、落石、列车、行人等目标的识别。
度量元学习是目前众多小样本学习方法中效果比较好的方法,该方式重点研究两部分内容:一是设计好的特征映射模块,使得同类别样本之间距离更近,不同类别样本之间距离更远,二是学习一种好的度量模型更好地描述不同类别样本之间的差距。
特征映射模块的性能直接决定了模型最终的检测精度。目前的特征映射模块大多是利用卷积块堆叠提取特征,所有特征对最终分类决策的贡献一样。但实际上,待检测的特征才是网络需要重点关注的内容,对分类贡献应该最大。为解决这一问题,本发明提出了一种改进的通道注意力模块,利用提取的特征生成每个通道上特征权重用作后续分类中的距离度量。
在类别中心的初始化方面,SNELL J等人采用支持集中所有样本特征均值作为所有类别中心,Finn C等人则直接将支持集中样本特征融合,但有时噪声样本可能会分布在偏离特征空间中较远的位置,并不适合用作类别中心的初始化,因此本文提出一种类别中心微调算法,让网络自己学习得到每个类别的中心。
度量元学习算法一般直接采用元训练方式对网络进行训练,并采用交叉熵损失函数优化网络参数;元训练可以让网络学会快速学习,但由于缺少先验知识,特征提取能力较弱;同时交叉熵损失只考虑能否分类正确,并没有考虑到同类样本特征在特征空间中的分布关系。为提高网络的特征提取能力,同时让同类别特征在样本空间中分布更加紧凑,本文引入模型预训练方式和中心相关损失函数来提升检测效果。
发明内容
针对现有技术中存在的缺陷,本发明的目的在于提供一种基于小样本学习的铁路场景不常见入侵目标识别方法,能够在仅需要几张训练样本的情况下,实现对入侵的异物进行实时检测、分类识别。
为达到以上目的,本发明采取的技术方案是:
一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于:
采用改进的度量元学习网络模型进行铁路场景中不常见入侵目标的识别,改进的度量元学习模型包括预训练的特征映射网络,自学习类中心微调网络,距离度量模块三部分;并采用中心相关损失函数进行特征映射网络训练。
在上述方案的基础上,一种基于小样本学习的铁路场景不常见入侵目标识别方法包括如下步骤:
步骤1,首先将具有与铁路图像特征类似的小样本公共数据集输入到随机初始化的特征映射网络中进行预训练,得到预训练的特征映射网络及其参数;
步骤2,利用小样本公共数据集建立元训练集,输入到步骤1获得的预训练的特征映射网络中进行度量元训练,得到元训练的特征映射网络及其参数;
步骤3,将铁路空场景图像、入侵目标样本图像建立小样本支持集,输入至步骤2获得的元训练的特征映射网络中,利用元训练的特征映射网络将上述入侵目标样本映射到同一个特征空间;
步骤4,将步骤3获得的支持集图像特征输入到自学习类中心微调网络中,学习得到各图像类别的中心表示;
步骤5,将待测图像输入到步骤2获得的元训练的特征映射网络中,获得待测图像的图像特征,然后利用距离度量模块计算待测图像特征与步骤4得到的各图像类别中心之间的相似度,得到入侵目标识别结果。
在上述方案的基础上,步骤1中所述的特征映射网络为基于通道注意力机制的特征映射网络,该特征映射网络由两部分组成:
第一部分由依次连接的四个残差块构成,每个残差块后附带一层最大池化层;
第二部分为改进通道注意力模块。
在上述方案的基础上,所述改进通道注意力模块包括:
信息压缩部分,将卷积后的特征通过并行的全局最大池化层 Fm(·)和全局平均池化层Fa(·)在空间维度上进行压缩;
信息激励部分Fσ(·),将上述全局池化层和全局平均池化层的特征相加融合,利用激活函数将融合后的特征归一化到0-1之间得到通道注意力权重值;上述激活函数可以选用Sigmod激活函数。
通道特征增强Fscale(·),将获得的通道注意力权重值与原特征值F 相乘,从而实现对关键通道的注意力增强。
在上述方案的基础上,采用模型预训练方法获得所述的特征映射网络的初始网络参数,再进行元训练,具体训练步骤如下:
步骤1-1,在基于通道注意力机制的特征映射网络上用标准的交叉熵损失训练一个分类器,并在训练的过程中采用一边训练一边元验证的方式,保存在N-way K-shot设置下元验证准确率最高的特征映射网络作为预训练后的模型;
步骤1-2,提取预训练后的模型的网络参数,迁移到度量元学习中,采用元训练的方式继续训练网络。
在上述方案的基础上,所述自学习类中心微调网络处理算法步骤如下:
步骤2-2,根据式(1)依次得到支持集中所有类中心原型的初始值,利用softmax函数,归一化支持集中样本到每个初始类中心的距离,得到属于类k的概率,如式(2):
其中d为两特征向量在特征空间的欧氏距离;
步骤2-3,据式(3)计算交叉熵损失:
在上述方案的基础上,所述采用中心相关损失函数进行特征映射网络训练,具体为:
中心损失Lc表达式具体如下式(4):
上式中λ为超参数,在训练的过程中可以用于控制类内的距离; xi表示某一入侵目标样本在特征空间中的特征值,ck表示各图像类别的类别中心;
同时,在对特征映射网络进行训练中,每次迭代时要采用支持集特征均值重新初始化类别中心;
所述支持集特征均值参照上述步骤2-1记载的方法确定,具体为:
最后采用交叉熵损失和中心损失结合构建下式(5)表示的中心相关损失函数用于特征映射网络训练:
本发明所述的一种基于小样本学习的铁路场景不常见入侵目标识别方法,其有益效果为:
利用上述方法,可以实时采集铁路沿线相机获取的铁路场景图像,利用上述小样本学习方法对铁路空场景、场景中包含但不限于列车、落石、行人、泥石流等类别的图像进行分类识别。当列车经过时不报警,而当铁路场景中有落石、行人、泥石流等异物入侵铁路限界时则发出报警信息,通过有线或无线方式提醒相关人员。
附图说明
本发明有如下附图:
图1度量元学习模型结构图;
图2特征映射网络结构图;
图3改进的通道注意力模块;
图4铁路数据集热力图:(a)列车驶入,(b)泥石流入侵,(c) 行人入侵,(d)落石入侵;
图5不使用模型预训练和中心相关损失样本分布图;
图6使用模型预训练和中心相关损失样本分布图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
以下结合实施例对本发明的具体实施方式进一步详细描述,以下实施方式用于解释本发明,但不用来限制本发明的保护范围。
实施例1
下面介绍本发明的一个实施例,本实施例可用于对铁路场景下泥石流、落石等异物入侵场景进行检测识别。通过铁路现场获取的图像建立了铁路行人入侵图像、铁路空场景图像、铁路列车图像、铁路落石图像与泥石流图像样本数据集,如表1所示,每类样本有40张图像。
表1铁路数据集构成
如图1所示,该网络以支持集(Support set,包括铁路空场景,以及行人入侵、泥石流入侵、落石入侵和列车经过等入侵目标样本) 和查询集(Query set,即待测图像)的图片作为输入,首先用特征映射网络将其映射到同一个特征空间;接着,将支持集图像特征输入到类中心微调网络中,学习得到各类别的中心表示;最后,利用距离度量模块计算查询集图像特征与各类别中心之间的相似度,预测分类结果。
根据小样本学习学习算法的训练方式,本文将模型先在公共数据集miniImageNet上进行元训练,训练完成后迁移至铁路数据集进行元测试。其中在公共数据集上进行元训练的实验参数设置如下。首先将本文设计的度量元学习算法搭建在Ubuntu上的PyTorch0.4.0平台上,模型选用Adam(Adaptive Moment Estimation)优化算法对模型参数进行更新,初始学习率为0.001,采用等间隔调整的方式每20 个epoch更新一次学习率,乘法因子gamma=0.5,每个epoch包含100 个元任务,共200个epoch,每个元任务支持集(support set)中有 5个类别,每类有5张图片,即5-way 5-shot设置。在测试阶段,用于微调的分类器采用SGD优化算法对中心进行微调,初始学习率设为 0.1,动量因子momentum=0.9,动量抑制因子dampening=0.9。上述设置只是为了说明过程,其中的参数不作为对本发明的约束。
为了进一步分析模型在铁路数据集上的效果,根据相关文献跨域进行元训练和元测试进行模型迁移的思想,将在公共数据集 miniImageNet上元训练后的模型迁移至铁路数据集进行元测试。
将本发明算法与经典网络ProtoNet、RelationNet、MAML和 MatchNet在5-way 1-shot和5-way 5-shot设置下的实验检测结果进行了比较,实验结果如表2所示。在铁路小样本数据集下,本文算法在5-way 5-shot设置下,相比于在铁路数据集效果最好的经典网络ProtoNet检测精度有3.61%的提升,在5-way 1-shot设置下有 3.51%的提升。
表2在铁路数据集实验效果
为了更加直观地看到网络加入通道注意力机制后的效果,利用 GradCAM可视化技术,提取图像经过特征映射网络后最后一次卷积后的特征图,从最大概率分类类别的节点出发,反向传播求出特征图的梯度均值作为每张特征图的权重,将每张特征图乘以权重得到带权重的特征图,在第三维上求取均值,ReLU激活后再经过归一化处理,将处理后的热力图缩放到图像尺寸大小,最后叠加到原图中,效果可视化如图4所示。
在图4(a)-(d)各图中,左边图片代表输入网络的原始图,右边图片是我们利用GradCAM可视化技术输出最终分类时图像中不同特征对分类的贡献量,图中颜色从蓝到红的变化代表贡献量逐渐增大,蓝色贡献量低,红色区域贡献量高。整体来说,特征提取网络都可以关注到不同的入侵物体上。
为了更加直观地观察使用模型预训练和中心相关损失前后度量空间的对比情况,在5-way 5-shot设置下,分别提取了训练结束后模型最后一层卷积神经网络的特征图,利用TSNE分析法将其降维至二维平面,效果如图5和图6所示。
图5中,空场景和行人类别样本交织分布,这会导致距离度量模块很难将二者进行区分;同时,落石在特征空间中分布较为分散,从而导致分类错误率较高。而图6中,使用了模型预训练和中心相关损失函数后,行人和空场景分布趋于远离并且落石类目标的特征分布也趋于密集,说明中心相关损失函数可以有效地缩小同类样本之间的距离,在模型预训练之后,各类样本在特征空间内的分布质量明显提高。实验证明使用模型预训练和中心相关损失函数可以在铁路小样本数据集分类中取得不错的效果。
为了验证本算法设计的通道注意力模块、类中心微调算法、模型预训练和中心相关损失函数在铁路数据集上的有效性,以本文构建的模型为基准,分别在网络中加入分别这四个模块进行消融实验。为了保证实验的公平性,在训练的过程中都是采用20-way 5-shot小样本学习任务设置,在测试过程中距离函数都为曼哈顿距离。实验结果如表3所示,在5-way 5-shot设置下,改进的注意力机制CAM模块在精度的提高上有显著作用,提高了0.86%的检测精度;类中心微调算法可以减小噪声样本对类中心初始化影响,提升了3.05%的检测精度;中心相关损失函数可以使得同类别特征更加紧凑,提升了1.91%的检测精度;模型预训练后检测精度提升了6.70%;四者结合起来检测精度共提升7.90%。在5-way 1-shot设置下,即当支持集中每个类别的图片只有一张时,此时中心微调算法不再起作用,故在此不做讨论;网络中单独引入CAM模块时,检测精度可提升3.75%;单独加入中心相关损失函数后,检测精度可提升5.89%;加入模型预训练方式后,检测精度可提升5.15%。与主干网络ResNet12相比,当待测目标所占区域较小时,加入改进的注意力机制CAM模块可以有效关注重要特征,使其在分类时所占据的比例更大;在类别中心初始化的过程中,类中心微调可以有效滤除在特征空间中分布偏离同类别特征较远的样本,同时有效滤除噪声样本的干扰;而中心相关损失函数可以使得同类别特征在特征空间中更加紧凑,更加有利于后续的分类;在元训练之前引入模型预训练可以使特征映射网络获得更加丰富的先验知识,特征提取能力更强。因此,注意力模块CAM、类中心微调算法、中心相关损失函数和模型预训练可以有效提升网络的分类检测精度。
表3铁路数据集消融实验
为了验证样本数量对小样本学习模型的影响,本文依次增加铁路支持集样本数量进行了相关实验,5-way 5-shot、5-way 10-shot、 5-way 15-shot和5-way 20-shot设置下的实验结果如表4所示,从中可以看出,随着支持集中样本数量的增加,本文设计的小样本学习模型的准确率会持续提升,在5-way 20-shot设置下可以达到 93.51±0.21%的准确率。由于实际铁路场景应用中对各类入侵目标收集几十张样本具有可操作性,因此采用5-way 20-shots的识别模式具有广泛的实际应用价值,能够直接用于铁路场景中非常见类型入侵目标的分类识别。
表4不同支持集样本数量下的模型准确率
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
Claims (7)
1.一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于:
采用改进的度量元学习网络模型进行铁路场景中不常见入侵目标的识别,改进的度量元学习模型包括预训练的特征映射网络,自学习类中心微调网络,距离度量模块三部分;并采用中心相关损失函数进行特征映射网络训练。
2.如权利要求1所述的一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于,包括如下步骤:
步骤1,首先将具有与铁路图像特征类似的小样本公共数据集输入到随机初始化的特征映射网络中进行预训练,得到预训练的特征映射网络及其参数;
步骤2,利用小样本公共数据集建立元训练集,输入到步骤1获得的预训练的特征映射网络中进行度量元训练,得到元训练的特征映射网络及其参数;
步骤3,将铁路空场景图像、入侵目标样本图像建立小样本支持集S,输入至步骤2获得的元训练的特征映射网络中,利用元训练的特征映射网络将上述入侵目标样本映射到同一个特征空间;
步骤4,将步骤3获得的支持集图像特征输入到自学习类中心微调网络中,学习得到各图像类别的中心表示;
步骤5,将待测图像输入到步骤2获得的元训练的特征映射网络中,获得待测图像的图像特征,然后利用距离度量模块计算待测图像特征与步骤4得到的各图像类别中心之间的相似度,得到入侵目标识别结果。
3.如权利要求1所述的一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于:步骤1中所述的特征映射网络为基于通道注意力机制的特征映射网络,该特征映射网络由两部分组成:
第一部分由依次连接的四个残差块构成,每个残差块后附带一层最大池化层;
第二部分为改进通道注意力模块。
4.如权利要求3所述的一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于:所述改进通道注意力模块包括:
信息压缩部分,将卷积后的特征通过并行的全局最大池化层Fm(·)和全局平均池化层Fa(·)在空间维度上进行压缩;
信息激励部分Fσ(·),将上述全局池化层和全局平均池化层的特征相加融合,利用激活函数将融合后的特征归一化到0-1之间得到通道注意力权重值;
通道特征增强Fscale(·),将获得的通道注意力权重值与原特征值F相乘,从而实现对关键通道的注意力增强。
5.如权利要求3所述的一种基于小样本学习的铁路场景不常见入侵目标识别方法,其特征在于:采用模型预训练方法获得所述的特征映射网络的初始网络参数,再进行元训练,具体训练步骤如下:
步骤1-1,在基于通道注意力机制的特征映射网络上用标准的交叉熵损失训练一个分类器,并在训练的过程中采用一边训练一边元验证的方式,保存在N-way K-shot设置下元验证准确率最高的特征映射网络作为预训练后的模型;
步骤1-2,提取预训练后的模型的网络参数,迁移到度量元学习中,采用元训练的方式继续训练网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210811818.6A CN115393802A (zh) | 2022-07-11 | 2022-07-11 | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210811818.6A CN115393802A (zh) | 2022-07-11 | 2022-07-11 | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393802A true CN115393802A (zh) | 2022-11-25 |
Family
ID=84117695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210811818.6A Pending CN115393802A (zh) | 2022-07-11 | 2022-07-11 | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393802A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116383771A (zh) * | 2023-06-06 | 2023-07-04 | 云南电网有限责任公司信息中心 | 基于变分自编码模型的网络异常入侵检测方法和系统 |
-
2022
- 2022-07-11 CN CN202210811818.6A patent/CN115393802A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116383771A (zh) * | 2023-06-06 | 2023-07-04 | 云南电网有限责任公司信息中心 | 基于变分自编码模型的网络异常入侵检测方法和系统 |
CN116383771B (zh) * | 2023-06-06 | 2023-10-27 | 云南电网有限责任公司信息中心 | 基于变分自编码模型的网络异常入侵检测方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111539370B (zh) | 一种基于多注意力联合学习的图像行人重识别方法和系统 | |
CN109670446B (zh) | 基于线性动态系统和深度网络的异常行为检测方法 | |
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
CN110084151B (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN104809443B (zh) | 基于卷积神经网络的车牌检测方法及系统 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
Derpanis et al. | Classification of traffic video based on a spatiotemporal orientation analysis | |
Chen et al. | Research on recognition of fly species based on improved RetinaNet and CBAM | |
CN104504395A (zh) | 基于神经网络实现人车分类的方法和系统 | |
CN108830254B (zh) | 一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN108875754B (zh) | 一种基于多深度特征融合网络的车辆再识别方法 | |
CN113313037A (zh) | 一种基于自注意力机制的生成对抗网络视频异常检测方法 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 | |
CN109446897B (zh) | 基于图像上下文信息的场景识别方法及装置 | |
CN113536972A (zh) | 一种基于目标域伪标签的自监督跨域人群计数方法 | |
Jain et al. | AI-enabled object detection in UAVs: challenges, design choices, and research directions | |
CN113569756A (zh) | 异常行为检测与定位方法、系统、终端设备及可读存储介质 | |
CN114049581A (zh) | 一种基于动作片段排序的弱监督行为定位方法和装置 | |
CN115527134A (zh) | 基于大数据的城市园林景观照明监测系统及其方法 | |
Anwer et al. | Accident vehicle types classification: a comparative study between different deep learning models | |
TWI696958B (zh) | 影像適應性特徵提取法及其應用 | |
CN115393802A (zh) | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 | |
CN111160100A (zh) | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |