CN113298037B - 一种基于胶囊网络的车辆重识别方法 - Google Patents
一种基于胶囊网络的车辆重识别方法 Download PDFInfo
- Publication number
- CN113298037B CN113298037B CN202110679756.3A CN202110679756A CN113298037B CN 113298037 B CN113298037 B CN 113298037B CN 202110679756 A CN202110679756 A CN 202110679756A CN 113298037 B CN113298037 B CN 113298037B
- Authority
- CN
- China
- Prior art keywords
- capsule
- vehicle image
- vehicle
- layer
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000002775 capsule Substances 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000013598 vector Substances 0.000 claims abstract description 82
- 238000012360 testing method Methods 0.000 claims abstract description 27
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 46
- 238000010586 diagram Methods 0.000 claims description 21
- 238000011176 pooling Methods 0.000 claims description 19
- 230000004913 activation Effects 0.000 claims description 6
- 230000009901 attention process Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000001125 extrusion Methods 0.000 claims 1
- 238000005096 rolling process Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 235000006629 Prosopis spicigera Nutrition 0.000 description 1
- 240000000037 Prosopis spicigera Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于胶囊网络的车辆重识别方法,包括:获取车辆图像数据集,将所述车辆图片数据集划分为训练集和测试集;构建用于车辆重识别的胶囊网络模型;通过训练集中的车辆图像对所述胶囊网络模型进行优化;将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中:首先计算待识别车辆图像和测试集中车辆图像的特征向量,然后比较待识别车辆图像的特征向量和测试集中车辆图像的特征向量并计算对应的相似度,最后根据相似度高低排序输出匹配结果。本发明中基于胶囊网络的车辆重识别方法能够有效克服卷积神经网络不能提取空间位置信息和特征匹配时特征向量未对齐等问题,从而能够提升车辆重识别的识别精度。
Description
技术领域
本发明涉及车辆监控及追踪技术领域,具体涉及一种基于胶囊网络的车辆重识别方法。
背景技术
近年来,智慧城市和智慧交通发展迅速,车辆是智慧交通的组成部分,车辆重识别是智慧交通的核心技术之一。车辆重识别是指给定一张车辆图像,找出其它摄像头拍摄的同一车辆,可将车辆重识别问题看作图像检索的子问题。车辆重识别技术对于道路交通视频监控及交通执法部门具有一定的实用价值,例如可快速的发现和定位到监控区域中违法车辆的运动信息,以进行相关抓捕或其他处理,提高执法人员的工作效率。
随着卷积神经网络(CNN)技术的飞速发展,基于卷积神经网络的车辆重识别取得了长足的进步。例如,公开号为CN112396027A的中国专利就公开了《一种基于图卷积神经网络的车辆重识别方法》,其包括:构建用于车辆重识别的网络模型,使用卷积神经网络提取待重识别的车辆图像的全局和局部特征,利用图卷积神经网络得到结构化特征,利用结构化特征计算网络模型的损失函数;根据损失函数训练网络模型,将待重识别的车辆图像和测试集的所有图像输入到训练好的网络模型中,分别得到待测图片和测试集的所有图像的图片特征,根据图片特征计算出待测图片和测试集的各个图像之间的相似性,根据相似性得到待重识别的车辆图像的重识别结果。
上述现有方案中的车辆重识别方法通过使用卷积神经网络挖掘局部特征与局部特征、局部特征与全局特征之间的结构化信息,从而获得更优更全面的特征表达。但是,申请人发现卷积神经网络处理边缘、形状和原始车辆特征时,没有考虑到这些特征之间的空间关系,因为组件的朝向和空间关系对它来说不重要,它只在乎有无特征,因此其对拍摄角度变化的图像识别性不高。同时,卷积神经网络中池化层能够使网络具有不变性的效果,也就是当输入神经网络的内容发生很小的变化的时候(平移、旋转),卷积神经网络仍然能够稳定识别对应内容。然而,这种机使得最大池化丢失了有价值的信息,也没有编码特征之间的相对空间位置关系。对于车辆图像来说,不同车辆的零件之间的相对位置关系不同,车辆图像以不同方式旋转或不同视角被捕获时图像会发生变形,因此,采用现有的车辆重识别方法容易造成特征匹配时出现特征未对齐的问题,导致车辆重识别的识别精度不高。
因此,如何设计一种能够有效克服卷积神经网络不能提取空间位置信息和特征匹配时特征向量未对齐等问题的车辆重识别方法是急需解决的技术问题。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种基于胶囊网络且能够有效克服卷积神经网络不能提取空间位置信息和特征匹配时特征向量未对齐等问题的车辆重识别方法,从而能够提升车辆重识别的识别精度。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种基于胶囊网络的车辆重识别方法,包括以下步骤:
S1:获取车辆图像数据集,将所述车辆图片数据集划分为训练集和测试集;
S2:构建用于车辆重识别的胶囊网络模型;
S3:通过训练集中的车辆图像对所述胶囊网络模型进行优化;
S4:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中:首先计算待识别车辆图像和测试集中车辆图像的特征向量,然后比较待识别车辆图像的特征向量和测试集中车辆图像的特征向量并计算对应的相似度,最后根据相似度高低排序输出匹配结果。
优选的,步骤S2中,通过如下步骤构建胶囊网络模型:
S201:将胶囊网络模型的卷积层Conv1替换成残差网络层,所述残差网络层为不带最大池化层的卷积神经网络结构;
S202:在胶囊网络模型的所述残差网络层和主胶囊层之间嵌入卷积块注意力模块;
S203:在胶囊网络模型的所述主胶囊层和数字胶囊层之间嵌入胶囊注意力模块;
S204:构建得到用于车辆重识别的胶囊网络模型。
优选的,所述卷积块注意力模块为前馈卷积神经网络注意力模块,其能够沿着通道和空间两个不同的维度顺序地推断关注图,然后将关注图与输入的特征图相乘以进行自适应的特征求精。
优选的,所述胶囊注意力模块通过如下步骤构建:
改变主胶囊层的形状,将主胶囊层转换为向量upr;
根据upr通过ReLU激活函数结合公式up1=ReLU(W1upr+b1)计算特征向量up1;
根据upr通过tanh激活函数结合公式up2=tanh(W2up1+b2)计算特征向量up2;
将up2和upr相乘结合公式up3=up1*up2得到特征向量up3,然后将up3和upr相加结合公式up-att=up+up3得到胶囊注意力模块up-att;
式中:W1和W2表示相应的权重矩阵;b1和b2表示相应的偏移量。
优选的,步骤S3中,通过如下步骤优化所述胶囊网络模型:
S301:将训练集中的车辆图像输入所述胶囊网络模型中;
S302:通过所述残差网络层提取车辆图像的底层特征图;再根据所述底层特征图通过所述卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据所述底层代表性特征信息通过所述主胶囊层得到车辆图像的高层语义特征;再根据所述高层语义特征通过所述胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据所述车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S303:根据车辆图像的特征向量计算对应的损失函数,然后根据对应损失函数和优化器优化所述胶囊网络模型。
优选的,所述卷积块注意力模块通过如下步骤得到车辆图像的底层代表性特征信息:
卷积块注意力模块包括通道注意力模块和空间注意力模块;底层特征图为F∈RW ×H×C;W、H、C分别表示特征图的宽度、高度及通道尺寸;
根据底层特征图F分别通过最大池化处理和平均池化处理得到然后将和输入由MLP与隐藏层组成的共享网络中;最后采用逐元素求和的方式输出通道注意图Mc∈R1×1×C;整个注意力过程结合公式计算通道注意力模块Mc(F);式中:σ表示sigmoid函数;W0∈RC×C/r,W1∈RC/r×C,R1×1×C/r表示设置的隐藏层大小,r表示减小的比例;
根据通道注意力模块Mc(F)通过公式计算通道特征图F′,然后根据通道特征图F′通过全局最大池化处理和全局平均池化处理生成两个代表不同信息的特征图和将两个特征图和进行合并通过7×7卷积进行特征融合,使用Sigmoid函数生成最终的空间权重,将空间权重在空间维度上与每一个通道相乘即可得到空间维度上的加权特征图Ms∈RH×W×1;整个注意力过程结合公式计算空间注意力模块Ms(F′);式中:σ表示sigmoid函数;f7×7表示滤波器大小为7×7的卷积运算;
优选的,步骤S303中,根据车辆图像的特征向量计算损失函数之前,先对数字胶囊层输出的特征向量进行挤压及二范数计算,选取模最大的特征向量作为最终特征向量;再通过所述最终特征向量计算对应的损失函数。
优选的,通过挤压函数对车辆图像的特征向量进行非线性变换时结合如下公式:
优选的,所述损失函数包括硬三元组损失和MarginLoss;
其中,Lk=Tkmax(0,m+-||vk||)2+λ(1-Tk)max(0,||vk||-m-)2;式中:Lk对应于每个数字胶囊k,当车辆类别k存在时,Tk=1,否则为0。m+=0.9,惩罚假阳性,k类存在但是预测不存在会导致损失函数很大;m-=0.1,惩罚假阴性,k类不存在但是预测存在,会导致损失函数很大;N表示车辆类别数;λ=0.5;
所述损失函数通过公式Lloss=Ltriplet+Lmargin表示。
优选的,步骤S3中,经过优化的胶囊网络模型通过如下步骤输出匹配结果:
S401:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中;
S402:通过所述残差网络层提取车辆图像的底层特征图;再根据所述底层特征图通过所述卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据所述底层代表性特征信息通过所述主胶囊层得到车辆图像的高层语义特征;再根据所述高层语义特征通过所述胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据所述车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S403:将待检索车辆图像的特征向量与测试集中车辆图像的特征向量进行比较,通过相似性度的高低对匹配结果进行排序,并按照排序输出匹配结果。
本发明中基于胶囊网络的车辆重识别方法与现有技术相比,具有如下有益效果:
在本发明中,通过胶囊网络模型实现车辆重识别的方式,能够捕捉图像特征之间的空间关系,进而能够有效提取具有强判别性的特征,并且由于特征中含有空间位置关系,使得能够有效的解决因视角改变而造成的类间差异小、类内差异大的问题,即能够克服卷积神经网络不能提取空间位置信息和特征匹配时特征向量未对齐等问题,从而能够提升车辆重识别的识别精度。同时,本发明通过比较特征向量并计算对应相似度的方式得到车辆图像匹配结果的方式,能够进一步保证车辆重识别的识别效果。
在本发明中,胶囊网络模型中设置了残差网络层并嵌入了双重注意力机制(卷积块注意力模块和胶囊注意力模块),首先残差网络层能够有效保存车辆图像的局部空间结构,即能够提更全面的提取车辆图像特征,其次双重注意力机制能够有效得到底层的更具区分性特征和高层的强判别性特征,因此本发明能够兼顾特征提取的全面性和精确性,从而能够进一步提升车辆重识别的识别精度。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为实施例中车辆重识别方法的逻辑框图;
图2为实施例中胶囊网络模型的网络结构图;
图3为实施例中现有经典胶囊网络模型的胶囊网络结构图;
图4、图5和图6均为实施例中卷积块注意力模块的网络结构图;
图7为实施例中胶囊注意力模块的网络结构图;
图8为实施例中胶囊网络模型胶囊层之间的路由传播图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例:
申请人在研究中发现,胶囊网络模型采用向量输出替代标量输出,其能够捕捉图像特征之间的空间关系,进而能够改善卷积神经网络的局限性。正是基于上述发现,申请人设计了如下的基于胶囊网络的车辆重识别方法。
如图1所示,一种基于胶囊网络的车辆重识别方法,包括以下步骤:
S1:获取车辆图像数据集,将车辆图片数据集划分为训练集和测试集;
S2:构建用于车辆重识别的胶囊网络模型;
S3:通过训练集中的车辆图像对胶囊网络模型进行优化;
S4:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中:首先计算待识别车辆图像和测试集中车辆图像的特征向量,然后比较待识别车辆图像的特征向量和测试集中车辆图像的特征向量并计算对应的相似度,最后根据相似度高低排序输出匹配结果。
在本发明中,通过胶囊网络模型实现车辆重识别的方式,能够捕捉图像特征之间的空间关系,进而能够有效提取具有强判别性的特征,并且由于特征中含有空间位置关系,使得能够有效的解决因视角改变而造成的类间差异小、类内差异大的问题,即能够克服卷积神经网络不能提取空间位置信息和特征匹配时特征向量未对齐等问题,从而能够提升车辆重识别的识别精度。同时,本发明通过比较特征向量并计算对应相似度的方式得到车辆图像匹配结果的方式,能够进一步保证车辆重识别的识别效果。
具体实施过程中,通过如下步骤构建如图2和图3所示的胶囊网络模型:
S201:将胶囊网络模型的卷积层Conv1替换成残差网络层。具体的,残差网络层是在现有卷积神经网络结构的基础上去除了最大池化层的结构,在现有卷积神经网络结构中去除了最大池化层后,原先分别连接在最大池化层输入和输出位置的结构对应的连接在一起。将胶囊网络模型的卷积层Conv1替换成残差网络层后,原先分别连接在卷积层Conv1输入和输出位置的结构对应的与残差网络层的输入和输出连接。
S202:在胶囊网络模型的残差网络层和主胶囊层之间嵌入卷积块注意力模块。具体的,卷积块注意力模块的结构如图4、图5和图6所示,卷积块注意力模块为前馈卷积神经网络注意力模块,其能够沿着通道和空间两个不同的维度顺序地推断关注图,然后将关注图与输入的特征图相乘以进行自适应的特征求精。
S203:在胶囊网络模型的主胶囊层和数字胶囊层之间嵌入胶囊注意力模块。具体的,胶囊注意力模块的结构如图7所示,胶囊注意力模块通过如下步骤构建:
改变主胶囊层的形状,将主胶囊层转换为向量upr;
根据upr通过ReLU激活函数结合公式up1=ReLU(W1upr+b1)计算特征向量up1;
根据upr通过tanh激活函数结合公式up2=tanh(W2up1+b2)计算特征向量up2;
将up2和upr相乘结合公式up3=up1*up2得到特征向量up3,然后将up3和upr相加结合公式up-att=up+up3得到胶囊注意力模块up-att;
式中:W1和W2表示相应的权重矩阵;b1和b2表示相应的偏移量。
S204:构建得到用于车辆重识别的胶囊网络模型。
在本发明中,胶囊网络模型中设置了残差网络层并嵌入了双重注意力机制(卷积块注意力模块和胶囊注意力模块),首先残差网络层能够有效保存车辆图像的局部空间结构,即能够提更全面的提取车辆图像特征,其次双重注意力机制能够有效得到底层的更具区分性特征和高层的强判别性特征,因此本发明能够兼顾特征提取的全面性和精确性,从而能够进一步提升车辆重识别的识别精度。
具体实施过程中,步骤S3中,通过如下步骤优化胶囊网络模型:
S301:将训练集中的车辆图像输入胶囊网络模型中;
S302:通过残差网络层提取车辆图像的底层特征图;再根据底层特征图通过卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据底层代表性特征信息通过主胶囊层得到车辆图像的高层语义特征;再根据高层语义特征通过胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S303:根据车辆图像的特征向量计算对应的损失函数,然后根据对应损失函数和优化器优化胶囊网络模型。具体的,计算损失函数之前,先对数字胶囊层输出的特征向量进行挤压及二范数计算,选取模最大的特征向量作为车辆图像的最终特征向量;再通过所述最终特征向量计算对应的损失函数。优化器采用的是ADam梯度优化器。
在本发明中,胶囊网络模型中设置了残差网络层并嵌入了双重注意力机制(卷积块注意力模块和胶囊注意力模块),首先残差网络层能够有效保存车辆图像的局部空间结构,即能够提更全面的提取车辆图像特征,其次双重注意力机制能够有效得到底层的更具区分性特征和高层的强判别性特征,因此本发明能够兼顾特征提取的全面性和精确性,这有利于更好的计算损失函数并优化胶囊网络模型,从而能够辅助提升车辆重识别的识别精度。同时,本发明通过挤压函数和结合二范数能够获取关联性更高的最终特征向量,这有利于更好的损失函数计算,从而能够提升胶囊网络模型的优化效果。
具体实施过程中,经过优化的胶囊网络模型通过如下步骤输出匹配结果:
S401:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中;
S402:通过残差网络层提取车辆图像的底层特征图;再根据底层特征图通过卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据底层代表性特征信息通过主胶囊层得到车辆图像的高层语义特征;再根据高层语义特征通过胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S403:将待检索车辆图像的特征向量与测试集中车辆图像的特征向量进行比较,通过相似性度的高低对匹配结果进行排序,并按照排序输出匹配结果。其中,若待检索车辆图像与测试集中一个车辆图像的特征向量之间的似性度越高,则表明待检索车辆图像与测试集中该车辆图像为同一车辆的图像的可能越大。
在本发明中,胶囊网络模型中设置了残差网络层并嵌入了双重注意力机制(卷积块注意力模块和胶囊注意力模块),首先残差网络层能够有效保存车辆图像的局部空间结构,即能够提更全面的提取车辆图像特征,其次双重注意力机制能够有效得到底层的更具区分性特征和高层的强判别性特征,因此本发明能够兼顾特征提取的全面性和精确性,从而能够进一步辅助提升车辆重识别的识别精度。
具体的,现有胶囊网络最开始是一个仿射变换,uji=wijui,在上一层胶囊层的输出向量进入高一层的胶囊层前,要和权重矩阵相乘,映射到和高一层的胶囊层内神经元个数相同的空间中去;然后动态路由是胶囊网络的核心,动态路由指的是图8中的过程,这一过程使用耦合系数C决定来自下层的向量将会如何进入高一层的向量,但是在这一过程并不加入bias,而且胶囊i和高层的所有胶囊j的耦合系数总和为1,即并且是由路由softmax决定,该路由softmax初始逻辑bij是对数先验概率,初始值为0,即胶囊i与胶囊j的耦合用公式表示。
具体实施过程中,残差网络层的结构如表1所示。
表1
具体实施过程中,结合图4、图5和图6所示,卷积块注意力模块通过如下步骤得到车辆图像的底层代表性特征信息:
卷积块注意力模块包括通道注意力模块和空间注意力模块;底层特征图为F∈RW ×H×C;W、H、C分别表示特征图的宽度、高度及通道尺寸;
根据底层特征图F分别通过最大池化处理和平均池化处理得到然后将和输入由MLP与隐藏层组成的共享网络中;最后采用逐元素求和的方式输出通道注意图Mc∈R1×1×C;整个注意力过程结合公式计算通道注意力模块Mc(F);式中:σ表示sigmoid函数;W0∈RC×C/r,W1∈RC/r×C,R1×1×C/r表示设置的隐藏层大小,r表示减小的比例;
根据通道注意力模块Mc(F)通过公式计算通道特征图F′,然后根据通道特征图F′通过全局最大池化处理和全局平均池化处理生成两个代表不同信息的特征图和将两个特征图和进行合并通过7×7卷积进行特征融合,使用Sigmoid函数生成最终的空间权重,将空间权重在空间维度上与每一个通道相乘即可得到空间维度上的加权特征图Ms∈RH×W×1;整个注意力过程结合公式计算空间注意力模块Ms(F′);式中:σ表示sigmoid函数;f7×7表示滤波器大小为7×7的卷积运算;
具体实施过程中,胶囊网络模型输出的向量长度表示胶囊所代表实体在当前的输入中存在的概率,因此为了保证向量长度在(0,1)之间,需要用挤压函数(squashing)进行非线性变换得到输出vj,其中可以用一致性度量为标量积来测量胶囊j的当前胶囊的输出vj和胶囊i的预测向量间的相似度。挤压函数进行非线性变换通过如下公式表示:
具体实施过程中,损失函数包括硬三元组损失和MarginLoss。硬三元组损失是指:在包含P个身份和每个身份K张图像的小批次中,每个图像具有相同身份的K-1张图像(正样本)和不同身份的(P-1)*K张图像(负样本);硬三元组损失的目的是将正对(a,p)拉在一起,同时将负对(a,n)推开一段距离。本实施例采用的硬三元组损失,是传统三元组损失的一种变体,其目的是将更多的权重放在最接近的负对和最远的正对上以达到更好的优化模型的效果。
其中,Lk=Tkmax(0,m+-||vk||)2+λ(1-Tk)max(0,||vk||-m-)2;式中:Lk对应于每个数字胶囊k,当车辆类别k存在时,Tk=1,否则为0。m+=0.9,惩罚假阳性,k类存在但是预测不存在会导致损失函数很大;m-=0.1,惩罚假阴性,k类不存在但是预测存在,会导致损失函数很大;N表示车辆类别数;λ=0.5;
损失函数通过公式Lloss=Ltriplet+Lmargin表示。
实际识别过程中,对于同一辆车来说,训练的样本过少,训练出来的结果要么过拟合,要么精度太差,难以满足识别任务需求。所以,本发明通过硬三元组损失和MarginLoss结合组成损失函数,首先硬三元组损失能够从数据集中去学习一个相似性评价模型,在用这个模型对新样本进行相似性度量,其次通过MarginLoss惩罚False Negative和FalsePositive的识别结果,从而能够进一步提升胶囊网络模型的优化效果。
需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变,而不偏离所附权利要求书所限定的本发明的精神和范围。同时,实施例中公知的具体结构及特性等常识在此未作过多描述。最后,本发明要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (8)
1.一种基于胶囊网络的车辆重识别方法,其特征在于,包括以下步骤:
S1:获取车辆图像数据集,将所述车辆图片数据集划分为训练集和测试集;
S2:构建用于车辆重识别的胶囊网络模型;
S3:通过训练集中的车辆图像对所述胶囊网络模型进行优化;
S4:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中:首先计算待识别车辆图像和测试集中车辆图像的特征向量,然后比较待识别车辆图像的特征向量和测试集中车辆图像的特征向量并计算对应的相似度,最后根据相似度高低排序输出匹配结果;
步骤S2中,通过如下步骤构建胶囊网络模型:
S201:将胶囊网络模型的卷积层Conv1替换成残差网络层,所述残差网络层为不带最大池化层的卷积神经网络结构;
S202:在胶囊网络模型的所述残差网络层和主胶囊层之间嵌入卷积块注意力模块;
S203:在胶囊网络模型的所述主胶囊层和数字胶囊层之间嵌入胶囊注意力模块;
S204:构建得到用于车辆重识别的胶囊网络模型;
所述胶囊注意力模块通过如下步骤构建:
改变主胶囊层的形状,将主胶囊层转换为向量upr;
根据upr通过ReLU激活函数结合公式up1=ReLU(W1upr+b1)计算特征向量up1;
根据upr通过tanh激活函数结合公式up2=tanh(W2up1+b2)计算特征向量up2;
将up2和upr相乘结合公式up3=up1*up2得到特征向量up3,然后将up3和upr相加结合公式up-att=up+up3得到胶囊注意力模块up-att;
式中:W1和W2表示相应的权重矩阵;b1和b2表示相应的偏移量。
2.如权利要求1所述的基于胶囊网络的车辆重识别方法,其特征在于:所述卷积块注意力模块为前馈卷积神经网络注意力模块,其能够沿着通道和空间两个不同的维度顺序地推断关注图,然后将关注图与输入的特征图相乘以进行自适应的特征求精。
3.如权利要求1所述的基于胶囊网络的车辆重识别方法,其特征在于,步骤S3中,通过如下步骤优化所述胶囊网络模型:
S301:将训练集中的车辆图像输入所述胶囊网络模型中;
S302:通过所述残差网络层提取车辆图像的底层特征图;再根据所述底层特征图通过所述卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据所述底层代表性特征信息通过所述主胶囊层得到车辆图像的高层语义特征;再根据所述高层语义特征通过所述胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据所述车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S303:根据车辆图像的特征向量计算对应的损失函数,然后根据对应损失函数和优化器优化所述胶囊网络模型。
4.如权利要求3所述的基于胶囊网络的车辆重识别方法,其特征在于:所述卷积块注意力模块通过如下步骤得到车辆图像的底层代表性特征信息:
卷积块注意力模块包括通道注意力模块和空间注意力模块;底层特征图为F∈RW×H×C;W、H、C分别表示特征图的宽度、高度及通道尺寸;
根据底层特征图F分别通过最大池化处理和平均池化处理得到然后将和输入由MLP与隐藏层组成的共享网络中;最后采用逐元素求和的方式输出通道注意图Mc∈R1×1×C;整个注意力过程结合公式计算通道注意力模块Mc(F);式中:σ表示sigmoid函数;W0∈RC×C/r,W1∈RC/r×C,R1×1×C/r表示设置的隐藏层大小,r表示减小的比例;
根据通道注意力模块Mc(F)通过公式计算通道特征图F′,然后根据通道特征图F′通过全局最大池化处理和全局平均池化处理生成两个代表不同信息的特征图和将两个特征图和进行合并通过7×7卷积进行特征融合,使用Sigmoid函数生成最终的空间权重,将空间权重在空间维度上与每一个通道相乘即可得到空间维度上的加权特征图Ms∈RH×W×1;整个注意力过程结合公式计算空间注意力模块Ms(F′);式中:σ表示sigmoid函数;f7×7表示滤波器大小为7×7的卷积运算;
5.如权利要求3所述的基于胶囊网络的车辆重识别方法,其特征在于:步骤S303中,根据车辆图像的特征向量计算损失函数之前,先对数字胶囊层输出的特征向量进行挤压及二范数计算,选取模最大的特征向量作为最终特征向量;再通过所述最终特征向量计算对应的损失函数。
7.如权利要求3所述的基于胶囊网络的车辆重识别方法,其特征在于:所述损失函数包括硬三元组损失和MarginLoss;
其中,Lk=Tkmax(0,m+-||vk||)2+λ(1-Tk)max(0,||vk||-m-)2;式中:Lk对应于每个数字胶囊k,当车辆类别k存在时,Tk=1,否则为0;m+=0.9,惩罚假阳性,k类存在但是预测不存在会导致损失函数很大;m-=0.1,惩罚假阴性,k类不存在但是预测存在,会导致损失函数很大;λ=0.5;
所述损失函数通过公式Lloss=Ltriplet+Lmargin表示。
8.如权利要求1所述的基于胶囊网络的车辆重识别方法,其特征在于:步骤S3中,经过优化的胶囊网络模型通过如下步骤输出匹配结果:
S401:将待识别车辆图像和测试集中的车辆图像输入经过优化的胶囊网络模型中;
S402:通过所述残差网络层提取车辆图像的底层特征图;再根据所述底层特征图通过所述卷积块注意力模块得到车辆图像的底层代表性特征信息;然后根据所述底层代表性特征信息通过所述主胶囊层得到车辆图像的高层语义特征;再根据所述高层语义特征通过所述胶囊注意力模块得到车辆图像更具区分性的高层语义特征;最后根据所述车辆图像更具区分性的高层语义特征通过数字胶囊层得到车辆图像的特征向量;
S403:将待检索车辆图像的特征向量与测试集中车辆图像的特征向量进行比较,通过相似性度的高低对匹配结果进行排序,并按照排序输出匹配结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110679756.3A CN113298037B (zh) | 2021-06-18 | 2021-06-18 | 一种基于胶囊网络的车辆重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110679756.3A CN113298037B (zh) | 2021-06-18 | 2021-06-18 | 一种基于胶囊网络的车辆重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113298037A CN113298037A (zh) | 2021-08-24 |
CN113298037B true CN113298037B (zh) | 2022-06-03 |
Family
ID=77328813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110679756.3A Expired - Fee Related CN113298037B (zh) | 2021-06-18 | 2021-06-18 | 一种基于胶囊网络的车辆重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298037B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113971686B (zh) * | 2021-10-26 | 2024-05-31 | 哈尔滨工业大学 | 基于背景修复和胶囊网络的目标跟踪方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543602A (zh) * | 2018-11-21 | 2019-03-29 | 太原理工大学 | 一种基于多视角图像特征分解的行人再识别方法 |
CN110765890A (zh) * | 2019-09-30 | 2020-02-07 | 河海大学常州校区 | 基于胶囊网络深度学习架构的车道及车道标识检测方法 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111950649A (zh) * | 2020-08-20 | 2020-11-17 | 桂林电子科技大学 | 基于注意力机制与胶囊网络的低照度图像分类方法 |
CN112308089A (zh) * | 2019-07-29 | 2021-02-02 | 西南科技大学 | 一种基于注意力机制的胶囊网络多特征提取方法 |
CN112396027A (zh) * | 2020-12-01 | 2021-02-23 | 北京交通大学 | 基于图卷积神经网络的车辆重识别方法 |
CN112417991A (zh) * | 2020-11-02 | 2021-02-26 | 武汉大学 | 基于沙漏胶囊网络的双注意力人脸对齐方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11449061B2 (en) * | 2016-02-29 | 2022-09-20 | AI Incorporated | Obstacle recognition method for autonomous robots |
US20210133990A1 (en) * | 2019-11-05 | 2021-05-06 | Nvidia Corporation | Image aligning neural network |
CN112733802B (zh) * | 2021-01-25 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 图像的遮挡检测方法、装置、电子设备及存储介质 |
-
2021
- 2021-06-18 CN CN202110679756.3A patent/CN113298037B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543602A (zh) * | 2018-11-21 | 2019-03-29 | 太原理工大学 | 一种基于多视角图像特征分解的行人再识别方法 |
CN112308089A (zh) * | 2019-07-29 | 2021-02-02 | 西南科技大学 | 一种基于注意力机制的胶囊网络多特征提取方法 |
CN110765890A (zh) * | 2019-09-30 | 2020-02-07 | 河海大学常州校区 | 基于胶囊网络深度学习架构的车道及车道标识检测方法 |
CN111814845A (zh) * | 2020-03-26 | 2020-10-23 | 同济大学 | 一种基于多支流融合模型的行人重识别方法 |
CN111950649A (zh) * | 2020-08-20 | 2020-11-17 | 桂林电子科技大学 | 基于注意力机制与胶囊网络的低照度图像分类方法 |
CN112417991A (zh) * | 2020-11-02 | 2021-02-26 | 武汉大学 | 基于沙漏胶囊网络的双注意力人脸对齐方法 |
CN112396027A (zh) * | 2020-12-01 | 2021-02-23 | 北京交通大学 | 基于图卷积神经网络的车辆重识别方法 |
Non-Patent Citations (4)
Title |
---|
CBAM: Convolutional Block Attention Module;Sanghyun Woo等;《ECCV 2018: Computer Vision-ECCV 2018》;20181006;第3-19页 * |
基于注意力网络的皮肤镜图像识别方法研究;梁若琳;《中国优秀硕士学位论文全文数据库医药卫生科技辑》;20210215(第2期);第E072-1692页 * |
基于胶囊神经网络的车型精细识别研究;程换新等;《计算机技术与发展》;20210310;第31卷(第3期);第89-94页 * |
面向智慧城市的交通视频结构化分析前沿进展;赵耀等;《中国图象图形学报》;20210616;第26卷(第6期);第1227-1253页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113298037A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN109543602B (zh) | 一种基于多视角图像特征分解的行人再识别方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN113361464A (zh) | 一种基于多粒度特征分割的车辆重识别方法 | |
CN115019039B (zh) | 一种结合自监督和全局信息增强的实例分割方法及系统 | |
Verma et al. | Wild animal detection from highly cluttered images using deep convolutional neural network | |
CN115375781A (zh) | 一种数据处理方法及其装置 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
Ge et al. | WGI-Net: A weighted group integration network for RGB-D salient object detection | |
Xu et al. | Research on intelligent system of multimodal deep learning in image recognition | |
CN113298037B (zh) | 一种基于胶囊网络的车辆重识别方法 | |
CN114780767A (zh) | 一种基于深度卷积神经网络的大规模图像检索方法及系统 | |
Tian et al. | Domain adaptive object detection with model-agnostic knowledge transferring | |
CN114494699A (zh) | 基于语义传播与前背景感知的图像语义分割方法及系统 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN113723558A (zh) | 基于注意力机制的遥感图像小样本舰船检测方法 | |
Sun et al. | SES-YOLOv8n: automatic driving object detection algorithm based on improved YOLOv8 | |
CN116311345A (zh) | 一种基于Transformer的遮挡行人重识别方法 | |
CN115830643A (zh) | 一种姿势引导对齐的轻量行人重识别方法 | |
Wang et al. | Image splicing tamper detection based on deep learning and attention mechanism | |
Guo et al. | Cross-attention-based feature extraction network for 3D point cloud registration | |
Said et al. | Wavelet networks for facial emotion recognition | |
Zhang et al. | A Novel Hybrid Model Based on CNN and Multi-scale Transformer for Extracting Water Bodies from High Resolution Remote Sensing Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220603 |