CN106778921A - 基于深度学习编码模型的人员再识别方法 - Google Patents
基于深度学习编码模型的人员再识别方法 Download PDFInfo
- Publication number
- CN106778921A CN106778921A CN201710080498.0A CN201710080498A CN106778921A CN 106778921 A CN106778921 A CN 106778921A CN 201710080498 A CN201710080498 A CN 201710080498A CN 106778921 A CN106778921 A CN 106778921A
- Authority
- CN
- China
- Prior art keywords
- layer
- rbm
- sigma
- deep learning
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000013135 deep learning Methods 0.000 title claims abstract description 49
- 230000000007 visual effect Effects 0.000 claims abstract description 80
- 238000012549 training Methods 0.000 claims abstract description 44
- 239000013598 vector Substances 0.000 claims abstract description 31
- 230000014509 gene expression Effects 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 14
- 239000013604 expression vector Substances 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 230000000644 propagated effect Effects 0.000 claims description 8
- 210000002569 neuron Anatomy 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012544 monitoring process Methods 0.000 description 10
- 238000012706 support-vector machine Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000009966 trimming Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- KFLWBZPSJQPRDD-ONEGZZNKSA-N 5-[(e)-2-nitroethenyl]-1,3-benzodioxole Chemical compound [O-][N+](=O)\C=C\C1=CC=C2OCOC2=C1 KFLWBZPSJQPRDD-ONEGZZNKSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- DQJCHOQLCLEDLL-UHFFFAOYSA-N tricyclazole Chemical compound CC1=CC=CC2=C1N1C=NN=C1S2 DQJCHOQLCLEDLL-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度学习编码模型的人员再识别方法,包括以下步骤:首先,利用非监督RBM网络采用自底向上的方式对初始SIFT特征进行编码得到视觉词典;其次,采用自顶向下的方式为整个网络参数进行有监督微调;然后,就是利用误差反向传播对初始视觉词典进行有监督微调,获取视频图像新的图像表达方式,也就是图像深度学习表示向量;最后,利用图像深度学习表示向量训练线性SVM分类器用以对行人进行分类识别。本发明有效地解决了传统特征提取技术因监控视频质量较差,视角和光照差异引起效果不好、鲁棒性不强的问题及传统分类器的高运算复杂度,有效地提高了人员目标检测的准确度和特征表达的性能并能高效地识别出监控视频中的行人。
Description
技术领域
本发明涉及一种基于深度学习编码模型的人员再识别方法。
背景技术
近年来,随着视频监控系统大量建设与应用,使其在打击犯罪、维护稳定实践中发挥着越来越重要的作用。当前大多数监控系统采用实时拍摄和人工监视的形式,这要求监控人员时刻注意监控画面,仔细分辨视频中的事件,而这显然是不现实的,何况人工查看的方式存在大量的疏漏和主观误差。考虑到日益增长的监控视频规模,这种方式所需的人力成本也将难以承受,而且效率低下。因此,急需方便快捷的方法来替代现有的人工主导的监控体系。强烈的现实需求和计算机相关技术的进步,催生了人员再识别技术(Person Re-identification),该技术也成为了当前视频智能监控领域中一个极具有挑战性的问题,其主要任务是完成跨摄像头的行人搜索与识别。人员再识别技术主要是通过视觉比对的方式将视场不重叠的多个摄像机所拍摄到的属于同一个行人的图像或者视频片段关联起来的技术。
在整个人员再识别系统中,特征提取和分类器设计是两个基本也是关键的步骤,目前一些学者对行人识别和分类的研究主要集中在这两个方面,且取得了很大的成果。有人引入了利用HOG进行行人检测。有文献把纹理边缘描述子(Texture-Edge Descriptor,TED)特征应用于视频序列中的行人检测,此特征包括纹理和垂直方向的边缘信息,适用于室内外的不同环境。另外,行人识别中常用的特征还有PCA特征、Harr特征、SIFT特征和积分通道特征等。在机器学习中常用泛化能力较好的分类器进行行人分类识别和检测,如支持向量机(Support Vector Machine,SVM)分类器、多核SVM(MultiKernel SVM,MKSVM)分类器、AdaBoost分类器等。基于无监督的深度学习(Deep Learning)是关于自动学习要建模的数据的潜在分布的多层表达算法,故能自动提取分类需要的低层次或者高层次特征。因此,它用数据学习特征,避免了大量的手工设计数据,在使用中非常方便而且效果也更好。深度学习结合了监督学习和无监督学习的优点,因此既强调了网络结构的深度又突出了特征表达的能力。此外,词袋方法(Bag of Words,BoW)是基于视觉信息的识别方法中利用目标的外观表象信息的一种常用的目标建模方法。它的核心思想是利用一组视觉单词表示目标图像。近年来,词袋模型在许多目标和场景的图像数据集上取得了良好的分类识别性能。
发明内容
本发明的目的在于提出一种基于深度学习编码模型的人员再识别方法,有效地解决了传统特征提取技术因监控视频质量较差,视角和光照差异引起效果不好、鲁棒性不强的问题及传统分类器的高运算复杂度,有效地提高了人员目标检测的准确度和特征表达的性能并能高效地识别出监控视频中的行人。
本发明的目的是通过以下技术方案实现的:
一种基于深度学习编码模型的人员再识别方法,包括以下步骤:
首先,利用非监督RBM网络采用自底向上的方式对初始SIFT特征进行编码得到视觉词典;
其次,采用自顶向下的方式为整个网络参数进行有监督微调;
然后,就是利用误差反向传播对初始视觉词典进行有监督微调,获取视频图像新的图像表达方式,也就是图像深度学习表示向量;
最后,利用图像深度学习表示向量训练线性SVM分类器用以对行人进行分类识别。
进一步地,所述的基于深度学习编码模型的人员再识别方法,首先,提取训练图像库的SIFT特征;其次,结合SIFT特征的空间信息,将邻近的SIFT特征作为RBM的输入,通过CD快速算法训练RBM,得到隐藏层特征;然后邻近的隐藏层特征作为下一层RBM的输入,得到输出词典;ω1和ω2作为RBM的连接权重,RBM具有一个显见层,一个隐层,但是在RBM中,同层的神经元之间是无连接的,这样学习使得过程更简单。
在网络的训练过程中,RBM的隐层与显层之间是通过条件概率分布相关联的,显层和隐层的条件概率为:
其中,xi,zj分别代表特征层和编码层,也就是RBM中的显层与隐层。ωij为特征层xi与编码层之间的连接权重系数,给定权重系数矩阵ω和隐层偏置向量b,输入层特征x就可以编码为视觉词典z,相应的给出ω和显层偏置矩阵c就可以由视觉词典z重构出特征x。对于RBM中一组给定的输入层和编码层(x,z),其能量函数可计算如下:
基于能量函数,可得到(x,z)的联合概率分布函数:
进而得到联合分布的边缘分布——特征输入节点的概率分布,即:
而RBM网络训练的目的就是使p(x)的值最大化,为此,对式(5)求其梯度得,
其中,<xizj>dist表示在分布dist下的期望,<xizj>data是指训练数据集经验概率分布下的期望值,而<xizj>model指该模型下概率分布的期望值,通常可由蒙特卡罗马尔可夫链(Monte-Carlo Markov chain,MCMC)方法来得到模型样例:
通过CD算法对RBM进行快速学习,加快参数的收敛,可得到权值wij的更新量为:
Δωij=ε(<xizj>data-<xizj>model) (8)
其中ε为学习速率,通过CD算法,就可以得到不断更新的参数,一直到参数收敛,得到初始的视觉词典。
进一步地,所述的基于深度学习编码模型的人员再识别方法,为了更加准确地表达图像内容,在RBM目标优化函数中加入一个正则项h(z),将目标函数调整如下:
其中,λ为正则项的加权系数。深度学习编码能够使得学习得到的视觉词典具较强的选择性,并使得图像表达向量具有较好的稀疏性。
稀疏性的核心思想是使用少量的基向量来有效而简洁地表示图像内容。具体的就是稀疏向量中大部分分量为零,只有少数分量为非零,而少数非零系数则揭示了图像数据的内在结构和本质属性。它是对编码向量对输入特征响应的一种度量准则。选择性就是度量一个单一视觉单词对输入特征向量的响应。视觉词典兼具稀疏性和选择性,可以认为词典中的单词具有多样性,且单词之间不具有相关性。若觉词典只具有选择性,如此会导致某些输入特征向量被忽视或者过表达的现象。若视觉词典只具有稀疏性,它会导致视觉词典中的单词相关性较强,加大冗余。
利用视觉词典对每一维特征响应的均值就可以定量分析稀疏性与选择性,即:
其中,是每个单词针对K个特征平均激活概率的期望值,单词zj对特征xk响应概率的期望值可标记为pjk∈(0,1),那么,整个词典对K个输入特征的响应期望值可记为矩阵矩阵中的每一行元素pj·代表了单词zj,1≤j≤J对K个输入特征向量响应的期望值,列向量p·k则代表了输入特征xk在整个视觉词典上的分布。因此,为了对整个RBM网络进行有监督地微调,定义交叉熵损失函数h(z)如下:
学习得到视觉词典的稀疏性和选择性与目标矩阵P密切相关,对视觉词典而言,矩阵P中元素为:
其中,参数μ∈(0,1),这样就可以获得兼具稀疏性和选择性的视觉词典,进而既能保证各视觉单词的多样性又能兼顾图像局部特征表达之间的差异性,更加准确地表达图像内容。
进一步地,所述的基于深度学习编码模型的人员再识别方法,由于深度学习编码需要对多层网络进行训练学习,而无监督RBM网络在训练时存在一个问题就是,若对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递,从而导致严重的欠拟合问题。为此,在利用深度学习对SIFT特征编码时,首先采用自底向上的非监督RBM分层训练各层参数每层网络生成视觉词典,训练时逐层学习每一层参数,降低时间复杂度。此外,由于非监督RBM学习模型的限制以及稀疏性约束使得模型能够学习到训练数据本身的结构,从而得到比输入更有表示能力的特征;然后根据训练数据的标签类别,误差自顶向下传播,对网络各层参数进行微调如下:
其中,φ(l)是一个超参数函数,γ,η,ε代表学习速率,且有γ=ε-η。那么对于第一层网络而言z(0)即为图像SIFT特征输入向量x,且也即是深度学习表示向量。那么最顶层网络的参数就可更新如下:
其中,yc是指顶层输出向量被判别为图像类别C,在上述微调的过程中,采用最大交叉信息熵损失代表基于特征的分类误差,然后该误差反向传播至每层网络中。
综上,整个基于深度学习编码模型的人员再识别方法可以分为三个阶段,第一阶段就是利用非监督RBM网络采用自底向上的方式对初始SIFT特征进行编码得到视觉词典,然后就是利用自顶向下的方式为整个网络参数进行有监督微调;第三阶段就是利用误差反向传播对初始视觉词典进行有监督微调,获得新的图像表达方式,也即是图像深度学习表示向量训练线性SVM分类器用以对行人进行分类识别。
本发明的有益积极效果:
1、本发明基于深度学习编码模型的人员再识别方法,与传统的稀疏编码方法相比,是一种深层的编码学习,不需要对每一个局部特征进行编码操作,当特征数量和词典规模较大的时候,会提高编码效率,节约大量的时间。其次,由深度学习编码学习得到的稀疏向量兼具稀疏性和选择性,能够大大提高特征对图像内容的分辨力,进而提高人员再识别的准确度。
实验结果表明,与传统方法相比,新方法较好地提高了视觉词典的稀疏性和选择性,提取的特征能够更加准确的表达图像本质属性,从而很好地提升人员再识别准确度。
2、本发明基于深度学习编码模型的人员再识别方法,在数据规模增大的情况下,依然可以保持较高的时间效率,具有更强的实用性。
附图说明
图1为基于卷积神经网络的行人检测结果;
图2为基于深度学习编码模型的人员再识别流程图;
图3为无监督RBM特征编码示意图;
图4为视觉词典稀疏性和选择性示意图,其中,(a)表示的视觉词典兼具稀疏性和选择性,(b)表示的视觉词典只具有选择性,(c)表示的视觉词典只具有稀疏性,
图5为不同视觉词典对人员再识别准确率的影响;
图6为有监督微调对人员再识别准确率的影响。
具体实施方式
实施例一:本实施例基于深度学习编码模型的人员再识别方法针对矢量量化编码的量化误差严重,而稀疏编码只是一种浅层学习模型,容易导致视觉词典对图像特征缺乏选择性的问题。首先,采用深度学习网络—无监督的受限玻尔兹曼机(RBM)代替传统的K-Means聚类及稀疏编码等方法对SIFT特征库进行编码学习,生成视觉词典;其次,根据学习得到的词典,得到每一个SIFT特征对应的稀疏向量,并对其进行融合得到图像的深度学习表示向量,并以此训练SVM分类器;然后,利用训练数据的类别标签信息对RBM网络学习进行有监督的微调,并利用SVM分类器完成行人分类识别。
与传统的稀疏编码方法及其改进算法相比,有效地降低了时间开销,并且能在一定程度上提高视觉词典的稀疏性和选择性,增强了人员再识别的准确度及效率。
实施例二:参见图2、图3,本实施例的基于深度学习编码模型的人员再识别方法,采用下述步骤,生成兼具稀疏性和选择性的视觉词典:
首先,提取训练图像库的SIFT特征;提取SIFT特征;其次,结合SIFT特征的空间信息,将邻近的SIFT特征作为RBM的输入,通过CD快速算法训练RBM,得到隐藏层特征;然后邻近的隐藏层特征作为下一层RBM的输入,得到输出词典。其中,ω1和ω2是RBM的连接权重,RBM具有一个显见层,一个隐层,但是在RBM中,同层的神经元之间是无连接的,这样学习使得过程更简单。
在网络的训练过程中,RBM的隐层与显层间之间是通过条件概率分布相关联的,显层层和隐层的条件概率为:
其中,xi,zj分别代表特征层和编码层,也即是RBM中的显层与隐层。ωij为特征层xi与编码层之间的连接权重系数,给定权重系数矩阵ω和隐层偏置向量b,输入层特征x就可以编码为视觉词典z,相应的给出ω和显层偏置矩阵c就可以由视觉词典z重构出特征x。对于RBM中一组给定的输入层和编码层(x,z),其能量函数可计算如下:
基于能量函数,可得到(x,z)的联合概率分布函数:
进而得到联合分布的边缘分布——特征输入节点的概率分布,即:
而RBM网络训练的目的就是使p(x)的值最大化,为此,对式(5)求其梯度得:
其中,<xizj>dist表示在分布dist下的期望,<xizj>data是指训练数据集经验概率分布下的期望值,而<xizj>model指该模型下概率分布的期望值,通常可由蒙特卡罗马尔可夫链(Monte-Carlo Markov chain,MCMC)方法来得到模型样例:
通过CD算法对RBM进行快速学习,加快参数的收敛,可得到权值wij的更新量为
Δωij=ε(<xizj>data-<xizj>model) (8)
其中ε为学习速率,通过CD算法,就可以得到不断更新的参数,一直到参数收敛,得到初始的视觉词典。
实施例三:参见图4,本实施例为了更加准确地表达图像内容,在RBM目标优化函数中加入一个正则项h(z),将目标函数调整如下:
其中,λ为正则项的加权系数。深度学习编码能够使得学习得到的视觉词典具较强的选择性,并使得图像表达向量具有较好的稀疏性。
利用视觉词典对每一维特征响应的均值就可以定量分析稀疏性与选择性,即:
其中,是每个单词针对K个特征平均激活概率的期望值,单词zj对特征xk响应概率的期望值可标记为pjk∈(0,1),那么,整个词典对K个输入特征的响应期望值可记为矩阵矩阵中的每一行元素pj·代表了单词zj,1≤j≤J对K个输入特征向量响应的期望值,列向量p·k则代表了输入特征xk在整个视觉词典上的分布。因此,为了对整个RBM网络进行有监督地微调,定义交叉熵损失函数h(z)如下:
学习得到视觉词典的稀疏性和选择性与目标矩阵P密切相关,对视觉词典而言,矩阵P中元素为:
其中,参数μ∈(0,1),这样就可以获得兼具稀疏性和选择性的视觉词典,进而既能保证各视觉单词的多样性又能兼顾图像局部特征表达之间的差异性,更加准确地表达图像内容。
由于深度学习编码需要对多层网络进行训练学习,而无监督RBM网络在训练时存在一个问题就是,若对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递,从而导致严重的欠拟合问题。为此,在利用深度学习对SIFT特征编码时,首先采用自底向上的非监督RBM分层训练各层参数每层网络生成视觉词典,训练时逐层学习每一层参数,降低时间复杂度。此外,由于非监督RBM学习模型的限制以及稀疏性约束使得模型能够学习到训练数据本身的结构,从而得到比输入更有表示能力的特征;然后根据训练数据的标签类别,误差自顶向下传播,对网络各层参数进行微调如下:
其中,φ(l)是一个超参数函数,γ,η,ε代表学习速率,且有γ=ε-η。那么对于第一层网络而言z(0)即为图像SIFT特征输入向量x,且也即是深度学习表示向量。那么最顶层网络的参数就可更新如下:
其中,yc是指顶层输出向量被判别为图像类别C,在上述微调的过程中,采用最大交叉信息熵损失代表基于特征的分类误差,然后该误差反向传播至每层网络中,然后得到最终的图像深度学习表示向量,并利用其进行训练SVM分类器,实现人员分类识别。
实验结果与分析
这里分别在常用的:INRIA图像集、TUD图像集对本实例性能进行评估。:INRIA数据库是目前使用多的静态行人检测数据库且图片中人体大部分为站立姿势,它的训练集有正样本614张,负样本1218张;测试集有正样本288张,负样本453张。TUD行人数据库采集于车载摄像机,它的训练集正样本为1092对图像(包含1776个行人),负样本为192对非行人图像。在有监督微调阶段从每个图像类别中随机选取100幅图像用以有监督地微调整个RBM网络,并用同样的数据训练线性SVM分类器,每个类别中的剩余图像用作测试图像集。人员识别性能评价指标为平均准确率(Average Precision,AP)以及时间开销。相关定义如下:
参数的影响
首先,在INRIA图像集上进行分类识别实验,分析不同视觉词典规模对的影响,结果如图5所示。从图5中不难看出,在一定范围内,随着视觉词典规模的增加人员再识别的准确率有着明显的提升,然而,当视觉词典规模达到一定数量时,识别准确率会增长缓慢甚至会有所降低,这是因为当词典规模较小时,视觉词典中的单词不足以表达全部的图像内容,而当视觉词典规模过大时会导致词典中有一定的冗余信息,降低视觉词典的语义分辨能力。因此,针对不同的数据只有选择合适的词典规模才能达到较好的识别效果,后续实验中选取词典规模为1024。
其次,为了验证有监督微调对识别的效果,在同样的数据和词典规模下分别采用有监督的微调和不进行微调进行10次识别实验,得识别结果如图6所示。从图6可以看出,利用RBM对SIFT特征进行编码时,在有监督微调之后可以明显的改善人员识别性能。这是因为,有监督微调可以利用误差反向传播的方式更好地调整网络各层参数。
实验性能分析
首先,分别在INRIA数据集和TUD数据集上进行识别实验,将本方法与其他几种经典的人员识别方法包括基于传统视觉词袋模型的方法以及基于稀疏编码模型的方法进行比较,以验证本方法性能,识别表AP值如表1所示。
表1不同方法在INRIA数据集与TUD数据集上的识别结果
从表1可以看出,ScSPM方法和LLC方法由于得到了图像语义的稀疏表达,其识别性能要优于传统的基于硬分配的视觉词袋模型方法(HA)和基于软分配的视觉词袋模型方法(SA)。本方法由于利用RBM对SIFT特征进行深度编码,并利用训练数据的类别信息对整个编码网络进行有监督微调,使得视觉词典具有很好的选择性且图像表示向量具有稀疏性,因此,其分识别性能要优于ScSPM方法以及LLC方法。
然后,我们在数据集INRIA数据集上进行实验,将本方法与其他方法之间的人员再识别时间效率进行分析对比,得平均训练时间和平均测试时间如表2所示。从表2可以看出,由于ScSPM方法、LLC方法以及本方法采用线性SVM分类器进行分类识别,因此,它们的训练时间要远低于SA方法。由于LLC方法叫较之于ScSPM方法作了一些优化工作,所以其训练和测试时间要高于ScSPM方法。综合,表1和表2可以看出,本方法可以取得较好识别性能的情况下,消耗最少的识别时间,尤其适用于大规模数据下的人员再识别。
表2不同方法在数据集15-Scenes上的时间效率对比
相关知识
1.1深度学习相关理论
深度学习的概念起源于人工神经网络,其基本思想是利用多层非线性运算单元构建深度学习网络,并将较低层的输出作为更高层的输入,以此从大量输入数据中学习得到有效的高阶特征表示,最后将这些高阶特征表示用于解决分类、回归和信息检索等特定问题。得益于深度学习的强大表达能力,它已经被成功应用于文本数据学习和视觉识别任务当中。
相较于浅学习而言,深度学习具有更强的特征表达能力,然而,非凸目标函数产生的局部最优解是造成深度学习困难的主要因素,且情况随着网络深度的增加而越发复杂。针对该问题,2006年,Hinton等人提出了一种用于深度置信网络的无监督学习算法,有效地解决了深度学习模型训练困难的问题。Ranzato等人提出用无监督学习初始化每一层神经网络的想法。具体的在图像分类识别领域,2012年,Srivastava等人提出了一种多模式深度置信网络模型(Multimodal Deep Belief Network,MDBN),该模型对图像和图像标注数据分别建立DBN,在最顶层通过学习联合受限玻尔兹曼机将这两个DBN结合起来,取得了较好的图像分类性能。同年,Krizhevsky等人构建了具有6千万个参数、65万神经元的大规模深度卷积神经网络,利用GPU加速学习过程,在ILSVRC-2012比赛中成功地将图像分类误判率从26.2%降到15.3%,取得了远超其他方法的结果。2013年,Munawar等人在堆栈自编码网络的基础上提出了基于模板的深度重构模型(Template Deep Reconstruction Model,TDRM),该模型利用无监督的贪婪逐层训练算法训练高斯受限波尔兹曼机(GaussianRestricted Boltzmann Machines,GRBM),并将训练好的参数作为TDRM的初始值,减少了TDRM参数训练时间,在Pascal VOC 2013年图像分类竞赛中取得了最好的成绩。
然而,上述基于深度学习的图像分类识别方法都是以训练图像集的像素级数据作为输入,然后学习得到若干维的图像表达向量,这种方法的时间复杂度和计算复杂度都极高,需要耗费大量的人力物力。此外,对学习得到的特征解释性差,也即是这种图像内容的表达方式也仍然停留在底层视觉特征层面。
1.2视觉词袋模型
Sivic等人借鉴文本处理领域中的词袋模型(Bag of Words,BoW),提出了视觉词袋模型(Bag of Visual Words Model,BoVWM),成功地把自然语言处理领域的一些方法应用到了图像处理领域。
视觉词袋模型首先从训练图像库中提取大量的SIFT特征,并对其进行聚类生成视觉词典;然后,提取测试图像的SIFT特征,并将它们与视觉词典中的单词进行匹配映射;最后,统计各单词出现的频率,得到表征测试图像语义内容的视觉词汇分布直方图特征。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于深度学习编码模型的人员再识别方法,其特征在于,包括以下步骤:
首先,利用非监督RBM网络采用自底向上的方式对提取的初始SIFT特征进行编码得到视觉词典;
其次,采用自顶向下的方式为整个网络参数进行有监督微调;
然后,就是利用误差反向传播对初始视觉词典进行有监督微调,获取视频图像新的图像表达方式,也就是图像深度学习表示向量;
最后,利用图像深度学习表示向量训练线性SVM分类器用以对行人进行分类识别。
2.根据权利要求1所述的基于深度学习编码模型的人员再识别方法,其特征在于,具体包括以下步骤:
首先,提取训练图像库的SIFT特征;
其次,结合SIFT特征的空间信息,将邻近的SIFT特征作为RBM的输入,通过CD快速算法训练RBM,得到隐藏层特征;
然后,邻近的隐藏层特征作为下一层RBM的输入,得到输出词典;
ω1和ω2作为RBM的连接权重,RBM具有一个显见层,一个隐层,但是在RBM中,同层的神经元之间是无连接的,这样学习使得过程更简单。
3.根据权利要求2所述的基于深度学习编码模型的人员再识别方法,其特征在于:在网络的训练过程中,RBM的隐层与显层之间是通过条件概率分布相关联的,显层和隐层的条件概率为:
其中,xi,zj分别代表特征层和编码层,也就是RBM中的显层与隐层;ωij为特征层xi与编码层之间的连接权重系数,给定权重系数矩阵ω和隐层偏置向量b,输入层特征x就可以编码为视觉词典z,相应的给出ω和显层偏置矩阵c就可以由视觉词典z重构出特征x。对于RBM中一组给定的输入层和编码层(x,z),其能量函数可计算如下:
基于能量函数,可得到(x,z)的联合概率分布函数:
进而得到联合分布的边缘分布——特征输入节点的概率分布,即:
而RBM网络训练的目的就是使p(x)的值最大化,为此,对式(5)求其梯度得:
其中,<xizj>dist表示在分布dist下的期望,<xizj>data是指训练数据集经验概率分布下的期望值,而<xizj>model指该模型下概率分布的期望值,通常可由蒙特卡罗马尔可夫链方法来得到模型样例:
通过CD算法对RBM进行快速学习,加快参数的收敛,可得到权值wij的更新量为:
Δωij=ε(<xizj>data-<xizj>model) (8)
其中ε为学习速率,通过CD算法,就可以得到不断更新的参数,一直到参数收敛,得到初始的视觉词典。
4.根据权利要求3所述的基于深度学习编码模型的人员再识别方法,其特征在于:在RBM目标优化函数中加入一个正则项h(z),将目标函数调整如下:
其中,λ为正则项的加权系数;深度学习编码能够使得学习得到的视觉词典具较强的选择性,并使得图像表达向量具有较好的稀疏性。
5.根据权利要求4所述的基于深度学习编码模型的人员再识别方法,其特征在于:利用视觉词典对每一维特征响应的均值就可以定量分析稀疏性与选择性,即:
其中,是每个单词针对K个特征平均激活概率的期望值,单词zj对特征xk响应概率的期望值可标记为pjk∈(0,1),那么,整个词典对K个输入特征的响应期望值可记为矩阵矩阵中的每一行元素pj·代表了单词zj,1≤j≤J对K个输入特征向量响应的期望值,列向量p·k则代表了输入特征xk在整个视觉词典上的分布。
6.根据权利要求5所述的基于深度学习编码模型的人员再识别方法,其特征在于:为了对整个RBM网络进行有监督地微调,定义交叉熵损失函数h(z)如下:
学习得到视觉词典的稀疏性和选择性与目标矩阵P密切相关,对视觉词典而言,矩阵P中元素为:
其中,参数μ∈(0,1),这样就可以获得兼具稀疏性和选择性的视觉词典,进而既能保证各视觉单词的多样性又能兼顾图像局部特征表达之间的差异性,更加准确地表达图像内容。
7.根据权利要求6所述的基于深度学习编码模型的人员再识别方法,其特征在于:由于非监督RBM学习模型的限制以及稀疏性约束使得模型能够学习到训练数据本身的结构,从而得到比输入更有表示能力的特征;然后根据训练数据的标签类别,误差自顶向下传播,对网络各层参数进行微调如下:
其中,φ(l)是一个超参数函数,γ,η,ε代表学习速率,且有γ=ε-η;那么对于第一层网络而言z(0)即为图像SIFT特征输入向量x,且也即是深度学习表示向量;那么最顶层网络的参数就可更新如下:
其中,yc是指顶层输出向量被判别为图像类别C,在上述微调的过程中,采用最大交叉信息熵损失代表基于特征的分类误差,将该误差反向传播至每层网络中,并得到最终的深度学习表示向量,并用以训练SVM分类器,实现人员再分类识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710080498.0A CN106778921A (zh) | 2017-02-15 | 2017-02-15 | 基于深度学习编码模型的人员再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710080498.0A CN106778921A (zh) | 2017-02-15 | 2017-02-15 | 基于深度学习编码模型的人员再识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778921A true CN106778921A (zh) | 2017-05-31 |
Family
ID=58957181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710080498.0A Pending CN106778921A (zh) | 2017-02-15 | 2017-02-15 | 基于深度学习编码模型的人员再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778921A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107274432A (zh) * | 2017-06-10 | 2017-10-20 | 北京航空航天大学 | 一种基于视觉显著性和深度自编码的公共场景智能视频监控方法 |
CN108345860A (zh) * | 2018-02-24 | 2018-07-31 | 江苏测联空间大数据应用研究中心有限公司 | 基于深度学习和距离度量学习的人员再识别方法 |
CN109284668A (zh) * | 2018-07-27 | 2019-01-29 | 昆明理工大学 | 一种基于距离正则化投影和字典学习的行人重识别算法 |
CN109522961A (zh) * | 2018-11-23 | 2019-03-26 | 中山大学 | 一种基于字典深度学习的半监督图像分类方法 |
CN109614840A (zh) * | 2017-11-28 | 2019-04-12 | 重庆交通大学 | 基于深度学习网络的早产检测方法 |
CN109635728A (zh) * | 2018-12-12 | 2019-04-16 | 中山大学 | 一种基于非对称度量学习的异构行人再识别方法 |
CN109635303A (zh) * | 2018-12-19 | 2019-04-16 | 中国科学技术大学 | 特定领域意义改变词的识别方法 |
CN109766748A (zh) * | 2018-11-27 | 2019-05-17 | 昆明理工大学 | 一种基于投影变换与字典学习的行人再识别的方法 |
CN109815815A (zh) * | 2018-12-22 | 2019-05-28 | 昆明理工大学 | 一种基于度量学习和支持向量机相集成的行人再识别方法 |
CN109902662A (zh) * | 2019-03-20 | 2019-06-18 | 中山大学 | 一种行人重识别方法、系统、装置和存储介质 |
CN110073369A (zh) * | 2017-02-14 | 2019-07-30 | 谷歌有限责任公司 | 时间差分模型的无监督学习技术 |
CN110909605A (zh) * | 2019-10-24 | 2020-03-24 | 西北工业大学 | 基于对比相关的跨模态行人重识别方法 |
CN111008544A (zh) * | 2018-10-08 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 交通监控和无人驾驶辅助系统以及目标检测方法及设备 |
CN111062409A (zh) * | 2019-10-30 | 2020-04-24 | 闽南师范大学 | 一种无监督图像特征的提取及分类方法 |
CN111931592A (zh) * | 2020-07-16 | 2020-11-13 | 苏州科达科技股份有限公司 | 对象识别方法、装置及存储介质 |
CN113420815A (zh) * | 2021-06-24 | 2021-09-21 | 江苏师范大学 | 半监督rsdae的非线性pls间歇过程监测方法 |
CN113569913A (zh) * | 2021-06-29 | 2021-10-29 | 西北大学 | 基于分层选择性Adaboost-DNNs的图像分类模型建立、分类方法及系统 |
CN114254884A (zh) * | 2021-12-07 | 2022-03-29 | 北京嘉诚瑞杰信息技术有限公司 | 一种质量量化的评测方法 |
CN114544664A (zh) * | 2022-04-22 | 2022-05-27 | 江苏派陶网络科技有限公司 | 平面感应线圈异常焊接点的识别方法 |
WO2022141704A1 (zh) * | 2020-12-31 | 2022-07-07 | 光华临港工程应用技术研发(上海)有限公司 | 神经元网络的反向传播算法的学习方法 |
CN115506783A (zh) * | 2021-06-21 | 2022-12-23 | 中国石油化工股份有限公司 | 一种岩性识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104239897A (zh) * | 2014-09-04 | 2014-12-24 | 天津大学 | 一种基于自编码器词袋的视觉特征表示方法 |
US20160307071A1 (en) * | 2015-04-20 | 2016-10-20 | Xerox Corporation | Fisher vectors meet neural networks: a hybrid visual classification architecture |
-
2017
- 2017-02-15 CN CN201710080498.0A patent/CN106778921A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104239897A (zh) * | 2014-09-04 | 2014-12-24 | 天津大学 | 一种基于自编码器词袋的视觉特征表示方法 |
US20160307071A1 (en) * | 2015-04-20 | 2016-10-20 | Xerox Corporation | Fisher vectors meet neural networks: a hybrid visual classification architecture |
Non-Patent Citations (1)
Title |
---|
赵永威等: "基于深度学习编码模型的图像分类方法", 《工程科学与技术》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110073369B (zh) * | 2017-02-14 | 2020-09-15 | 谷歌有限责任公司 | 时间差分模型的无监督学习技术 |
CN110073369A (zh) * | 2017-02-14 | 2019-07-30 | 谷歌有限责任公司 | 时间差分模型的无监督学习技术 |
CN107274432A (zh) * | 2017-06-10 | 2017-10-20 | 北京航空航天大学 | 一种基于视觉显著性和深度自编码的公共场景智能视频监控方法 |
CN107274432B (zh) * | 2017-06-10 | 2019-07-26 | 北京航空航天大学 | 一种智能视频监控方法 |
WO2019010950A1 (zh) * | 2017-07-13 | 2019-01-17 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107273872B (zh) * | 2017-07-13 | 2020-05-05 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN109614840B (zh) * | 2017-11-28 | 2022-03-18 | 重庆交通大学 | 基于深度学习网络的早产检测方法 |
CN109614840A (zh) * | 2017-11-28 | 2019-04-12 | 重庆交通大学 | 基于深度学习网络的早产检测方法 |
CN108345860A (zh) * | 2018-02-24 | 2018-07-31 | 江苏测联空间大数据应用研究中心有限公司 | 基于深度学习和距离度量学习的人员再识别方法 |
CN109284668A (zh) * | 2018-07-27 | 2019-01-29 | 昆明理工大学 | 一种基于距离正则化投影和字典学习的行人重识别算法 |
CN109284668B (zh) * | 2018-07-27 | 2021-06-18 | 昆明理工大学 | 一种基于距离正则化投影和字典学习的行人重识别方法 |
CN111008544B (zh) * | 2018-10-08 | 2023-05-09 | 阿里巴巴集团控股有限公司 | 交通监控和无人驾驶辅助系统以及目标检测方法及设备 |
CN111008544A (zh) * | 2018-10-08 | 2020-04-14 | 阿里巴巴集团控股有限公司 | 交通监控和无人驾驶辅助系统以及目标检测方法及设备 |
CN109522961B (zh) * | 2018-11-23 | 2022-09-13 | 中山大学 | 一种基于字典深度学习的半监督图像分类方法 |
CN109522961A (zh) * | 2018-11-23 | 2019-03-26 | 中山大学 | 一种基于字典深度学习的半监督图像分类方法 |
CN109766748A (zh) * | 2018-11-27 | 2019-05-17 | 昆明理工大学 | 一种基于投影变换与字典学习的行人再识别的方法 |
CN109635728B (zh) * | 2018-12-12 | 2020-10-13 | 中山大学 | 一种基于非对称度量学习的异构行人再识别方法 |
CN109635728A (zh) * | 2018-12-12 | 2019-04-16 | 中山大学 | 一种基于非对称度量学习的异构行人再识别方法 |
CN109635303B (zh) * | 2018-12-19 | 2020-08-25 | 中国科学技术大学 | 特定领域意义改变词的识别方法 |
CN109635303A (zh) * | 2018-12-19 | 2019-04-16 | 中国科学技术大学 | 特定领域意义改变词的识别方法 |
CN109815815A (zh) * | 2018-12-22 | 2019-05-28 | 昆明理工大学 | 一种基于度量学习和支持向量机相集成的行人再识别方法 |
CN109902662A (zh) * | 2019-03-20 | 2019-06-18 | 中山大学 | 一种行人重识别方法、系统、装置和存储介质 |
CN109902662B (zh) * | 2019-03-20 | 2023-10-24 | 中山大学 | 一种行人重识别方法、系统、装置和存储介质 |
CN110909605A (zh) * | 2019-10-24 | 2020-03-24 | 西北工业大学 | 基于对比相关的跨模态行人重识别方法 |
CN111062409A (zh) * | 2019-10-30 | 2020-04-24 | 闽南师范大学 | 一种无监督图像特征的提取及分类方法 |
CN111931592A (zh) * | 2020-07-16 | 2020-11-13 | 苏州科达科技股份有限公司 | 对象识别方法、装置及存储介质 |
CN111931592B (zh) * | 2020-07-16 | 2022-06-28 | 苏州科达科技股份有限公司 | 对象识别方法、装置及存储介质 |
WO2022141704A1 (zh) * | 2020-12-31 | 2022-07-07 | 光华临港工程应用技术研发(上海)有限公司 | 神经元网络的反向传播算法的学习方法 |
CN115506783A (zh) * | 2021-06-21 | 2022-12-23 | 中国石油化工股份有限公司 | 一种岩性识别方法 |
CN113420815A (zh) * | 2021-06-24 | 2021-09-21 | 江苏师范大学 | 半监督rsdae的非线性pls间歇过程监测方法 |
CN113420815B (zh) * | 2021-06-24 | 2024-04-30 | 江苏师范大学 | 半监督rsdae的非线性pls间歇过程监测方法 |
CN113569913A (zh) * | 2021-06-29 | 2021-10-29 | 西北大学 | 基于分层选择性Adaboost-DNNs的图像分类模型建立、分类方法及系统 |
CN113569913B (zh) * | 2021-06-29 | 2023-04-25 | 西北大学 | 基于分层选择性Adaboost-DNNs的图像分类模型建立、分类方法及系统 |
CN114254884A (zh) * | 2021-12-07 | 2022-03-29 | 北京嘉诚瑞杰信息技术有限公司 | 一种质量量化的评测方法 |
CN114544664A (zh) * | 2022-04-22 | 2022-05-27 | 江苏派陶网络科技有限公司 | 平面感应线圈异常焊接点的识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778921A (zh) | 基于深度学习编码模型的人员再识别方法 | |
CN108345860A (zh) | 基于深度学习和距离度量学习的人员再识别方法 | |
Soliman et al. | Violence recognition from videos using deep learning techniques | |
Qiu et al. | Deep quantization: Encoding convolutional activations with deep generative model | |
Ionescu et al. | Detecting abnormal events in video using narrowed normality clusters | |
CN110689086B (zh) | 基于生成式对抗网络的半监督高分遥感图像场景分类方法 | |
Jing et al. | Videossl: Semi-supervised learning for video classification | |
Huang et al. | Deep embedding network for clustering | |
Yin et al. | Scene classification based on single-layer SAE and SVM | |
CN109063666A (zh) | 基于深度可分离卷积的轻量化人脸识别方法及系统 | |
Sun et al. | Learning discriminative dictionary for group sparse representation | |
CN105184298B (zh) | 一种快速局部约束低秩编码的图像分类方法 | |
CN104361363B (zh) | 深度反卷积特征学习网络、生成方法及图像分类方法 | |
CN112507901B (zh) | 一种基于伪标签自纠正的无监督行人重识别方法 | |
CN104298974B (zh) | 一种基于深度视频序列的人体行为识别方法 | |
Yang et al. | Semi-supervised learning of feature hierarchies for object detection in a video | |
US20120213426A1 (en) | Method for Implementing a High-Level Image Representation for Image Analysis | |
CN101894276A (zh) | 人体动作识别的训练方法和识别方法 | |
CN107301382B (zh) | 基于时间依赖约束下深度非负矩阵分解的行为识别方法 | |
CN110188827A (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN103761537A (zh) | 基于低秩优化特征字典模型的图像分类方法 | |
CN108229571A (zh) | 基于kpca算法与深度信念网络的苹果表面病变图像识别方法 | |
CN114067385A (zh) | 基于度量学习的跨模态人脸检索哈希方法 | |
Balaji et al. | Multi-level feature fusion for group-level emotion recognition | |
CN107194322A (zh) | 一种视频监控场景中的行为分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170531 |
|
WD01 | Invention patent application deemed withdrawn after publication |