CN109635695A - 基于三元组卷积神经网络的行人再识别方法 - Google Patents
基于三元组卷积神经网络的行人再识别方法 Download PDFInfo
- Publication number
- CN109635695A CN109635695A CN201811469383.1A CN201811469383A CN109635695A CN 109635695 A CN109635695 A CN 109635695A CN 201811469383 A CN201811469383 A CN 201811469383A CN 109635695 A CN109635695 A CN 109635695A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- triple
- image
- pedestrian image
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明基于三元组卷积神经网络的行人再识别方法:步骤1、形成一个小批量样本;步骤2、输出每个行人图像的全局特征和局部特征;步骤3、计算小批量样本中每两个行人图像全局特征之间的距离、对应身体部位的局部特征之间的距离;步骤4、形成P×K对三元组样本;步骤5、利用Log‑logistic函数代替铰链函数改进三元组卷积神经网络损失函数;步骤6、得到训练好的三元组卷积神经网络;步骤7、利用训练好的三元组卷积神经网络识别目标行人图像,并结合置信度测量机制来进一步避免目标行人图像和待识别行人图像之间的误匹配。本发明一种基于三元组卷积神经网络的行人再识别方法,能够准确进行行人再识别,避免不同行人之间的误匹配。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于三元组卷积神经网络的行人再识别方法。
背景技术
行人再识别是图像处理和模式识别研究的重要领域之一。所谓行人再识别是指:将某个特定的被搜索行人作为搜索源,在其他的没有重复视线的摄像头所采集到的视频图像里自动地找到这一搜索源。当有情况发生时,目标对象一定会在多个摄像头以及不同场景中移动,如何识别出在不同摄像头下出现的同一个人,并绘制出该目标走过的路径,是行人再识别所研究的重点。
虽然行人再识别技术在视频控制、智能交通、多媒体检索等领域有着广泛的应用前景,但行人外观易受遮挡、视角以及光照条件的影响,同时视频图像存在分辨率低、亮度变换的干扰的问题,因此呈现出很大的类内差异。而且不同的行人有可能因为所穿的衣服颜色相同,身形很相似,很容易被误认为是同一个人。人的外观形体既具有刚性的特性,也具有柔性的特征,很容易因所穿的衣服、视角、尺度等的影响,因此,目前行人再识别仍然存在着巨大的应用挑战。
现有的基于深度学习的行人再识别方法虽然取得了一定的效果,但是研究的焦点一直围绕如何设计新颖的网络识别架构,或如何学习有效的相似性度量函数,而卷积神经网络与度量学习的结合并没有受到广泛的关注。三元组损失函数通过将特征学习和相似性度量合并到一个统一的框架中,使网络根据最终的任务学习有辨识力的特征,不需要附加特定的层而可达到与设计新颖的网络识别架构相提并论的效果。然而,若直接将该方法应用于行人再识别中,将会出现以下两大弊端:1)传统三元组损失函数中的间隔参数需要事先指定,训练中无法自适应特征学习过程中值域的变化,缺乏灵活性,不利于改善行人再识别性能;2)数据集中相似样本较多,往往会出现负样本比正样本更匹配测试图像的情况,对表观特征较相似的不同行人会出现误匹配的现象。
发明内容
本发明的目的在于提供一种基于三元组卷积神经网络的行人再识别方法,能够准确进行行人再识别,避免不同行人之间的误匹配。
本发明所采用的技术方案是,基于三元组卷积神经网络的行人再识别方法,具体按照以下步骤实施:
步骤1、在行人数据集图像中随机采样P个行人,并从每个行人中随机选择K个图像,形成具有P×K个图像的一个小批量样本;
步骤2、将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中,输出小批量样本中每个行人图像的全局特征和局部特征;
步骤3、利用欧氏距离公式计算经步骤1得到的小批量样本中每两个行人图像全局特征之间的距离并确定全局特征之间的相似性,通过引入最短路径损失计算小批量样本中每两个行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤4、利用步骤3得到的每两个行人图像全局特征之间的相似性结合小批量难样本挖掘策略,在步骤1得到的具有P×K个图像的一个小批量样本中形成P×K对三元组样本;
步骤5、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,得到改进后的三元组卷积神经网络损失函数;
步骤6、利用经步骤4得到的P×K对三元组样本和经步骤5得到的改进后的三元组卷积神经网络损失函数训练三元组卷积神经网络,确定能够有效提取特征来识别行人的网络参数,得到训练好的三元组卷积神经网络;
步骤7、利用经步骤6得到的训练好的三元组卷积神经网络识别目标行人图像,并结合置信度测量机制得到目标行人图像的最终相似性排名列表识别矩阵来进一步避免目标行人图像和待识别行人图像之间的误匹配。
本发明的特点还在于:
步骤2.1、将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中提取所需图像特征,输出特征图,对特征图采用池化窗口得到全局特征;
步骤2.2、对特征图每一行执行水平池化提取得到局部特征。
步骤3具体按照以下步骤实施:
步骤3.1、选取经步骤2得到的小批量样本中每两个行人图像的全局特征,利用欧氏距离公式(1)计算每两个行人图像全局特征之间的距离,所述欧氏距离公式(1)为:
式中,d12表示两个行人图像全局特征之间的距离,x1k表示第一个行人图像的第k维全局特征,x2k表示表示第二个行人图像的第k维全局特征,
d12与两个行人图像全局特征之间的相似性成正比;
步骤3.2、选取经步骤2得到的小批量样本中每两个行人图像之间对应身体部位的局部特征,利用公式(2)计算每两个行人图像中第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,所述公式(2)为:
式中,di,j表示第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,di,j与两个行人图像对应局部特征之间的相似性成正比,fi表示第一个行人图像的局部特征,gj表示第二个行人图像的局部特征,
再将计算得到的若干di,j组成距离矩阵D,通过公式(3)计算每两个行人图像之间对应身体部位的局部特征之间的距离,所述公式(3)为:
式中,Si,j表示距离矩阵D中元素(1,1)到(i,j)之间最短路径的距离总和,
计算得出SH,H,SH,H表示距离矩阵D中从(1,1)到(H,H)最短路径的总和即每两个行人图像之间对应身体部位的局部特征之间的距离,至此对齐每两个行人图像之间对应身体部位的局部特征。
步骤4具体按照以下步骤实施:
步骤4.1、在经步骤1得到的具有P×K个图像的一个小批量样本中,通过小批量难样本挖掘策略,选择该小批量样本中的每一个样本X在此小批量样本中的最难正样本和最难负样本,共组成P×K对三元组样本,所述小批量难样本挖掘策略为:
式(3)表示最难正样本挖掘策略,式(4)表示最难负样本挖掘策略,表示小批量样本中的第i个行人的第a个图像,表示小批量样本中的第j个行人的第n个图像,fθ(x)表示样本X经过三元组卷积神经网络输出的全局或局部特征,和表示样本X与小批量样本中其他样本的全局特征之间的距离。
步骤5具体按照以下步骤实施:
步骤5.1、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,改进后的三元组卷积神经网络损失函数如下:
式中,PK表示经步骤4得到的PK对三元组样本,i指的是P个行人中的任意一个行人,a指的是一个行人图像上K个图片中的任意一张图片。
步骤6具体按照以下步骤实施:
步骤6.1、将步骤1中的小批量样本输入至三元组卷积神经网络中重复步骤2提取目标行人图像的特征和待识别行人图像的特征,重复步骤3计算目标行人图像和待识别行人图像全局特征之间的相似性,计算目标行人图像和待识别行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤6.2、利用经步骤5得到的改进型三元组损失函数训练三元组卷积神经网络的网络参数,直至达到预期精度或预期的迭代次数,得到训练好的三元组卷积神经网络。
步骤7具体按照以下步骤实施:
步骤7.1、重复步骤2将目标行人图像和待识别行人图像输入至经步骤6得到的训练好的三元组卷积神经网络提取输出全局、局部特征;
步骤7.2、重复步骤3计算目标行人图像和待识别行人图像全局特征之间的距离与局部特征之间的距离,按照全局特征间的相似性与局部特征间的相似性之和对目标行人图像中所有行人图像按照相似性由小到大进行排序,形成排序列表如下:
R=[r1,,r2,…,rN] (6)
列表中,rN表示目标行人图像中第N个行人图像的排序;
步骤7.3、将经步骤7.2得到的排列序表重新排序:
步骤7.3.1、重复步骤3计算目标行人图像中两两行人之间的全局特征之间的距离;
步骤7.3.2、计算目标行人图像中每个行人相对于待识别行人图像的置信度得分:
目标行人图像中每个行人相对于待识别行人图像的置信度得分,等于目标行人图像中每个行人与其余行人全局特征之间的距离小于目标行人图像中每个行人和待识别行人图像全局特征之间的距离的个数之和;
步骤7.3.3、将目标行人图像中每个行人相对于待识别行人图像的置信度得分汇总为排序列表如下:
Sg=[sg1,sg2,…,sgc] (7)
式中,gi表示目标行人图像中每个行人,sgi表示每一个目标行人图像的置信度得分;
步骤7.4、将步骤7.2输出的排序列表(6)和步骤7.3输出的排序列表(7)融合得到目标行人图像的最终相似性排名列表识别矩阵,即Rf矩阵如下:
式中,表示R和Sg之间逐元素哈达马积。
本发明的有益效果在于:
1)本发明基于三元组卷积神经网络的行人再识别方法中改进后的三元组损失函数采用Log-logistic函数代替铰链函数不仅方便了训练,同时使学习的特征空间具有同类样本相似性距离尽可能小,异类与同类样本间相似性距离尽可能大的特点,提高了特征与度量函数联合优化的效果,更好地提升了行人再识别性能;
2)本发明基于三元组卷积神经网络的行人再识别方法,利用置信度测量机制,充分考虑与图像相关的其它图像的判别信息,可以有效避免误匹配,从而进一步提升对行人的识别率。
附图说明
图1是三元组卷积神经网络每一个分支的特征提取模型图;
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于三元组卷积神经网络的行人再识别方法,具体按照以下步骤实施:
步骤1、在行人数据集图像中随机采样P个行人,并从每个行人中随机选择K个图像,形成具有P×K个图像的一个小批量样本;
步骤2、将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中,输出小批量样本中每个行人图像的全局特征和局部特征;
步骤3、利用欧氏距离公式计算经步骤1得到的小批量样本中每两个行人图像全局特征之间的距离并确定全局特征之间的相似性,通过引入最短路径损失计算小批量样本中每两个行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤4、利用步骤3得到的每两个行人图像全局特征之间的相似性结合小批量难样本挖掘策略,在步骤1得到的具有P×K个图像的一个小批量样本中形成P×K对三元组样本;
步骤5、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,得到改进后的三元组卷积神经网络损失函数;
步骤6、利用经步骤4得到的P×K对三元组样本和经步骤5得到的改进后的三元组卷积神经网络损失函数训练三元组卷积神经网络,确定能够有效提取特征来识别行人的网络参数,得到训练好的三元组卷积神经网络;
步骤7、利用经步骤6得到的训练好的三元组卷积神经网络识别目标行人图像,并结合置信度测量机制得到目标行人图像的最终相似性排名列表识别矩阵来进一步避免目标行人图像和待识别行人图像之间的误匹配。
步骤2具体按照以下步骤实施:
步骤2.1、如图1所示,将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中提取所需图像特征,输出特征图,对特征图采用池化窗口得到全局特征;
步骤2.2、对特征图每一行执行水平池化提取得到局部特征。
步骤3具体按照以下步骤实施:
步骤3.1、选取经步骤2得到的小批量样本中每两个行人图像的全局特征,利用欧氏距离公式(1)计算每两个行人图像全局特征之间的距离,所述欧氏距离公式(1)为:
式中,d12表示两个行人图像全局特征之间的距离,x1k表示第一个行人图像的第k维全局特征,x2k表示表示第二个行人图像的第k维全局特征,
d12与两个行人图像全局特征之间的相似性成正比;
步骤3.2、选取经步骤2得到的小批量样本中每两个行人图像之间对应身体部位的局部特征,利用公式(2)计算每两个行人图像中第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,所述公式(2)为:
式中,di,j表示第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,di,j与两个行人图像对应局部特征之间的相似性成正比,fi表示第一个行人图像的局部特征,gj表示第二个行人图像的局部特征,
再将计算得到的若干di,j组成距离矩阵D,通过公式(3)计算每两个行人图像之间对应身体部位的局部特征之间的距离,所述公式(3)为:
式中,Si,j表示距离矩阵D中元素(1,1)到(i,j)之间最短路径的距离总和,
计算得出SH,H,SH,H表示距离矩阵D中从(1,1)到(H,H)最短路径的总和即每两个行人图像之间对应身体部位的局部特征之间的距离,至此对齐每两个行人图像之间对应身体部位的局部特征。
步骤4具体按照以下步骤实施:
步骤4.1、在经步骤1得到的具有P×K个图像的一个小批量样本中,通过小批量难样本挖掘策略,选择该小批量样本中的每一个样本X在此小批量样本中的最难正样本和最难负样本,共组成P×K对三元组样本,每一对三元组样本包括一个样本和这个样本所对应的最难正样本、最难负样本,所述小批量难样本挖掘策略为:
式(3)表示最难正样本挖掘策略,式(4)表示最难负样本挖掘策略,表示小批量样本中的第i个行人的第a个图像,表示小批量样本中的第j个行人的第n个图像,fθ(x)表示样本X经过三元组卷积神经网络输出的全局或局部特征,和表示样本X与小批量样本中其他样本的全局特征之间的距离。
步骤5具体按照以下步骤实施:
步骤5.1、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,改进后的三元组卷积神经网络损失函数如下:
式中,PK表示经步骤4得到的PK对三元组样本,i指的是P个行人中的任意一个行人,a指的是一个行人图像上K个图片中的任意一张图片。
步骤6具体按照以下步骤实施:
步骤6.1、将步骤1中的小批量样本输入至三元组卷积神经网络中重复步骤2提取目标行人图像的特征和待识别行人图像的特征,重复步骤3计算目标行人图像和待识别行人图像全局特征之间的相似性,计算目标行人图像和待识别行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤6.2、利用经步骤5得到的改进型三元组损失函数训练三元组卷积神经网络的网络参数,直至达到预期精度或预期的迭代次数,得到训练好的三元组卷积神经网络。
步骤7具体按照以下步骤实施:
步骤7.1、重复步骤2将目标行人图像和待识别行人图像输入至经步骤6得到的训练好的三元组卷积神经网络提取输出全局、局部特征;
步骤7.2、重复步骤3计算目标行人图像和待识别行人图像全局特征之间的距离与局部特征之间的距离,按照全局特征间的相似性与局部特征间的相似性之和对目标行人图像中所有行人图像按照相似性由小到大进行排序,形成排序列表如下:
R=[r1,,r2,…,rN] (6)
列表中,rN表示目标行人图像中第N个行人图像的排序;
步骤7.3、将经步骤7.2得到的排列序表重新排序:
步骤7.3.1、重复步骤3计算目标行人图像中两两行人之间的全局特征之间的距离;
步骤7.3.2、计算目标行人图像中每个行人相对于待识别行人图像的置信度得分:
目标行人图像中每个行人相对于待识别行人图像的置信度得分,等于目标行人图像中每个行人与其余行人全局特征之间的距离小于目标行人图像中每个行人和待识别行人图像全局特征之间的距离的个数之和;
步骤7.3.3、将目标行人图像中每个行人相对于待识别行人图像的置信度得分汇总为排序列表如下:
Sg=[sg1,sg2,…,sgc] (7)
式中,gi表示目标行人图像中每个行人,sgi表示每一个目标行人图像的置信度得分;
步骤7.4、将步骤7.2输出的排序列表(6)和步骤7.3输出的排序列表(7)融合得到目标行人图像的最终相似性排名列表识别矩阵,即Rf矩阵如下:
式中,表示R和Sg之间逐元素哈达马积。
从最终相似性排名列表识别矩阵中可以看出待识别行人与目标行人越相似,则排名越靠前,即从相似性排名列表识别矩阵中可以看出与目标行人相似的待识别行人。
本发明基于三元组卷积神经网络的行人再识别方法,首先通过图像间最短路径损失自动对齐局部特征,然后采用Log-logistic函数代替传统三元组卷积神经网络中的铰链函数,同时改进了损失函数的优化策略,从而克服了间隔参数因人工设定而具有的局限性,最后结合置信度测量机制,充分利用其他图像的判别信息进一步避免了目标行人欲待识别行人之间的误匹配。
本发明基于三元组卷积神经网络的行人再识别方法中利用Log-logistic函数代替铰链函数得到改进后的三元组损失函数,不仅方便了训练三元组卷积神经网络,同时使学习的特征空间具有同类样本相似性距离尽可能小,异类与同类样本间相似性距离尽可能大的特点,提高了特征与度量函数联合优化的效果,更好地提升了行人再识别性能,再者,结合置信度测量机制,充分考虑与图像相关的其它图像的判别信息,可以有效避免目标行人图像与待识别行人图像之间的误匹配,达到进一步提升对行人的识别率的目的。
Claims (7)
1.基于三元组卷积神经网络的行人再识别方法,其特征在于,具体按照以下步骤实施:
步骤1、在行人数据集图像中随机采样P个行人,并从每个行人中随机选择K个图像,形成具有P×K个图像的一个小批量样本;
步骤2、将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中,输出小批量样本中每个行人图像的全局特征和局部特征;
步骤3、利用欧氏距离公式计算经步骤2得到的小批量样本中每两个行人图像全局特征之间的距离并确定全局特征之间的相似性,通过引入最短路径损失计算小批量样本中每两个行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤4、利用步骤3得到的每两个行人图像全局特征之间的相似性结合小批量难样本挖掘策略,在步骤1得到的具有P×K个图像的一个小批量样本中形成P×K对三元组样本;
步骤5、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,得到改进后的三元组卷积神经网络损失函数;
步骤6、利用经步骤4得到的P×K对三元组样本和经步骤5得到的改进后的三元组卷积神经网络损失函数训练三元组卷积神经网络,确定能够有效提取特征来识别行人的网络参数,得到训练好的三元组卷积神经网络;
步骤7、利用经步骤6得到的训练好的三元组卷积神经网络识别目标行人图像,并结合置信度测量机制得到目标行人图像的最终相似性排名列表识别矩阵来进一步避免目标行人图像和待识别行人图像之间的误匹配。
2.根据权利要求1所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤2具体按照以下步骤实施:
步骤2.1、将经步骤1得到的小批量样本依次输入至三元组卷积神经网络中提取所需图像特征,输出特征图,对特征图采用池化窗口得到全局特征;
步骤2.2、对特征图每一行执行水平池化提取得到局部特征。
3.根据权利要求1所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤3具体按照以下步骤实施:
步骤3.1、选取经步骤2得到的小批量样本中每两个行人图像的全局特征,利用欧氏距离公式(1)计算每两个行人图像全局特征之间的距离,所述欧氏距离公式(1)为:
式中,d12表示两个行人图像全局特征之间的距离,x1k表示第一个行人图像的第k维全局特征,x2k表示表示第二个行人图像的第k维全局特征,
d12与两个行人图像全局特征之间的相似性成正比;
步骤3.2、选取经步骤2得到的小批量样本中每两个行人图像的局部特征,利用公式(2)计算每两个行人图像中第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,所述公式(2)为:
式中,di,j表示第一个行人图像的局部特征中的第i个水平块与第二个行人图像的局部特征中的第j个水平块之间的距离,di,j与两个行人图像对应局部特征之间的相似性成正比,fi表示第一个行人图像的局部特征,gj表示第二个行人图像的局部特征,
再将计算得到的若干di,j组成距离矩阵D,通过公式(3)计算每两个行人图像之间对应身体部位的局部特征之间的距离,所述公式(3)为:
式中,Si,j表示距离矩阵D中元素(1,1)到(i,j)之间最短路径的距离总和,
计算得出SH,H,SH,H表示距离矩阵D中从(1,1)到(H,H)最短路径的总和即每两个行人图像之间对应身体部位的局部特征之间的距离,至此对齐每两个行人图像之间对应身体部位的局部特征。
4.根据权利要求1所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤4具体按照以下步骤实施:
步骤4.1、在经步骤1得到的具有P×K个图像的一个小批量样本中,通过小批量难样本挖掘策略,选择该小批量样本中的每一个样本X在此小批量样本中的最难正样本和最难负样本,共组成P×K对三元组样本,所述小批量难样本挖掘策略为:
式(3)表示最难正样本挖掘策略,式(4)表示最难负样本挖掘策略,表示小批量样本中的第i个行人的第a个图像,表示小批量样本中的第j个行人的第n个图像,fθ(x)表示样本X经过三元组卷积神经网络输出的全局或局部特征,和表示样本X与小批量样本中其他样本的全局特征之间的距离。
5.根据权利要求1所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤5具体按照以下步骤实施:
步骤5.1、利用Log-logistic函数代替铰链函数改进三元组卷积神经网络损失函数,改进后的三元组卷积神经网络损失函数如下:
式中,PK表示经步骤4得到的PK对三元组样本,i指的是P个行人中的任意一个行人,a指的是一个行人图像上K个图片中的任意一张图片。
6.根据权利要求3所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤6具体按照以下步骤实施:
步骤6.1、将步骤1中的小批量样本输入至三元组卷积神经网络中重复步骤2提取目标行人图像的特征和待识别行人图像的特征,重复步骤3计算目标行人图像和待识别行人图像全局特征之间的相似性,计算目标行人图像和待识别行人图像之间对应身体部位的局部特征之间的距离,对齐每两个行人图像之间对应身体部位的局部特征;
步骤6.2、利用经步骤5得到的改进型三元组损失函数训练三元组卷积神经网络的网络参数,直至达到预期精度或预期的迭代次数,得到训练好的三元组卷积神经网络。
7.根据权利要求1所述的基于三元组卷积神经网络的行人再识别方法,其特征在于,所述步骤7具体按照以下步骤实施:
步骤7.1、重复步骤2将目标行人图像和待识别行人图像输入至经步骤6得到的训练好的三元组卷积神经网络提取输出全局、局部特征;
步骤7.2、重复步骤3计算目标行人图像和待识别行人图像全局特征之间的距离与局部特征之间的距离,按照全局特征间的相似性与局部特征间的相似性之和对目标行人图像中所有行人图像按照相似性由小到大进行排序,形成排序列表如下:
R=[r1,,r2,…,rN] (6)
列表中,rN表示目标行人图像中第N个行人图像的排序;
步骤7.3、将经步骤7.2得到的排列序表重新排序:
步骤7.3.1、重复步骤3计算目标行人图像中两两行人之间的全局特征之间的距离;
步骤7.3.2、计算目标行人图像中每个行人相对于待识别行人图像的置信度得分:
目标行人图像中每个行人相对于待识别行人图像的置信度得分,等于目标行人图像中每个行人与其余行人全局特征之间的距离小于目标行人图像中每个行人和待识别行人图像全局特征之间的距离的个数之和;
步骤7.3.3、将目标行人图像中每个行人相对于待识别行人图像的置信度得分汇总为排序列表如下:
Sg=[sg1,sg2,…,sgc] (7)
式中,gi表示目标行人图像中每个行人,sgi表示每一个目标行人图像的置信度得分;
步骤7.4、将步骤7.2输出的排序列表(6)和步骤7.3输出的排序列表(7)融合得到目标行人图像的最终相似性排名列表识别矩阵,即Rf矩阵如下:
式中,表示R和Sg之间逐元素哈达马积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811469383.1A CN109635695B (zh) | 2018-11-28 | 2018-11-28 | 基于三元组卷积神经网络的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811469383.1A CN109635695B (zh) | 2018-11-28 | 2018-11-28 | 基于三元组卷积神经网络的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109635695A true CN109635695A (zh) | 2019-04-16 |
CN109635695B CN109635695B (zh) | 2022-11-08 |
Family
ID=66070876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811469383.1A Active CN109635695B (zh) | 2018-11-28 | 2018-11-28 | 基于三元组卷积神经网络的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109635695B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399828A (zh) * | 2019-07-23 | 2019-11-01 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110688976A (zh) * | 2019-10-09 | 2020-01-14 | 创新奇智(北京)科技有限公司 | 基于图像识别的门店比对方法 |
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111667050A (zh) * | 2020-04-21 | 2020-09-15 | 佳都新太科技股份有限公司 | 度量学习方法、装置、设备及存储介质 |
CN112115805A (zh) * | 2020-08-27 | 2020-12-22 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN113408492A (zh) * | 2021-07-23 | 2021-09-17 | 四川大学 | 一种基于全局-局部特征动态对齐的行人重识别方法 |
CN112115805B (zh) * | 2020-08-27 | 2024-06-11 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354735A (zh) * | 2015-07-22 | 2017-01-25 | 杭州海康威视数字技术股份有限公司 | 一种图像中目标的检索方法和装置 |
CN106778604A (zh) * | 2015-12-15 | 2017-05-31 | 西安电子科技大学 | 基于匹配卷积神经网络的行人再识别方法 |
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
-
2018
- 2018-11-28 CN CN201811469383.1A patent/CN109635695B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354735A (zh) * | 2015-07-22 | 2017-01-25 | 杭州海康威视数字技术股份有限公司 | 一种图像中目标的检索方法和装置 |
CN106778604A (zh) * | 2015-12-15 | 2017-05-31 | 西安电子科技大学 | 基于匹配卷积神经网络的行人再识别方法 |
WO2018137357A1 (zh) * | 2017-01-24 | 2018-08-02 | 北京大学 | 一种目标检测性能优化的方法 |
Non-Patent Citations (2)
Title |
---|
夏开国等: "基于多辅助分支深度网络的行人再识别", 《通信技术》 * |
朱建清等: "基于新型三元卷积神经网络的行人再辨识算法", 《电子与信息学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399828A (zh) * | 2019-07-23 | 2019-11-01 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110399828B (zh) * | 2019-07-23 | 2022-10-28 | 吉林大学 | 一种基于多角度的深度卷积神经网络的车辆再识别方法 |
CN110688976A (zh) * | 2019-10-09 | 2020-01-14 | 创新奇智(北京)科技有限公司 | 基于图像识别的门店比对方法 |
CN111667050A (zh) * | 2020-04-21 | 2020-09-15 | 佳都新太科技股份有限公司 | 度量学习方法、装置、设备及存储介质 |
CN111598004A (zh) * | 2020-05-18 | 2020-08-28 | 北京星闪世图科技有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN111598004B (zh) * | 2020-05-18 | 2023-12-08 | 江苏星闪世图科技(集团)有限公司 | 一种渐进增强自学习的无监督跨领域行人再识别方法 |
CN112115805A (zh) * | 2020-08-27 | 2020-12-22 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
CN112115805B (zh) * | 2020-08-27 | 2024-06-11 | 山东师范大学 | 带双模态难挖掘三元-中心损失的行人重识别方法及系统 |
CN112132873A (zh) * | 2020-09-24 | 2020-12-25 | 天津锋物科技有限公司 | 一种基于计算机视觉的多镜头行人识别与跟踪 |
CN113408492A (zh) * | 2021-07-23 | 2021-09-17 | 四川大学 | 一种基于全局-局部特征动态对齐的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109635695B (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635695A (zh) | 基于三元组卷积神经网络的行人再识别方法 | |
CN107330396B (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
Chen et al. | SiamBAN: Target-aware tracking with Siamese box adaptive network | |
CN111666843B (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN105512680B (zh) | 一种基于深度神经网络的多视sar图像目标识别方法 | |
Zhang et al. | Semantic-aware occlusion-robust network for occluded person re-identification | |
CN112651262B (zh) | 一种基于自适应行人对齐的跨模态行人重识别方法 | |
Hu et al. | Feature refinement for image-based driver action recognition via multi-scale attention convolutional neural network | |
CN107808375B (zh) | 融合多种上下文深度学习模型的水稻病害图像检测方法 | |
CN106846378B (zh) | 一种结合时空拓扑估计的跨摄像机目标匹配与跟踪方法 | |
CN109101938A (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN108805077A (zh) | 一种基于三元组损失函数的深度学习网络的人脸识别系统 | |
CN108776777A (zh) | 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法 | |
CN106372597B (zh) | 基于自适应上下文信息的cnn交通检测方法 | |
CN110349185A (zh) | 一种rgbt目标跟踪模型的训练方法及装置 | |
CN110348383A (zh) | 一种基于卷积神经网络回归的道路中心线和双线提取方法 | |
CN107480607A (zh) | 一种智能录播系统中站立人脸检测定位的方法 | |
CN110348492A (zh) | 一种基于上下文信息及多特征融合的相关滤波目标跟踪方法 | |
Li et al. | Theme-aware visual attribute reasoning for image aesthetics assessment | |
Zhang et al. | Joint distribution alignment via adversarial learning for domain adaptive object detection | |
CN109325407A (zh) | 基于f-ssd网络滤波的光学遥感视频目标检测方法 | |
CN113076891B (zh) | 基于改进高分辨率网络的人体姿态预测方法及系统 | |
CN110349176A (zh) | 基于三重卷积网络和感知干扰学习的目标跟踪方法和系统 | |
Li et al. | 3D-Yoga: a 3D yoga dataset for visual-based hierarchical sports action analysis | |
Wang et al. | Uncertainty-guided joint attention and contextual relation network for person re-identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |