CN110457985A - 基于视频序列的行人再识别方法、装置及计算机设备 - Google Patents
基于视频序列的行人再识别方法、装置及计算机设备 Download PDFInfo
- Publication number
- CN110457985A CN110457985A CN201910484746.7A CN201910484746A CN110457985A CN 110457985 A CN110457985 A CN 110457985A CN 201910484746 A CN201910484746 A CN 201910484746A CN 110457985 A CN110457985 A CN 110457985A
- Authority
- CN
- China
- Prior art keywords
- sequence
- pedestrian
- matched
- video sequence
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种基于视频序列的行人再识别方法、装置、计算机设备及存储介质,其中该方法包括:构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。本发明可以根据基于视频序列时间的动态时间规整算法可以直观的去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于视频序列的行人再识别方法、装置、计算机设备及存储介质。
背景技术
目前,在多摄像机视频监控领域中,常常需要将在某一视场中已经出现过的行人在其他视场中再次检测识别出来,这一过程称为行人再识别。在多摄像机智能视频监控系统中,行人再识别有很重要的意义。在行人再次被检测识别时,其所处的环境如监控场景、光照条件以及行人本身的位姿等都发生了变化,如何在行人场景等条件变化的情况下,快速、准确的将行人在其他视场中检测识别出来成为行人再识别的关键。
在传统技术中,单帧的行人再识别研究如基于表征学习,度量学习和局部特征的行人再识别方法还是主流。因为相对来说数据集比较小,耗时较少。但是通常单帧图像的信息是有限的,如果遇到遮挡,目标本身的位姿及光照等条件影响,则会对再识别造成很大的误差。基于视频序列的方法最主要的不同点就是这类方法不仅考虑了图像的内容信息,还考虑了帧与帧之间的运动等时空信息。
基于视频序列的方法主要思想是利用CNN来提取空间特征的同时利用递归循环网络(Recurrent neural networks,RNN)来提取时序特征。图像序列中的每张图像都经过一个共享的CNN提取出图像空间内容特征,之后这些特征向量被输入到一个RNN网络去提取最终的特征。最终的特征融合了单帧图像的内容特征和帧与帧之间的运动特征。而这个特征用于代替前面单帧方法的图像特征来训练网络。目前,大部分基于视频序列行人再识别方法是把序列信息全部输给网络,让网络学习有用的信息,并没有直观的去解释为什么多帧信息的有效性,并且不能很好地衡量视频序列之间的相似度。
发明内容
基于此,有必要针对上述技术问题,提供一种可以根据基于视频序列时间的动态时间规整算法直观的去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度的基于视频序列的行人再识别方法、装置、计算机设备及存储介质。
一种基于视频序列的行人再识别方法,所述方法包括:
构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;
将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;
通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
在其中一个实施例中,在所述构建残差网络的步骤之前还包括:
获取原始数据集进行数据准备,通过结构化稀疏表示后的行人目标序列。
在其中一个实施例中,所述构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络的步骤还包括:
构建基于视频序列的特征映射Resnet50网络模型;
将不同目标不同序列测试数据以及同一目标不同序列测试数据分别输入到所述Resnet50网络模型中进行测试;
根据测试的结果对模型中的参数进行调整直至测试结果符合要求,得到训练好的Resnet50网络模型。
在其中一个实施例中,所述将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵的步骤还包括:
将包含至少一张图像的视频目标序列输入到所述特征提取网络中;
对于每一个所述视频目标序列中的一张图像,通过所述特征提取网络生成一个对应的特征向量;
将每一个所述视频目标序列映射为一个特征矩阵。
在其中一个实施例中,所述通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离的步骤还包括:
分别计算出查询序列和待匹配序列的长度;
将所述待匹配序列做变换,得到变换后的多个待匹配视频序列;
依次计算所述查询序列与所述多个待匹配视频序列的DTW距离。
在其中一个实施例中,所述依次计算所述查询序列与所述多个待匹配视频序列的DTW距离的步骤包括:
计算所述查询序列和待匹配视频序列的距离矩阵;
计算所述查询序列和待匹配视频序列的过渡距离矩阵;
根据所述距离矩阵和过渡距离矩阵计算所述查询序列和待匹配视频序列的累计距离矩阵;
根据所述累计距离矩阵计算所述查询序列和待匹配视频序列的DTW距离;
通过重复执行上述计算步骤得到所述查询序列与所述多个待匹配视频序列的DTW距离。
在其中一个实施例中,在所述依次计算所述查询序列与所述多个待匹配视频序列的DTW距离步骤之后还包括:
将所述查询序列与所述多个待匹配视频序列的DTW距离的最小值作为所述查询序列和待匹配序列的最终距离;
分别计算查询序列和所有待匹配序列的距离。
一种基于视频序列的行人再识别装置,基于视频序列的行人再识别装置包括:
模型训练模块,所述模型训练模块用于构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;
特征提取模块,所述特征提取模块用于将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;
度量计算模块,所述度量计算模块用于通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意一项方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项方法的步骤。
上述基于视频序列的行人再识别方法、装置、计算机设备及存储介质,通过构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;通过所述行人目标序列的特征矩阵根据基于序列序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。本发明可以根据基于视频序列时间的动态时间规整算法可以直观的去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度。将行人目标序列的再识别问题转化为序列特征矩阵之间的一致性度量问题。实验结果表明,该算法在MARS数据集上表现出良好的性能。
附图说明
图1为一个实施例中基于视频序列的行人再识别方法的应用场景图;
图2为一个实施例中基于视频序列的行人再识别方法的流程示意图;
图3为另一个实施例中基于视频序列的行人再识别方法的流程示意图;
图4为再一个实施例中基于视频序列的行人再识别方法的流程示意图;
图5为又一个实施例中基于视频序列的行人再识别方法的流程示意图;
图6为又一个实施例中基于视频序列的行人再识别方法的流程示意图;
图7为又一个实施例中基于视频序列的行人再识别方法的流程示意图;
图8为一个实施例中所用到的MARS数据集的示意图;
图9为一个实施例中所构建的wide resnet50网络结构的示意图;
图10为一个实施例中wide resnet50网络训练过程中参数调试的示意图;
图11为一个实施例中由图像序列生成对应图像序列特征矩阵的示意图;
图12为一个实施例中DTW算法的遍历过程示意图;
图13为一个实施例中输出实验结果的实验结果示意图;
图14为一个实施例中基于视频序列的行人再识别装置的结构框图;
图15为另一个实施例中基于视频序列的行人再识别装置的结构框图;
图16为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。
本发明实施例所提供的基于视频序列的行人再识别方法可应用到如图1所示的应用环境中。计算机设备110通过网络与数据库120连接,数据库120中包括存储有数据集。其中,该计算机设备110包括:个人电脑、大型计算机等任意一种计算机设备。计算机设备110通过网络获取数据库120中存储的数据集。具体方法是先构建Resnet50残差网络,将数据集中的训练样本送入到网络中,训练完成后,将训练网络转变为特征提取网络。之后将数据集中的测试样本依次送往到特征提取网络提取特征,可以得到测试样本中序列的特征矩阵。最后,根据DTWT算法得到查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
在一个实施例中,如图2所示,提供了一种基于视频序列的行人再识别方法,以该方法应用于图1中的计算机设备中为例进行说明,该方法包括:
步骤202,构建残差网络,通过数据集中的训练样本对残差网络进行训练得到特征提取网络;
步骤204,将数据集中的测试样本输入到特征提取网络中得到测试样本中行人目标序列的特征矩阵;
步骤206,通过行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
具体地,本实施例提出的基于视频序列的行人再识别方法包括:先构建wideresnet50残差网络,将MARS数据集中的训练样本送入到网络中,训练完成后,将训练网络转变为特征提取网络,之后将MARS数据集中的测试样本依次送往到特征提取网络提取特征,可以得到测试样本中序列的特征矩阵,最后根据DTWT算法得到查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
其中,对于DTWT算法,当计算两个视频序列的距离时,将长度较小的序列(长度为M)做变换,得到变换后的M个视频序列,再计算这M个视频序列和长度较长序列的DTW距离,求出的最小值作为这两个序列的距离。
其中,DTW算法是根据查询序列和待匹配序列的距离矩阵求出过渡距离矩阵,然后求出累积距离矩阵,最后根据累积距离矩阵求出序列与待匹配序列的DTW距离。相对于现有的基于视频序列的行人再识别方法,本实施例中的基于视频序列时间的动态时间规整算法可以直观的去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度,在MARS数据集上表现出良好的性能,特别适合于处理视频序列中,同一行人的不同目标序列有相似的步幅特征和步态特征,而不同行人的目标序列有较大差别的步幅特征和步态特征这种情况。
在一个实施例中,在构建残差网络的步骤之前还包括:获取原始数据集进行数据准备,通过结构化稀疏表示后的行人目标序列。
具体地,参考图8示出了本实施例中所用到的MARS数据集,其中MARS数据集包含train,query和gallery这三个大类,train用来训练wide resnet50网络,query用来测试环节的查询,gallery用作测试环节查询的库。train包含625个行人编号,总共有8298个行人序列。query包含626个行人编号,总共有1980个行人序列。gallery包含622个行人编号,总共有9330个行人编号。train,query和gallery这三类,总共有1251个行人编号,总共有19608个行人序列,其中每个序列有2—920张图片,平均每个序列有59.5张图片。
在输出基于视频序列的行人再识别结果的步骤中,为了评价所提出的行人重识别方法的性能,通常将数据库中的行人分为训练集和测试集两个部分,在测试时,第1个摄像机所拍摄的数据作为查找集,而第2个或其他摄像机中的行人数据作为候选集。目前常用的评价标准主要是CMC曲线(cumulated matching characteristic),CMC曲线是一种top-k的击中概率,主要用来评估闭集中rank的正确率。当查找的对象在候选集中进行距离比较之后,将候选集中的行人按照距离的远近由小到大进行排序,要查找的行人排序越靠前,则算法的效果越好。
MARS数据集总共有1980个行人序列,即共进行1980次查询和排序,每次查询中目标行人序列的排序结果用r=(r1,r2,...,r1980)表示,那么CMC曲线可以表示为:
当R=1,5,10,20时,分别代表行人序列重识别的top1,top5,top10和top20的准确率。
query表示检索序列集,假设包含N个序列,qi表示第i个query,则数据集记作:Q={q1,q2,...,qi,...,qN}。gallery表示图片库,假设包含M个序列,gi表示第i个序列,则数据集记作:G={g1,g2,...,gi,...,gM}。假设qi对应的ID/行人在G出现的次数记为对于每个查询过程:qi提取特征矩阵后依次和G中每个序列的特征矩阵进行DTWT计算,得出距离,按照距离大小对gallery进行升序排列,排序后的gallery数据集记为Gqi,qi命中的图片组成的数据集,记为是的子集。假设在中的排位记为rj,在中的排位记为对所有query序列重复这个过程,得到准确率计算公式如下:
图13是本实施例输出的实验结果,其中包含查询的mAP和top1,top5,top10和top20排名,“resnet50+DTWT”来自于本实施例中的算法。
在上述实施例中,通过构建残差网络,通过数据集中的训练样本对残差网络进行训练得到特征提取网络;将数据集中的测试样本输入到特征提取网络中得到测试样本中行人目标序列的特征矩阵;通过行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。上述实施例可以根据基于视频序列时间的动态时间规整算法可以直观的去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度。将行人目标序列的再识别问题转化为序列特征矩阵之间的一致性度量问题。实验结果表明,该算法在MARS数据集上表现出良好的性能。特别适合于处理视频序列中,同一行人的不同目标序列有相似的步幅特征和步态特征,而不同行人的目标序列有较大差别的步幅特征和步态特征这种情况。
在一个实施例中,如图3所示,提供了一种基于视频序列的行人再识别方法,该方法中构建残差网络,通过数据集中的训练样本对残差网络进行训练得到特征提取网络的步骤还包括:
步骤302,构建基于视频序列的特征映射Resnet50网络模型;
步骤304,将不同目标不同序列测试数据以及同一目标不同序列测试数据分别输入到Resnet50网络模型中进行测试;
步骤306,根据测试的结果对模型中的参数进行调整直至测试结果符合要求,得到训练好的Resnet50网络模型。
具体地,在本实施例中实现了构建基于视频序列的特征映射wide resnet50网络构建。其中,wide resnet50网络结构如图9所示,wide resnet50有2个基本的block,一个是Identity Block,输入和输出的维度是一样的,所以可以串联多个;另外一个基本block是Conv Block,输入和输出的维度是一样的,所以不能连续串联,它的作用本来就是为了改变特征向量的维度。本实施例中输入的图片统一调整尺寸为224*224,训练阶段中这是个分类网络,分类的类别数为训练集中的行人编号数625。特征提取阶段,本发明会把网络最后的Average pool和全连接层去掉,输入一张图片,则会输出一个2048维的特征向量。
具体地,参考图10为本实施例中wide resnet50网络模型具体的参数调整示意图。将不同目标不同序列测试数据以及同一目标不同序列测试数据分别输入到Resnet50网络模型中进行测试;根据测试的结果对模型中的参数进行调整直至测试结果符合要求,得到训练好的Resnet50网络模型。
在本实施例中,实现了网络模型的构建,并通过对网络模型的训练将训练网络转换为特征提取网络,为后续的特征提取步骤做好准备。
在一个实施例中,如图4所示,提供了一种基于视频序列的行人再识别方法,该方法中将数据集中的测试样本输入到特征提取网络中得到测试样本中行人目标序列的特征矩阵的步骤还包括:
步骤402,将包含至少一张图像的视频目标序列输入到特征提取网络中;
步骤404,对于每一个视频目标序列中的一张图像,通过特征提取网络生成一个对应的特征向量;
步骤406,将每一个视频目标序列映射为一个特征矩阵。
在本实施例中实现了基于wide resnet50残差网络的行人目标序列特征矩阵的生成。具体地,参考图11为本实施例中由图像序列生成序列的特征矩阵示意图,将包含n张图片的视频目标序列f输入到残差网络中去,然后针对每一个目标序列中的一张图像fi,可以通过基于wide resnet50的特征映射网络生成一个对应的2048维特征向量xi=[x(i,1),x(i,2),...,x(i,2047),x(i,2048)]T,将每个结构化的分立目标序列映射为一个特征矩阵F,特征矩阵的大小为2048×n。
在一个实施例中,如图5所示,提供了一种基于视频序列的行人再识别方法,该方法中通过行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离的步骤还包括:
步骤502,分别计算出查询序列和待匹配序列的长度;
步骤504,将待匹配序列做变换,得到变换后的多个待匹配视频序列;
步骤506,依次计算查询序列与多个待匹配视频序列的DTW距离。
具体地,基于视频序列时间的动态时间规整算法可以直观地去解释多帧信息的有效性,同时可以很好地衡量两个视频序列的相似度,DTWT算法的输入是行人目标序列的特征矩阵,输出是序列间的距离d=DTWT(Sp,Sq),Sp和Sq分别代表目标序列的特征矩阵。
进一步地,实现基于视频序列时间的动态时间规整算法的步骤包括:
查询序列的特征矩阵待匹配序列之一的特征矩阵其中代表行人目标序列p的第i张图片的2048维特征向量,代表行人目标序列q的第i张图片的2048维特征向量,特征向量由wideresnet50残差网络输出所得。求出行人目标查询序列的特征矩阵Sp和待匹配行人目标序列的特征矩阵Sq的长度(包含图片的个数)分别为N和M,N=length(Sp),M=length(Sq),其中length函数是求序列的长度(假设M≤N)。
由假设知,M≤N,将长度较小的序列(待匹配序列的特征矩阵Sq)做变换,得到待匹配序列Sq变换后的M个视频序列其中代表Sq变换M次后得到的M个特征矩阵的集合,代表Sq变换t个单位后得到的特征矩阵,其中mod代表求余函数,t=0,1,2,...,N-2,N-1。
根据查询序列(长度为N)与待匹配的M个序列依次算出DTW距离,求出最值其中DTW为动态时间规整算法的函数,输入行人目标序列的特征矩阵,输出为这个目标序列之间的距离。
在一个实施例中,如图6所示,提供了一种基于视频序列的行人再识别方法,该方法中依次计算查询序列与多个待匹配视频序列的DTW距离的步骤包括:
步骤602,计算查询序列和待匹配视频序列的距离矩阵;
步骤604,计算查询序列和待匹配视频序列的过渡距离矩阵;
步骤606,根据距离矩阵和过渡距离矩阵计算查询序列和待匹配视频序列的累计距离矩阵;
步骤608,根据累计距离矩阵计算查询序列和待匹配视频序列的DTW距离;
步骤610,通过重复执行步骤602-步骤608得到查询序列与多个待匹配视频序列的DTW距离。
在一个实施例中,如图7所示,提供了一种基于视频序列的行人再识别方法,该方法在依次计算查询序列与多个待匹配视频序列的DTW距离步骤之后还包括:
步骤702,将查询序列与多个待匹配视频序列的DTW距离的最小值作为查询序列和待匹配序列的最终距离;
步骤704,分别计算查询序列和所有待匹配序列的距离。
具体地,在本实施例中实现了动态时间规整算法(DTW),包括如下步骤:
首先,求出查询序列和待匹配序列间的距离矩阵。
假设给定N个图像样本序列和M个图像测试序列,则样本序列和测试样本通过wideresnet50残差网络后得到的特征矩阵分别为X=[x1,x2,...,xM]和Y=[y1,y2,...,yN],同时给定样本序列与测试序列之间特征向量的距离公式为:
其中i=1,2,...,M,j=1,2,...,N,xi,yj分别为样本序列和测试序列中的第i个和第j个图片所对对应的2048维特征向量,xi=[x(i,1),x(i,2),...,x(i,2047),x(i,2048)]T,yi=[y(i,1),y(i,2),...,y(i,2047),y(i,2048)]T 分别为xi,yj特征向量的第k个值,可以得到序列X和序列Y的距离矩阵d为:
然后,求出查询序列和待匹配序列间的过渡距离矩阵。
序列X和序列Y的距离矩阵dtemp为:
其中,inf为python中的无穷大值,inf_1和inf_2为inf组成的向量,inf_1的大小为1×N,inf_2的大小为M×1。
接着,求出查询序列和待匹配序列间的累积距离矩阵。
根据公式:
D(i,j)=d(i,j)+min{dtemp(i,j+1),dtemp(i+1,j),dtemp(i,j)}
其中,i=1,2,...,M,j=1,2,...,N,i和j分别从1递增到M和N,d(i,j)为距离矩阵d的第i行第j列对应的元素值,dtemp(i,j+1)为累积距离矩阵dtemp的第i行第(j+1)列对应的元素值,dtemp(i+1,j)为累积距离矩阵dtemp的第(i+1)行第j列对应的元素值,dtemp(i,j)为累积距离矩阵dtemp的第i行第j列对应的元素值。最后得到累积距离矩阵S为:
由累积距离矩阵求出查询序列和待匹配序列的DTW距离。
其中,结合参考图12,DTW算法的核心就是要找到一个最合适的D(i,j)扭曲曲线,其中i=1,2,...,M,j=1,2,...,N,扭曲曲线使得归整路径的距离最小,归整路径的距离最小值是累积距离矩阵S的最后一行最后一列的值D(M,N),D(M,N)作为两个图像子序列的相似性距离。
通过重复执行上述步骤即可求出查询序列和待匹配序列集的DTW距离。
由公式知待匹配序列Sq变换后的M个视频序列,则依据DTW算法,查询序列的特征矩阵Sp可以与待匹配序列的M个视频序列算出M个距离d={d1,d2,...,dM-1,dM}。
查询序列与其他待匹配序列依次算出DTWT距离。具体地,根据上述步骤中得到的M个距离,最小值作为查询序列Sp和待匹配序列Sq的最终距离dp,q=min{d1,d2,...,dM-1,dM}。
最后,计算查询序列与所有待匹配序列的距离。
根据图8可知query包含626个行人编号,总共有1980个行人序列。gallery包含622个行人编号,总共有9330个行人编号。查询序列一共1980个,所有待匹配序列一共9330个,查询序列的每一个需要和gallery中的9330个序列一一进行DTWT度量,最终query中的1980个序列在gallery中的DTWT距离集合为:Distancequery→gallery={D1,D2,...,D1980},其中,Di是query中第i个序列在gallery中的DTWT距离集合,i=1,2,...,1980。
Di={DTWT(queryi,gallery1),DTWT(queryi,gallery2),...,DTWT(queryi,gallery9330)}其中,queryi代表query中第i个序列的特征矩阵,galleryj代表gallery中第j个序列的特征矩阵,j=1,2,...,9330。
应该理解的是,虽然图2-7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图14所示,提供了一种基于视频序列的行人再识别装置1400,该装置包括:
模型训练模块1401,用于构建残差网络,通过数据集中的训练样本对残差网络进行训练得到特征提取网络;
特征提取模块1402,用于将数据集中的测试样本输入到特征提取网络中得到测试样本中行人目标序列的特征矩阵;
度量计算模块1403,用于通过行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
在一个实施例中,如图15所示,提供了一种基于视频序列的行人再识别装置1400,该装置还包括数据准备模块1404,用于:
获取原始数据集进行数据准备,通过结构化稀疏表示后的行人目标序列。
在一个实施例中,模型训练模块1401还用于:
构建基于视频序列的特征映射Resnet50网络模型;
将不同目标不同序列测试数据以及同一目标不同序列测试数据分别输入到所述Resnet50网络模型中进行测试;
根据测试的结果对模型中的参数进行调整直至测试结果符合要求,得到训练好的Resnet50网络模型。
在一个实施例中,特征提取模块1402还用于:
将包含至少一张图像的视频目标序列输入到特征提取网络中;
对于每一个视频目标序列中的一张图像,通过特征提取网络生成一个对应的特征向量;
将每一个视频目标序列映射为一个特征矩阵。
在其中一个实施例中,度量计算模块1403还用于:
分别计算出查询序列和待匹配序列的长度;
将待匹配序列做变换,得到变换后的多个待匹配视频序列;
依次计算查询序列与多个待匹配视频序列的DTW距离。
在一个实施例中,度量计算模块1403还用于:
计算查询序列和待匹配视频序列的距离矩阵;
计算查询序列和待匹配视频序列的过渡距离矩阵;
根据距离矩阵和过渡距离矩阵计算查询序列和待匹配视频序列的累计距离矩阵;
根据累计距离矩阵计算所述查询序列和待匹配视频序列的DTW距离;
通过重复执行上述计算步骤得到查询序列与多个待匹配视频序列的DTW距离。
在一个实施例中,度量计算模块1403还用于:
将查询序列与多个待匹配视频序列的DTW距离的最小值作为查询序列和待匹配序列的最终距离;
分别计算查询序列和所有待匹配序列的距离。
关于基于视频序列的行人再识别装置的具体限定可以参见上文中对于基于视频序列的行人再识别方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机设备,其内部结构图可以如图16所示。该计算机设备包括通过系统总线连接的处理器、存储器以及网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于视频序列的行人再识别方法。
本领域技术人员可以理解,图16中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以上各个方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以上各个方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于视频序列的行人再识别方法,所述方法包括:
构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;
将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;
通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
2.根据权利要求1所述的基于视频序列的行人再识别方法,其特征在于,在所述构建残差网络的步骤之前还包括:
获取原始数据集进行数据准备,通过结构化稀疏表示后的行人目标序列。
3.根据权利要求1所述的基于视频序列的行人再识别方法,其特征在于,所述构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络的步骤还包括:
构建基于视频序列的特征映射Resnet50网络模型;
将不同目标不同序列测试数据以及同一目标不同序列测试数据分别输入到所述Resnet50网络模型中进行测试;
根据测试的结果对模型中的参数进行调整直至测试结果符合要求,得到训练好的Resnet50网络模型。
4.根据权利要求1所述的基于视频序列的行人再识别方法,其特征在于,所述将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵的步骤还包括:
将包含至少一张图像的视频目标序列输入到所述特征提取网络中;
对于每一个所述视频目标序列中的一张图像,通过所述特征提取网络生成一个对应的特征向量;
将每一个所述视频目标序列映射为一个特征矩阵。
5.根据权利要求1所述的基于视频序列的行人再识别方法,其特征在于,所述通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离的步骤还包括:
分别计算出查询序列和待匹配序列的长度;
将所述待匹配序列做变换,得到变换后的多个待匹配视频序列;
依次计算所述查询序列与所述多个待匹配视频序列的DTW距离。
6.根据权利要求5所述的基于视频序列的行人再识别方法,其特征在于,所述依次计算所述查询序列与所述多个待匹配视频序列的DTW距离的步骤包括:
计算所述查询序列和待匹配视频序列的距离矩阵;
计算所述查询序列和待匹配视频序列的过渡距离矩阵;
根据所述距离矩阵和过渡距离矩阵计算所述查询序列和待匹配视频序列的累计距离矩阵;
根据所述累计距离矩阵计算所述查询序列和待匹配视频序列的DTW距离;
通过重复执行上述计算步骤得到所述查询序列与所述多个待匹配视频序列的DTW距离。
7.根据权利要求5所述的基于视频序列的行人再识别方法,其特征在于,在所述依次计算所述查询序列与所述多个待匹配视频序列的DTW距离步骤之后还包括:
将所述查询序列与所述多个待匹配视频序列的DTW距离的最小值作为所述查询序列和待匹配序列的最终距离;
分别计算查询序列和所有待匹配序列的距离。
8.一种基于视频序列的行人再识别装置,其特征在于,所述基于视频序列的行人再识别装置包括:
模型训练模块,所述模型训练模块用于构建残差网络,通过数据集中的训练样本对所述残差网络进行训练得到特征提取网络;
特征提取模块,所述特征提取模块用于将数据集中的测试样本输入到所述特征提取网络中得到所述测试样本中行人目标序列的特征矩阵;
度量计算模块,所述度量计算模块用于通过所述行人目标序列的特征矩阵根据基于视频序列时间的动态时间规整算法计算查询序列和待匹配序列的距离,输出基于视频序列的行人再识别结果。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910484746.7A CN110457985B (zh) | 2019-06-05 | 2019-06-05 | 基于视频序列的行人再识别方法、装置及计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910484746.7A CN110457985B (zh) | 2019-06-05 | 2019-06-05 | 基于视频序列的行人再识别方法、装置及计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110457985A true CN110457985A (zh) | 2019-11-15 |
CN110457985B CN110457985B (zh) | 2022-04-05 |
Family
ID=68480678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910484746.7A Active CN110457985B (zh) | 2019-06-05 | 2019-06-05 | 基于视频序列的行人再识别方法、装置及计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110457985B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991321A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学 | 一种基于标签更正与加权特征融合的视频行人再识别方法 |
CN112541421A (zh) * | 2020-12-08 | 2021-03-23 | 浙江科技学院 | 一种开放空间的行人换装重识别方法 |
CN113569753A (zh) * | 2021-07-29 | 2021-10-29 | 杭州逗酷软件科技有限公司 | 视频中的动作比对方法、装置、存储介质与电子设备 |
CN113743387A (zh) * | 2021-11-05 | 2021-12-03 | 中电科新型智慧城市研究院有限公司 | 视频行人重识别方法、装置、电子设备及可读存储介质 |
WO2022236668A1 (zh) * | 2021-05-11 | 2022-11-17 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN116229127A (zh) * | 2023-05-10 | 2023-06-06 | 南京邮电大学 | 基于视频事件主体时序行为的匹配方法及装置 |
WO2024108482A1 (zh) * | 2022-11-24 | 2024-05-30 | 中国科学院深圳先进技术研究院 | 图像匹配方法、定位方法、装置、设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833653A (zh) * | 2010-04-02 | 2010-09-15 | 上海交通大学 | 低分辨率视频中的人物识别方法 |
CN103942850A (zh) * | 2014-04-24 | 2014-07-23 | 中国人民武装警察部队浙江省总队医院 | 基于视频分析和rfid技术的医护人员在岗监测方法 |
CN104700056A (zh) * | 2015-02-05 | 2015-06-10 | 合肥工业大学 | 煤矿入井人员唯一性检测方法 |
CN105138998B (zh) * | 2015-09-07 | 2019-01-11 | 上海交通大学 | 基于视角自适应子空间学习算法的行人重识别方法及系统 |
CN109344787A (zh) * | 2018-10-15 | 2019-02-15 | 浙江工业大学 | 一种基于人脸识别与行人重识别的特定目标跟踪方法 |
CN109657547A (zh) * | 2018-11-13 | 2019-04-19 | 成都四方伟业软件股份有限公司 | 一种基于伴随模型的异常轨迹分析方法 |
-
2019
- 2019-06-05 CN CN201910484746.7A patent/CN110457985B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833653A (zh) * | 2010-04-02 | 2010-09-15 | 上海交通大学 | 低分辨率视频中的人物识别方法 |
CN103942850A (zh) * | 2014-04-24 | 2014-07-23 | 中国人民武装警察部队浙江省总队医院 | 基于视频分析和rfid技术的医护人员在岗监测方法 |
CN104700056A (zh) * | 2015-02-05 | 2015-06-10 | 合肥工业大学 | 煤矿入井人员唯一性检测方法 |
CN105138998B (zh) * | 2015-09-07 | 2019-01-11 | 上海交通大学 | 基于视角自适应子空间学习算法的行人重识别方法及系统 |
CN109344787A (zh) * | 2018-10-15 | 2019-02-15 | 浙江工业大学 | 一种基于人脸识别与行人重识别的特定目标跟踪方法 |
CN109657547A (zh) * | 2018-11-13 | 2019-04-19 | 成都四方伟业软件股份有限公司 | 一种基于伴随模型的异常轨迹分析方法 |
Non-Patent Citations (2)
Title |
---|
DAMIEN SIMONNET等: "Re-identification of Pedestrians in Crowds Using Dynamic Time Warping", 《COMPUTER VISION – ECCV 2012. WORKSHOPS AND DEMONSTRATIONS》 * |
YIFAN SUN 等: "Beyond Part Models: Person Retrieval with Refined Part Pooling (and A Strong Convolutional Baseline)", 《ECCV2018》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110991321A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学 | 一种基于标签更正与加权特征融合的视频行人再识别方法 |
CN110991321B (zh) * | 2019-11-29 | 2023-05-02 | 北京航空航天大学 | 一种基于标签更正与加权特征融合的视频行人再识别方法 |
CN112541421A (zh) * | 2020-12-08 | 2021-03-23 | 浙江科技学院 | 一种开放空间的行人换装重识别方法 |
CN112541421B (zh) * | 2020-12-08 | 2024-07-26 | 浙江科技学院 | 一种开放空间的行人换装重识别方法 |
WO2022236668A1 (zh) * | 2021-05-11 | 2022-11-17 | 深圳大学 | 行人重识别方法、系统、电子装置及存储介质 |
CN113569753A (zh) * | 2021-07-29 | 2021-10-29 | 杭州逗酷软件科技有限公司 | 视频中的动作比对方法、装置、存储介质与电子设备 |
CN113569753B (zh) * | 2021-07-29 | 2024-05-31 | 杭州逗酷软件科技有限公司 | 视频中的动作比对方法、装置、存储介质与电子设备 |
CN113743387A (zh) * | 2021-11-05 | 2021-12-03 | 中电科新型智慧城市研究院有限公司 | 视频行人重识别方法、装置、电子设备及可读存储介质 |
CN113743387B (zh) * | 2021-11-05 | 2022-03-22 | 中电科新型智慧城市研究院有限公司 | 视频行人重识别方法、装置、电子设备及可读存储介质 |
WO2024108482A1 (zh) * | 2022-11-24 | 2024-05-30 | 中国科学院深圳先进技术研究院 | 图像匹配方法、定位方法、装置、设备和存储介质 |
CN116229127A (zh) * | 2023-05-10 | 2023-06-06 | 南京邮电大学 | 基于视频事件主体时序行为的匹配方法及装置 |
CN116229127B (zh) * | 2023-05-10 | 2023-07-28 | 南京邮电大学 | 基于视频事件主体时序行为的匹配方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110457985B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110457985A (zh) | 基于视频序列的行人再识别方法、装置及计算机设备 | |
Liu et al. | Exploiting unlabeled data in cnns by self-supervised learning to rank | |
CN109783685B (zh) | 一种查询方法及装置 | |
CN109508638A (zh) | 人脸情绪识别方法、装置、计算机设备及存储介质 | |
CN115171165A (zh) | 全局特征与阶梯型局部特征融合的行人重识别方法及装置 | |
US11042991B2 (en) | Determining multiple camera positions from multiple videos | |
US11321966B2 (en) | Method and apparatus for human behavior recognition, and storage medium | |
CN109767261A (zh) | 产品推荐方法、装置、计算机设备和存储介质 | |
CN112215255A (zh) | 一种目标检测模型的训练方法、目标检测方法及终端设备 | |
Ge et al. | Distilling channels for efficient deep tracking | |
CN113822368B (zh) | 一种基于无锚的增量式目标检测方法 | |
CN107209853A (zh) | 定位和地图构建方法 | |
CN109472213A (zh) | 掌纹识别方法、装置、计算机设备和存储介质 | |
CN109886110A (zh) | 微表情评分方法、装置、计算机设备及存储介质 | |
CN109857891A (zh) | 一种查询方法及装置 | |
CN116188995B (zh) | 一种遥感图像特征提取模型训练方法、检索方法及装置 | |
CN111652314A (zh) | 温度检测方法、装置、计算机设备和存储介质 | |
KR20210093875A (ko) | 비디오 분석 방법 및 연관된 모델 훈련 방법, 기기, 장치 | |
CN109961103B (zh) | 特征提取模型的训练方法、图像特征的提取方法及装置 | |
Vora et al. | Bringing generalization to deep multi-view pedestrian detection | |
He et al. | Real-time Face Recognition using SVM, MLP and CNN | |
CN115565253B (zh) | 一种动态手势实时识别方法、装置、电子设备和存储介质 | |
Martı́nez Carrillo et al. | A compact and recursive Riemannian motion descriptor for untrimmed activity recognition | |
Tinchev et al. | $\mathbb {X} $ Resolution Correspondence Networks | |
CN113343810B (zh) | 基于时序多样性与相关性的行人重识别模型训练和识别方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |