CN107358200B - 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法 - Google Patents

一种基于稀疏学习的多摄像机非重叠视域行人匹配方法 Download PDF

Info

Publication number
CN107358200B
CN107358200B CN201710568659.0A CN201710568659A CN107358200B CN 107358200 B CN107358200 B CN 107358200B CN 201710568659 A CN201710568659 A CN 201710568659A CN 107358200 B CN107358200 B CN 107358200B
Authority
CN
China
Prior art keywords
sparse
pedestrian
value
formula
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710568659.0A
Other languages
English (en)
Other versions
CN107358200A (zh
Inventor
王洪元
张文文
万建武
孙金玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN201710568659.0A priority Critical patent/CN107358200B/zh
Publication of CN107358200A publication Critical patent/CN107358200A/zh
Application granted granted Critical
Publication of CN107358200B publication Critical patent/CN107358200B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Peptides Or Proteins (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,具体包括以下步骤:步骤1,从数据集中提取行人目标特征作为行人的原始特征;步骤2,根据原始特征,利用稀疏学习提取行人目标的高层语义特征;步骤3,将高层语义特征映射到公共隐空间;步骤4,建立稀疏表示模型,并稀疏表示出样本特征;步骤5,利用步骤4处理好的样本特征进行行人匹配。本发明突破了传统的单摄像机视域限制,有效扩大了监控空间,消除了大范围监控存在的摄像头盲区,并将时间和空间上分离的目标在不同摄像机中进行匹配。本发明的方法对行人目标姿态变化、光照条件变化具有很强的鲁棒性。

Description

一种基于稀疏学习的多摄像机非重叠视域行人匹配方法
技术领域
本发明属于计算机视觉领域,具体涉及多视图学习领域,特别涉及一种基于稀疏学习的多摄像机非重叠视域行人匹配方法。
背景技术
随着人们对社会公共安全的日益关注以及视频采集技术和大规模数据存储技术的发展,视频监控技术日益受到人们的重视,在商场、公园、学校、医院等人群密集易发生公共安全事件的场所应用了大量的监控摄像头。这些大量的监控摄像头形成了一个巨大的监控网络,尽管提高了监控系统的可靠性,同时也给监控视频的管理和查看带来了巨大的困难,于是如何高效地将不同摄像机中相同目标进行匹配是非重叠视域监控的关键。
在非重叠视域监控系统中,由于监控视频中的拍摄场景存在着光照变化、目标图像分辨率低、拍摄视角变化、行人姿态各异及摄像头自身属性问题,导致同一行人在不同视角中拍出的行人图像差异很大,这为匹配目标行人带来了很大挑战。为了解决这些难点问题,学者们提出了基于行人特征表示的方法和基于度量学习的方法。其中,基于行人特征表示的方法,主要关注提取更具有鉴别性的行人图像特征,仅利用标准距离(如欧式距离和巴氏距离等)进行相似性度量。例如,文献“Farenzena M,Bazzani L,Perina A,et al.Personre-identification by symmetry-driven accumulation of local features.IEEETransactions on Computer Vision and Pattern Recognition,2010,23(3):2360-2367.”提出基于行人身体对称性的特征提取方法,将人划分为头、躯干、腿部三个部分,然后提取除头部以外的累积颜色特征和纹理特征对行人进行描述。文献“Cheng SC,CristaniM,Stoppa M,et al.Custom Pictorial Structures for Re-identification.InProceedings of the British Machine Vision Conference,2014,68:1-11.”将绘画结构应用于行人重识别,用类似身体外形的结构来表示行人,再提取行人颜色特征精确匹配。然而,在实际生活中,行人在经过非重叠的摄像头时,受到视角、光照等因素的影响,拍出的行人图像质量差,如果采用标准的距离度量方法,即等贡献考虑每一个特征,可能导致不同类样本间的度量距离小,而同类样本间度量距离大。为解决该问题,研究者们关注设计有效的距离度量函数,提出了基于度量学习的方法。代表性的工作有,文献“Weinberger KQ,SaulLK.Distance metric learning for large margin nearest neighborclassification.Journal of Machine Learning Research,2009,10(1):207–244.”提出最大近邻分类间隔算法(LMNN),使得投影之后的相同类点向内部紧缩,不同类点向外扩张。文献“Li W,Wang XG.Locally aligned feature transforms across views.ComputerVision and Pattern Recognition,2013,9(4):3594–3601.”将图像对投影到共同的特征空间,再对投影之后的图像特征进行相似性距离度量。
最近,Le等人在文献“Le a,Kafai M,Yang SF,et al.Reference-based personre-identification.In Proceedings of the IEEE Conference on Advanced Video andSignal Based Surveillance,2013:244-249.”中认为,如果将不同视角下的行人图像视为该行人在不同摄像头视角下的多个描述,行人的匹配也可被认为是一种多视图学习问题。为此,他们提出基于典型相关分析的行人匹配算法。典型相关分析(CanonicalCorrelation Analysis,CCA)是一种经典的多视图学习方法,它利用互补原理,最大化不同视图数据之间的相关性,减少数据之间的不确定性,从而达到增强识别能力的目的,最终提高行人重识别的准确率。目前,CCA主要在多视图学习的特征融合方面有着广泛的应用,也常用于解决行人匹配的问题。
但是,CCA是一种线性模型,它只关注成对样本之间的相关性,而实际中存在大量特征非线性的情况,当仅用CCA这样的简单线性模型来学习这些非线性相关现象时,将不可避免地出现欠拟合现象。
因此,研究出一种能应对非线性特征问题、鲁棒性高的多摄像机非重叠视域目标匹配方法,对提高匹配准确率有着积极的影响。
发明内容
本发明的目的在于:从多视图学习角度考虑行人匹配问题时,克服简单线性模型CCA存在的以上问题,提供一种基于稀疏学习的多摄像机非重叠视域行人匹配方法。此方法对行人目标图像特征非线性、特征维数庞大具有很强的鲁棒性。
为实现上述技术目的,达到上述技术效果,本发明通过以下技术方案实现:
一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,包括以下步骤:
步骤1,从数据集中提取行人目标特征作为行人的原始特征;
步骤2,根据原始特征,利用稀疏学习提取行人目标的高层语义特征;
步骤3,将高层语义特征映射到公共隐空间;
步骤4,建立稀疏表示模型,并稀疏表示出样本特征;
步骤5,利用步骤4处理好的样本特征进行行人匹配。
本发明的方法突破了传统的单摄像机视域限制,克服了现有方法往往只抽取行人图像低层特征,因此在面临多视角数据的处理时,忽视了多视角数据本身蕴含的内在关联属性,从而无法对多视角数据实现有效处理的不足。利用本发明的方法有效扩大了监控空间,消除了大范围监控存在的摄像头盲区,并将时间和空间上分离的目标在不同摄像机中进行匹配。同时,本发明方法对行人目标姿态变化、环境光照变化具有很强的鲁棒性。
附图说明
图1是本发明基于稀疏学习的多摄像机非重叠视域行人匹配方法的流程图;
图2是本发明方法在VIPeR数据集下取不同参数值的结果比较图,(a)改变λ的取值;(b)改变μ的取值;
图3是本发明方法在CUHK01数据集下取不同参数值的结果比较图,(a)改变λ的取值;(b)改变μ的取值;
图4是本发明实施例中行人匹配过程示意图。
具体实施方式
下面将参考附图并结合实施例,来详细说明本发明。
图1给出了本发明基于稀疏学习的多摄像机非重叠视域行人匹配方法的流程图:从公共数据集中提取RGB、HSV、YCbCr、Lab、YIQ和Gabor6种特征作为行人图像的原始特征,再提取行人的高层语义特征,随后将高层语义特征投影到公共的隐空间,使得特征之间可比较,让两视角特征能够自动反映出行人样本之间的隐含关系;然后建立稀疏模型提出目标函数,重复迭代计算,直到目标函数值趋于稳定收敛,表示得到一定意义下的最好字典矩阵,用它将样本特征稀疏表示出来;最后进行行人匹配,即,正确地从行人图像库中找出与目标行人相对应的行人。其具体步骤如下:
步骤1、提取行人目标特征;
提取好的行人特征对于行人的匹配至关重要,本发明将每张行人图像平均分成18个水平条块,分别提取每个水平条块的RGB、HSV、YCbCr、Lab、YIQ和Gabor6种特征,前5个提取的是图像的颜色空间特征,即直方图特征;Gabor特征是一种纹理特征,根据不同波长、方向、带宽等分别取16组不同的Gabor滤波器.每个水平条块的每种特征空间的每个通道分为16维直方图统计特征,RGB和HSV特征有3个通道,YCbCr、Lab和YIQ特征有2个通道,Gabor特征有16个通道,于是,每个水平条块的特征为448维。因此,每张行人图像在特征空间中被表示为(3+3+2+2+2+16)×16×18=8064维特征向量,再将所有特征组合成一个列向量来代表一个行人图像作为实验的原始特征。
步骤2、提取行人目标的高层语义特征;
稀疏学习被广泛应用于人脸识别和行人匹配领域,也是信号处理领域的热点之一。稀疏学习通过尽可能少的训练样本找到对应测试样本的稀疏表示,这样的一个突出优点是计算速度更快。更重要的是,稀疏学习能够提取带语义信息的高层特征,有利于接下来的分类、识别和检索。
本发明提出的基于稀疏学习的行人匹配方法通过将行人样本特征稀疏表示出来,使行人样本在该模型下的稀疏字典只存在少量的非零元素,使得特征:(1)拥有更强大表达能力,(2)拥有识别和约束能力。
本发明通过提取样本带语义信息的高层特征,克服现有方法往往只抽取行人图像低层特征,因此在面临多视角数据的处理时,忽视了多视角数据本身蕴含的内在关联属性,从而无法对多视角数据实现有效处理的不足。利用的表达式如下:
Figure BDA0001349035070000041
其中,
Figure BDA0001349035070000042
分别是样本X和Y的稀疏表示,X和Y对应的稀疏字典为
Figure BDA0001349035070000043
Figure BDA0001349035070000044
t是小于样本数N的稀疏系数。表达式中λ为平衡参数,λ所在项为稀疏项,λ值越大,稀疏约束越大。
步骤3、将高层语义特征映射到公共隐空间;
实际情况中,提取出的高层特征并不在同一空间中,无法直接比较样本两个视角特征之间的相关性。本发明通过隐空间映射,将显著的行人特征进行线性重构,即,将特征旋转到同一个空间中,使得特征之间可比较,让两视角特征能够自动反映出行人样本之间的隐含关系,从而提高行人重识别的匹配率。具体过程是:将一个样本两个视角的稀疏表示VX和VY通过公式(2)得到
Figure BDA0001349035070000045
再利用矫正矩阵R对这两种特征稀疏表示进行矫正。
Figure BDA0001349035070000046
步骤4、建立稀疏表示模型;
结合上面两个方面,基于稀疏学习的行人重识别(SLR)算法的目标函数表达式如下:
Figure BDA0001349035070000047
Figure BDA0001349035070000048
其中,μ为平衡参数。
公式(3)非凸,无法直接求出变量VX、VY、UX、UY、R的值。但,如果固定其他变量,则公式(3)对于剩余的一个变量则是凸函数。为此,本发明采用交替迭代方法进行求解:
第一步:先随机生成5个变量(VX、VY、UX、UY、R)的初始值。
第二步:为更新公式(1)中VX,先固定VY、UX、UY、R四个参数的值,即公式(3)中样本Y的两项均为已知项,得到公式(4):
Figure BDA0001349035070000051
第三步:将公式(4)改写成公式(5),结合Liu等人在文献“Liu J,Ye J.EfficientEuclidean projections in linear time.In Proceedings of the InternationalConference on Machine Learning,2009:657-664.”提出的稀疏学习SLEP软件包(ASparse Learning Package),利用该SLEP软件包来更新VX
Figure BDA0001349035070000052
第四步:同理,为更新VY的值,固定其余4个参数的值,得到公式(6):
Figure BDA0001349035070000053
第五步:将公式(6)改写成公式(7),用SLEP软件包来更新VY
Figure BDA0001349035070000054
第六步:利用公式(8)和(9)更新UX、UY
Figure BDA0001349035070000055
Figure BDA0001349035070000056
Figure BDA0001349035070000057
Figure BDA0001349035070000058
第七步:利用公式(2)更新R的值;
第八步:利用每一次迭代计算出的UX、VX、UY、VY和R的值带入公式(3)计算目标函数。每一次的迭代计算,都得到公式(3)中的目标函数值,重复多次迭代,直到目标函数值趋于稳定收敛,表示得到一定意义下的最好字典矩阵,用它能将样本特征稀疏表示出来。
步骤5、利用处理好的特征进行行人匹配。
行人匹配就是正确地从gallery集中找出与probe集中相对应的那个行人。假设B摄像头中样本
Figure BDA0001349035070000061
为probe集,摄像头A中样本
Figure BDA0001349035070000062
为gallery集,dp和dg分别是probe集和gallery集中样本特征的维数,M为样本数。
利用步骤3中样本集X和Y的稀疏字典UX和UY分别计算出gallery集和probe集的稀疏表示Vg和Vp。Vg的具体求解公式如下(求Vp的表达式与公式(9)类似):
Figure BDA0001349035070000063
公式(10)所示的最优化问题的解,就是M个gallery集行人中与probe集中目标行人最为相似的第i个行人。其中,矫正矩阵R由表1第3步迭代计算得到。
Figure BDA0001349035070000064
实验中,本发明选择N个人作为测试集,剩下的用来训练。每个测试集中包含一个probe集和一个gallery集。为了让实验结果更具有说服性,整个实验过程进行10次,然后取平均值作为最终结果。本发明根据经验设置参数的值,例如在VIPeR数据集上实验时,取λ=0.04、μ=0.5。在CUHK01数据集上实验时,取λ=0.05、μ=0.4。
为了检验参数λ和μ的取值对本发明方法性能的影响程度,设置几组不同取值的λ和μ在两个数据集上分别进行测试,结果如图2和图3所示:
VIPeR数据集:从图2(a)可知,当μ=0.5不变时,λ值从0.02增加到1,性能逐渐由小幅提升转为大幅下降,在λ=0.04时性能最好,λ=0.1时性能最差;图2(b)中,当λ=0.04不变时,μ值从0.1增加到1,性能由小幅提升转为小幅下降,当μ=0.5时达到最大值。因此,在VIPeR数据集上,取λ=0.04、μ=0.5。
CUHK01数据集:从图3(a)可知,当μ=0.4不变时,λ值从0.01增加到0.1,性能由提升转为下降,在λ=0.05时性能最好;图3(b)中,当λ=0.05不变时,μ值从0.2增加到1,在μ=0.4时匹配率最高,当μ值继续增大时,匹配率开始减小。因此,在CUHK01数据集上,取λ=0.05、μ=0.4。
图4给出了本实施例中行人匹配过程示意图,通过计算目标行人跟行人图像库中每一个行人之间的距离来找出第k个行人使得其距离与目标行人最短,即匹配成功,否则,匹配失败。例如图4中,在行人图像库中与目标行人相匹配的是第7个行人,即k=7。
本发明的方法可以很好地完成多摄像机非重叠视域行人匹配工作,对于行人姿态变化及光照变化都具有比较好的鲁棒性。以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均包含在本发明的保护范围之内。

Claims (6)

1.一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,包括以下步骤:
步骤1,从数据集中提取行人目标特征作为行人的原始特征;
步骤2,根据原始特征,利用稀疏学习通过如下表达式提取行人目标的高层语义特征:
Figure FDA0002482364340000011
其中,
Figure FDA0002482364340000012
分别是样本X和样本Y的稀疏表示,样本X和样本Y对应的稀疏字典为
Figure FDA0002482364340000013
Figure FDA0002482364340000014
t是小于样本数N的稀疏系数;表达式中λ为平衡参数,λ所在项为稀疏项,λ值越大,稀疏约束越大;
步骤3,将高层语义特征映射到公共隐空间;
步骤4,建立稀疏表示模型,并稀疏表示出样本特征;
步骤5,利用步骤4处理好的样本特征进行行人匹配。
2.根据权利要求1所述的一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,所述步骤1中,行人目标特征包括行人的直方图特征和纹理特征。
3.根据权利要求1所述的一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,λ值为0.04或者0.05。
4.根据权利要求1所述的一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,所述步骤3中,映射的具体过程为:
将一个样本的两个视角分别作为稀疏表示VX和稀疏表示VY,通过以下公式得到矫正矩阵
Figure FDA0002482364340000015
Figure FDA0002482364340000016
再利用矫正矩阵R对稀疏表示VX和VY进行矫正。
5.根据权利要求4所述的一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,所述步骤4中,稀疏学习模型的目标函数表达式为:
Figure FDA0002482364340000017
其中,μ为平衡参数;
对目标函数采用交替迭代方法进行求解,具体步骤如下:
第一步,先随机生成VX、VY、UX、UY和R这五个变量的初始值;
第二步,为了更新公式(1)中的VX值,先固定VY、UX、UY和R这四个参数的值,即公式(3)中有关样本Y的两项均为已知项,得到公式(4):
Figure FDA0002482364340000021
第三步,将公式(4)改写成公式(5),利用稀疏学习SLEP软件包来更新VX值:
Figure FDA0002482364340000022
第四步,同理,为了更新VY的值,固定VX、UX、UY和R这四个参数的值,得到公式(6):
Figure FDA0002482364340000023
第五步,将公式(6)改写成公式(7),用SLEP软件包来更新VY值:
Figure FDA0002482364340000024
第六步,利用公式(8)和公式(9)更新UX和UY的值:
Figure FDA0002482364340000025
第七步:利用公式(2)更新R的值;
第八步:利用每一次迭代计算出的UX、VX、UY、VY和R的值带入公式(3)计算目标函数,重复多次迭代,直到目标函数值趋于稳定收敛,得到最好的字典矩阵,然后用所述字典矩阵将样本特征稀疏表示出来。
6.根据权利要求5所述的一种基于稀疏学习的多摄像机非重叠视域行人匹配方法,其特征在于,平衡参数μ的值为0.04或者0.05。
CN201710568659.0A 2017-07-13 2017-07-13 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法 Active CN107358200B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710568659.0A CN107358200B (zh) 2017-07-13 2017-07-13 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710568659.0A CN107358200B (zh) 2017-07-13 2017-07-13 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法

Publications (2)

Publication Number Publication Date
CN107358200A CN107358200A (zh) 2017-11-17
CN107358200B true CN107358200B (zh) 2020-09-18

Family

ID=60293583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710568659.0A Active CN107358200B (zh) 2017-07-13 2017-07-13 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法

Country Status (1)

Country Link
CN (1) CN107358200B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110133741A (zh) * 2019-05-08 2019-08-16 常州大学 一种多视角匹配和跟踪的自动安检方法
WO2021137763A1 (en) * 2019-12-30 2021-07-08 Nanyang Technological University Object re-identification using multiple cameras

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236785A (zh) * 2011-06-29 2011-11-09 中山大学 一种非重叠摄像机视点之间的行人匹配方法
CN102945375A (zh) * 2012-11-20 2013-02-27 天津理工大学 多约束下的多视角监控视频行为检测和识别方法
CN106845362A (zh) * 2016-12-27 2017-06-13 湖南长城信息金融设备有限责任公司 一种基于多尺度变换的稀疏表示的人脸识别方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8867793B2 (en) * 2010-12-01 2014-10-21 The Trustees Of The University Of Pennsylvania Scene analysis using image and range data
US10776710B2 (en) * 2015-03-24 2020-09-15 International Business Machines Corporation Multimodal data fusion by hierarchical multi-view dictionary learning
WO2017038541A1 (ja) * 2015-09-03 2017-03-09 ソニー株式会社 映像処理装置、映像処理方法、及び、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236785A (zh) * 2011-06-29 2011-11-09 中山大学 一种非重叠摄像机视点之间的行人匹配方法
CN102945375A (zh) * 2012-11-20 2013-02-27 天津理工大学 多约束下的多视角监控视频行为检测和识别方法
CN106845362A (zh) * 2016-12-27 2017-06-13 湖南长城信息金融设备有限责任公司 一种基于多尺度变换的稀疏表示的人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Attributes driven tracklet-to-tracklet person re-identification using latent prototypes space mapping;Chi Su,et.al;《Pattern Recognition》;20170630;4-15 *
Sparse representation matching for person re-identification;An, L., et.al;《Information Sciences》;20160810;74-89 *
面向监控视频的行人重识别技术研究;王亦民;《优秀博士论文全文数据库》;20151231;全文 *

Also Published As

Publication number Publication date
CN107358200A (zh) 2017-11-17

Similar Documents

Publication Publication Date Title
CN111126360B (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
Varga et al. Fully automatic image colorization based on Convolutional Neural Network
CN106845341B (zh) 一种基于虚拟号牌的无牌车辆识别方法
Gao et al. Deep spatial pyramid: The devil is once again in the details
CN111126412B (zh) 基于特征金字塔网络的图像关键点检测方法
CN111738143A (zh) 一种基于期望最大化的行人重识别方法
CN110751018A (zh) 一种基于混合注意力机制的群组行人重识别方法
CN113011357A (zh) 基于时空融合的深度伪造人脸视频定位方法
CN112001278A (zh) 一种基于结构化知识蒸馏的人群计数模型及其方法
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
CN111046789A (zh) 一种行人重识别方法
CN111353447A (zh) 一种基于图卷积网络的人体骨架行为识别方法
CN112434599A (zh) 一种基于噪声通道的随机遮挡恢复的行人重识别方法
CN107358200B (zh) 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法
CN110728238A (zh) 一种融合型神经网络的人员再检测方法
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN110738695A (zh) 一种基于局部变换模型的图像特征点误匹配剔除方法
CN111079585B (zh) 图像增强结合伪孪生卷积神经网络的行人再识别方法
CN110070626B (zh) 一种基于多视角分类的三维物体检索方法
CN112418262A (zh) 车辆再识别的方法、客户端及系统
Redondo-Cabrera et al. Recognizing in the depth: Selective 3d spatial pyramid matching kernel for object and scene categorization
CN115393788B (zh) 一种基于增强全局信息注意力的多尺度监控行人重识别方法
CN108492256B (zh) 无人机视频快速拼接方法
CN111062275A (zh) 一种多层次监督的人群计数方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant