CN109325471B - 一种结合表观特征和时空分布的双流网络行人重识别方法 - Google Patents
一种结合表观特征和时空分布的双流网络行人重识别方法 Download PDFInfo
- Publication number
- CN109325471B CN109325471B CN201811285104.6A CN201811285104A CN109325471B CN 109325471 B CN109325471 B CN 109325471B CN 201811285104 A CN201811285104 A CN 201811285104A CN 109325471 B CN109325471 B CN 109325471B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- space
- probability
- similarity
- apparent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000009499 grossing Methods 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 238000012163 sequencing technique Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 4
- 238000007477 logistic regression Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000000691 measurement method Methods 0.000 abstract description 4
- 230000006872 improvement Effects 0.000 abstract description 2
- 238000007619 statistical method Methods 0.000 abstract description 2
- 238000000605 extraction Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 102100040160 Rabankyrin-5 Human genes 0.000 description 1
- 101710086049 Rabankyrin-5 Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种结合表观特征和时空分布的双流网络行人重识别方法,方法主要包括下述步骤:使用深度神经网络提取行人图像的表观特征并计算图像对的表观相似度;通过基于高斯平滑的统计方法学习训练数据集的时空分布模型;通过基于逻辑平滑的联合度量方法对表观相似度和时空概率进行联合计算得出最终相似度;将最终相似度进行排序得到行人重识别结果。主要贡献包括:(1)提出一种结合表观特征和时空分布的双流网络行人重识别框架;(2)提出新的基于高斯平滑的时空分布学习方法。(3)提出新的基于逻辑平滑的相似性联合度量方法。实验结果表明,本方法在DukeMTMC‑reID和Market1501数据集上的Rank1准确率分别从83.8%和91.2%提高到94.4%和98.0%,较其他方法有非常大的性能提升。
Description
技术领域
本发明属于计算机视觉中的行人重识别技术领域,具体为一种结合表观特征和时空分布的双流网络行人重识别方法。
背景技术
近年来,视频监控在公共安全领域中发挥着重大的作用,而行人重识别技术是视频监控中非常关键的一步,其在协助警方追踪罪犯,维护社会稳定中起到关键的作用。近几年,由于深度神经网络在提取图像特征时的优异表现,行人重识别技术有了很大的突破。
当前对于行人重识别的研究主要集中在神经网络结构的优化和损失函数的优化上。然而,单纯地从神经网络结构上对模型进行改进的效果相当有限。因此,研究人员尝试挖掘其他的辅助信息从而提高模型性能。其中,挖掘行人的结构信息是当前行人重识别领域很重要的研究方向。挖掘行人的结构信息包括基于区域分块的特征提取,基于姿态估计的特征提取,和基于背景语义信息的特征提取等。
通过挖掘行人图像的结构信息对行人重识别算法模型进行改进对于行人重识别的性能有很大的提升(Market1501数据集上rank1准确率为80%-90%)。然而当前算法模型的准确率还远远无法应用到现实场景当中。究其原因,由于当前的研究主要还是集中在图像表观特征的提取和优化上,往往忽视了对时空信息的科学提取和合理利用。由于跨摄像头下行人图像存在光照、角度、姿态等问题,使得同一行人在不同摄像头下的图像存在较大差异,只基于表观特征的算法模型往往还不能准确匹配复杂环境下的行人。
当前基于时空约束的行人重识别技术有少量的研究,然而已有的基于时空约束的算法模型往往基于主观的先决条件,包括主观估计行人平均行进速度从而约束行人图像对的空间距离;以及基于单峰值的韦布尔分布模型构造时空分布模型从而进行时空约束。然而现实世界中行人的行进速度往往具有不确定性。因此已有的时空约束模型并不能很好的应用于现实世界中。构建一个鲁棒的时空模型具有如下两个挑战:(1)现实世界中两个摄像头之间往往存在多个时间差峰值,因为可能存在多条不同的道路,所以构建一个鲁棒的时空模型是非常困难的。(2)即使我们构建出了一个比较鲁棒的时空模型,但是由于行人的行进速度和行进状态不可预测,比如我们要跟踪一个小偷,那他的速度往往会非常快,路径也会非常诡异。也就是说行人的行进状态往往具有非常大的不确定性。
发明内容
针对现有行人重识别技术中存在的不足和问题难点,本发明提出一种结合表观特征和时空分布的双流网络行人重识别方法,该方法能够显著提高识别的准确率。
本发明通过以下的技术方案实现:一种结合表观特征和时空分布的双流网络行人重识别方法,包括步骤:
表观特征上,使用深度神经网络算法提取每个行人图像的表观特征向量,计算出所有行人图像对之间的表观相似度,所述图像对是指检索图像和数据库图像;
时空分布上,对于训练数据集,以一时间差单位区间统计每组摄像头对的原始时间差概率分布模型,得到n*n个时间差概率统计直方图,n为摄像头个数,然后对每个时间差概率统计直方图进行高斯平滑,得到时空分布模型;由时空分布模型求出检索图像和数据库图像之间的时空概率;
对表观相似度和时空概率进行逻辑平滑,得到平滑后的表观相似度和时空概率;
将平滑后的表观相似度和时空概率进行联合计算得到最终的行人图像对相似度,对行人图像对相似度排序得到行人重识别结果。
优选的,使用余弦距离计算出所有行人图像对之间的表观相似度。
优选的,时空分布模型的构建步骤是:
步骤2.1,假设训练数据集中一共有n个摄像头,对于摄像头对Ci和Cj,i=1,2,…,n,j=1,2,…,n,以Δt为一个单位区间,统计训练数据集中同一行人先后出现在摄像头Ci和cj的时间差概率分布,从而得到n*n个原始时间差概率分布直方图
步骤2.2,对于摄像头对Ci和Cj的原始时间差概率分布直方图在直方图中的每一个单位区间叠加一个以该单位为对称中心的高斯函数,在所有单位区间将原始概率与所有高斯函数在此区间的函数值相加,再除以归一化值得到高斯平滑后的时空分布模型。通过高斯平滑,使得原本概率为零的区间合理地具有一定的概率。
其中:
k代表统计直方图中第k个单位区间,例如记Δt为统计直方图的时间差单位区间,则tj-ti∈((k-1)Δt,kΔt);
进一步地,由步骤2.1得到的原始时间差概率分布模型只统计了训练数据集中的时空信息,然而现实场景中往往具有更加复杂的分布情况,因此对原始时间差概率分布模型进行高斯平滑使得时空模型更加客观可靠,具有更好的泛化性。具体为:
Z=ΣkP(y=1|k,ci,cj)
其中:
K为高斯核函数,用于平滑原始时间差概率分布模型;
Z为归一化参数;
P(y=1|k,ci,cj)代表关于摄像头对Ci和Cj的原始时间差概率分布模型经过高斯平滑后,在第k个单位区间的时空概率。
优选地,对表观相似度和时空概率进行逻辑平滑,将平滑后的表观相似度和时空概率相乘,得到最终的行人图像对相似度;具体为:
Pjoint=f(s;a0,k0)f(Pst;a1,k1)
Pst=P(y=1|k,ci,cj)
其中,
S代表行人图像对Xi和Xj的表观相似度;Ii、Ij分别表示两张行人图像的表观特征向量;
Pst代表行人图像对的时空概率;
f(x;a,k)代表逻辑回归函数,用于表观相似度和时空概率的逻辑平滑;
f(s;a0,k0)代表逻辑平滑后的表观相似度;
f(Pst;a1,k1)代表逻辑平滑后的时空概率;
Pjoint代表行人对间最终的行人图像对相似度。
与现有的基于时空约束的行人重识别技术相比,本发明具有如下优点:
1)提出了一种通用的结合表观特征和时空分布的双流网络模型进行行人重识别。
2)本发明并未基于主观的先验概率分布或者平均速度估计的形式构建时空分布模型,而是在训练数据集上采用无参数的统计学习方法学习时空分布模型,使得模型更加具有鲁棒性。
3)对于从训练数据集中学到的时空分布概率模型,由于训练数据集并不能完全反映现实世界中的时空信息,本发明对原始时空分布模型进行高斯平滑,使得时空分布模型具有更好的泛化性能。
4)使用基于逻辑平滑的相似性联合度量方法,使本发明具有更好的准确率。
附图说明
图1为本发明方法流程图。
图2为本实施例从训练数据集学到的原始时空分布模型。
图3为本实施例高斯平滑后的时空分布模型。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例一种结合表观特征和时空分布的双流网络行人重识别方法在DukeMTMC-reID数据集上进行,这是当前权威的大型行人重识别数据集之一。该数据集中行人的时空信息以摄像头标号和帧号表示。下面结合图1对方法步骤进行详述。
第一步:可使用当前通用的行人重识别深度神经网络算法提取每个行人图像的表观特征向量,本实施例选择使用DukeMTMC-reID训练集训练PCB网络模型。训练过程中使用水平翻转的数据增强方法,采用随机梯度下降的优化算法进行训练。训练完成后,对原始行人图像使用上述PCB网络模型提取图像表观特征向量,提取的方法是将原始行人图像纵向分割成6个局部块分别提取特征,之后将6个局部特征串联得到最后的表观特征。然后,使用余弦距离计算所有行人图像对(检索图像和数据库图像之间)的表观相似度。记Xi和Xj表示两张行人图像,Ii和Ij表示这两张图像的表观特征向量,则图像Xi和Xj的表观相似度为:
第二步:利用DukeMTMC-reID训练集中的摄像机序号和帧号信息学习该数据集每组摄像头对Ci和Cj之间的时间差概率分布模型。具体步骤如下:
步骤2.1,令Δt=100为时间差单位,统计DukeMTMC-reID训练集中同一行人先后出现在摄像头Ci和Cj的时间差概率分布,从而得到所有摄像头对的原始时间差概率分布直方图
其中,DukeMTMC-reID数据集中一共有8个摄像头,k代表统计直方图中第k个单位区间,例如记Δt为统计直方图的时间差单位区间,则tj-ti∈((k-1)Δt,kΔt);代表摄像头Ci到摄像头Cj中第k个单位区间的频数;y=1代表统计的行人对频数是指同一行人;代表时间差概率分布直方图上第k个单位区间的概率;代表摄像头Ci到摄像头Cj的时间差概率分布直方图。摄像头C1到其他摄像头Cj(j=2,3…8)的原始时间差频率分布直方图如图2所示。
步骤2.2,由步骤2.1学习到的DukeMTMC-reID训练集的时间差概率分布直方图只能表示训练集中数据的分布,然而训练数据集中的数据往往不能包含现实世界中所有的分布情况,因此引入高斯函数对步骤2.1中得到的时间差概率分布直方图进行高斯平滑,即
Z=ΣkP(y=1|k,ci,cj);
其中代表关于摄像头对Ci和Cj的原始时间差概率分布模型在第k个时间差单位区间的时空概率;K为高斯核函数,用于平滑原始时间差概率分布模型;Z为归一化参数;P(y=1|k,ci,cj)代表关于摄像头对Ci和Cj的原始时间差概率分布模型经过高斯平滑后,在第k个时间差单位区间的时空概率。经过试验效果对比,参数σ的取值为50。此时摄像头C1到其他摄像头Cj(j=2,3…8)的时间差频率分布直方图经过高斯平滑后的时空模型如图3所示。
第三步:对于行人图像对Xi和Xj,根据其摄像头标注通过步骤二学习到的时空模型得到其时空概率。将表观相似度和时空概率进行逻辑平滑得到最后的表观概率和时空概率,具体为:
Pjoint=f(s;a0,k0)f(Pst;a1,k1)
Pst=P(y=1|k,ci,cj)
其中S表示行人图像对的表观相似度;Pst表示行人图像对的时空概率;f(x;a,k)表示逻辑回归函数,用于表观相似度和时空概率的逻辑平滑;f(s;a0,k0)表示逻辑平滑后的表观相似度;f(Pst;a1,k1)表示逻辑平滑后的时空概率;Pjoint表示行人对的最终联合概率。经过实验验证,a0取值为1,a1取值为2,k0和k1取值为5。
第四步:将检索行人图像与所有数据库行人图像之间的相似度由小到大进行排序,从而得到行人重识别结果。
通过实验结果证明,本实施例最终在DukeMTMC-reID测试集上的性能:rank1准确率为94.4%,rank5准确率为97.4%,rank10的准确率为98.2%,mAP值为83.9%,远远优于其他的行人重识别算法。本方法与其他现有行人重识别方法的结果对比如表1所示。
表1本方法与其他现有行人重识别方法的结果对比
本实施例提供的结合表观特征和时空分布的双流网络行人重识别方法,尤其适用于大区域的跨摄像头行人跟踪。由于摄像头中视频本身存在相关的时间和空间信息,因此时空信息的获取不需要任何额外的手工标注。在DukeMTMC-reID数据集上通过以下四个步骤:(1)使用深度神经网络提取行人图像的表观特征并计算图像对的表观相似度;(2)通过基于高斯平滑的统计方法学习训练数据集的时空分布模型;(3)通过基于逻辑平滑的联合度量方法对表观相似度和时空概率进行联合计算得出最终相似度;(4)将最终相似度进行排序得到行人重识别结果。实验结果表明本方法的rank1准确率远远高于其他算法模型。
此外,实验证明除了使用PCB算法模型提取表观特征外,将本方法的表观特征提取算法置换成其他深度模型均能得到将近10%的性能提升,基于不同表观特征提取算法结合时空分布的双流网络行人重识别方法的结果对比如表2所示。
表2本发明基于不同表观特征提取算法的结果对比示例
可通过各种手段实施本发明描述的技术。举例来说,这些技术可实施在硬件、固件、软件或其组合中。对于硬件实施方案,处理模块可实施在一个或一个以上专用集成电路(ASIC)、数字信号处理器(DSP)、可编程逻辑装置(PLD)、现场可编辑逻辑门阵列(FPGA)、处理器、控制器、微控制器、电子装置、其他经设计以执行本发明所描述的功能的电子单元或其组合内。
对于固件和/或软件实施方案,可用执行本文描述的功能的模块(例如,过程、步骤、流程等)来实施所述技术。固件和/或软件代码可存储在存储器中并由处理器执行。存储器可实施在处理器内或处理器外部。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (3)
1.一种结合表观特征和时空分布的双流网络行人重识别方法,其特征在于,包括步骤:
表观特征上,使用深度神经网络算法提取每个行人图像的表观特征向量,计算出所有行人图像对之间的表观相似度,所述图像对是指检索图像和数据库图像;
时空分布上,对于训练数据集,以一时间差单位区间统计每组摄像头对的原始时间差概率分布模型,得到n*n个时间差概率统计直方图,n为摄像头个数,然后对每个时间差概率统计直方图进行高斯平滑,得到时空分布模型;由时空分布模型求出检索图像和数据库图像之间的时空概率;
时空分布模型的构建步骤是:
步骤2.1,假设训练数据集中一共有n个摄像头,对于摄像头对Ci和Cj,i=1,2,...,n,j=1,2,...,n,以Δt为一个单位区间,统计训练数据集中同一行人先后出现在摄像头Ci和Cj的时间差概率分布,从而得到n*n个原始时间差概率分布直方图
步骤2.2,对于摄像头对Ci和Cj的原始时间差概率分布直方图在直方图中的每一个单位区间叠加一个以该单位为对称中心的高斯函数,在所有单位区间将原始概率与所有高斯函数在此区间的函数值相加,再除以归一化值得到高斯平滑后的时空分布模型;
其中:
k代表统计直方图中第k个单位区间,记Δt为统计直方图的时间差单位区间,则tj-ti∈((k-1)Δt,kΔt);
高斯平滑后的时空分布模型获取方法如下:
z=∑kP(y=1|k,ci,cj)
其中:
K为高斯核函数,用于平滑原始时间差概率分布模型;
Z为归一化参数;
P(y=1|k,ci,cj)代表关于摄像头对Ci和Cj的原始时间差概率分布模型经过高斯平滑后,在第k个单位区间的时空概率;
对表观相似度和时空概率进行逻辑平滑,得到平滑后的表观相似度和时空概率;
将平滑后的表观相似度和时空概率进行联合计算得到最终的行人图像对相似度,对行人图像对相似度排序得到行人重识别结果。
2.根据权利要求1所述的双流网络行人重识别方法,其特征在于,使用余弦距离计算出所有行人图像对之间的表观相似度。
3.根据权利要求1所述的双流网络行人重识别方法,其特征在于,对表观相似度和时空概率进行逻辑平滑,将平滑后的表观相似度和时空概率相乘,得到最终的行人图像对相似度;具体为:
Pjoint=f(S;a0,k0)f(Pst;a1,k1)
Pst=P(y=1|k,ci,cj)
其中,
S代表行人图像对Xi和Xj的表观相似度;Ii、Ij分别表示两张行人图像的表观特征向量;
Pst代表行人图像对的时空概率;
f(x;a,k)代表逻辑回归函数,用于表观相似度和时空概率的逻辑平滑;
f(S;a0,k0)代表逻辑平滑后的表观相似度;
f(Pst;a1,k1)代表逻辑平滑后的时空概率;
Pjoint代表行人对间最终的行人图像对相似度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811285104.6A CN109325471B (zh) | 2018-10-31 | 2018-10-31 | 一种结合表观特征和时空分布的双流网络行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811285104.6A CN109325471B (zh) | 2018-10-31 | 2018-10-31 | 一种结合表观特征和时空分布的双流网络行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325471A CN109325471A (zh) | 2019-02-12 |
CN109325471B true CN109325471B (zh) | 2021-09-17 |
Family
ID=65260185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811285104.6A Active CN109325471B (zh) | 2018-10-31 | 2018-10-31 | 一种结合表观特征和时空分布的双流网络行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325471B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110598A (zh) * | 2019-04-01 | 2019-08-09 | 桂林电子科技大学 | 一种基于视觉特征与时空约束的行人再识别方法及系统 |
CN109977897A (zh) * | 2019-04-03 | 2019-07-05 | 厦门兴康信科技股份有限公司 | 一种基于深度学习的船舶特征重识别方法、应用方法及系统 |
CN110532884B (zh) * | 2019-07-30 | 2024-04-09 | 平安科技(深圳)有限公司 | 行人重识别方法、装置及计算机可读存储介质 |
CN110738099B (zh) * | 2019-08-30 | 2022-06-07 | 中山大学 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
CN110738167B (zh) * | 2019-10-14 | 2022-07-19 | 武汉大学 | 一种基于多域空间属性关联分析的行人辨识方法 |
CN111435437A (zh) * | 2019-12-26 | 2020-07-21 | 珠海大横琴科技发展有限公司 | 一种pcb行人重识别模型训练方法及pcb行人重识别方法 |
CN111444758A (zh) * | 2019-12-26 | 2020-07-24 | 珠海大横琴科技发展有限公司 | 一种基于时空信息的行人重识别方法及装置 |
CN111178284A (zh) * | 2019-12-31 | 2020-05-19 | 珠海大横琴科技发展有限公司 | 基于地图数据的时空联合模型的行人重识别方法及系统 |
CN111652331B (zh) * | 2020-08-05 | 2021-05-11 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置和计算机可读存储介质 |
CN113420679B (zh) * | 2021-06-26 | 2024-04-26 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪方法 |
CN114495016A (zh) * | 2022-03-31 | 2022-05-13 | 北京文安智能技术股份有限公司 | 一种基于视觉语义信息和时空信息的行人重识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930768A (zh) * | 2016-04-11 | 2016-09-07 | 武汉大学 | 一种基于时空约束的目标重识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10200560B2 (en) * | 2017-01-13 | 2019-02-05 | Adobe Inc. | Automated sharing of digital images |
-
2018
- 2018-10-31 CN CN201811285104.6A patent/CN109325471B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930768A (zh) * | 2016-04-11 | 2016-09-07 | 武汉大学 | 一种基于时空约束的目标重识别方法 |
Non-Patent Citations (4)
Title |
---|
joint temporal-spatial information and common network consistency constraint for person re-identification;Cheng,Z et al;《CCCV 2017》;20171231;328-339 * |
person re-identification with activity prediction based on Hierarchical Spatial-Temporal Model;Minxian Li et al;《Neurocomputing (2017)》;20171231;1200-1207 * |
video-based person re-identification using spatial-temporal attention networks;Shivansh Rao et al;《arXiv:1810.11261v1》;20181026;1-9 * |
跨摄像机行人再识别研究综述;谭飞刚 等;《深圳信息职业技术学院学报》;20180930;第16卷(第5期);72-78 * |
Also Published As
Publication number | Publication date |
---|---|
CN109325471A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325471B (zh) | 一种结合表观特征和时空分布的双流网络行人重识别方法 | |
CN111539370B (zh) | 一种基于多注意力联合学习的图像行人重识别方法和系统 | |
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
CN109583340B (zh) | 一种基于深度学习的视频目标检测方法 | |
WO2020042419A1 (zh) | 基于步态的身份识别方法、装置、电子设备 | |
CN111666843B (zh) | 一种基于全局特征和局部特征拼接的行人重识别方法 | |
CN109472191B (zh) | 一种基于时空上下文的行人重识别与追踪方法 | |
CN108197326B (zh) | 一种车辆检索方法及装置、电子设备、存储介质 | |
CN109977798B (zh) | 用于行人重识别的掩膜池化模型训练和行人重识别方法 | |
CN107220611B (zh) | 一种基于深度神经网络的空时特征提取方法 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN107315795B (zh) | 联合特定人物和场景的视频实例检索方法及系统 | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
JP7136500B2 (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 | |
Xu et al. | Dilated-scale-aware category-attention convnet for multi-class object counting | |
CN110909741A (zh) | 一种基于背景分割的车辆再识别方法 | |
WO2022156317A1 (zh) | 视频帧处理方法及装置、电子设备和存储介质 | |
CN113792606A (zh) | 基于多目标追踪的低成本自监督行人重识别模型构建方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 | |
CN112084895A (zh) | 一种基于深度学习的行人重识别方法 | |
Pang et al. | Analysis of computer vision applied in martial arts | |
CN113627380A (zh) | 一种用于智能安防及预警的跨视域行人重识别方法及系统 | |
CN111160115B (zh) | 一种基于孪生双流3d卷积神经网络的视频行人再识别方法 | |
CN115830643B (zh) | 一种姿势引导对齐的轻量行人重识别方法 | |
CN113128461B (zh) | 基于人体关键点挖掘全尺度特征的行人重识别性能提升方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |