CN111178284A - 基于地图数据的时空联合模型的行人重识别方法及系统 - Google Patents

基于地图数据的时空联合模型的行人重识别方法及系统 Download PDF

Info

Publication number
CN111178284A
CN111178284A CN201911408661.7A CN201911408661A CN111178284A CN 111178284 A CN111178284 A CN 111178284A CN 201911408661 A CN201911408661 A CN 201911408661A CN 111178284 A CN111178284 A CN 111178284A
Authority
CN
China
Prior art keywords
probability
pedestrian
module
image
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911408661.7A
Other languages
English (en)
Inventor
邓练兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Dahengqin Technology Development Co Ltd
Original Assignee
Zhuhai Dahengqin Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Dahengqin Technology Development Co Ltd filed Critical Zhuhai Dahengqin Technology Development Co Ltd
Priority to CN201911408661.7A priority Critical patent/CN111178284A/zh
Publication of CN111178284A publication Critical patent/CN111178284A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于地图数据的时空联合模型的行人重识别方法及系统,包括监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;基于行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;构建孪生网络学习输入图像对的视觉特征;使用交叉熵损失函数对网络计算损失;使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;构建基于地图数据的时间概率模型;利用视觉概率和步时空概率,计算最终的联合时空概率,得到行人重识别结果。本发明借助现有的地图数据,挖掘数据中的时空信息,结合孪生网络获取的视觉特征信息,得到更精确的识别结果。

Description

基于地图数据的时空联合模型的行人重识别方法及系统
技术领域
本发明属于行人重识别技术领域,涉及一种基于地图数据的时空联合模型的行人重识别技术方案。
背景技术
随着智慧城市的提出,城市建设开始向信息高度集中化转变。借助物联网、大数据和云计算等技术实现城市数据感知、分析与整合,来建设公共安全系数更高的智能化管理体系也是未来的发展趋势。
监控摄像头遍布公共场所,如机场、学校、火车站等,因此借助监控摄像头实现对重点行人进行检测,来判断该行人的运动轨迹和范围,是安防任务中的重要一环。然而,实际场景中,公共场所人流量大,仅依靠人工审查,很容易错过视频中的事件,同时效率低下,因此实现跨镜头的行人重识别,进而分析未授权人的行人或重点行人的运动轨迹,并进行实时跟踪是打击违法犯罪,构建平安城市的重要一环。
一直以来,从最开始的基于手工特征的行人重识别(从简单的颜色纹理特征到HOG特征、SIFT特征等),到如今的基于深度学习的行人重识别方法,都通过挖掘数据中的先验信息,来获得更好的性能。基于深度学习的行人重识别方法可以分为,基于表征学习、基于度量学习、基于局部特征、基于视频序列和基于对抗生成网络(Generative adversarialnets,GAN)的方法。
而挖掘数据先验信息的方法也从最开始的只包括行人身份信息,开始逐渐扩展到包括行人运动信息、背景信息、属性信息(行人的性别、头发、衣着等属性)、和人体姿态关键点等信息。基于GAN的行人重识别方法分支,通过对抗生成网络实现不同数据集之间的相机风格迁移来生成额外的行人图像数据集,增加先验信息,不仅能够有效模型过拟合,同时也有效提升了网络的性能。
基于时空信息的跨域行人重识别方法,通过构建多模态网络,结合视觉概率和空间概率,有效地提升了行人重识别的准确率,但是这种方法只适用于运动规律的标准数据集。实际场景中的运动较标准数据集更加复杂,而且空间环境也更加复杂。因此,本发明提供了一种基于地图数据与孪生网络的贝叶斯时空联合模型的行人重识别方法,通过引入新的多模态数据——地图数据,通过摄像机网络进行地理时空建模,从而对视觉相似概率进行优化。
发明内容
针对现有行人重识别技术存在的不足,本发明的目的是提供一种基于地图数据的时空联合模型的行人重识别方法。
本发明提供一种基于地图数据的时空联合模型的行人重识别方法,包括以下步骤:
步骤a,监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;
步骤b,基于步骤a得到的行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;
步骤c,构建孪生网络学习输入图像对的视觉特征;
步骤d,使用交叉熵损失函数对网络计算损失;
步骤e,使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;
步骤f,构建基于地图数据的时间概率模型;
步骤g,利用步骤c得到的视觉概率,和步骤f得到的时空概率,计算最终的联合时空概率,得到行人重识别结果。
而且,步骤c中,设有图像对x(i),x(j),孪生网络包括5层卷积,通过第一个全连接层将图像对的卷积特征图转化为列向量f(x(i))和f(x(j)),计算图像队特征列向量之间的相似性向量χ(x(i),x(j)),输入到第二个全连接层,通过激活函数进行非线性处理,得到视觉特征相似概率P(x(i),x(j))。
而且,步骤f的实现方式为,
对图像涉及到的摄像机进行空间建模,将摄像机位置对应到地图数据中,获取两地之间运动的最小时间差τmin
根据图像中携带的时空信息,时空概率
Figure BDA0002349372630000021
为在k,ci,cjmin条件下i,j为同一人的概率,表示为:
Figure BDA0002349372630000031
其中,pi,pj分别表示图像i,j对应的身份信息,ci,cj表示拍摄图像i,j的相应摄像头的ID编号,k用于标识时间段,
Figure BDA0002349372630000032
表示从摄像头ci到cj且时间差落在第k个时间段的行人数量,
Figure BDA0002349372630000033
表示从摄像头ci到cj且时间差落在第l个时间段的行人数量。
而且,对时间概率模型使用高斯分布函数进行光滑处理。
而且,步骤g中,设步骤c得到视觉概率记为P,步骤f得到时空概率记为PST,最终的联合概率Pjoint表示为贝叶斯联合概率如下,
Figure BDA0002349372630000034
其中,γ,φ为用于平衡视觉概率和时空概率的超参数。
本发明提供一种基于地图数据的时空联合模型的行人重识别系统,包括以下模块:
第一模块,用于监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;
第二模块,用于基于第一模块得到的行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;
第三模块,用于构建孪生网络学习输入图像对的视觉特征;
第四模块,用于使用交叉熵损失函数对网络计算损失;
第五模块,用于使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;
第六模块,用于构建基于地图数据的时间概率模型;
第七模块,用于利用第三模块得到的视觉概率,和第六模块得到的时空概率,计算最终的联合时空概率,得到行人重识别结果。
而且,第三模块中,设有图像对x(i),x(j),孪生网络包括5层卷积,通过第一个全连接层将图像对的卷积特征图转化为列向量f(x(i))和f(x(j)),计算图像队特征列向量之间的相似性向量χ(x(i),x(j)),输入到第二个全连接层,通过激活函数进行非线性处理,得到视觉特征相似概率P(x(i),x(j))。
而且,第六模块的实现方式为,
对图像涉及到的摄像机进行空间建模,将摄像机位置对应到地图数据中,获取两地之间运动的最小时间差τmin
根据图像中携带的时空信息,时空概率
Figure BDA0002349372630000041
为在k,ci,cjmin条件下i,j为同一人的概率,表示为:
Figure BDA0002349372630000042
其中,pi,pj分别表示图像i,j对应的身份信息,ci,cj表示拍摄图像i,j的相应摄像头的ID编号,k用于标识时间段,
Figure BDA0002349372630000043
表示从摄像头ci到cj且时间差落在第k个时间段的行人数量,
Figure BDA0002349372630000044
表示从摄像头ci到cj且时间差落在第l个时间段的行人数量。
而且,对时间概率模型使用高斯分布函数进行光滑处理。
而且,第七模块中,设第三模块得到视觉概率记为P,第六模块得到时空概率记为PST,最终的联合概率Pjoint表示为贝叶斯联合概率如下,
Figure BDA0002349372630000045
其中,γ,φ为用于平衡视觉概率和时空概率的超参数。
相比于现有方法,本发明的优势和积极效果:传统的基于时空信息的行人重识别网络,只考虑了理想场景下的行人数据。然而,真实场景中的运动更加复杂,同时可参考的时空先验信息较少。而本发明借助现有的地图数据,挖掘数据中的时空信息,结合孪生网络获取的视觉特征信息,得到更精确的识别结果。
附图说明
图1为本发明实施例基于地图数据与孪生网络的贝叶斯时空联合模型的行人重识别流程图。
图2为本发明实施例孪生网络结构图。
具体实施方式
下面结合附图和实施例对本发明技术方案做进一步说明。
本发明实施例所使用的环境:服务器的CPU为Intel Xeon E5-2665,GPU为NVIDIAGTX108Ti,操作系统为Ubuntu 16.04,编译环境为PyTorch 1.1.0,Python 3.5,CUDA9.0以及CUDNN7.1。本发明的实施例是行人重识别,具体流程参照图1,本发明实施例提供一种基于地图数据时空联合模型的行人重识别,包括步骤如下:
步骤a:数据采集与预处理
监控视频数据的采集。本发明所需采集的数据为城市区域监控视频数据,对于采集到的视频数据,需要通过解码器或者代码获得每帧图像,并通过现有的行人检测技术,来提取图像中的行人,本发明不予赘述。行人的标记信息包括行人身份信息、摄像机的编号、图像拍摄的时间信息,同时采集监控摄像头在城市中所处在的位置信息。
步骤b:构建图像对用于训练
孪生网络训练需要使用图像对以及对应的标签信息y,因此需要对数据进行预处理。将每张图像和其他图像配对,身份信息相同,则标签为y=1,即为正样本对,身份信息不同,标签则为y=0,即为负样本对。
步骤c:构建一个孪生网络学习图像的特征向量,即学习输入图像对的视觉特征
由于获取到的行人图像大小不一,需要将图像对x(i),x(j)归一化到统一大小,即72×72×3。其中,i和j表示图像身份信息。参见图2,实施例中,其结构为孪生网络模块,包括5层卷积:第一层的卷积核维度为7×7×64×3,其中卷积核的大小为7×7,通道数为64;第二层的卷积核维度为5×5×128×64,其中卷积核的大小为5×5,通道数为128;第三层的卷积核维度为5×5×256×128,其中卷积核的大小为5×5,通道数为256;第四层的卷积核维度为3×3×512×256,其中卷积核的大小为3×3,通道数为512;第五层的卷积核维度为3×3×512×512,其中卷积核的大小为3×3,通道数为512,网络使用ReLU作为激活函数。通过第一个全连接层将图像对的卷积特征图转化为128×1的列向量f(x(i))和f(x(j)),基于χsquare similarity函数计算图像队特征列向量之间的相似性向量χ(x(i),x(j)),该过程用公式表示为:
Figure BDA0002349372630000061
将所得χ(x(i),x(j))作为特征向量输入到第二个全连接层,通过激活函数sigmoid进行非线性处理,得到视觉特征相似概率P(x(i),x(j))(即后文步骤g需采用的视觉概率P),该过程用公式表示为:
Figure BDA0002349372630000062
Figure BDA0002349372630000063
ω为全连接层的权重项,b为全连接层的偏置项,σ(x)为输入像素x经过激活函数sigmoid的输出,e为自然对数的底。则预测的标签
Figure BDA0002349372630000064
为:
Figure BDA0002349372630000065
步骤d:计算损失阶段,使用交叉熵损失函数对网络计算损失
使用交叉熵损失函数作为孪生网络的损失函数,该过程用公式表示为:
Figure BDA0002349372630000066
其中N表示训练样本对的数量,y表示真实标签,
Figure BDA0002349372630000067
表示预测标签。
步骤e:权重更新阶段,使用交叉熵损失函数对网络计算损失
使用Adam方法作为孪生网络的优化器,其中优化器的初始化参数β1=0.9,β2=0.999,学习率为lr=0.0001。
步骤f:构建基于地图数据的时间概率模型
对图像涉及到的摄像机进行空间建模,将摄像机位置对应到地图数据中,通过直接调用现有地图软件API来获取两地之间运动的最小时间差τmin(包括不同交通工具,以及不同运动路径和轨迹)。例如通过调用两地之间的3条最短路线L1,L2,L3,以及每条线路采用步行、骑行和驾车不同方式需要的时间,最短时间记为τmin
根据图像中携带的时空信息,那么其时空概率
Figure BDA0002349372630000071
为在k,ci,cjmin条件下i,j为同一人的概率,可表示为:
Figure BDA0002349372630000072
其中,pi,pj分别表示图像i,j对应的身份信息,ci,cj表示拍摄图像i,j的相应摄像头的ID编号。k用于表示第k个时间段(实施例中设100帧为一个时间段)。
Figure BDA0002349372630000073
表示从摄像头ci到cj,且时间差落在第k个时间段的行人数量。
Figure BDA0002349372630000074
表示从摄像头ci到cj,且时间差落在第l个时间段的行人数量。
由于概率估计模型中存在较多的抖动,因此为了减小抖动造成的干扰,使用高斯分布函数进行光滑处理,过程表示如下:
Figure BDA0002349372630000075
Figure BDA0002349372630000076
其中
Figure BDA0002349372630000077
为归一化因子,K(.)为高斯分布函数,λ为控制分布缩放参数,建议取值为50,e为数学常量。
步骤g,利用步骤c得到的视觉概率P,和步骤f得到的时空概率PST,计算最终的联合时空概率,得到行人重识别结果。
时空概率和视觉概率分布是独立的,本发明提出通过时空概率对视觉概率进行约束,从而获得更精确的识别精度。
由于时空概率和视觉概率量级可能存在差异,因此需要通过sigmoid激活函数对它们进行平衡。实施例步骤g中,利用步骤c得到的视觉概率P,和步骤f得到的时空概率PST,最终的联合概率Pjoint可表示为贝叶斯联合概率:
Figure BDA0002349372630000078
其中γ,φ为用于平衡视觉概率和时空概率的超参数,其中γ=5,φ建议取值范围为[50,70]。通过地图数据中的先验信息约束视觉特征,能有效对行人在时间空间进行约束,从而进行更加高效的行人实时跟踪。
具体实施时,以上流程可采用计算机软件技术实现自动运行流程。本发明实施例也相应提供一种基于地图数据的时空联合模型的行人重识别系统,包括以下模块:
第一模块,用于监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;
第二模块,用于基于第一模块得到的行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;
第三模块,用于构建孪生网络学习输入图像对的视觉特征;
第四模块,用于使用交叉熵损失函数对网络计算损失;
第五模块,用于使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;
第六模块,用于构建基于地图数据的时间概率模型;
第七模块,用于利用第三模块得到的视觉概率,和第六模块得到的时空概率,计算最终的联合时空概率,得到行人重识别结果。
各模块实现可参见相应步骤,本发明不予赘述。
本文中所描述的具体实例仅仅是对本发明作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (10)

1.一种基于地图数据的时空联合模型的行人重识别方法,其特征在于,包括以下步骤:
步骤a,监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;
步骤b,基于步骤a得到的行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;
步骤c,构建孪生网络学习输入图像对的视觉特征;
步骤d,使用交叉熵损失函数对网络计算损失;
步骤e,使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;
步骤f,构建基于地图数据的时间概率模型;
步骤g,利用步骤c得到的视觉概率,和步骤f得到的时空概率,计算最终的联合时空概率,得到行人重识别结果。
2.根据权利要求1所述基于地图数据的时空联合模型的行人重识别方法,其特征在于:步骤c中,设有图像对x(i),x(j),孪生网络包括5层卷积,通过第一个全连接层将图像对的卷积特征图转化为列向量f(x(i))和f(x(j)),计算图像队特征列向量之间的相似性向量χ(x(i),x(j)),输入到第二个全连接层,通过激活函数进行非线性处理,得到视觉特征相似概率P(x(i),x(j))。
3.根据权利要求1所述基于地图数据的时空联合模型的行人重识别方法,其特征在于:步骤f的实现方式为,
对图像涉及到的摄像机进行空间建模,将摄像机位置对应到地图数据中,获取两地之间运动的最小时间差τmin
根据图像中携带的时空信息,时空概率
Figure FDA0002349372620000011
为在k,ci,cjmin条件下i,j为同一人的概率,表示为:
Figure FDA0002349372620000012
其中,pi,pj分别表示图像i,j对应的身份信息,ci,cj表示拍摄图像i,j的相应摄像头的ID编号,k用于标识时间段,
Figure FDA0002349372620000021
表示从摄像头ci到cj且时间差落在第k个时间段的行人数量,
Figure FDA0002349372620000022
表示从摄像头ci到cj且时间差落在第l个时间段的行人数量。
4.根据权利要求3所述基于地图数据的时空联合模型的行人重识别方法,其特征在于:对时间概率模型使用高斯分布函数进行光滑处理。
5.根据权利要求1或2或3或4所述基于地图数据的时空联合模型的行人重识别方法,其特征在于:步骤g中,设步骤c得到视觉概率记为P,步骤f得到时空概率记为PST,最终的联合概率Pjoint表示为贝叶斯联合概率如下,
Figure FDA0002349372620000023
其中,γ,φ为用于平衡视觉概率和时空概率的超参数。
6.一种基于地图数据的时空联合模型的行人重识别系统,其特征在于,包括以下模块:
第一模块,用于监控视频数据的采集,包括采集城市区域的监控视频数据,提取包括行人的图像帧;
第二模块,用于基于第一模块得到的行人图像进行预处理,将每张图像和其他图像配对,构建用于训练孪生网络的图像对;
第三模块,用于构建孪生网络学习输入图像对的视觉特征;
第四模块,用于使用交叉熵损失函数对网络计算损失;
第五模块,用于使用Adam优化方法对网络进行优化,更新孪生网络中的权重和偏置项;
第六模块,用于构建基于地图数据的时间概率模型;
第七模块,用于利用第三模块得到的视觉概率,和第六模块得到的时空概率,计算最终的联合时空概率,得到行人重识别结果。
7.根据权利要求6所述基于地图数据的时空联合模型的行人重识别系统,其特征在于:第三模块中,设有图像对x(i),x(j),孪生网络包括5层卷积,通过第一个全连接层将图像对的卷积特征图转化为列向量f(x(i))和f(x(j)),计算图像队特征列向量之间的相似性向量χ(x(i),x(j)),输入到第二个全连接层,通过激活函数进行非线性处理,得到视觉特征相似概率P(x(i),x(j))。
8.根据权利要求6所述基于地图数据的时空联合模型的行人重识别系统,其特征在于:第六模块的实现方式为,
对图像涉及到的摄像机进行空间建模,将摄像机位置对应到地图数据中,获取两地之间运动的最小时间差τmin
根据图像中携带的时空信息,时空概率
Figure FDA0002349372620000031
为在k,ci,cjmin条件下i,j为同一人的概率,表示为:
Figure FDA0002349372620000032
其中,pi,pj分别表示图像i,j对应的身份信息,ci,cj表示拍摄图像i,j的相应摄像头的ID编号,k用于标识时间段,
Figure FDA0002349372620000033
表示从摄像头ci到cj且时间差落在第k个时间段的行人数量,
Figure FDA0002349372620000034
表示从摄像头ci到cj且时间差落在第l个时间段的行人数量。
9.根据权利要求8所述基于地图数据的时空联合模型的行人重识别系统,其特征在于:对时间概率模型使用高斯分布函数进行光滑处理。
10.根据权利要求6或7或8或9所述基于地图数据的时空联合模型的行人重识别系统,其特征在于:第七模块中,设第三模块得到视觉概率记为P,第六模块得到时空概率记为PST,最终的联合概率Pjoint表示为贝叶斯联合概率如下,
Figure FDA0002349372620000035
其中,γ,φ为用于平衡视觉概率和时空概率的超参数。
CN201911408661.7A 2019-12-31 2019-12-31 基于地图数据的时空联合模型的行人重识别方法及系统 Pending CN111178284A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911408661.7A CN111178284A (zh) 2019-12-31 2019-12-31 基于地图数据的时空联合模型的行人重识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911408661.7A CN111178284A (zh) 2019-12-31 2019-12-31 基于地图数据的时空联合模型的行人重识别方法及系统

Publications (1)

Publication Number Publication Date
CN111178284A true CN111178284A (zh) 2020-05-19

Family

ID=70657672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911408661.7A Pending CN111178284A (zh) 2019-12-31 2019-12-31 基于地图数据的时空联合模型的行人重识别方法及系统

Country Status (1)

Country Link
CN (1) CN111178284A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652331A (zh) * 2020-08-05 2020-09-11 腾讯科技(深圳)有限公司 一种图像识别方法、装置和计算机可读存储介质
CN112270241A (zh) * 2020-10-22 2021-01-26 珠海大横琴科技发展有限公司 行人重识别方法、装置、电子设备及计算机可读存储介质
CN112381024A (zh) * 2020-11-20 2021-02-19 华南理工大学 一种融合多模态的无监督行人再识别重排方法
CN112528788A (zh) * 2020-12-01 2021-03-19 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN113688776A (zh) * 2021-09-06 2021-11-23 北京航空航天大学 一种用于跨视场目标重识别的时空约束模型构建方法
CN114627496A (zh) * 2022-03-01 2022-06-14 中国科学技术大学 基于高斯过程的去偏批量归一化的鲁棒行人重识别方法
CN116647644A (zh) * 2023-06-06 2023-08-25 上海优景智能科技股份有限公司 基于数字孪生技术的校园交互式监控方法以及系统
CN117132937A (zh) * 2023-09-06 2023-11-28 东北大学佛山研究生创新学院 一种基于注意力孪生网络的双通道行人重识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436895B1 (en) * 2015-04-03 2016-09-06 Mitsubishi Electric Research Laboratories, Inc. Method for determining similarity of objects represented in images
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN108764167A (zh) * 2018-05-30 2018-11-06 上海交通大学 一种时空关联的目标重识别方法和系统
CN109325471A (zh) * 2018-10-31 2019-02-12 中山大学 一种结合表观特征和时空分布的双流网络行人重识别方法
CN109784166A (zh) * 2018-12-13 2019-05-21 北京飞搜科技有限公司 行人重识别的方法及装置
CN110516745A (zh) * 2019-08-28 2019-11-29 北京达佳互联信息技术有限公司 图像识别模型的训练方法、装置及电子设备
CN110619268A (zh) * 2019-08-07 2019-12-27 北京市新技术应用研究所 基于时空分析与深度特征的行人再识别方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9436895B1 (en) * 2015-04-03 2016-09-06 Mitsubishi Electric Research Laboratories, Inc. Method for determining similarity of objects represented in images
CN106650630A (zh) * 2016-11-11 2017-05-10 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN108764167A (zh) * 2018-05-30 2018-11-06 上海交通大学 一种时空关联的目标重识别方法和系统
CN109325471A (zh) * 2018-10-31 2019-02-12 中山大学 一种结合表观特征和时空分布的双流网络行人重识别方法
CN109784166A (zh) * 2018-12-13 2019-05-21 北京飞搜科技有限公司 行人重识别的方法及装置
CN110619268A (zh) * 2019-08-07 2019-12-27 北京市新技术应用研究所 基于时空分析与深度特征的行人再识别方法及装置
CN110516745A (zh) * 2019-08-28 2019-11-29 北京达佳互联信息技术有限公司 图像识别模型的训练方法、装置及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DAHJUNG CHUNG 等: "Deep Second-Order Siamese Network for Pedestrian Re-identification", 《COMPUTER VISION》 *
祁子梁 等: "基于孪生网络和双向最大边界排序损失的行人再识别", 《计算机应用》 *
谭飞刚 等: "跨摄像机行人再识别研究综述", 《深圳信息职业技术学院学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652331A (zh) * 2020-08-05 2020-09-11 腾讯科技(深圳)有限公司 一种图像识别方法、装置和计算机可读存储介质
CN111652331B (zh) * 2020-08-05 2021-05-11 腾讯科技(深圳)有限公司 一种图像识别方法、装置和计算机可读存储介质
CN112270241B (zh) * 2020-10-22 2021-12-10 珠海大横琴科技发展有限公司 行人重识别方法、装置、电子设备及计算机可读存储介质
CN112270241A (zh) * 2020-10-22 2021-01-26 珠海大横琴科技发展有限公司 行人重识别方法、装置、电子设备及计算机可读存储介质
CN112381024A (zh) * 2020-11-20 2021-02-19 华南理工大学 一种融合多模态的无监督行人再识别重排方法
CN112381024B (zh) * 2020-11-20 2023-06-23 华南理工大学 一种融合多模态的无监督行人再识别重排方法
CN112528788A (zh) * 2020-12-01 2021-03-19 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN112528788B (zh) * 2020-12-01 2023-11-21 重庆兆光科技股份有限公司 一种基于域不变特征和时空特征的重识别方法
CN113688776A (zh) * 2021-09-06 2021-11-23 北京航空航天大学 一种用于跨视场目标重识别的时空约束模型构建方法
CN113688776B (zh) * 2021-09-06 2023-10-20 北京航空航天大学 一种用于跨视场目标重识别的时空约束模型构建方法
CN114627496A (zh) * 2022-03-01 2022-06-14 中国科学技术大学 基于高斯过程的去偏批量归一化的鲁棒行人重识别方法
CN114627496B (zh) * 2022-03-01 2023-10-20 中国科学技术大学 基于高斯过程的去偏批量归一化的鲁棒行人重识别方法
CN116647644A (zh) * 2023-06-06 2023-08-25 上海优景智能科技股份有限公司 基于数字孪生技术的校园交互式监控方法以及系统
CN116647644B (zh) * 2023-06-06 2024-02-20 上海优景智能科技股份有限公司 基于数字孪生技术的校园交互式监控方法以及系统
CN117132937A (zh) * 2023-09-06 2023-11-28 东北大学佛山研究生创新学院 一种基于注意力孪生网络的双通道行人重识别方法

Similar Documents

Publication Publication Date Title
CN111178284A (zh) 基于地图数据的时空联合模型的行人重识别方法及系统
Arietta et al. City forensics: Using visual elements to predict non-visual city attributes
Shen et al. Multiobject tracking by submodular optimization
Zhou et al. Activity analysis, summarization, and visualization for indoor human activity monitoring
Workman et al. A unified model for near and remote sensing
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN112733656B (zh) 基于多流空间注意力图卷积sru网络的骨架动作识别方法
CN110147743A (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
WO2020170014A1 (en) Object counting and instance segmentation using neural network architectures with image-level supervision
Hou et al. Human tracking over camera networks: a review
Li et al. Test-time personalization with a transformer for human pose estimation
Patrick et al. Space-time crop & attend: Improving cross-modal video representation learning
Satta et al. Real-time Appearance-based Person Re-identification Over Multiple KinectTM Cameras.
CN110163041A (zh) 视频行人再识别方法、装置及存储介质
Janku et al. Fire detection in video stream by using simple artificial neural network
Zhang et al. Indoor space recognition using deep convolutional neural network: a case study at MIT campus
Li et al. Improved YOLOv4 network using infrared images for personnel detection in coal mines
CN113361549A (zh) 一种模型更新方法以及相关装置
Zhang et al. Joint discriminative representation learning for end-to-end person search
Suthar et al. Human activity recognition using deep learning: a survey
Kadim et al. Deep-learning based single object tracker for night surveillance.
CN115410222A (zh) 一种姿态感知的视频行人再识别网络
Juyal et al. Locating people in real-world for assisting crowd behaviour analysis using SSD and deep SORT algorithm
Zhu et al. A cross-view intelligent person search method based on multi-feature constraints
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200519

RJ01 Rejection of invention patent application after publication