CN110706259B - 一种基于空间约束的可疑人员跨镜头追踪方法及装置 - Google Patents
一种基于空间约束的可疑人员跨镜头追踪方法及装置 Download PDFInfo
- Publication number
- CN110706259B CN110706259B CN201910969309.4A CN201910969309A CN110706259B CN 110706259 B CN110706259 B CN 110706259B CN 201910969309 A CN201910969309 A CN 201910969309A CN 110706259 B CN110706259 B CN 110706259B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- monitoring camera
- tracking
- virtual
- pedestrian detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012544 monitoring process Methods 0.000 claims abstract description 132
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 36
- 238000013135 deep learning Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 141
- 239000011159 matrix material Substances 0.000 claims description 55
- 239000013598 vector Substances 0.000 claims description 29
- 238000005070 sampling Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 abstract description 4
- 230000002452 interceptive effect Effects 0.000 abstract description 3
- 230000003993 interaction Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及视频监控技术领域,实施例具体公开一种基于空间约束的可疑人员跨镜头追踪方法及装置。本申请提供的基于空间约束的可疑人员跨镜头追踪方法,采用深度学习算法实时检测视频中行人目标,利用交互操作选取用户关注的所选可疑人员目标,实现对所选可疑人员的单监控摄像头跟踪和基于深度学习算法提取行人特征作为比对依据的跨镜头跟踪,并根据所选可疑人员目标的位置信息和运动信息,在局部场景内实现全局优化,有效提升行人检索重识别的效率。
Description
技术领域
本发明涉及视频监控领域,具体涉及一种基于空间约束的可疑人员跨镜头追踪方法及装置。
背景技术
现有的行人重识别技术主要是基于多目标跟踪的基础,获取多摄像头多目标的跟踪轨迹,然后利用深度学习算法提取行人轨迹的平均特征,最后通过对行人平均特征的聚合实现多摄像头下行人轨迹的配对,找出同一个行人的轨迹并连接。
视频监控领域更关注的应该是镜头中单个或几个特殊嫌疑人的轨迹,对视频内所有行人进行跨摄像头跟踪在系统实现中难度大,且需要耗费大量计算性能。同时,现有行人重识别技术更倾向于后期对跟踪轨迹的处理,缺少跟踪的既视感。
发明内容
有鉴于此,本申请的主要目的是在虚拟三维场景视频映射的基础上,提供一种基于空间约束的可疑人员跨镜头追踪方法,解决增强虚拟下的所选可疑人员的选取交互和跨镜头持续追踪问题。
为解决以上技术问题,本发明提供的技术方案是一种基于空间约束的可疑人员跨镜头追踪方法,所述方法包括:
S11:将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框;
S12:接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框;
S13:在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合;
S14:实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回步骤S13。
优选的,所述步骤S14中检索到所选可疑人员后返回步骤S13的方法包括:当在其他监控摄像头视频帧上检索到所选可疑人员时,根据该监控摄像头的空间位置三维坐标和观察姿态角重新设置虚拟三维场景主窗口视点,再返回步骤S13。
优选的,所述步骤S11中将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框的方法包括:
采用OpenCV开源计算机视觉库读取各个监控摄像头传入的视频流并解码视频帧数据;
采用Yolov3目标检测算法、利用预训练模型构建的行人检测器,对各个视频帧数据进行实时视频检测,获取各个视频帧上的二维行人检测框。
优选的,所述步骤S11中根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框的方法包括:
在监控摄像头的二维视频帧上选取大于或等于4个角点作为二维控制点集A,在虚拟三维场景中利用屏幕交互选取二维控制点对应的特征点,通过三维碰撞检测计算二维控制点的三维坐标,作为三维控制点集B;
根据监控摄像头的线性模型,利用二维控制点集A及其对应的三维控制点集B,求解监控摄像头的透视投影矩阵;
对透视投影矩阵进行QR分解,求解监控摄像头内、外方位元素;
根据监控摄像头透视投影矩阵,将三维控制点集B投影到监控摄像头的视频帧上,得到新的二维控制点集C;
计算二维控制点集A和二维控制点集C中对应点误差,利用Levenberg-Marquardt算法最小化二维控制点的预测图像位置与实际图像位置的反投影误差;
利用获取的监控摄像头内、外方位元素和对应点误差,计算监控摄像头在虚拟三维场景中的透视投影矩阵和观察矩阵,添加监控摄像头到虚拟三维场景中;
利用投影矩阵将二维目标行人检测框的四个角点投影到虚拟三维场景中,再利用osgEarth库的绘制接口在虚拟三维场景中绘制出三维行人检测框。
优选的,所述步骤S12的方法包括:
接收用户在虚拟三维场景中使用鼠标单击选中的可疑人员位置,获取鼠标单击位置的屏幕坐标,再利用osgEarth库碰撞检测功能接口计算得到鼠标单击位置对应的三维坐标;
计算该三维坐标点是否被任一个三维行人检测框所包含,若是则通过透视投影矩阵反投影获取三维坐标对应的二维坐标,进而确定其对应的所选可疑人员的二维行人检测框。
优选的,所述步骤S13的方法包括:
利用获取的二维行人检测框初始化KCF跟踪器,通过KCF跟踪器对跟踪的所选可疑人员逐帧计算具体位置,获取所选可疑人员的二维轨迹点集;
采用曼哈顿距离间距采样二维轨迹点集,利用投影矩阵转换二维坐标,进而获取所选可疑人员的三维跟踪轨迹点集;
利用三次贝塞尔曲线拟合所选可疑人员的三维跟踪轨迹点集,进而在虚拟三维场景中动态添加一个线节点,将三维跟踪轨迹点集绘制在虚拟三维场景中并与所选可疑人员相绑定。
优选的,所述步骤S14的方法包括:
利用KCF跟踪器获取每一帧视频帧上所选可疑人员的目标检测框,获取目标检测框中的前景区域;
计算前景区域中运动目标轮廓在整个前景区域的面积占比,若面积占比低于预设阈值,则认为当前视频帧中KCF跟踪器检测的目标检测框内为背景区域,说明所选可疑人员已丢失;
对所选可疑人员丢失前的监控摄像头视频帧内的跟踪样本集进行间隔一定帧数的样本采样,利用BFE深度学习算法提取所选可疑人员的特征向量,计算采样样本的样本行人特征向量;
根据预设近邻监控摄像头的映射集合,确定所选可疑人员丢失后可能出现在视频帧的监控摄像头,将预先初始化的Yolov3对象分配到这几个监控摄像头的视频帧中,利用Yolov3目标检测算法提取每个监控摄像头视频帧下的二维行人检测框,利用BFE算法提取检测到行人的特征作为检索行人特征向量;
计算检索行人特征向量和样本行人特征向量的余弦相似度值,若相似度值低于预设相似度阈值,则认为检索行人特征向量与样本行人特征向量不相似,若相似度值高于预设相似度阈值,则取最高相似度检索行人匹配样本行人;
获取匹配所选可疑人员的二维行人检测框,返回步骤S13。
本发明还提供一种基于空间约束的可疑人员跨镜头追踪装置,所述装置包括:
三维行人检测框获取模块,用于将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框;
二维行人检测框获取模块,用于接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框;
所选可疑人员追综模块,用于在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合;
所选可疑人员监控模块,用于实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回所选可疑人员追踪模块。
本发明还提供一种基于空间约束的可疑人员跨镜头追踪装置,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序以实现如权利要求1至7中任一项所述基于空间约束的可疑人员跨镜头追踪方法的步骤。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述基于空间约束的可疑人员跨镜头追踪方法的步骤。
本申请与现有技术相比,其有益效果详细说明如下:本申请提供的基于空间约束的可疑人员跨镜头追踪方法,采用深度学习算法实时检测视频中行人目标,利用交互操作选取用户关注的所选可疑人员目标,实现对所选可疑人员的单监控摄像头跟踪和基于深度学习算法提取行人特征作为比对依据的跨镜头跟踪,并根据所选可疑人员目标的位置信息和运动信息,在局部场景内实现全局优化,有效提升行人检索重识别的效率。
附图说明
为了更清楚地说明本发明实施例,下面将对实施例中所需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于空间约束的可疑人员跨镜头追踪方法的流程示意图;
图2为本发明实施例提供的对所选可疑人员进行单监控摄像头跟踪的方法流程示意图;
图3为本发明实施例提供的对所选可疑人员进行跨镜头跟踪的方法流程示意图;
图4为本发明实施例提供的基于空间约束的可疑人员跨镜头追踪装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下,所获得的所有其他实施例,都属于本发明保护范围。
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步的详细说明。
如图1所示,本发明实施例提供一种基于空间约束的可疑人员跨镜头追踪方法,该跟踪方法的应用场景不是常规的视频监控场景,而是基于视频映射的虚拟三维场景。基于osgEarth库开发的虚拟三维场景,通过真实场景监控摄像头位置和姿态的求解,将监控摄像头注册到虚拟三维场景中,再利用ShadowMap方法将监控摄像头视频逐帧映射到虚拟三维场景中,实现了监控视频与虚拟三维场景的有效融合。该基于视频映射的虚拟三维场景系统包括:后端设备,即具有多GPU、大内存的后台服务器和显示设备(显示虚拟三维场景);前端设备,即普通监控摄像头;主要工作包括:普通监控摄像头通过有线/无线连接将视频数据流传输到后台服务器。
基于空间约束的可疑人员跨镜头追踪方法,主要应用于后台服务器,具体方法包括:
S11:将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框。
需要说明的是,步骤S11中将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框的方法包括:采用OpenCV开源计算机视觉库读取各个监控摄像头传入的视频流并解码视频帧数据;采用Yolov3目标检测算法、利用预训练模型构建的行人检测器,对各个视频帧数据进行实时视频检测,获取各个视频帧上的二维行人检测框。
具体的,在后台服务器上,利用OpenCV开源计算机视觉库读取前端监控摄像头传入的视频流并解码视频数据,采用多线程技术并行加载多个视频流数据,保证虚拟三维场景中渲染显示的同步性。初始化多个Yolov3深度学习算法对象,分配到后台服务器上的多个GPU上,每个GPU上初始化两个Yolov3对象。通过目标检测算法采用Yolov3算法,利用公开的预训练模型构建行人检测器,基于GPU加速可以达到视频实时检测的效果。
在三维视频映射场景中,视频是存在可见性的,即从虚拟三维场景主窗口观察虚拟三维场景,不是所有的监控摄像头都会出现在主窗口内,所以我们只对可见的视频进行目标检测。即每一个可见视频对应的加载线程分配一个Yolov3对象,从视频流中获取视频帧的影像,利用Yolov3目标检测算法进行实时视频检测,获取视频帧上的二维行人检测框,最后将视频影像渲染到虚拟三维场景中。将结合CUDA优化计算的Yolov3目标检测算法封装成DLL库,再利用公开的预训练模型实现目标检测功能,即利用目标检测算法对映射在虚拟三维场景中的视频帧图像信息进行分析,提取行人特征,获取二维行人检测框。
需要说明的是,步骤S11中根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框的方法包括:在监控摄像头的二维视频帧上选取大于或等于4个角点作为二维控制点集A,在虚拟三维场景中利用屏幕交互选取二维控制点对应的特征点,通过三维碰撞检测计算二维控制点的三维坐标,作为三维控制点集B;根据监控摄像头的线性模型,利用二维控制点集A及其对应的三维控制点集B,求解监控摄像头的透视投影矩阵;对透视投影矩阵进行QR分解,求解监控摄像头内、外方位元素;根据监控摄像头透视投影矩阵,将三维控制点集B投影到监控摄像头的视频帧上,得到新的二维控制点集C;计算二维控制点集A和二维控制点集C中对应点误差,利用Levenberg-Marquardt算法最小化二维控制点的预测图像位置与实际图像位置的反投影误差;利用获取的监控摄像头内、外方位元素和二维控制点误差,计算监控摄像头在虚拟三维场景中的透视投影矩阵和观察矩阵,添加监控摄像头到虚拟三维场景中;利用投影矩阵将二维目标行人检测框的四个角点投影到虚拟三维场景中,再利用osgEarth库的绘制接口在虚拟三维场景中绘制出三维行人检测框。
具体的,根据预先通过视频注册的监控摄像头计算投影矩阵,以实现多个像素坐标到统一的三维坐标的转换,获取三维行人检测框。在二维视频帧上选取大于或等于4个的明显的角点作为二维控制点集A。在虚拟三维场景中,利用屏幕交互选取二维控制点对应的特征点,通过三维碰撞检测计算二维控制点的三维坐标,作为三维控制点集B。根据监控摄像头的线性模型,利用二维控制点集A及其对应的三维控制点集B,求解监控摄像头的透视投影矩阵。对透视投影矩阵进行QR分解,求解摄相机内、外方位元素。根据摄相机透视投影矩阵,将三维控制点集B中的三维控制点投影到视频帧上,得到新的二维控制点集C。计算二维控制点集A和C中对应点误差,利用Levenberg-Marquardt算法(LM算法)最小化控制点的预测图像位置与实际图像位置的反投影误差,提高摄像机内、外方位元素的精度。利用获取的摄像机内、外方位元素,计算摄像机在虚拟三维场景中的透视投影矩阵和观察矩阵,添加监控摄像头到虚拟三维场景中。利用监控摄像头投影矩阵将二维目标行人检测框的四个角点投影到虚拟三维场景中,再利用osgEarth库的绘制接口在虚拟三维场景中绘制三维行人检测框。
S12:接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框。
需要说明的是,步骤S12的方法包括:接收用户在虚拟三维场景中使用鼠标单击选中的可疑人员位置,获取鼠标单击位置的屏幕坐标,再利用osgEarth库碰撞检测功能接口计算得到鼠标单击位置对应的三维坐标;计算该三维坐标点是否被任一个三维行人检测框所包含,若是则通过透视投影矩阵反投影获取三维坐标对应的二维坐标,进而确定其对应的所选可疑人员的二维行人检测框。
具体的,通过虚拟三维场景鼠标交互选取所选可疑人员。所述鼠标交互,包括如下步骤:用户使用鼠标单击虚拟三维场景中所选可疑人员的位置,匹配鼠标单击位置和三维行人检测框,进而确定其二维行人检测框。
具体的,在虚拟三维场景中使用鼠标单击选中所选可疑人员的位置,获取鼠标单击位置的屏幕坐标,再利用osgEarth库碰撞检测功能接口计算得到鼠标单击位置对应的三维坐标。然后计算该三维坐标点是否被某个三维行人检测框所包含,如果是,则通过透视投影矩阵反投影获取三维坐标对应的二维坐标,进而确定其对应二维行人检测框。
S13:在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合。
如图2所示,需要说明的是,步骤S13的方法包括:利用获取的二维行人检测框初始化KCF跟踪器,通过KCF跟踪器对跟踪的所选可疑人员逐帧计算具体位置,获取所选可疑人员的二维轨迹点集;采用曼哈顿距离间距采样二维轨迹点集,利用投影矩阵转换二维坐标,进而获取所选可疑人员的三维跟踪轨迹点集;利用三次贝塞尔曲线拟合所选可疑人员的三维跟踪轨迹点集,进而在虚拟三维场景中动态添加一个线节点,将三维跟踪轨迹点集绘制在虚拟三维场景中并与所选可疑人员相绑定。
具体的,利用获取的二维行人检测框初始化KCF跟踪器,之后KCF跟踪器会对跟踪的所选可疑人员逐帧计算具体位置,获取所选可疑人员的二维轨迹点集。其中,KCF算法利用循环移位的方式构造大量的训练样本和待测样本。利用训练样本训练一个核相关滤波器,然后通过分类器计算待测样本的响应值,选取响应值最大的待测样本为新的跟踪目标,同时利用循环矩阵可以傅氏对角化的性质,大大降低了分类器训练和检测过程中的运算量。
在单监控摄像头视频帧上对所选可疑人员进行跟踪并获取二维跟踪轨迹点集,进而利用坐标转换获取三维跟踪轨迹点集并拟合。利用鼠标交互获得的二维行人检测框初始化目标跟踪器,目标跟踪器返回每一帧跟踪目标的位置。对二维轨迹点集进行间隔距离采样,坐标转换后获取对应的三维轨迹点集,利用三次贝塞尔曲线拟合轨迹。
具体的,采用获取的跟踪目标检测框(二维行人检测框)初始化KCF跟踪器,之后在每一帧视频帧中更新KCF跟踪器,获取跟踪目标在当前视频帧图像中的位置检测框。获取跟踪目标检测框对应的前景区域,利用上面获取的位置检测框,提取前景影像中相同位置的区域Q。计算区域Q中白色区域轮廓面积s和区域Q的总面积S。面积占比公式如下:如果p值小于阈值15%(经验值,由实验观测得到),则认为当前跟踪检测框内为背景,跟踪目标已丢失。
采用曼哈顿距离间距采样二维轨迹点集,利用相机投影矩阵转换二维坐标,进而获取所选可疑人员的三维轨迹点集。
具体的,以二维行人检测框的底部中点作为轨迹点,将初始化二维行人检测框底部中点作为二位轨迹点集T的第一个点,然后逐帧计算轨迹点与点集T最后一点的曼哈顿距离,若小于一定阈值,则该点添加入点集T;否则舍弃该点。同时,利用监控摄像头透视投影矩阵转换二维坐标为三维坐标,添加到所选可疑人员的三维轨迹点集。
利用三次贝塞尔曲线拟合所选可疑人员的三维轨迹点集,进而在虚拟三维场景中动态添加一个线节点,将三维轨迹点集绘制在虚拟三维场景中并与所选可疑人员相绑定。
具体的,三次贝塞尔曲线公式为:
B(t)=P0*(1-t)3+3*P1*t*(1-t)2+3*P2*t2*(1-t)+P3*t3,t∈[0,1],
其中t为曲线长度比例,P0为起始点,P1为控制点1,P2为控制点2,P3为控制点3,B(t)为t位置对应的点。
结合三位轨迹点集和三次贝塞尔曲线公式,计算得到三维贝塞尔曲线点集L={x|x=B(t)}。最后,利用osgEarth库三维线节点绘制接口,将点集L绘制为线节点,添加到虚拟三维场景中。
S14:实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回步骤S13。
如图3所示,需要说明的是,步骤S14的方法包括:利用KCF跟踪器获取每一帧视频帧上所选可疑人员的目标检测框,获取目标检测框中的前景区域;计算前景区域中运动目标轮廓在整个前景区域的面积占比,若面积占比低于预设阈值,则认为当前视频帧中KCF跟踪器检测的目标检测框内为背景区域,说明所选可疑人员已丢失;对所选可疑人员丢失前的监控摄像头视频帧内的跟踪样本集进行间隔一定帧数的样本采样,利用BFE深度学习算法提取所选可疑人员的特征向量,计算采样样本的样本行人特征向量;根据预设近邻监控摄像头的映射集合,确定所选可疑人员丢失后可能出现在视频帧的监控摄像头,将预先初始化的Yolov3对象分配到这几个监控摄像头的视频帧中,利用Yolov3目标检测算法提取每个监控摄像头视频帧下的二维行人检测框,利用BFE算法提取检测到行人的特征作为检索行人特征向量;计算检索行人特征向量和样本行人特征向量的余弦相似度值,若相似度值低于预设相似度阈值,则认为检索行人特征向量与样本行人特征向量不相似,若相似度值高于预设相似度阈值,则取最高相似度检索行人匹配样本行人;获取匹配所选可疑人员的二维行人检测框,返回步骤S13,实现所选可疑人员的跨镜头持续追踪。
具体的,当所选可疑人员在当前镜头中丢失时,对单监控摄像头所选可疑人员跟踪样本集进行采样,计算采样样本的平均特征。同时,对邻近单监控摄像头下检测到的行人目标提取特征作为检索特征,将该检索特征与所选可疑人员的样本特征进行比对,并设置阈值判断检索目标是否为所选可疑人员。如果检索到所选可疑人员,则持续跟踪该目标和聚合轨迹;否则继续检索所选可疑人员。
具体的,邻近单监控摄像头下检测到的行人目标提取特征,包括如下步骤:根据当前监控摄像头空间位置和所选可疑人员的运动方向信息,在三维视频映射虚拟场景中寻找邻近的摄像头覆盖,检测行人目标和利用BFE算法提取行人特征。设置阈值判断检索目标是否为所选可疑人员,包括以下步骤:计算检索行人特征和样本行人特征的余弦相似度。设置一个阈值,比阈值低认为检索行人与样本行人不相似,比阈值高则取最高相似度检索行人匹配样本行人。
具体的,当所选可疑人员从当前镜头消失后,即所选可疑人员的行人检测框超出视频区域边界或者所选可疑人员被障碍物完全遮挡丢失,采取如下步骤:
(1)输入视频流,利用ViBe算法提取每一帧视频的前景影像。利用KCF目标跟踪算法获取每一帧视频上跟踪目标的所在位置(检测框)。根据跟踪目标的检测框,提取同一帧视频中的前景区域。计算前景区域中运动目标轮廓在整个前景区域的面积占比,若面积占比低于阈值15%(经验值,由实验观测得到),则认为当前视频帧中KCF跟踪器检测的为背景区域,说明跟踪目标被障碍物近似完全遮挡或者跟踪目标离开镜头观察范围,跟踪目标已丢失。
(2)对所选可疑人员在单监控镜头内的跟踪样本集进行间隔一定帧数的样本采样,利用BFE深度学习算法提取所选可疑人员的特征向量,计算采样样本的平均特征,提高样本特征的鲁棒性。其中,BFE深度学习算法预先在market1501公开数据集上训练,Rank-1准确率为94.4%。
(3)根据监控摄像头空间位置以及各相机在交通关系网中的联系,预先确定各监控摄像头对应的近邻监控摄像头的映射集合。
(4)根据上述近邻监控摄像头的映射集合,确定当前所选可疑人员丢失后可能出现在监控视频的监控摄像头,将预先初始化的Yolov3对象分配到这几个摄像头的监控视频中,利用Yolov3目标检测算法提取每个单监控摄像头下行人的检测框,利用BFE算法提取检测到行人的特征作为检索特征。
(5)计算检索行人特征向量和样本行人特征向量的余弦相似度。设置一个阈值,比阈值低认为检索行人与样本行人不相似,比阈值高则取最高相似度检索行人匹配样本行人。其中,余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,这就叫“余弦相似性”。余弦相似性推导公式如下:
其中,a,b表示检索行人特征向量和样本行人特征向量。
(6)获取匹配所选可疑人员的行人检测框,重复单监控摄像头跟踪方法,实现所选可疑人员的跨镜头持续追踪。
需要说明的是,步骤S14中检索到所选可疑人员后返回步骤S13的方法包括:当在其他监控摄像头视频帧上检索到所选可疑人员时,根据该监控摄像头的空间位置三维坐标和观察姿态角重新设置虚拟三维场景主窗口视点,再返回步骤S13。
具体的,在三维视频映射场景中,当所选可疑人员逃离当前镜头,在其它镜头被检测到的时候,同时自动跳转虚拟三维场景的观察视角。同时自动跳转虚拟三维场景的观察视角包括以下步骤:根据步骤S14检索得到的所选可疑人员,找到其所在监控摄像头的空间位置和观察角度,然后据此跳跃虚拟三维场景的观察视角,使虚拟三维场景观察视角始终绑定所选可疑人员目标。
具体的,根据前面可知虚拟三维场景中注册的监控摄像头都包含一个空间位置三维坐标和监控摄像头观察姿态角。当所选可疑人员在当前虚拟三维场景主窗口中消失后,利用上述步骤S14的行人重识别技术重新获取和识别所选可疑人员,得到所选可疑人员再次出现的视频所属监控摄像头空间位置三维坐标和监控摄像头观察姿态角。这时结合虚拟三维场景主窗口视点可跳转的功能,自动将当前虚拟三维场景主窗口视点跳转到所选可疑人员再次出现的监控摄像头位置,并根据该监控摄像头空间位置三维坐标和监控摄像头观察姿态角重新设置虚拟三维场景主窗口视点。
综上,本发明实施例的基于空间约束的可疑人员跨镜头追踪方法,采用深度学习算法实时检测视频行人目标,利用交互操作选取用户关注的所选可疑人员目标,实现对所选可疑人员的单监控摄像头跟踪和基于深度学习算法提取行人特征作为比对依据的跨镜头跟踪,并根据所选可疑人员目标的位置信息和运动信息,在局部场景内实现全局优化,有效提升行人检索重识别的效率。通过将原始二维跟踪轨迹映射到虚拟三维场景中,并进行曲线拟合,增强了轨迹线条的美感。同时,利用监控摄像头的空间注册信息,将虚拟三维场景视角和所选可疑人员目标进行绑定,实现了所选可疑人员目标跨境持续跟踪的可视化。
如图4所示,本发明实施例还提供一种基于空间约束的可疑人员跨镜头追踪装置,该装置包括:
三维行人检测框获取模块21,用于将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框;
二维行人检测框获取模块22,用于接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框;
所选可疑人员追综模块23,用于在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合;
所选可疑人员监控模块24,用于实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回所选可疑人员追踪模块。
本发明实施例还提供一种基于空间约束的可疑人员跨镜头追踪装置,包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序以实现如上述基于空间约束的可疑人员跨镜头追踪方法的步骤。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述基于空间约束的可疑人员跨镜头追踪方法的步骤。
图4所对应实施例中特征的说明可以参见图1-图3所对应实施例的相关说明,这里不再一一赘述。
以上对本发明实施例所提供的一种基于空间约束的可疑人员跨镜头追踪方法、装置和计算机可读存储介质进行了详细介绍。说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
Claims (9)
1.一种基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述方法包括:
S11:将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框,包括:在监控摄像头的二维视频帧上选取大于或等于4个角点作为二维控制点集A,在虚拟三维场景中利用屏幕交互选取二维控制点对应的特征点,通过三维碰撞检测计算二维控制点的三维坐标,作为三维控制点集B;根据监控摄像头的线性模型,利用二维控制点集A及其对应的三维控制点集B,求解监控摄像头的透视投影矩阵;对透视投影矩阵进行QR分解,求解监控摄像头内、外方位元素;根据监控摄像头透视投影矩阵,将三维控制点集B投影到监控摄像头的视频帧上,得到新的二维控制点集C;计算二维控制点集A和二维控制点集C中对应点误差,利用Levenberg-Marquardt算法最小化二维控制点的预测图像位置与实际图像位置的反投影误差;利用获取的监控摄像头内、外方位元素和对应点误差,计算监控摄像头在虚拟三维场景中的透视投影矩阵和观察矩阵,添加监控摄像头到虚拟三维场景中;利用投影矩阵将二维目标行人检测框的四个角点投影到虚拟三维场景中,再利用osgEarth库的绘制接口在虚拟三维场景中绘制出三维行人检测框;
S12:接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框;
S13:在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合;
S14:实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回步骤S13。
2.根据权利要求1所述的基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述步骤S14中检索到所选可疑人员后返回步骤S13的方法包括:当在其他监控摄像头视频帧上检索到所选可疑人员时,根据该监控摄像头的空间位置三维坐标和观察姿态角重新设置虚拟三维场景主窗口视点,再返回步骤S13。
3.根据权利要求1所述的基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述步骤S11中将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框的方法包括:
采用OpenCV开源计算机视觉库读取各个监控摄像头传入的视频流并解码视频帧数据;
采用Yolov3目标检测算法、利用预训练模型构建的行人检测器,对各个视频帧数据进行实时视频检测,获取各个视频帧上的二维行人检测框。
4.根据权利要求1所述的基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述步骤S12的方法包括:
接收用户在虚拟三维场景中使用鼠标单击选中的可疑人员位置,获取鼠标单击位置的屏幕坐标,再利用osgEarth库碰撞检测功能接口计算得到鼠标单击位置对应的三维坐标;
计算该三维坐标点是否被任一个三维行人检测框所包含,若是则通过透视投影矩阵反投影获取三维坐标对应的二维坐标,进而确定其对应的所选可疑人员的二维行人检测框。
5.根据权利要求1所述的基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述步骤S13的方法包括:
利用获取的二维行人检测框初始化KCF跟踪器,通过KCF跟踪器对跟踪的所选可疑人员逐帧计算具体位置,获取所选可疑人员的二维轨迹点集;
采用曼哈顿距离间距采样二维轨迹点集,利用投影矩阵转换二维坐标,进而获取所选可疑人员的三维跟踪轨迹点集;
利用三次贝塞尔曲线拟合所选可疑人员的三维跟踪轨迹点集,进而在虚拟三维场景中动态添加一个线节点,将三维跟踪轨迹点集绘制在虚拟三维场景中并与所选可疑人员相绑定。
6.根据权利要求1所述的基于空间约束的可疑人员跨镜头追踪方法,其特征在于,所述步骤S14的方法包括:
利用KCF跟踪器获取每一帧视频帧上所选可疑人员的目标检测框,获取目标检测框中的前景区域;
计算前景区域中运动目标轮廓在整个前景区域的面积占比,若面积占比低于预设阈值,则认为当前视频帧中KCF跟踪器检测的目标检测框内为背景区域,说明所选可疑人员已丢失;
对所选可疑人员丢失前的监控摄像头视频帧内的跟踪样本集进行间隔一定帧数的样本采样,利用BFE深度学习算法提取所选可疑人员的特征向量,计算采样样本的样本行人特征向量;
根据预设近邻监控摄像头的映射集合,确定所选可疑人员丢失后可能出现在视频帧的监控摄像头,将预先初始化的Yolov3对象分配到这几个监控摄像头的视频帧中,利用Yolov3目标检测算法提取每个监控摄像头视频帧下的二维行人检测框,利用BFE算法提取检测到行人的特征作为检索行人特征向量;
计算检索行人特征向量和样本行人特征向量的余弦相似度值,若相似度值低于预设相似度阈值,则认为检索行人特征向量与样本行人特征向量不相似,若相似度值高于预设相似度阈值,则取最高相似度检索行人匹配样本行人;
获取匹配所选可疑人员的二维行人检测框,返回步骤S13。
7.一种基于空间约束的可疑人员跨镜头追踪装置,其特征在于,所述装置包括:
三维行人检测框获取模块,用于将映射在虚拟三维场景中的各个监控摄像头的视频帧数据进行行人检测,获得各个视频帧上的二维行人检测框;根据各个监控摄像头注册到虚拟三维场景的投影矩阵,将各个视频帧上的二维行人检测框转换为虚拟三维场景中的三维行人检测框;
二维行人检测框获取模块,用于接收用户在虚拟三维场景中选定的可疑人员位置,判断所选可疑人员位置的三维坐标是否属于任一个三维行人检测框,若是,则通过透视投影矩阵反投影获取所选可疑人员位置的三维坐标对应的二维坐标,进而获得所选可疑人员的二维行人检测框;
所选可疑人员追综模块,用于在所选可疑人员的二维行人检测框对应的监控摄像头视频帧上对所选可疑人员进行跟踪并获取所选可疑人员的二维跟踪轨迹点集,再利用投影矩阵转换获得所选可疑人员的三维跟踪轨迹点集并拟合;
所选可疑人员监控模块,用于实时检测所选可疑人员是否在当前监控摄像头视频帧上丢失,若丢失则在预设邻近监控摄像头的视频帧上检索所选可疑人员,检索到所选可疑人员后返回所选可疑人员追踪模块。
8.一种基于空间约束的可疑人员跨镜头追踪装置,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序以实现如权利要求1至6中任一项所述基于空间约束的可疑人员跨镜头追踪方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述基于空间约束的可疑人员跨镜头追踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910969309.4A CN110706259B (zh) | 2019-10-12 | 2019-10-12 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910969309.4A CN110706259B (zh) | 2019-10-12 | 2019-10-12 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110706259A CN110706259A (zh) | 2020-01-17 |
CN110706259B true CN110706259B (zh) | 2022-11-29 |
Family
ID=69198639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910969309.4A Active CN110706259B (zh) | 2019-10-12 | 2019-10-12 | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706259B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449563A (zh) * | 2020-03-26 | 2021-09-28 | 深圳云天励飞技术有限公司 | 一种人员跟踪标记方法、装置、电子设备及存储介质 |
CN111462200B (zh) * | 2020-04-03 | 2023-09-19 | 中国科学院深圳先进技术研究院 | 一种跨视频行人定位追踪方法、系统及设备 |
CN111767798B (zh) * | 2020-06-01 | 2022-07-15 | 武汉大学 | 一种面向室内联网视频监控的智能导播方法及系统 |
CN112257492A (zh) * | 2020-08-27 | 2021-01-22 | 重庆科技学院 | 一种多路摄像头实时入侵检测与跟踪方法 |
CN112365522B (zh) * | 2020-10-19 | 2024-06-14 | 中标慧安信息技术股份有限公司 | 园区内人员跨境追踪的方法 |
CN112330721B (zh) * | 2020-11-11 | 2023-02-17 | 北京市商汤科技开发有限公司 | 三维坐标的恢复方法及装置、电子设备和存储介质 |
CN112419366B (zh) * | 2020-11-30 | 2024-07-26 | 深圳力维智联技术有限公司 | 车辆的追踪方法、系统及计算机可读存储介质 |
CN112633282B (zh) * | 2021-01-07 | 2023-06-20 | 清华大学深圳国际研究生院 | 一种车辆实时跟踪方法及计算机可读存储介质 |
CN113420183B (zh) * | 2021-06-21 | 2022-12-02 | 成都神州数码索贝科技有限公司 | 一种在视频侦查系统中跨视频目标检索及碰撞方法及系统 |
CN113963437A (zh) * | 2021-10-15 | 2022-01-21 | 武汉众智数字技术有限公司 | 一种基于深度学习的步态识别序列获取方法和系统 |
CN114511592B (zh) * | 2022-01-21 | 2024-07-05 | 海纳云物联科技有限公司 | 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统 |
CN115050105B (zh) * | 2022-08-17 | 2022-12-30 | 杭州觅睿科技股份有限公司 | 一种人影可疑性判定方法、装置、设备及存储介质 |
CN115984318B (zh) * | 2023-03-20 | 2023-06-13 | 宝略科技(浙江)有限公司 | 一种基于特征最大关联概率的跨摄像头行人跟踪方法 |
CN115984973B (zh) * | 2023-03-21 | 2023-06-27 | 深圳市嘉润原新显科技有限公司 | 一种用于防偷窥屏幕的人体异常行为监测方法 |
CN116402857B (zh) * | 2023-04-14 | 2023-11-07 | 北京天睿空间科技股份有限公司 | 一种基于三维标定的运动目标跨镜头跟踪方法 |
CN116311383B (zh) * | 2023-05-16 | 2023-07-25 | 成都航空职业技术学院 | 一种基于图像处理的楼宇智能用电管理系统 |
CN118262288A (zh) * | 2024-04-02 | 2024-06-28 | 中建科工集团运营管理有限公司 | 大型场馆可疑人员追踪监测系统、方法及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101692284A (zh) * | 2009-07-24 | 2010-04-07 | 西安电子科技大学 | 基于量子免疫克隆算法的三维人体运动跟踪方法 |
CN105513094A (zh) * | 2015-12-17 | 2016-04-20 | 上海交通大学 | 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统 |
CN106295598A (zh) * | 2016-08-17 | 2017-01-04 | 北京大学 | 一种跨摄像头目标跟踪方法及装置 |
CN107704824A (zh) * | 2017-09-30 | 2018-02-16 | 北京正安维视科技股份有限公司 | 基于空间约束的行人重识别方法及设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8696074B2 (en) * | 2008-11-17 | 2014-04-15 | Andrew Romaen | Safety lock system for cabinet drawers |
US8306748B2 (en) * | 2009-10-05 | 2012-11-06 | Honeywell International Inc. | Location enhancement system and method based on topology constraints |
-
2019
- 2019-10-12 CN CN201910969309.4A patent/CN110706259B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101692284A (zh) * | 2009-07-24 | 2010-04-07 | 西安电子科技大学 | 基于量子免疫克隆算法的三维人体运动跟踪方法 |
CN105513094A (zh) * | 2015-12-17 | 2016-04-20 | 上海交通大学 | 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统 |
CN106295598A (zh) * | 2016-08-17 | 2017-01-04 | 北京大学 | 一种跨摄像头目标跟踪方法及装置 |
CN107704824A (zh) * | 2017-09-30 | 2018-02-16 | 北京正安维视科技股份有限公司 | 基于空间约束的行人重识别方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110706259A (zh) | 2020-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110706259B (zh) | 一种基于空间约束的可疑人员跨镜头追踪方法及装置 | |
Wojek et al. | Monocular 3d scene understanding with explicit occlusion reasoning | |
US10268900B2 (en) | Real-time detection, tracking and occlusion reasoning | |
US20190188533A1 (en) | Pose estimation | |
Clipp et al. | Parallel, real-time visual SLAM | |
US10885667B2 (en) | Normalized metadata generation device, object occlusion detection device and method | |
CN110427905A (zh) | 行人跟踪方法、装置以及终端 | |
JP6525453B2 (ja) | オブジェクト位置推定システム、及びそのプログラム | |
US9177229B2 (en) | Kalman filter approach to augment object tracking | |
US8179440B2 (en) | Method and system for object surveillance and real time activity recognition | |
US20110187703A1 (en) | Method and system for object tracking using appearance model | |
US20160093101A1 (en) | Method And System For Generating A Three-Dimensional Model | |
TW201715476A (zh) | 運用擴增實境技術之導航系統 | |
US20130128034A1 (en) | Real-Time Player Detection From A Single Calibrated Camera | |
CN101860729A (zh) | 一种用于全方位视觉的目标跟踪方法 | |
Nambiar et al. | A multi-camera video dataset for research on high-definition surveillance | |
CN113378649A (zh) | 身份、位置和动作识别方法、系统、电子设备及存储介质 | |
CN111275734A (zh) | 物体辨识与追踪系统及其方法 | |
Xie et al. | RPM 2.0: RF-Based Pose Machines for Multi-Person 3D Pose Estimation | |
Acharya et al. | Modelling uncertainty of single image indoor localisation using a 3D model and deep learning | |
CN115767424A (zh) | 一种基于rss与csi融合的视频定位方法 | |
Elassal et al. | Unsupervised crowd counting | |
Madrigal et al. | Multiple view, multiple target tracking with principal axis-based data association | |
CN113570535A (zh) | 视觉定位方法及相关装置、设备 | |
Xie et al. | RF-based Multi-view Pose Machine for Multi-Person 3D Pose Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |