CN110490901A - 抗姿态变化的行人检测跟踪方法 - Google Patents
抗姿态变化的行人检测跟踪方法 Download PDFInfo
- Publication number
- CN110490901A CN110490901A CN201910637486.2A CN201910637486A CN110490901A CN 110490901 A CN110490901 A CN 110490901A CN 201910637486 A CN201910637486 A CN 201910637486A CN 110490901 A CN110490901 A CN 110490901A
- Authority
- CN
- China
- Prior art keywords
- target
- pedestrian
- detection
- track
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视频图像中抗姿态变化的行人检测跟踪方法,首先利用目标检测算法进行行人检测;其次对检测到的目标进行基于卡尔曼滤波的轨迹预测,更新轨迹;然后对目标进行抗姿态变化的表观特征提取,针对行人姿态变化造成的跟踪丢失或误匹配问题,基于局部特征融合的思想,分别提取人体多个感兴趣区域的表观特征进行组合,最后构成鲁棒的全局表观特征,之后利用得到的运动信息和表观信息进行数据关联匹配,使用运动匹配度和表观匹配度两种度量方式的线性加权作为最终的度量。最后对跟踪轨迹进行筛选,去除消失的目标和无效的轨迹。本发明不仅适用于短时的行人检测跟踪,而且对一些遮挡及姿态变化的情况都有很好的鲁棒性。
Description
技术领域
本发明属于视频图像处理技术领域,特别涉及视频序列中行人检测跟踪方法。
背景技术
行人检测跟踪是利用计算机视觉技术对视频序列中的行人建立轨迹。在智能交通、智能监控、人机交互等应用领域均有着重要的应用和地位。行人检测跟踪不仅可用来监控、检测和跟踪公共场所的运动目标,保证公共秩序正常的运行。而且也可用于在特殊情况快速找出关注目标及其运动轨迹,为安防提供重要保障。然而,在实际应用中实现鲁棒的行人检测跟踪仍存在诸多挑战,比如行人姿态的变化、环境光照变化、行人间的遮挡等因素,都一定程度上影响了行人检测跟踪的准确性。
多目标跟踪主要存在的问题和难点包括,跟踪目标数量的确定,跟踪目标标识即ID的维持,数据的匹配关联,跟踪轨迹的初始化和终止,目标外观相似的判断,以及多个目标的频繁遮挡。行人检测跟踪的主要任务是在给定视频中同时对多个感兴趣的目标进行定位,并且维持他们的跟踪目标标识即ID、记录他们的轨迹。行人检测跟踪中的行人检测和行人轨迹的匹配关联是一个复杂的问题,主要体现在以下几个方面,首先行人检测中存在一些误检和漏检,导致跟踪存在问题,其次,实际场景中会有大量的遮挡,会导致目标轨迹频繁变化,跟踪ID大量跳变,最后新目标的出现和旧目标的删除策略也是一个重要的问题。
本发明旨在针对监控场景,提升行人检测跟踪的鲁棒性,使其适用于背景复杂、行人有遮挡和姿态多变的场景中。
发明内容
本发明针对现有技术的不足,提供抗姿态变化的行人检测跟踪方法。
为解决上述技术问题,本发明所采取的技术方案如下:抗姿态变化的行人检测跟踪方法,包含以下步骤:
步骤1,针对视频序列中的当前帧,通过目标检测算法进行行人检测;
步骤2,利用当前帧中检测到的目标信息,基于卡尔曼滤波对下一帧的目标轨迹位置进行预测;
步骤3,利用卷积神经网络对目标进行抗姿态变化的表观特征提取;
步骤4,对步骤2中的运动信息和步骤3中的表观信息进行关联匹配;
步骤5,根据步骤4中的关联匹配结果对跟踪轨迹进行筛选,获得最终的行人跟踪轨迹。
进一步的,步骤2中基于卡尔曼滤波对下一帧的轨迹预测具体包括:
对于行人轨迹的状态,使用一个8维空间去描述轨迹在某时刻的状态(x,y,δ,h,x′,y′,δ′,h′),其中x和y表示检测框中心的位置、δ表示检测框的纵横比、h表示检测框的宽、x′、y′、δ′和h′表示对应的速度,其中检测框是利用步骤1的目标检测算法得到;然后使用卡尔曼滤波器预测更新轨迹,该卡尔曼滤波器采用匀速模型和线性观测模型,其观测变量为(x,y,δ,h),对目标进行状态估计,利用前一帧通过卡尔曼滤波得到的估计值和当前帧检测得到的观测值更新状态变量,进而对下一帧的轨迹位置预测。
进一步的,步骤3中抗姿态变化的表观特征提取具体包括以下子步骤:
步骤3.1,人体感兴趣区域提取,具体包括14个骨骼关节点提取和7个感兴趣区域的提取;
步骤3.2,局部表观特征提取,将行人图像和7个感兴趣区域图像输入到特征提取网络中分别提取8个局部表观特征,分别是行人整体图像的特征、头部图像的特征、四肢图像的特征、上半身图像的特征和下半身图像的特征,所述特征提取网络由一系列卷积神经网络(CNN)组成;
步骤3.3,局部表观特征融合,利用特征融合网络,其中特征融合网络由一系列最大池化层级联而成,将特征提取网络输出的8个局部表观特征在网络不同深度上融合,融合时按位保留两个特征中的最大值;首先融合2个下肢和2个上肢特征,再分别和下半身和上半身特征融合,接着将它们和头部特征融合,最后与行人整体图像的特征融合,得到对姿态变化鲁棒的表观特征向量。
进一步的,步骤3.1的具体实现包括:
(a)提取人体的14个骨骼关节点:首先利用区域候选网络RPN(region proposalnetwork),将行人图像作为输入,输出为14个响应图再找到每个响应图中响应值最大的点,作为骨骼关节点(xi,yi),表示为:其中W和H分别表示输入图像的长和宽,i∈(PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2)分别对应14个关节点;
(b)根据人体的14个骨骼关节点的坐标,获得人体的感兴趣区域框的坐标;14个关节点PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2构成7个点集:J1={PA,PB,PC1,PC2}、J2={PC2,PD2,PE2}、J3={PC1,PD1,PE1}、J4={PF1,PG1,PH1}、J5={PF2,PG2,PH2}、J6={PB,PC1,PC2,PD1,PD2,PE1,PE2}、J7={PF1,PF2,PG1,PG2,PH1,PH2},分别对应头部、四肢、上半身和下半身7个矩形区域,表示为Rn;对于点集Jn构成的区域其中n∈(1,…,7),(xlt,ylt)和(xrb,yrb)分别表示矩形左上角和右下角坐标。
进一步的,步骤4的具体实现方式如下,
步骤4.1,运动信息的关联;
将已跟踪上的行人运动状态的卡尔曼滤波预测结果与当前检测结果之间的马氏距离作为运行信息的关联依据,表示为:
其中DΙ(i,j)表示当前第j个检测结果和第i条轨迹预测结果之间的运动匹配度;dj表示第j个检测框的位置,yi表示第i个追踪器对目标的预测位置;si是由卡尔曼滤波预测得到的在当前时刻观测空间的协方差矩阵;
如果某次关联的马氏距离小于指定的阈值m,则视为运动信息关联成功,继续进行后续表观信息关联,否则终止当前的关联;
步骤4.2,表观信息的关联;
对当前目标检测算法的每个检测结果提取一个表观特征向量vj,并进行归一化使||vj||=1,每一个跟踪器存储一个特征集Ri,包含有该跟踪器最近n帧的特征向量,计算第i个跟踪器特征集与当前帧第j个检测结果的特征向量间的最小余弦距离;计算公式为:其中DΙΙ(i,j)表示第j个检测结果和第i个跟踪轨迹之间的表观匹配度,表示第i个跟踪器第k帧的特征向量;
步骤4.3,数据融合;
使用运动匹配度和表观匹配度两种度量方式的线性加权作为最终的度量,C(i,j)=θDΙ(i,j)+(1-θ)DΙΙ(i,j)
根据设定的阈值T,将匹配度C(i,j)小于阈值的行人检测结果j加入到已有跟踪轨迹i中。
进一步的,所述步骤5中跟踪轨迹筛选具体包括:
设置最大间隔阈值A,用于旧轨迹的移除,对每个跟踪的目标记录上一次跟踪与当前匹配间隔的帧数a,如果a>A,则认为该目标已经消失,因此移除该目标的轨迹;设置最小间隔阈值B决定新轨迹的创建,如果当前检测结果中的目标始终无法与已经存在的跟踪器进行数据关联,那么可能出现新的目标,记潜在轨迹连续关联帧数为b,如果b>B,则创建新轨迹。
本发明所达到的有益效果是:按照行人的运动状态和表观特征相结合的关联匹配方式来生成跟踪轨迹,并且表观特征考虑了行人姿态的变化融合了多个局部特征。这使本方法不仅适用于短时的预测跟踪,而且对一些遮挡及姿态变化的情况都有很好的鲁棒性。
附图说明
图1是本发明实施例的基于运动估计的抗姿态变化行人检测跟踪方法的流程图。
图2是本发明实施例的卡尔曼预测流程图。
图3是本发明实施例的表观特征提取网络结构图。
图4是本发明实施例的人体骨骼关节点及感兴趣区域示意图。
图5是本发明实施例的轨迹筛选流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,抗姿态变化的行人检测跟踪方法,包含以下步骤:
步骤1,利用目标检测算法对当前帧进行行人检测,实施例具体的实施方案如下。
对于基于检测的行人跟踪算法来说,行人检测是非常重要的一个环节,先要将视频中的行人检测出来,然后根据检测得到的结果,将每帧中的行人关联起来。行人检测的质量对后续行人跟踪至关重要。因此选择检测速度快且精度较高的目标检测算法作为目标检测网络。例如YOLO系列,faster RCNN等算法。本实施例选择YOLOv3目标检测算法。
YOLOv3算法将物体分类和物体定位统一在一个步骤中完成,核心思想就是利用整张图作为网络的输入,直接在输出层回归边界框的位置及其所属的类别,从而实现了端到端的目标检测。在基本的图像特征提取方面,YOLOv3采用了Darknet-53的网络结构,即含有53个卷积层,Darknet-53是一种基于Darknet-19网络和残差网络的混合网络结构。它借鉴了残差网络的做法,在一些层之间设置了快捷链路,同时借鉴FPN利用多尺度特征进行检测,提高了对小目标的检测效果。
步骤2,卡尔曼轨迹预测。实施例具体的实施方案如下。
对于行人轨迹的状态,使用一个8维空间去描述轨迹在某时刻的状态(x,y,δ,h,x′,y′,δ′,h′),其中x和y表示检测框中心的位置、δ表示检测框的纵横比、h表示检测框的高、x′、y′、δ′和h′表示对应的速度,其中检测框是利用步骤1的目标检测算法得到。然后使用卡尔曼滤波器预测更新轨迹,该卡尔曼滤波器采用匀速模型和线性观测模型,其观测变量为(x,y,δ,h)。对目标进行状态估计,利用前一时刻通过卡尔曼滤波得到的估计值(通过上一帧的卡尔曼滤波预测得到的)和当前时刻检测得到的观测值(当前的观测值是通过目标检测得到)更新状态变量(即跟踪得到的目标状态的估计),进而对下一时刻的轨迹位置预测。
如图2所示是卡尔曼预测流程图。卡尔曼滤波是一个最优化自回归数据处理算法。卡尔曼滤波的一个典型实例是从一组有限的包含噪声的对物体位置的观察序列预测出物体的位置的坐标及速度。在实际应用中可以在任何含有不确定信息的动态系统中使用卡尔曼滤波,对系统下一步的走向做出有根据的预测。卡尔曼滤波的意义在于尽可能地在包含不确定性的测量数据中提取更多信息。具体包含以下步骤:
(a)由上一级的状态预测当前状态,加上外界的输入。
(b)预测过程增加了新的不确定性Q,加上之前存在的不确定性。
(c)由预测结果的不确定性和观测结果的不确定性R,计算卡尔曼增益(权重)。
(d)对预测结果和观测结果做加权平均,得到当前时刻的状态估计。
(e)更新Pk,代表本次状态估计的不确定性。
和分别表示k-1时刻和k时刻的后验状态估计值,即状态更新后的结果,是通过卡尔曼滤波预测以及一些处理之后的目标的更新状态,也叫最优估计;表示k时刻的先验状态估计值,即根据上一时刻k-1时刻的最优估计预测的k时刻的结果,也就是未经过一些处理的粗预测结果;uk-1表示k-1时刻对系统状态的控制量;Pk-1和Pk分别表示k-1时刻和k时刻的后验估计协方差。表示k时刻的先验估计协方差。H是状态变量到测量的转换矩阵,表示将状态和观测连接起来的关系。Zk是测量值,也就是当前通过检测算法得到的测量变量(x,y,δ,h)等信息,是滤波的输入。Kk是滤波增益矩阵,是滤波的中间计算结果。A是状态转移矩阵,实际上是对目标状态转换的一种猜想模型。Q是过程激励噪声协方差,是卡尔曼滤波器用于估计离散时间过程的状态变量。R是测量噪声协方差。B是将输入转换为状态的矩阵。是实际观测(即检测得到的结果)和预测(即卡尔曼粗预测结果)的残差,和卡尔曼增益一起修正先验,得到后验。
步骤3,抗姿态变化的表观特征提取。实施例具体的实施方案如下。
针对行人姿态变化造成的跟踪丢失或误匹配问题,基于局部特征融合的思想,分别提取人体多个感兴趣区域的表观特征进行组合,最后构成鲁棒的全局表观特征。如图3所示为抗姿态变化的表观特征提取网络的结构图,包含特征提取网络和特征融合网络两部分,具体包括:
步骤3.1,人体感兴趣区域提取。具体包括14个骨骼关节点提取和7个感兴趣区域获得两个步骤,骨骼关节点和感兴趣区域分布如图4所示。
(a)提取人体的14个骨骼关节点:首先利用一个卷积网络例如RPN(regionproposalnetwork)网络,将行人图像作为输入,输出为14个响应图再找到每个响应图中响应值最大的点,作为骨骼关节点Pi=(xi,yi),表示为:其中W和H分别表示输入图像的长和宽,i∈(PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2)分别对应14个关节点。
(b)根据人体的14个骨骼关节点的坐标,获得人体的感兴趣区域框的坐标:如图4所示,14个关节点PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2可以构成7个点集:J1={PA,PB,PC1,PC2}、J2={PC2,PD2,PE2}、J3={PC1,PD1,PE1}、J4={PF1,PG1,PH1}、J5={PF2,PG2,PH2}、J6={PB,PC1,PC2,PD1,PD2,PE1,PE2}、J7={PF1,PF2,PG1,PG2,PH1,PH2},对应头部、四肢、上半身和下半身7个矩形区域,表示为Rn。对于点集Jn构成的区域其中n∈(1,…,7),(xlt,ylt)和(xrb,yrb)分别表示矩形左上角和右下角坐标。
步骤3.2,局部表观特征提取。将行人图像和它的7个感兴趣区域图像输入到特征提取网络中分别提取局部表观特征。如图3,特征提取网络由一系列卷积神经网络(CNN)组成,CNN内部是残差块、批量归一化层和激活函数。网络最后的输出为1×256维的特征向量。图3中感兴趣区域与图4人体骨骼关节点一一对应。
行人图像从特征提取网络起始输入,头部、上半身和下半身图像从特征提取网络的浅层输入,四肢图像从网络深层输入。每个图像都对应一个特征提取子网络,所有子网络结构相同,且对应层之间参数共享。其中ROI pooling的作用是将子网络输出的特征图统一到一个维度上,从而保证所有子网络可以使用同一个结构。
步骤3.3,局部表观特征融合。如图3,特征融合网络由一系列最大池化层级联而成,网络最后的输出为1×256维的特征向量。利用特征融合网络,将特征提取网络输出的8个局部表观特征在网络不同深度上融合。8个局部表观特征分别是行人整体图像的特征、头部图像的特征、四肢图像的特征、上半身图像的特征和下半身图像的特征。
融合时按位保留两个特征中的最大值。首先融合下肢和上肢的特征,再分别将它们与下半身和上半身特征融合,接着将它们和头部特征融合,最后与行人整体图像的特征融合,得到对姿态变化鲁棒的表观特征向量。
步骤4,数据关联匹配。实施例具体的实施方案如下。
同时考虑运动信息和表观信息,通过运动匹配度和表观匹配度来进行数据关联。具体包括运动信息关联、表观信息关联和数据融合三个步骤。
步骤4.1,运动信息的关联。
将已跟踪上的行人运动状态的卡尔曼预测结果与当前YOLOv3检测结果之间的马氏距离作为运行信息的关联依据,表示为:
其中DΙ(i,j)表示当前第j个YOLOv3检测结果和第i条轨迹预测结果之间的运动匹配度;dj表示第j个检测框的位置,yi表示第i个追踪器对目标的预测位置;si是由卡尔曼预测得到的在当前时刻观测空间的协方差矩阵。
如果某次关联的马氏距离小于指定的阈值m,则视为运动信息关联成功,可以继续进行后续表观信息关联,否则终止当前的关联。
步骤4.2,表观信息的关联。
当运动的不确定性很低的时候,马氏距离匹配是一个合适的关联度量方法,但是在图像空间中使用卡尔曼滤波进行运动状态估计只是一个比较粗糙的预测。特别是相机存在运动时会使得马氏距离的关联方法失效,造成出现ID跳变的现象。因此引入了第二种关联方法。
对当前YOLOv3的每个检测结果提取一个表观特征向量vj,并进行归一化使||vj||=1。每一个跟踪器存储一个特征集Ri,包含有该跟踪器最近n帧的特征向量。计算第i个跟踪器特征集与当前帧第j个检测结果的特征向量间的最小余弦距离。计算公式为:其中DΙΙ(i,j)表示第j个检测结果和第i个跟踪轨迹之间的表观匹配度,表示第i个跟踪器第k帧的特征向量。
步骤4.3,数据融合。
使用运动匹配度和表观匹配度两种度量方式的线性加权作为最终的度量。C(i,j)=θDΙ(i,j)+(1-θ)DΙΙ(i,j)
根据设定的阈值T,将匹配度C(i,j)小于阈值的行人检测结果j加入到已有跟踪轨迹i中。距离度量对短期的预测和匹配效果很好,但对于长时间的遮挡的情况,使用外观特征的度量比较有效。将两种度量方式进行融合,能够更好地对目标进行数据匹配。
步骤5,轨迹筛选。实施例具体的实施方案如下。
如图5所示是轨迹筛选流程图。设置最大间隔阈值A,用于旧轨迹的移除。对每个跟踪的目标记录上一次跟踪与当前匹配间隔的帧数a。如果a>A,则认为该目标已经消失,因此移除该目标的轨迹。设置最小间隔阈值B决定新轨迹的创建。如果当前检测结果中的目标始终无法与已经存在的跟踪器进行数据关联,那么可能出现新的目标。记潜在轨迹连续关联帧数为b,如果b>B,则创建新轨迹。
以上内容所描述的具体实施例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做若干的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围,仍应由本发明的权利要求所覆盖。
Claims (6)
1.抗姿态变化的行人检测跟踪方法,其特征在于,包含以下步骤:
步骤1,针对视频序列中的当前帧,通过目标检测算法进行行人检测;
步骤2,利用当前帧中检测到的目标信息,基于卡尔曼滤波对下一帧的目标轨迹位置进行预测;
步骤3,利用卷积神经网络对目标进行抗姿态变化的表观特征提取;
步骤4,对步骤2中的运动信息和步骤3中的表观信息进行关联匹配;
步骤5,根据步骤4中的关联匹配结果对跟踪轨迹进行筛选,获得最终的行人跟踪轨迹。
2.根据权利要求1所述的抗姿态变化的行人检测跟踪方法,其特征在于:步骤2中基于卡尔曼滤波对下一帧的轨迹预测具体包括:
对于行人轨迹的状态,使用一个8维空间去描述轨迹在某时刻的状态(x,y,δ,h,x′,y′,δ′,h′),其中x和y表示检测框中心的位置、δ表示检测框的纵横比、h表示检测框的宽、x′、y′、δ′和h′表示对应的速度,其中检测框是利用步骤1的目标检测算法得到;然后使用卡尔曼滤波器预测更新轨迹,该卡尔曼滤波器采用匀速模型和线性观测模型,其观测变量为(x,y,δ,h),对目标进行状态估计,利用前一帧通过卡尔曼滤波得到的估计值和当前帧检测得到的观测值更新状态变量,进而对下一帧的轨迹位置预测。
3.根据权利要求1所述的抗姿态变化的行人检测跟踪方法,其特征在于:步骤3中抗姿态变化的表观特征提取具体包括以下子步骤:
步骤3.1,人体感兴趣区域提取,具体包括14个骨骼关节点提取和7个感兴趣区域的提取;
步骤3.2,局部表观特征提取,将行人图像和7个感兴趣区域图像输入到特征提取网络中分别提取8个局部表观特征,分别是行人整体图像的特征、头部图像的特征、四肢图像的特征、上半身图像的特征和下半身图像的特征,所述特征提取网络由一系列卷积神经网络(CNN)组成;
步骤3.3,局部表观特征融合,利用特征融合网络,其中特征融合网络由一系列最大池化层级联而成,将特征提取网络输出的8个局部表观特征在网络不同深度上融合,融合时按位保留两个特征中的最大值;首先融合2个下肢和2个上肢特征,再分别和下半身和上半身特征融合,接着将它们和头部特征融合,最后与行人整体图像的特征融合,得到对姿态变化鲁棒的表观特征向量。
4.根据权利要求3所述的抗姿态变化的行人检测跟踪方法,其特征在于:步骤3.1的具体实现包括:
(a)提取人体的14个骨骼关节点:首先利用区域候选网络RPN(region proposalnetwork),将行人图像作为输入,输出为14个响应图再找到每个响应图中响应值最大的点,作为骨骼关节点(xi,yi),表示为:其中W和H分别表示输入图像的长和宽,i∈(PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2)分别对应14个关节点;
(b)根据人体的14个骨骼关节点的坐标,获得人体的感兴趣区域框的坐标;14个关节点PA,PB,PC1,PC2,PC2,PD2,PE1,PE2,PF1,PG1,PH1,PF2,PG2,PH2构成7个点集:J1={PA,PB,PC1,PC2}、J2={PC2,PD2,PE2}、J3={PC1,PD1,PE1}、J4={PF1,PG1,PH1}、J5={PF2,PG2,PH2}、J6={PB,PC1,PC2,PD1,PD2,PE1,PE2}、J7={PF1,PF2,PG1,PG2,PH1,PH2},分别对应头部、四肢、上半身和下半身7个矩形区域,表示为Rn;对于点集Jn构成的区域其中n∈(1,…,7),(xlt,ylt)和(xrb,yrb)分别表示矩形左上角和右下角坐标。
5.根据权利要求3所述的抗姿态变化的行人检测跟踪方法,其特征在于:步骤4的具体实现方式如下,
步骤4.1,运动信息的关联;
将已跟踪上的行人运动状态的卡尔曼滤波预测结果与当前检测结果之间的马氏距离作为运行信息的关联依据,表示为:
其中DΙ(i,j)表示当前第j个检测结果和第i条轨迹预测结果之间的运动匹配度;dj表示第j个检测框的位置,yi表示第i个追踪器对目标的预测位置;si是由卡尔曼滤波预测得到的在当前时刻观测空间的协方差矩阵;
如果某次关联的马氏距离小于指定的阈值m,则视为运动信息关联成功,继续进行后续表观信息关联,否则终止当前的关联;
步骤4.2,表观信息的关联;
对当前目标检测算法的每个检测结果提取一个表观特征向量vj,并进行归一化使||vj||=1,每一个跟踪器存储一个特征集Ri,包含有该跟踪器最近n帧的特征向量,计算第i个跟踪器特征集与当前帧第j个检测结果的特征向量间的最小余弦距离;计算公式为:其中DΙΙ(i,j)表示第j个检测结果和第i个跟踪轨迹之间的表观匹配度,表示第i个跟踪器第k帧的特征向量;
步骤4.3,数据融合;
使用运动匹配度和表观匹配度两种度量方式的线性加权作为最终的度量,
C(i,j)=θDΙ(i,j)+(1-θ)DΙΙ(i,j)
根据设定的阈值T,将匹配度C(i,j)小于阈值的行人检测结果j加入到已有跟踪轨迹i中。
6.根据权利要求5所述的抗姿态变化的行人检测跟踪方法,其特征在于:所述步骤5中跟踪轨迹筛选具体包括:
设置最大间隔阈值A,用于旧轨迹的移除,对每个跟踪的目标记录上一次跟踪与当前匹配间隔的帧数a,如果a>A,则认为该目标已经消失,因此移除该目标的轨迹;设置最小间隔阈值B决定新轨迹的创建,如果当前检测结果中的目标始终无法与已经存在的跟踪器进行数据关联,那么可能出现新的目标,记潜在轨迹连续关联帧数为b,如果b>B,则创建新轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637486.2A CN110490901A (zh) | 2019-07-15 | 2019-07-15 | 抗姿态变化的行人检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910637486.2A CN110490901A (zh) | 2019-07-15 | 2019-07-15 | 抗姿态变化的行人检测跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110490901A true CN110490901A (zh) | 2019-11-22 |
Family
ID=68546045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910637486.2A Pending CN110490901A (zh) | 2019-07-15 | 2019-07-15 | 抗姿态变化的行人检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490901A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909714A (zh) * | 2019-12-05 | 2020-03-24 | 成都思晗科技股份有限公司 | 一种基于图像目标检测与邻近分析的车辆跟踪方法 |
CN111242985A (zh) * | 2020-02-14 | 2020-06-05 | 电子科技大学 | 基于马尔科夫模型的视频多行人追踪方法 |
CN111461222A (zh) * | 2020-04-01 | 2020-07-28 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN111476828A (zh) * | 2020-03-27 | 2020-07-31 | 清华大学 | 多视点动物群体跟踪方法及装置 |
CN111488795A (zh) * | 2020-03-09 | 2020-08-04 | 天津大学 | 应用于无人驾驶车辆的实时行人跟踪方法 |
CN111681382A (zh) * | 2020-05-28 | 2020-09-18 | 天津市三源电力设备制造有限公司 | 一种基于视觉分析检测施工现场跨越临时围栏的方法 |
CN111768429A (zh) * | 2020-06-01 | 2020-10-13 | 重庆大学 | 一种基于卡尔曼滤波和行人重识别算法的隧道环境下行人目标跟踪方法 |
CN111898471A (zh) * | 2020-07-09 | 2020-11-06 | 北京捷通华声科技股份有限公司 | 一种行人跟踪方法和装置 |
CN112016445A (zh) * | 2020-08-27 | 2020-12-01 | 重庆科技学院 | 一种基于监控视频的遗留物检测方法 |
CN112215155A (zh) * | 2020-10-13 | 2021-01-12 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112446355A (zh) * | 2020-12-15 | 2021-03-05 | 中电海康集团有限公司 | 一种公共场所行人识别方法及人流统计系统 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112634325A (zh) * | 2020-12-10 | 2021-04-09 | 重庆邮电大学 | 一种无人机视频多目标跟踪方法 |
CN112669345A (zh) * | 2020-12-30 | 2021-04-16 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
CN112985439A (zh) * | 2021-02-08 | 2021-06-18 | 青岛大学 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
CN113012203A (zh) * | 2021-04-15 | 2021-06-22 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113034548A (zh) * | 2021-04-25 | 2021-06-25 | 安徽科大擎天科技有限公司 | 一种适用于嵌入式终端的多目标跟踪方法及其系统 |
CN113192105A (zh) * | 2021-04-16 | 2021-07-30 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113269098A (zh) * | 2021-05-27 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113538513A (zh) * | 2021-07-13 | 2021-10-22 | 中国工商银行股份有限公司 | 监控对象的进出控制方法、装置、设备及存储介质 |
CN113674310A (zh) * | 2021-05-11 | 2021-11-19 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
CN113963375A (zh) * | 2021-10-20 | 2022-01-21 | 中国石油大学(华东) | 一种基于区域的多特征匹配速滑运动员多目标跟踪方法 |
CN114821639A (zh) * | 2022-04-11 | 2022-07-29 | 西安电子科技大学广州研究院 | 面向特殊场景下人体姿态估计和理解的方法及装置 |
CN115035158A (zh) * | 2022-06-05 | 2022-09-09 | 东北石油大学 | 目标跟踪的方法及装置、电子设备和存储介质 |
CN116260990A (zh) * | 2023-05-16 | 2023-06-13 | 合肥高斯智能科技有限公司 | 一种多路视频流的ai异步检测并实时渲染方法及系统 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622766A (zh) * | 2012-03-01 | 2012-08-01 | 西安电子科技大学 | 多目标优化的多镜头人体运动跟踪方法 |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
CN103559505A (zh) * | 2013-11-18 | 2014-02-05 | 庄浩洋 | 一种3d骨架建模与手检测方法 |
CN103995747A (zh) * | 2014-05-12 | 2014-08-20 | 上海大学 | 基于移动机器人平台的分布式行人检测系统和方法 |
CN104615983A (zh) * | 2015-01-28 | 2015-05-13 | 中国科学院自动化研究所 | 基于递归神经网络和人体骨架运动序列的行为识别方法 |
CN105631413A (zh) * | 2015-12-23 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的跨场景行人搜索方法 |
CN107516321A (zh) * | 2017-07-04 | 2017-12-26 | 深圳大学 | 一种视频多目标跟踪方法及装置 |
US20180068461A1 (en) * | 2013-07-30 | 2018-03-08 | Canon Kabushiki Kaisha | Posture estimating apparatus, posture estimating method and storing medium |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108363978A (zh) * | 2018-02-12 | 2018-08-03 | 华南理工大学 | 采用深度学习和ukf的基于肢体语言的情感感知方法 |
CN108492324A (zh) * | 2018-01-27 | 2018-09-04 | 天津大学 | 基于全连接网络和卡尔曼滤波器的飞机追踪方法 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109522854A (zh) * | 2018-11-22 | 2019-03-26 | 广州众聚智能科技有限公司 | 一种基于深度学习和多目标跟踪的行人流量统计方法 |
CN109829436A (zh) * | 2019-02-02 | 2019-05-31 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
CN109949375A (zh) * | 2019-02-02 | 2019-06-28 | 浙江工业大学 | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 |
CN110008913A (zh) * | 2019-04-08 | 2019-07-12 | 南京工业大学 | 基于姿态估计与视点机制融合的行人再识别方法 |
-
2019
- 2019-07-15 CN CN201910637486.2A patent/CN110490901A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622766A (zh) * | 2012-03-01 | 2012-08-01 | 西安电子科技大学 | 多目标优化的多镜头人体运动跟踪方法 |
CN102682302A (zh) * | 2012-03-12 | 2012-09-19 | 浙江工业大学 | 一种基于关键帧的多特征融合的人体姿态识别方法 |
US20180068461A1 (en) * | 2013-07-30 | 2018-03-08 | Canon Kabushiki Kaisha | Posture estimating apparatus, posture estimating method and storing medium |
CN103559505A (zh) * | 2013-11-18 | 2014-02-05 | 庄浩洋 | 一种3d骨架建模与手检测方法 |
CN103995747A (zh) * | 2014-05-12 | 2014-08-20 | 上海大学 | 基于移动机器人平台的分布式行人检测系统和方法 |
CN104615983A (zh) * | 2015-01-28 | 2015-05-13 | 中国科学院自动化研究所 | 基于递归神经网络和人体骨架运动序列的行为识别方法 |
CN105631413A (zh) * | 2015-12-23 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的跨场景行人搜索方法 |
CN107516321A (zh) * | 2017-07-04 | 2017-12-26 | 深圳大学 | 一种视频多目标跟踪方法及装置 |
CN107832672A (zh) * | 2017-10-12 | 2018-03-23 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108492324A (zh) * | 2018-01-27 | 2018-09-04 | 天津大学 | 基于全连接网络和卡尔曼滤波器的飞机追踪方法 |
CN108363978A (zh) * | 2018-02-12 | 2018-08-03 | 华南理工大学 | 采用深度学习和ukf的基于肢体语言的情感感知方法 |
CN109460702A (zh) * | 2018-09-14 | 2019-03-12 | 华南理工大学 | 基于人体骨架序列的乘客异常行为识别方法 |
CN109522854A (zh) * | 2018-11-22 | 2019-03-26 | 广州众聚智能科技有限公司 | 一种基于深度学习和多目标跟踪的行人流量统计方法 |
CN109829436A (zh) * | 2019-02-02 | 2019-05-31 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN109949375A (zh) * | 2019-02-02 | 2019-06-28 | 浙江工业大学 | 一种基于深度图感兴趣区域的移动机器人目标跟踪方法 |
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
CN110008913A (zh) * | 2019-04-08 | 2019-07-12 | 南京工业大学 | 基于姿态估计与视点机制融合的行人再识别方法 |
Non-Patent Citations (4)
Title |
---|
CHUNFANG ZHAO 等: "The Study of Pedestrian Re-Identification with the Illumination Change", 《2018 IEEE 3RD ADVANCED INFORMATION TECHNOLOGY, ELECTRONIC AND AUTOMATION CONTROL CONFERENCE (IAEAC)》 * |
中国航空学会信息融合分会: "《第六届中国信息融合大会论文集 下》", 30 November 2014 * |
公安部第三研究所: "《多摄像机协同关注目标检测跟踪技术》", 30 June 2017, 南京:东南大学出版社 * |
张志强: "基于深度学习的人体姿态估计研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909714A (zh) * | 2019-12-05 | 2020-03-24 | 成都思晗科技股份有限公司 | 一种基于图像目标检测与邻近分析的车辆跟踪方法 |
CN111242985A (zh) * | 2020-02-14 | 2020-06-05 | 电子科技大学 | 基于马尔科夫模型的视频多行人追踪方法 |
CN111242985B (zh) * | 2020-02-14 | 2022-05-10 | 电子科技大学 | 基于马尔科夫模型的视频多行人追踪方法 |
CN111488795A (zh) * | 2020-03-09 | 2020-08-04 | 天津大学 | 应用于无人驾驶车辆的实时行人跟踪方法 |
CN111488795B (zh) * | 2020-03-09 | 2022-12-02 | 天津大学 | 应用于无人驾驶车辆的实时行人跟踪方法 |
CN111460926A (zh) * | 2020-03-16 | 2020-07-28 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN111460926B (zh) * | 2020-03-16 | 2022-10-14 | 华中科技大学 | 一种融合多目标跟踪线索的视频行人检测方法 |
CN111476828A (zh) * | 2020-03-27 | 2020-07-31 | 清华大学 | 多视点动物群体跟踪方法及装置 |
CN111476828B (zh) * | 2020-03-27 | 2023-01-10 | 清华大学 | 多视点动物群体跟踪方法及装置 |
CN111461222A (zh) * | 2020-04-01 | 2020-07-28 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111461222B (zh) * | 2020-04-01 | 2023-05-02 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111681382A (zh) * | 2020-05-28 | 2020-09-18 | 天津市三源电力设备制造有限公司 | 一种基于视觉分析检测施工现场跨越临时围栏的方法 |
CN111768429A (zh) * | 2020-06-01 | 2020-10-13 | 重庆大学 | 一种基于卡尔曼滤波和行人重识别算法的隧道环境下行人目标跟踪方法 |
CN111898471B (zh) * | 2020-07-09 | 2024-06-07 | 北京捷通华声科技股份有限公司 | 一种行人跟踪方法和装置 |
CN111898471A (zh) * | 2020-07-09 | 2020-11-06 | 北京捷通华声科技股份有限公司 | 一种行人跟踪方法和装置 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112016445A (zh) * | 2020-08-27 | 2020-12-01 | 重庆科技学院 | 一种基于监控视频的遗留物检测方法 |
CN112215155B (zh) * | 2020-10-13 | 2022-10-14 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112215155A (zh) * | 2020-10-13 | 2021-01-12 | 北京中电兴发科技有限公司 | 一种基于多特征融合的人脸跟踪方法及系统 |
CN112634325A (zh) * | 2020-12-10 | 2021-04-09 | 重庆邮电大学 | 一种无人机视频多目标跟踪方法 |
CN112446355B (zh) * | 2020-12-15 | 2023-10-17 | 中电海康集团有限公司 | 一种公共场所行人识别方法及人流统计系统 |
CN112446355A (zh) * | 2020-12-15 | 2021-03-05 | 中电海康集团有限公司 | 一种公共场所行人识别方法及人流统计系统 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
CN112669345B (zh) * | 2020-12-30 | 2023-10-20 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112669345A (zh) * | 2020-12-30 | 2021-04-16 | 中山大学 | 一种面向云端部署的多目标轨迹跟踪方法及系统 |
CN112465078A (zh) * | 2021-02-03 | 2021-03-09 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112465078B (zh) * | 2021-02-03 | 2021-04-16 | 成都点泽智能科技有限公司 | 跨摄像头行人轨迹处理方法、计算机设备及可读存储介质 |
CN112985439B (zh) * | 2021-02-08 | 2023-10-17 | 青岛大学 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
CN112985439A (zh) * | 2021-02-08 | 2021-06-18 | 青岛大学 | 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法 |
CN113012203B (zh) * | 2021-04-15 | 2023-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113012203A (zh) * | 2021-04-15 | 2021-06-22 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
WO2022217840A1 (zh) * | 2021-04-15 | 2022-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113192105B (zh) * | 2021-04-16 | 2023-10-17 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113192105A (zh) * | 2021-04-16 | 2021-07-30 | 嘉联支付有限公司 | 一种室内多人追踪及姿态估量的方法及装置 |
CN113034548A (zh) * | 2021-04-25 | 2021-06-25 | 安徽科大擎天科技有限公司 | 一种适用于嵌入式终端的多目标跟踪方法及其系统 |
CN113674310A (zh) * | 2021-05-11 | 2021-11-19 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
CN113674310B (zh) * | 2021-05-11 | 2024-04-26 | 华南理工大学 | 一种基于主动视觉感知的四旋翼无人机目标跟踪方法 |
CN113269098B (zh) * | 2021-05-27 | 2023-06-16 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113269098A (zh) * | 2021-05-27 | 2021-08-17 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于无人机的多目标跟踪定位与运动状态估计方法 |
CN113538513A (zh) * | 2021-07-13 | 2021-10-22 | 中国工商银行股份有限公司 | 监控对象的进出控制方法、装置、设备及存储介质 |
CN113963375A (zh) * | 2021-10-20 | 2022-01-21 | 中国石油大学(华东) | 一种基于区域的多特征匹配速滑运动员多目标跟踪方法 |
CN114821639A (zh) * | 2022-04-11 | 2022-07-29 | 西安电子科技大学广州研究院 | 面向特殊场景下人体姿态估计和理解的方法及装置 |
CN115035158A (zh) * | 2022-06-05 | 2022-09-09 | 东北石油大学 | 目标跟踪的方法及装置、电子设备和存储介质 |
CN115035158B (zh) * | 2022-06-05 | 2023-11-17 | 东北石油大学 | 目标跟踪的方法及装置、电子设备和存储介质 |
CN116260990A (zh) * | 2023-05-16 | 2023-06-13 | 合肥高斯智能科技有限公司 | 一种多路视频流的ai异步检测并实时渲染方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490901A (zh) | 抗姿态变化的行人检测跟踪方法 | |
CN106897670B (zh) | 一种基于计算机视觉的快递暴力分拣识别方法 | |
CN107292911A (zh) | 一种基于多模型融合和数据关联的多目标跟踪方法 | |
CN105335986B (zh) | 基于特征匹配和MeanShift算法的目标跟踪方法 | |
CN104115192B (zh) | 三维近距离交互的改进或与其有关的改进 | |
CN111310659B (zh) | 基于增进式图卷积神经网络的人体动作识别方法 | |
CN109064484B (zh) | 基于子群组划分与动量特征融合的人群运动行为识别方法 | |
CN108921879A (zh) | 基于区域选择的CNN和Kalman滤波的运动目标跟踪方法及系统 | |
Rout | A survey on object detection and tracking algorithms | |
CN108830171A (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
CN109341703A (zh) | 一种全周期采用CNNs特征检测的视觉SLAM算法 | |
Sun et al. | A novel supervised level set method for non-rigid object tracking | |
CN101853511A (zh) | 一种抗遮挡目标轨迹预测跟踪方法 | |
CN103325126A (zh) | 一种在尺度变化和遮挡情况下的视频目标跟踪方法 | |
CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
CN106023211A (zh) | 基于深度学习的机器人图像定位方法及系统 | |
Wen et al. | Hybrid semi-dense 3D semantic-topological mapping from stereo visual-inertial odometry SLAM with loop closure detection | |
CN108682022A (zh) | 基于对抗迁移网络的视觉跟踪方法及系统 | |
CN108681711A (zh) | 一种面向移动机器人的自然路标提取方法 | |
CN110443829A (zh) | 一种基于运动特征和相似度特征的抗遮挡跟踪算法 | |
CN111739053A (zh) | 一种复杂场景下的在线多行人检测跟踪方法 | |
CN110197121A (zh) | 基于DirectShow的运动目标检测方法、运动目标检测模块及监控系统 | |
Hao et al. | Recognition of basketball players’ action detection based on visual image and Harris corner extraction algorithm | |
Li et al. | Visual slam in dynamic scenes based on object tracking and static points detection | |
CN114926859A (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191122 |