CN114419669A - 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 - Google Patents
一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 Download PDFInfo
- Publication number
- CN114419669A CN114419669A CN202111654112.5A CN202111654112A CN114419669A CN 114419669 A CN114419669 A CN 114419669A CN 202111654112 A CN202111654112 A CN 202111654112A CN 114419669 A CN114419669 A CN 114419669A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- camera
- orientation
- track
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于重识别和方位感知的实时跨摄像头行人跟踪方法。本发明包括以下步骤:(1)行人检测,(2)外观特征提取,(3)行人方位感知,(4)单摄像头目标跟踪,(5)基于层次聚类的跨摄像头轨迹关联。本发明通过基于深度学习的方位估计网络预测行人图像的方位,为行人重识别特征提供方位信息,减轻了由于摄像头视角、行人姿态造成的行人外观特征差距,同时,利用行人的空间信息缩小了跨摄像头轨迹关联时的搜索范围,提高了跨摄像头目标跟踪方法的实时性。
Description
技术领域
本文发明涉及跨摄像头行人跟踪技术领域,具体来讲是一种基于重识别和方位感知的实时跨摄像头行人跟踪方法。
背景技术
跨摄像头行人跟踪是智能视频监控领域中的一个研究热点,旨在从多视角场景中识别出身份一致的行人,以便实现监控区域内行人的持续跟踪。然而,受限于不同摄像头下不一致的光照条件、变化的行人姿态以及不同的相机视角,使得开发一个可供实际使用的跨摄像头行人跟踪系统极具挑战性。
因此,为了解决这些问题,当前的研究者提出了几种离线方法。这些方法通常需要考虑整个视频序列,首先依次对每个摄像头执行行人跟踪,获得每个摄像头下的短轨迹,然后,使用重识别技术来执行跨摄像头的轨迹关联,通过执行全局优化获得最优的行人轨迹。尽管这些方法取得了优异的性能,但是由于高延迟和后处理要求,极大的限制了这些方法的实际应用。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于重识别和方位感知的实时跨摄像头行人跟踪方法。
本发明解决其技术问题所采用的技术方案如下:
步骤(1)利用行人重识别数据集训练行人重识别模型,该模型用于提取行人外观特征;
步骤(2)设计行人方位感知网络,构建行人方位数据集,用于训练行人方位感知网络;
步骤(3)捕获每个摄像头的输入视频流,开启多线程读取每个视频流的图像帧存储到队列中;每个线程读取一个视频流的图像帧;
步骤(4)逐帧读取队列中存储的图像,使用行人检测算法对每一张图像进行检测,得到行人的边界框信息;
步骤(5)利用步骤(1)中训练的行人重识别模型提取步骤(4)中每一个行人边界框的外观特征;
步骤(6)利用步骤(2)中训练的方位感知模型提取步骤(4)中每一个行人边界框的方位信息;
步骤(7)利用卡尔曼滤波预测每个行人的运动信息,运动信息结合行人重识别模型提取的外观特征共同完成单摄像头下的目标跟踪,得到单摄像头下行人的运动轨迹;
步骤(8)利用行人的方位信息对行人外观特征进行分类,将单摄像头下的运动轨迹进行跨摄像头轨迹关联,为同一行人在不同摄像头下的运动轨迹分配同一ID,从而完成跨摄像头行人跟踪。
本发明通过基于深度学习的方位估计网络预测行人图像的方位,为行人重识别特征提供方位信息,减轻了由于摄像头视角、行人姿态造成的行人外观特征差距,同时,利用行人的空间信息,缩小了跨摄像头轨迹关联的搜索范围,并通过姿态估计获得了行人的方位信息,方位信息被用于对行人外观特征进行分类,提高了跨摄像头目标跟踪方法的实时性。
附图说明
图1是本发明的整体实施方案流程图
图2是本发明的行人方位示意图
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1是本发明的整体实施方案流程图,涉及跨摄像头行人跟踪领域,包括以下步骤:(1)行人检测,(2)外观特征提取,(3)行人方位感知,(4)单摄像头目标跟踪,(5)基于层次聚类的跨摄像头轨迹关联。本发明通过基于深度学习的方位估计网络预测行人图像的方位,为行人重识别特征提供方位信息,减轻了由于摄像头视角、行人姿态造成的行人外观特征差距,同时,利用行人的空间信息缩小了跨摄像头轨迹关联时的搜索范围,提高了跨摄像头目标跟踪方法的实时性。
如图1和2所示,本发明一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,包括以下步骤:
步骤(1)利用行人重识别数据集训练行人重识别模型,该模型用于提取行人外观特征;
步骤(2)设计行人方位感知网络,构建行人方位数据集,用于训练行人方位感知网络;
步骤(3)捕获每个摄像头的输入视频流,开启多线程读取每个视频流的图像帧存储到队列中;每个线程读取一个视频流的图像帧;
步骤(4)逐帧读取队列中存储的图像,使用行人检测算法对每一张图像进行检测,得到行人的边界框信息;
步骤(5)利用步骤(1)中训练的行人重识别模型提取步骤(4)中每一个行人边界框的外观特征;
步骤(6)利用步骤(2)中训练的方位感知模型提取步骤(4)中每一个行人边界框的方位信息;
步骤(7)利用卡尔曼滤波预测每个行人的运动信息,运动信息结合行人重识别模型提取的外观特征共同完成单摄像头下的目标跟踪,得到单摄像头下行人的运动轨迹;
步骤(8)利用行人的方位信息对行人外观特征进行分类,将单摄像头下的运动轨迹进行跨摄像头轨迹关联,为同一行人在不同摄像头下的运动轨迹分配同一ID,从而完成跨摄像头行人跟踪。
进一步的,所述步骤(1)具体实现过程如下:
1-1为抑制图像中的背景杂波,以Strong Baseline行人重识别模型为基准,在模型的各个阶段之间添加注意力模块,该注意力模块由通道注意力和空间注意力组成,表示为空间相关的注意力权重S和通道相关的注意力权重Vc之间的张量乘法,计算过程如公式(1)所示。
V=S×Vc (1)
1-2使用Market1501和DukeMTMC-reID这两个行人重识别领域的基准数据集对行人重识别模型进行训练。模型训练中使用两类损失:困难三元组损失和交叉熵损失。
进一步的,所述步骤(2)具体实现过程如下:
2-1行人的姿态变化是导致同一个人外观特征不一致的主要原因,为克服这个问题,因此设计行人方位感知网络实现行人方位估计。如图2所示,将人的朝向分为正面、背面和侧面,将DukeMTMC-reID数据集中的数据分为以上三类,以此构建行人方位数据集。
2-2使用Alpha Pose模型获取上半部分人体关键点信息,该模型能够得到上半部分的人体关键点信息Fbody={fls,frs,flh,frh}、耳朵关键点信息Fe={fle,fre},以及人体关键点信息置信度和耳朵关键点信息置信度。
2-3将人体方位估计当做一个分类任务,设计一个行人方位估计模型,行人方位估计模型如表1所示,包括输入层、3个全连接层和输出层,并在输出层的后面加入softmax层,将输出结果转换为属于不同类别的可能性大小;以人体关键点信息Fbody、耳朵关键点信息Fe、人体关键点信息置信度和耳朵关键点信息置信度作为输入,3个朝向状态作为输出,训练得到行人方位估计模型。
表1
进一步的,所述步骤(3)具体实现过程如下:
3-1使用视频解码器ffmpeg,以30fps的帧率捕获每个摄像头下的视频流,并将图像帧存储到队列中。
进一步的,所述步骤(4)具体实现过程如下:
4-1依次读取摄像头视频流存储在队列中的每帧图像,使用SSD算法对图像进行行人检测,得到每一个行人的边界框b=[x,y,w,h],其中[x,y]为边界框左上角像素坐标,[w,h]为边界框宽度和高度。
进一步的,所述步骤(5)具体实现过程如下:
5-1使用步骤(4)中得到的行人边界框,在对应图像帧中截取行人图像 表示第j个摄像头检测到的第i个行人图像。将行人图像输入到步骤(1)中得到的行人重识别模型,得到行人的外观特征 表示第j个摄像头检测到的第i个行人的外观特征。
进一步的,所述步骤(6)具体实现过程如下:
6-1使用Alpha Pose模型获取步骤(5)中每一张行人图像的人体关键点信息Fbody、耳朵关键点信息Fe、人体关键点信息置信度和耳朵关键点信息置信度,并将其输入步骤(2)中的得到的行人方位估计模型,获取每一张行人图像中行人的方位信息 表示第j个摄像头检测到的第i个行人的方位信息。
进一步的,所述步骤(7)具体实现过程如下:
7-1使用一个基于常量速度模型和线性观测模型的标准卡尔曼滤波器进行目标运动状态的预测,预测结果为(u,p,r,h,vu,vp,vr,vh,),由行人边界框的中心坐标(u,p),边界框宽r,边界框高h,以及各自的速度变化值vu,vp,vr,vh组成;将预测结果表示为行人的运动状态信息。
7-2采用马氏距离表示第m个检测目标和第n个轨迹之间的运动状态相似度,如公式(2)所示,其中dm表示第m个检测目标的运动信息,yn表示第n个轨迹的运动信息,Sn是由卡尔曼滤波器预测得到的第n个轨迹在当前观测空间的协方差矩阵。除此之外为避免目标运动状态的不确定性导致的行人ID变换,使用余弦距离计算第m个检测目标和第n个轨迹之间的外观特征相似度,如公式(3)所示,fm表示第m个检测目标的外观特征信息,fn表示第n个轨迹的外观特征信息。通过线性加权融合运动状态相似度v(n,m)和外观特征相似度f(n,m),构建检测目标和轨迹之间的代价矩阵D,如公式(4)所示,α是超参数,用于调整不同项的权重。最后采用匈牙利算法完成检测目标和轨迹之间的匹配任务,实现单摄像头下的目标跟踪。
f(n,m)=cos(fm,fn) (3)
D(n,m)=αv(n,m)+(1-α)f(n,m) (4)。
进一步的,所述步骤(8)具体实现过程如下:
8-1通过步骤(7)得到每个摄像头下的行人轨迹集合,将其定义为 表示第j个摄像头下的第i条轨迹,M表示每个摄像头下的行人运动轨迹总数。通过结合位置信息、外观特征以及行人方位信息进行层次聚类完成跨摄像头下的轨迹关联任务。
8-2首先利用行人方位信息将行人轨迹中的行人特征进行分类,使用欧几里得距离度量不同轨迹之间同方位外观特征的距离,如公式(5)所示,ft表示第t条轨迹的外观特征信息。同时也计算每个轨迹当前图像帧的行人位置信息之间的空间距离,如公式(6)所示,loct表示第t条轨迹的位置信息:
d(t,t')=||ft,ft')||2 (5)
e(t,t')=||loct,loct')||2 (6)
8-3空间距离和摄像头id被用来对代价矩阵做一些约束。首先,对于空间距离很远的轨迹,不可能属于同一个行人,如公式(7)所示,r表示最大关联半径,d(t,t')表示第t条轨迹和第t'条轨迹之间的外观特征差距。其次在当前图像帧中同一个摄像头拍摄到的不同轨迹,也不可能属于同一个行人,如公式(8)所示,Ct表示第t条轨迹所属的摄像机ID。经过公式(7)(8)计算,得到表示所有轨迹之间相似度的距离矩阵R。最后,使用层次聚类算法完成不同摄像头之间的轨迹关联,在聚类结果中,每一个簇中所有的轨迹被赋予同一身份ID。
8-4为验证本发明的有效性,在EPFL数据集上进行了相关实验,实验结果如表2所示。相较于现有的跨摄像头行人跟踪方法,本发明有较明显的性能提升。
表2
Claims (9)
1.一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于包括如下步骤:
步骤(1)利用行人重识别数据集训练行人重识别模型,该模型用于提取行人外观特征;
步骤(2)设计行人方位感知网络,构建行人方位数据集,用于训练行人方位感知网络;
步骤(3)捕获每个摄像头的输入视频流,开启多线程读取每个视频流的图像帧存储到队列中;每个线程读取一个视频流的图像帧;
步骤(4)逐帧读取队列中存储的图像,使用行人检测算法对每一张图像进行检测,得到行人的边界框信息;
步骤(5)利用步骤(1)中训练的行人重识别模型提取步骤(4)中每一个行人边界框的外观特征;
步骤(6)利用步骤(2)中训练的方位感知模型提取步骤(4)中每一个行人边界框的方位信息;
步骤(7)利用卡尔曼滤波预测每个行人的运动信息,运动信息结合行人重识别模型提取的外观特征共同完成单摄像头下的目标跟踪,得到单摄像头下行人的运动轨迹;
步骤(8)利用行人的方位信息对行人外观特征进行分类,将单摄像头下的运动轨迹进行跨摄像头轨迹关联,为同一行人在不同摄像头下的运动轨迹分配同一ID,从而完成跨摄像头行人跟踪。
2.根据权利要求1所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于所述步骤(1)具体实现过程如下:
1-1以Strong Baseline行人重识别模型为基准,在模型的各个阶段之间添加注意力模块,该注意力模块由通道注意力和空间注意力组成,表示为空间相关的注意力权重S和通道相关的注意力权重Vc之间的张量乘法,计算过程如公式(1)所示;
V=S×Vc (1)
1-2使用Market1501和DukeMTMC-reID这两个行人重识别领域的基准数据集对行人重识别模型进行训练;模型训练中使用两类损失:困难三元组损失和交叉熵损失。
3.根据权利要求1所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于所述步骤(2)具体实现过程如下:
2-1设计行人方位感知网络实现行人方位估计;将人的朝向分为正面、背面和侧面,将DukeMTMC-reID数据集中的数据分为以上三类,以此构建行人方位数据集;
2-2使用Alpha Pose模型获取上半部分的人体关键点信息,该模型能够得到上半部分的人体关键点信息Fbody={fls,frs,flh,frh}、耳朵关键点信息Fe={fle,fre},以及人体关键点信息置信度和耳朵关键点信息置信度;
2-3将人体方位估计当做一个分类任务,设计一个行人方位估计模型,行人方位估计模型包括输入层、3个全连接层和输出层,并在输出层的后面加入softmax层,将输出结果转换为属于不同类别的可能性大小;以人体关键点信息Fbody、耳朵关键点信息Fe、人体关键点信息置信度和耳朵关键点信息置信度作为输入,3个朝向状态作为输出,训练得到行人方位估计模型。
4.根据权利要求1或3所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于步骤(3)使用视频解码器ffmpeg,以30fps的帧率捕获每个摄像头下的视频流,并将图像帧存储到队列中。
5.根据权利要求4所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于所述步骤(4)具体实现过程如下:
4-1依次读取摄像头视频流存储在队列中的每帧图像,使用SSD算法对图像进行行人检测,得到每一个行人的边界框b=[x,y,w,h],其中[x,y]为边界框左上角像素坐标,[w,h]为边界框宽度和高度。
8.根据权利要求7所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于所述步骤(7)具体实现过程如下:
7-1使用一个基于常量速度模型和线性观测模型的标准卡尔曼滤波器进行目标运动状态的预测,预测结果为(u,p,w,h,vu,vp,vw,vh,),由行人边界框的中心坐标(u,p),边界框宽w,边界框高h,以及各自的速度变化值vu,vp,vw,vh组成;将预测结果表示为行人的运动状态信息;
7-2采用马氏距离表示第m个检测目标和第n个轨迹之间的运动状态相似度,如公式(2)所示,其中dm表示第m个检测目标的运动信息,yn表示第n个轨迹的运动信息,Sn是由卡尔曼滤波器预测得到的第n个轨迹在当前观测空间的协方差矩阵;使用余弦距离计算第m个检测目标和第n个轨迹之间的外观特征相似度,如公式(3)所示,fm表示第m个检测目标的外观特征信息,fn表示第n个轨迹的外观特征信息;通过线性加权融合运动状态相似度v(n,m)和外观特征相似度f(n,m),构建检测目标和轨迹之间的代价矩阵D,如公式(4)所示,α是超参数,用于调整不同项的权重;最后采用匈牙利算法完成检测目标和轨迹之间的匹配任务,实现单摄像头下的目标跟踪;
f(n,m)=cos(fm,fn) (3)
D(n,m)=αv(n,m)+(1-α)f(n,m) (4)。
9.根据权利要求8所述的一种基于重识别和方位感知的实时跨摄像头行人跟踪方法,其特征在于所述步骤(8)具体实现过程如下:
8-1通过步骤(7)得到每个摄像头下的行人轨迹集合,将其定义为 表示第j个摄像头下的第i条轨迹,M表示每个摄像头下的行人运动轨迹总数;通过结合位置信息、外观特征以及行人方位信息进行层次聚类完成跨摄像头下的轨迹关联任务;
8-2首先利用行人方位信息将行人轨迹中的行人特征进行分类,使用欧几里得距离度量不同轨迹之间同方位外观特征的距离,如公式(5)所示,ft表示第t条轨迹的外观特征信息;同时也计算每个轨迹当前图像帧的行人位置信息之间的空间距离,如公式(6)所示,loct表示第t条轨迹的位置信息:
d(t,t′)=||ft,ft′)||2 (5)
e(t,t′)=||loCt,loct′)||2 (6)
8-3空间距离和摄像头id被用来对代价矩阵做一些约束;首先,对于空间距离很远的轨迹,不可能属于同一个行人,如公式(7)所示,r表示最大关联半径,d(t,t′)表示第t条轨迹和第t′条轨迹之间的外观特征差距;其次在当前图像帧中同一个摄像头拍摄到的不同轨迹,也不可能属于同一个行人,如公式(8)所示,Ct表示第t条轨迹所属的摄像机ID;经过公式(7)(8)计算,得到表示所有轨迹之间相似度的距离矩阵R;最后,使用层次聚类算法完成不同摄像头之间的轨迹关联,在聚类结果中,每一个簇中所有的轨迹被赋予同一身份ID;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111654112.5A CN114419669A (zh) | 2021-12-30 | 2021-12-30 | 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111654112.5A CN114419669A (zh) | 2021-12-30 | 2021-12-30 | 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114419669A true CN114419669A (zh) | 2022-04-29 |
Family
ID=81269904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111654112.5A Pending CN114419669A (zh) | 2021-12-30 | 2021-12-30 | 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114419669A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115631464A (zh) * | 2022-11-17 | 2023-01-20 | 北京航空航天大学 | 面向大时空目标关联的行人立体表示方法 |
CN115661722A (zh) * | 2022-11-16 | 2023-01-31 | 北京航空航天大学 | 一种结合属性与朝向的行人再识别方法 |
CN116912508A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 多媒体数据的目标跟踪方法和装置 |
-
2021
- 2021-12-30 CN CN202111654112.5A patent/CN114419669A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115661722A (zh) * | 2022-11-16 | 2023-01-31 | 北京航空航天大学 | 一种结合属性与朝向的行人再识别方法 |
CN115631464A (zh) * | 2022-11-17 | 2023-01-20 | 北京航空航天大学 | 面向大时空目标关联的行人立体表示方法 |
CN116912508A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 多媒体数据的目标跟踪方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108875588B (zh) | 基于深度学习的跨摄像头行人检测跟踪方法 | |
Asha et al. | Vehicle counting for traffic management system using YOLO and correlation filter | |
Jafari et al. | Real-time RGB-D based people detection and tracking for mobile robots and head-worn cameras | |
CN114419669A (zh) | 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 | |
Wojek et al. | Multi-cue onboard pedestrian detection | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
Tan et al. | Multi-camera vehicle tracking and re-identification based on visual and spatial-temporal features. | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
Peng et al. | Drone-based vacant parking space detection | |
Shantaiya et al. | A survey on approaches of object detection | |
CN114639117B (zh) | 一种跨境特定行人追踪的方法和装置 | |
JP2012083855A (ja) | 物体認識装置及び物体認識方法 | |
Garg et al. | Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation | |
Yang et al. | Single shot multibox detector with kalman filter for online pedestrian detection in video | |
Xiao et al. | Vehicle and person tracking in aerial videos | |
CN105957103A (zh) | 一种基于视觉的运动特征提取方法 | |
CN110889347A (zh) | 基于时空计数特征的密度交通流计数方法及系统 | |
Hou et al. | Human detection and tracking over camera networks: A review | |
CN116935325A (zh) | 一种基于检测和跟踪的公交站台遗留物检测方法 | |
CN106023252A (zh) | 一种基于oab算法的多摄像机人体跟踪方法 | |
CN113743217A (zh) | 一种基于骨骼点的端到端行人动作识别方法 | |
Vasuhi et al. | Object detection and tracking in secured area with wireless and multimedia sensor network | |
Del Bimbo et al. | Person detection using temporal and geometric context with a pan tilt zoom camera | |
Zhou et al. | An anti-occlusion tracking system for UAV imagery based on Discriminative Scale Space Tracker and Optical Flow | |
Duanmu et al. | A multi-view pedestrian tracking framework based on graph matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |