CN110728702A - 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 - Google Patents
一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN110728702A CN110728702A CN201910811068.0A CN201910811068A CN110728702A CN 110728702 A CN110728702 A CN 110728702A CN 201910811068 A CN201910811068 A CN 201910811068A CN 110728702 A CN110728702 A CN 110728702A
- Authority
- CN
- China
- Prior art keywords
- track
- camera
- pedestrian
- target
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
一种基于深度学习的高速跨摄像头单目标跟踪方法,涉及计算机视觉技术领域,解决现有技术以多摄像头多目标跟踪,需要对所有轨迹片提取特征并全局关联,而无法只对部分数据处理的问题,本发明包括建立行人检测模型;单相机内多目标跟踪,基于卡尔曼滤波算法进行多目标跟踪;轨迹片代表图片筛选;采用预先训练好的行人再识别模型提取行人外观特征;在单摄像头域内,设计搜索约束条件和关联;设计的跨摄像头轨迹方向约束以及基于轨迹方向约束的跨摄像头轨迹关联的步骤实现单目标跟踪。实验结果和分析表明本发明所述的跟踪方法取得较好的实时性和准确性。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的高速跨摄像头单目标跟踪方法及系统。
背景技术
多摄像机目标跟踪是计算机视觉领域的研究热点。其任务目的是在多个视域不重叠的摄像头中找到某个特定的行人轨迹。由于每个摄像头的场景和光照不同,行人姿态各异,存在互相遮挡的情况,使得任务面临多重挑战。
以往跨摄像头跟踪研究以多摄像头多目标跟踪(MTMCT)任务场景为主,而单目标跨摄像头跟踪任务常被忽视。虽然前者包含后者,但两者存在不同的应用场景。以NLPR MCT挑战的跟踪任务为例。大多数算法着力于提升跟踪精度,通常会对所有轨迹片提取特征并全局关联。这些全局信息给整体MTMCT任务带来性能提升。但对于单个行人的跨摄像头跟踪应用,许多处理对实时性是有害的。如单目标跟踪时不希望行人消失后算法仍对其他行人做处理,而全局方法需要全局信息关联无法只对部分数据处理。此外,目前MCT算法需要跟踪总人数这一关键先验信息。这种信息对现实跟踪任务来说难以实现。
发明内容
本发明为解决现有技术以多摄像头多目标跟踪,需要对所有轨迹片提取特征并全局关联,而无法只对部分数据处理的问题,提供一种基于深度学习的高速跨摄像头单目标跟踪方法。
基于深度学习的高速跨摄像头单目标跟踪方法,该方法由以下步骤实现:
步骤一、采用行人检测模型检测行人目标,输出每个摄像头下每个行人的检测框位置大小及检测得分;
步骤二、采用步骤一获得的检测框的交并比为依据,基于卡尔曼滤波算法进行多目标跟踪,获得运动轨迹集合;
步骤三、根据步骤二获得的运动轨迹集合,采用轨迹片代表图片进行筛选,获得轨迹特征中行人检测得分高的轨迹图片;
步骤四、采用预先训练好的行人再识别模型对步骤三获得的轨迹图片提取行人外观特征;
步骤五、在单摄像头域内,设定搜索约束条件和轨迹关联,将搜索范围内余弦距离最小的轨迹图片作为匹配轨迹,采用所述匹配轨迹进行关联,获得关联后的轨迹集合;
步骤六、对步骤五获得的关联后的轨迹集合,设计跨摄像头轨迹局部二部图关联的方向约束条件,最终匹配建立时空约束条件;
步骤七、根据步骤六的时空约束条件,基于轨迹方向约束的跨摄像头轨迹关联,采用匈牙利法寻找使所有匹配距离之和最小的匹配关联,如果命中目标,则关联成功;否则关联失败,终止该目标的跟踪。
基于深度学习的高速跨摄像头单目标跟踪系统,包括行人检测模块,单相机内多目标跟踪模块,行人再识别模型特征提取模块以及轨迹关联模块;
所述行人检测模块用于检测行人目标,输出行人检测框及检测得分;
所述单相机内多目标跟踪模块用于对所述行人检测模块获得的检测框的交并比为依据,采用卡尔曼滤波算法进行多目标跟踪,获得检测得分高的轨迹图片;
行人再识别模型特征提取模块用于对单相机内多目标跟踪模块获得的轨迹图片进行外观特征的提取;
所述轨迹关联模块将行人再识别模型特征提取模块提取的特征进行轨迹关联。
本发明的有益效果:本发明所述的跟踪方法,基于行人检测,多目标跟踪以及行人再识别算法,使用目标检测的运动信息进行多目标跟踪算法实时跟踪,在轨迹中断和跨摄像头场景下,使用行人再识别算法重定位行人。优点如下:
1)设计基于检测模型筛选的轨迹片特征,以及优化行人再识别模型的输入。最终验证轨迹特征有效性;
2)针对单个行人跨摄像头跟踪应用,提出在线匹配的多摄像头跟踪方法,进一步减少了特征提取和匹配工作量。使整体实时性能得到提升,相比传统方法提速约6~7倍。
附图说明
图1为本发明所述的一种基于深度学习的高速跨摄像头单目标跟踪方法的流程图;
图2为本发明所述的一种基于深度学习的高速跨摄像头单目标跟踪方法中不同遮挡、尺度条件下的行人检测得分效果图;
图3为消除背景前后对比效果图;
图4为轨迹方向(虚线)与基准方向(实线)示例的效果图;
图5为跨摄像头行人二部图匹配效果图。
具体实施方式
具体实施方式一、结合图1至图5说明本实施方式,基于深度学习的高速跨摄像头单目标跟踪方法,包括行人检测,单相机内多目标跟踪和轨迹关联。
一、行人检测;
行人检测是算法的第一步。使用FasterRCNN模型作为行人检测算法。为了适应行人目标比例,修改了提名框大小和比例,仅保留1:2的提名框。在KITTI数据集上重新训练。最终在NLPR_MCT上取得较好行人检测结果,并保存每帧的检测结果和检测得分作为算法输入。
二、单相机内多目标跟踪;
之后单相机多目标跟踪算法在每个相机运行。传统轨迹提取策略对每个相机每个行人都进行特征提取,算法很难在线实时运行。其实际效果无异于对每帧每个目标进行行人再识别。使用基于卡尔曼滤波的多目标跟踪算法提取运动轨迹。当目标轨迹消失时,唤起相机轨迹关联模块,算法避免每帧提取特征,节省大量跟踪耗时。关联模块在时空约束条件下收集轨迹,调用单相机和跨相机的关联算法恢复相同行人id的轨迹。
虽然基于检测框运动信息的多目标跟踪算法运行高效,但严重依赖检测精度。良好的检测结果是端到端跟踪成功的基本保障。本实施方式采用严格筛选的策略,将fasterRCNN中极大值抑制阈值设置为0.3,行人得分置信度筛选设置为0.9。
三、筛选轨迹代表图片;
上文提及的多目标跟踪方法不用提取外观特征,是比较符合实时应用场景的算法。行人运动中大部分时候个体没有障碍或相互遮挡,此时只需检测框几何信息即能完成跟踪。但该方法有显而易见的缺点:由于关联时没有使用外观特征,只使用检测与预测的交并比作为唯一关联线索,行人互相遮挡时容易发生id切换。且行人非线性运动时容易导致跟踪与检测无法关联。从而导致跟踪失败。
为了关联轨迹,进一步设计轨迹表观特征作为关联依据。筛选轨迹中行人检测得分较高的轨迹代表图片。筛选规则如(1)式所示,s为行人在轨迹中每帧的行人检测得分。I为按得分降序排名的索引集合。α为检测得分阈值筛选,动态取值使集合大小为总图片数的10%。代表初次筛选后的图片索引。再从中选取轨迹时间戳间隔最长的3张图片,以尽可能使行人位置差异最大化。最终得到代表轨迹中行人检测得分较高且位置多样的轨迹代表图片。
I=argsort(s)
I'={l|l∈Iandsl<α} (1)
筛选结果如图2所示,检测得分高的图片有助于提取轨迹中无遮挡的行人,标准直立状态的行人更容易获得高行人检测得分。
四、基于行人再识别模型的轨迹片特征;
本实施方式中,基于resnet50神经网络模型开发的一个行人再识别模型提取特征。该模型把行人再识别问题当做物体多分类问题,并设计对称、残缺等多种行人数据增强在market-1501上训练。在测试阶段,为了消除数据集间背景差异,增强模型泛化能力,我们采取简单的帧差法策略去除背景。图3展示了消除背景后的效果。用此模型提取(1)式筛选后的图片作为该轨迹特征。
五、单摄像头内相似度优先的轨迹关联;得到轨迹片段及其深度特征后,算法进一步利用轨迹特征在每个摄像头范围关联轨迹。
在mot问题中,研究者通常会采用级联匹配等贪心算法,算法尽量匹配时间临近的轨迹。而在跨摄像头跟踪问题中,跟踪的准确率比召回率更重要:一次跟踪失败导致id切换,后续跨摄像头跟踪如果把此失败的跟踪作为参考目标之一,将严重影响后续场景的跟踪器。因此,在单摄像头关联轨迹时我们采用保守策略。算法搜寻过去一段时间窗口内匹配度最高的行人轨迹代表图片。这样的策略可能查全率差强人意,但可以提供最可靠的轨迹片段。这为后续的跨摄像头跟踪提供基础。
同摄像头轨迹中断多因为出现遮挡导致目标消失。短暂的消失行人不会平移很远。用以下函数指定搜索范围。
F=X+vδ (2)
X向量表示行人边界框的运动状态,X={x,y,w,h}表示轨迹消失时的目标中心位置和宽高。F={x',y',w',h'}表示预测位置中心和搜索区域宽高,v为各状态变化率,δ表示当前时间与轨迹时间消失时的帧差。函数将以帧差为输入变量,帧差越大搜索范围大。
一条轨迹有多个不同位置的行人图片,P、Q分别为目标和候选轨迹的图片特征集合。算法取搜索范围内余弦距离最小的轨迹片作为匹配轨迹。
dist(P,Q)=minp,q cos(p,q) (3)
六、基于轨迹方向约束的跨摄像头轨迹关联;理想情况下,行人目标最终在场景边缘消失。此时需要跨摄像头的关联算法进行关联。关联前需要假设相机的位置拓扑结构,以减小全局关联的图规模。以往的方法定义一个拓扑矩阵,该矩阵可以表示行人在一个场景消失会在对应的哪些出入口重现,作为跨相机匹配的限制条件。
经统计,在特殊情景下,行人出现位置不可预测。例如:从机动车下车的行人、由于遮挡到场景中央再现的行人等。我们发现,行人轨迹方向是更有效的限制条件。因为场景路径限制,行人行径方向总是一致的。算法把行人运动方向分成二维平面的四个方向。类似出入口限制,
创建一个拓扑矩阵M,作为跨摄像机匹配的方向限制。拓扑矩阵M为4*n阶单位布尔矩阵。n为相机数。用数字1~4表示场景2d平面的四个方向。M4n+i,4m+j=1表示第n个相机下i方向的轨迹与第m个相机下j方向的轨迹是可关联的关系,为0则不可关联。轨迹方向以轨迹起点到终点的矢量与基准坐标系的最小夹角决定。如图4所示。
实线箭头为基准方向矢量,虚线箭头为行人轨迹方向,以最小夹角判断,场景1轨迹方向为方向1,场景2轨迹方向为方向3。最终匹配建立的时空约束条件为:
M(si,sj)=1
第一项限制候选轨迹时间域范围。第二项用行人方向拓扑结构限制空间范围。t表示轨迹时间,s表示轨迹方向在拓扑矩阵的索引。
本实施方式采用了新的轨迹特征及轨迹提取方法。首先为了验证特征的有效性,采用经典的思路构建图模型,把轨迹关联问题转化为最小费用网络流问题。图结构模型为G=(V,E,W),其中顶点V为轨迹的特征集合,E为节点的边,即两个轨迹间的联系,受时空约束条件的约束,Wεβ表示第个节点与第β个节点的边权重。添加起始节点S和终结节点T,从起始节点到终结点的流量等于目标轨迹数量,WSε,WεT分别表示起始节点S到节点ε的权重和节点ε到终结节点T的权重。权重表示每条边的费用,即轨迹特征的距离。给定轨迹数量k,其目标函数为:
Γε={Eε1,Eε2…,Eεβ}
最优关联就是求最优的一组边E*能够以最小代价遍历所有节点的流,每条流Γ表示一条完整的轨迹。
七、在线局部关联策略;对于单个行人的跨摄像头实时跟踪应用场景,本实施方式提出基于局部信息的关联策略。首先假设与目标同行的行人共享(4)式描述的时空域约束条件。关联策略是在跨摄像头匹配时,在消失场景寻找辅助轨迹集合,然后在轨迹方向的(3)式限制下,寻找候选轨迹集合,把两个集合的匹配当作二部图匹配问题,寻找使匹配距离最小的匹配。匹配目标函数为:
其中c是每行每列只有一个元素为1的指派矩阵,dist(r,o)指示第r个辅助轨迹和候选轨迹池的第o个轨迹的特征距离。
辅助轨迹集合U定义为:目标轨迹消失位置一定范围内,与消失时间最接近的u个轨迹。这些轨迹和目标轨迹组成辅助轨迹池。候选轨迹定义为受式(4)时空关系约束的轨迹集合。具体关联流程如下:
1)行人轨迹按时间出现顺序排序。
2)在当前轨迹结束时,查找当前轨迹的辅助轨迹。提取当前轨迹以及辅助轨迹的特征。
3)寻找候选轨迹,并提取轨迹特征。
4)辅助轨迹和候选轨迹匹配。用匈牙利法进行多轨迹关联。
5)若结果指派矩阵命中目标,则关联成功。否则关联失败,终止该目标的跟踪。
结合图5说明本实施方式,图5展示匹配过程。左图是目标和目标的辅助轨迹,右图为一个场景的候选轨迹。连线指示出辅助轨迹与候选轨迹的最佳匹配。
本实施方式中,还包括基于深度学习的高速跨摄像头单目标跟踪系统,包括行人检测模块,单相机内多目标跟踪模块,行人再识别模型特征提取模块以及轨迹关联模块;
所述行人检测模块用于检测行人目标,输出行人检测框及检测得分;
所述单相机内多目标跟踪模块用于对所述行人检测模块获得的检测框的交并比为依据,采用卡尔曼滤波算法进行多目标跟踪,获得检测得分高的轨迹图片;
行人再识别模型特征提取模块用于对单相机内多目标跟踪模块获得的轨迹图片进行外观特征的提取;
所述轨迹关联模块将行人再识别模型特征提取模块提取的特征进行轨迹关联。
具体实施方式二、本实施方式为具体实施方式一所述的基于深度学习的高速跨摄像头单目标跟踪方法的实施例:
本实施例在Ubuntu16.04环境下使用单核2.5GHz的intel i7处理器,RAM 16G,NVDIA GeForce GTX 1080Ti显卡的计算器运行。使用numpy,tensorflow,pytorch等软件开发包。
一、实验数据集
实验在NLPR_MCT数据集上进行,它包含4个子集。每个子集的详细参数如表1所示。其中,光照为该场景光照变换强度,遮挡为数据集场景遮挡程度。
表1 NLPR_MCT数据集参数
二、评价指标
跨摄像头跟踪综合准确度MCTA(Multi-camera Tracking Accuracy)是衡量多个摄像头下跟踪的准确度,是目前少有的专门用来衡量多摄像头跟踪性能的评价指标。MCTA综合考虑了检测准确度,单摄像头跟踪准确度(SCT),跨摄像头跟踪准确度(ICT)。其定义公式为:
其中P,R为检测模型的精准度和召回率,
fpt,rt,mt是模型预测为正的负样本数,检测总数,漏检总数,以及标签总数。后两项为id相关数据。Mw是单相机内行人ID的错误匹配数,Tw是单相机内标注正确检测数,Mh是跨相机行人ID的错误匹配数,Th是指跨相机标注的正确检测数,即某个目标从某个相机中消失而下次再出现在另外一个相机的情况。MCTA的范围是[0,1]。
三、MCT综合准确率实验及分析
进行端到端的跨摄像头跟踪实验。实验要求输入数据只有视频帧没有任何标签,输出每个行人轨迹的id和绑定框位置。算法的跨相机关联部分使用全局关联算法。计算MCTA得分得到表2的结果。
表2跨摄像头跟踪MCTA性能对比
从所有数据集的检测性能表现来看,我们采用faster RCNN检测器在1、2、4数据集上性能优于其他方法采用的DPM等检测器。但在第三个数据集上回归率和准确率都不太理想。直接导致了MCTA整体性能较差。这是由于第三个数据集光照和遮挡严重。而fasterRCNN训练时没有此类困难样本,所以导致检测器在遇到这些样本时产生误检、漏检。
对比同样采用最小费用网络流进行关联的EGTracker方法,我们的方法SCT和ICT性能指标更好。表明本文提出的轨迹特征性能优秀。这主要得益于良好的检测下,准确地建立轨迹特征。并采用了深度特征,比传统特征更能有效区分行人id。
四、实时性能实验
基于NLPR_MCT数据集,提出新的应用场景设置如下:不需要目标总人数,而是给定单个目标起始位置,输出目标在随后的所有摄像机场景的位置。本节比较此场景下不同算法的输出精度和耗时。
实验分别使用fasterRCNN和DPM的检测结果作为输入。检测耗时不计入运行总耗时。
为了方便比较,我们重现了EGTracker方法。对于此类全局关联方法,采用以下公式来估计平均每条轨迹的平均处理耗时:
Tc是跟踪处理总耗时,Ti是轨迹i的真实时间跨度,Ts是数据集总时间跨度。对于提出的方法则直接计算每个目标的耗时,包括目标所在时空域的所有轨迹建立耗时,轨迹特征的提取耗时,以及轨迹关联的总时间。再求平均每个目标轨迹的耗时。
表3跨相机跟踪方法耗时对比
从表中可以发现我们的算法运行效率超过EGTracker。各个数据集的加速比为:7.8、6.5、14.2、1.9。第1、2、4数据集说明轨迹规模越大,加速效果越明显。证明采用运动轨迹、局部特征匹配是有效的加速策略。第三个数据集由于行人检测算法的漏检过多,导致关联假设变少,虽然关联更快了。但是准确率较低,需要进一步改进。
为了验证局部关联方法的有效性,我们将局部关联的每个轨迹的输出组合到一起,输出MCTA评估所需的目标文件。同时,给图的最小费用流关联法也添加目标第一帧位置作为先验信息。使用步骤三的方法构建ST图,固定源节点到目标第一帧所在的轨迹节点的边不变,删除多余边,保持其他实验参数。再重新应用最小费用流关联得到在此应用场景的MCTA性能。对比如下:
表4给定首帧先验信息的MCTA性能
从各个数据集上的MCTA性能来看,两种方法MCTA指标相差无几,说明局部关联方法在运行高效同时仍取得和全局关联匹配的准确率性能。
本实施方式所述的单目标跟踪方法,与现有摄像机多目标跟踪工作不同,本实施方式中单目标跨摄像机实时跟踪的可行性。采用基于运动信息的跟踪算法避免大量特征提取工作;开发一种在线关联方法替代不必要的全局关联;与此同时跟踪质量与先进方法相比仍具有竞争力。更重要的是,提取轨迹特征环节是可拓展的。当前使用reid方法的baseline模型取得良好结果。相信使用更先进的行人再识别模型能取得更好的性能。与经典MCT方法比较了单目标跨相机跟踪实时性能。结果显示实时性能显著提升。这对单个行人目标跨相机检索工作具有重要意义。
Claims (9)
1.基于深度学习的高速跨摄像头单目标跟踪方法,其特征是:该方法包括:
步骤一、采用行人检测模型检测行人目标,输出每个摄像头下每个行人的检测框位置大小及检测得分;
步骤二、采用步骤一获得的检测框的交并比为依据,基于卡尔曼滤波算法进行多目标跟踪,获得运动轨迹集合;
步骤三、根据步骤二获得的运动轨迹集合,采用轨迹片代表图片进行筛选,获得轨迹特征中行人检测得分高的轨迹图片;
步骤四、采用预先训练好的行人再识别模型对步骤三获得的轨迹图片提取行人外观特征;
步骤五、在单摄像头域内,设定搜索约束条件和轨迹关联,将搜索范围内余弦距离最小的轨迹图片作为匹配轨迹,采用所述匹配轨迹进行关联,获得关联后的轨迹集合;
步骤六、对步骤五获得的关联后的轨迹集合,设计跨摄像头轨迹局部二部图关联的方向约束条件,最终匹配建立时空约束条件;
步骤七、根据步骤六的时空约束条件,基于轨迹方向约束的跨摄像头轨迹关联,采用匈牙利法寻找使所有匹配距离之和最小的匹配关联,如果命中目标,则关联成功;否则关联失败,终止该目标的跟踪。
2.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤一中,采用FasterRCNN模型作为行人检测算法,保留1:2的检测框,在KITTI数据集上重新训练,最终在NLPR_MCT上取得较好行人检测结果,并保存每帧的检测结果和检测得分作为算法输入。
3.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤三中,采用轨迹片代表图片筛选,具体过程为:
筛选轨迹特征中行人检测得分高的轨迹图片;筛选规则为:
I=argsort(s)
I'={l|l∈Iandsl<α}
式中,s为行人在轨迹中每帧的行人检测得分,sl为行人在轨迹中第l帧的行人检测得分,I为按得分降序排名的索引集合;α为检测得分阈值筛选,I′为初次筛选后的图片索引;选取轨迹时间戳间隔最长的三张轨迹图片,使行人位置差异最大化,最终得到代表轨迹中行人检测得分较高且位置多样的轨迹图片。
4.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤五中,采用下述函数指定搜索范围;
F=X+vδ
式中,X向量为行人边界框的运动状态,v为各状态变化率,δ为当前时间与轨迹时间消失时的帧差;X={x,y,w,h},x,y为轨迹消失时的目标中心位置,w和h为宽和高;
其中,F={x',y',w',h'},x',y'为预测位置中心,w'和h'为搜索区域的宽和高;
由一条轨迹有多个不同位置的行人的轨迹图片,设定搜索范围内余弦距离最小的轨迹图片作为匹配轨迹,用公式表示为:
dist(P,Q)=minp,qcos(p,q)
式中,p和q分别为提取的目标轨迹和候选轨迹的图片特征,P、Q分别为提取的目标轨迹和候选轨迹的图片特征集合,根据获得的匹配轨迹进行关联,获得关联后的轨迹集合。
5.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤六中最终匹配建立时空约束条件的具体过程为:
设定拓扑矩阵M作为跨摄像机匹配的方向限制;拓扑矩阵M为4*n阶单位布尔矩阵,n为相机数;采用数字1~4表示场景平面的四个方向;M4n+i,4m+j=1表示第n个相机下i方向的轨迹与第m个相机下j方向的轨迹是关联的关系,结果为0,则不可关联,轨迹方向以轨迹起点到终点的矢量与基准坐标系的最小夹角决定;
最终匹配建立时空约束条件为:
M(si,sj)=1
6.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:步骤七中,基于轨迹方向约束的跨摄像头轨迹关联,具体过程为:
设定与目标同行的行人受所述时空约束条件的约束,在跨摄像头匹配时,在消失场景寻找辅助轨迹集合,根据步骤中的匹配轨迹的公式,寻找候选轨迹集合,将所述辅助轨迹集合与候选轨迹集合的匹配当作二部图匹配;
采用匈牙利法寻找使所有匹配距离之和最小的匹配;匹配目标函数为:
式中c为每行每列只有一个元素为1的指派矩阵,dist(r,o)为第r个辅助轨迹和候选轨迹池的第o个轨迹的特征距离;mm和nn分别为辅助轨迹和候选轨迹的数量。
7.根据权利要求6所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:辅助轨迹的集合定义为:目标轨迹消失位置两个身位范围内,与消失时间最接近的u个轨迹,所述u个轨迹和目标轨迹组成辅助轨迹池;候选轨迹定义为受所述时空约束条件约束的轨迹集合;具体过程为:
1)行人轨迹按时间出现顺序排序;
2)在当前轨迹结束时,查找当前轨迹的辅助轨迹,提取当前轨迹以及辅助轨迹的特征;
3)寻找候选轨迹,并提取轨迹特征;
4)辅助轨迹和候选轨迹匹配;采用匈牙利法进行多轨迹关联;
5)若结果指派矩阵命中目标,则关联成功;否则关联失败,终止该目标的跟踪。
8.根据权利要求1所述的基于深度学习的高速跨摄像头单目标跟踪方法,其特征在于:在步骤六与步骤七之间,还包括对提取特征进行验证特征有效性的步骤,采用构建图模型,将轨迹关联转化为最小费用网络流的方式,图结构模型为G=(V,E,W),其中顶点V为轨迹的特征集合,E为节点的边,即两个轨迹间的联系,受时空约束条件的约束,Wεβ表示第个节点与第β个节点的边权重。添加起始节点S和终结节点T,从起始节点到终结点的流量等于目标轨迹数量,WSε,WεT分别表示起始节点S到节点ε的权重和节点ε到终结节点T的权重。权重表示每条边的费用,即轨迹特征的距离。给定轨迹数量k,其目标函数为:
Γε={Eε1,Eε2…,Eεβ}
最优关联就是求最优的一组边E*能够以最小代价遍历所有节点的流,每条流Γ表示一条完整的轨迹。
9.根据权利要求1-8任一项所述的基于深度学习的高速跨摄像头单目标跟踪方法的跟踪系统,其特征是:包括行人检测模块,单相机内多目标跟踪模块,行人再识别模型特征提取模块以及轨迹关联模块;
所述行人检测模块用于检测行人目标,输出行人检测框及检测得分;
所述单相机内多目标跟踪模块用于对所述行人检测模块获得的检测框的交并比为依据,采用卡尔曼滤波算法进行多目标跟踪,获得检测得分高的轨迹图片;
行人再识别模型特征提取模块用于对单相机内多目标跟踪模块获得的轨迹图片进行外观特征的提取;
所述轨迹关联模块将行人再识别模型特征提取模块提取的特征进行轨迹关联。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910811068.0A CN110728702B (zh) | 2019-08-30 | 2019-08-30 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910811068.0A CN110728702B (zh) | 2019-08-30 | 2019-08-30 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728702A true CN110728702A (zh) | 2020-01-24 |
CN110728702B CN110728702B (zh) | 2022-05-20 |
Family
ID=69218769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910811068.0A Active CN110728702B (zh) | 2019-08-30 | 2019-08-30 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728702B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461222A (zh) * | 2020-04-01 | 2020-07-28 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111462186A (zh) * | 2020-04-03 | 2020-07-28 | 天津理工大学 | 一种基于可拓免疫的红外目标检测跟踪一体化算法 |
CN111709974A (zh) * | 2020-06-22 | 2020-09-25 | 苏宁云计算有限公司 | 基于rgb-d图像的人体跟踪方法及装置 |
CN111862147A (zh) * | 2020-06-03 | 2020-10-30 | 江西江铃集团新能源汽车有限公司 | 视频中多车辆和多行人目标的跟踪方法 |
CN111914730A (zh) * | 2020-07-28 | 2020-11-10 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN111970434A (zh) * | 2020-07-22 | 2020-11-20 | 吉林省智擎工业软件研究院有限公司 | 多摄像机多目标的运动员跟踪拍摄视频生成系统及方法 |
CN112102371A (zh) * | 2020-09-14 | 2020-12-18 | 湖州中科院应用技术研究与产业化中心 | 基于整体图平均化模型的群体目标轨迹分析模型 |
CN112200106A (zh) * | 2020-10-16 | 2021-01-08 | 中国计量大学 | 跨相机行人重识别与跟踪方法 |
CN112200841A (zh) * | 2020-09-30 | 2021-01-08 | 杭州海宴科技有限公司 | 一种基于行人体态的跨域多摄像头跟踪方法和装置 |
CN112308023A (zh) * | 2020-11-20 | 2021-02-02 | 上海迈外迪网络科技有限公司 | 识别行人运动的方法、装置和设备 |
CN112465866A (zh) * | 2020-11-27 | 2021-03-09 | 杭州海康威视数字技术股份有限公司 | 多目标轨迹获取方法、装置、系统及存储介质 |
CN113033349A (zh) * | 2021-03-11 | 2021-06-25 | 北京文安智能技术股份有限公司 | 行人重识别的俯视图像选取方法、存储介质和电子设备 |
CN113052876A (zh) * | 2021-04-25 | 2021-06-29 | 合肥中科类脑智能技术有限公司 | 一种基于深度学习的视频接力跟踪方法及系统 |
CN113256690A (zh) * | 2021-06-16 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于视频监控的行人多目标跟踪方法 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
CN117576146A (zh) * | 2023-11-09 | 2024-02-20 | 中国矿业大学(北京) | 建筑内多路摄像机跨视域行人轨迹还原方法和系统 |
CN113627497B (zh) * | 2021-07-27 | 2024-03-12 | 武汉大学 | 一种基于时空约束的跨摄像头行人轨迹匹配方法 |
CN117576146B (zh) * | 2023-11-09 | 2024-05-10 | 中国矿业大学(北京) | 建筑内多路摄像机跨视域行人轨迹还原方法和系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156863A (zh) * | 2011-05-16 | 2011-08-17 | 天津大学 | 跨摄像头的多运动目标跟踪方法 |
CN103729620A (zh) * | 2013-12-12 | 2014-04-16 | 北京大学 | 一种基于多视角贝叶斯网络的多视角行人检测方法 |
CN104094279A (zh) * | 2014-04-30 | 2014-10-08 | 中国科学院自动化研究所 | 大范围优先的跨摄像机视觉目标再识别方法 |
WO2016077026A1 (en) * | 2014-11-12 | 2016-05-19 | Nec Laboratories America, Inc. | Near-online multi-target tracking with aggregated local flow descriptor (alfd) |
CN107240124A (zh) * | 2017-05-19 | 2017-10-10 | 清华大学 | 基于时空约束的跨镜头多目标跟踪方法及装置 |
CN108764167A (zh) * | 2018-05-30 | 2018-11-06 | 上海交通大学 | 一种时空关联的目标重识别方法和系统 |
CN109344725A (zh) * | 2018-09-04 | 2019-02-15 | 上海交通大学 | 一种基于时空关注度机制的多行人在线跟踪方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
-
2019
- 2019-08-30 CN CN201910811068.0A patent/CN110728702B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156863A (zh) * | 2011-05-16 | 2011-08-17 | 天津大学 | 跨摄像头的多运动目标跟踪方法 |
CN103729620A (zh) * | 2013-12-12 | 2014-04-16 | 北京大学 | 一种基于多视角贝叶斯网络的多视角行人检测方法 |
CN104094279A (zh) * | 2014-04-30 | 2014-10-08 | 中国科学院自动化研究所 | 大范围优先的跨摄像机视觉目标再识别方法 |
WO2016077026A1 (en) * | 2014-11-12 | 2016-05-19 | Nec Laboratories America, Inc. | Near-online multi-target tracking with aggregated local flow descriptor (alfd) |
CN107240124A (zh) * | 2017-05-19 | 2017-10-10 | 清华大学 | 基于时空约束的跨镜头多目标跟踪方法及装置 |
CN108764167A (zh) * | 2018-05-30 | 2018-11-06 | 上海交通大学 | 一种时空关联的目标重识别方法和系统 |
CN109344725A (zh) * | 2018-09-04 | 2019-02-15 | 上海交通大学 | 一种基于时空关注度机制的多行人在线跟踪方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
ALEX BEWLEY等: ""SIMPLE ONLINE AND REALTIME TRACKING"", 《ARXIV》 * |
KWANGJIN YOON, YOUNG-MIN SONG, MOONGU JEON: ""Multiple Hypothesis Tracking Algorithm for Multi-Target Multi-Camera Tracking with Disjoint Views"", 《ARXIV》 * |
WEIHUA CHEN等: ""An Equalized Global Graph Model-Based Approach for Multicamera Object Tracking"", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111461222A (zh) * | 2020-04-01 | 2020-07-28 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111461222B (zh) * | 2020-04-01 | 2023-05-02 | 北京爱笔科技有限公司 | 目标物轨迹相似度的获取方法、装置及电子设备 |
CN111462186A (zh) * | 2020-04-03 | 2020-07-28 | 天津理工大学 | 一种基于可拓免疫的红外目标检测跟踪一体化算法 |
CN111462186B (zh) * | 2020-04-03 | 2022-04-15 | 天津理工大学 | 一种基于可拓免疫的红外目标检测跟踪一体化算法 |
CN111862147B (zh) * | 2020-06-03 | 2024-01-23 | 江西江铃集团新能源汽车有限公司 | 视频中多车辆和多行人目标的跟踪方法 |
CN111862147A (zh) * | 2020-06-03 | 2020-10-30 | 江西江铃集团新能源汽车有限公司 | 视频中多车辆和多行人目标的跟踪方法 |
CN111709974A (zh) * | 2020-06-22 | 2020-09-25 | 苏宁云计算有限公司 | 基于rgb-d图像的人体跟踪方法及装置 |
CN111709974B (zh) * | 2020-06-22 | 2022-08-02 | 苏宁云计算有限公司 | 基于rgb-d图像的人体跟踪方法及装置 |
CN111970434A (zh) * | 2020-07-22 | 2020-11-20 | 吉林省智擎工业软件研究院有限公司 | 多摄像机多目标的运动员跟踪拍摄视频生成系统及方法 |
CN111914730A (zh) * | 2020-07-28 | 2020-11-10 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN111914730B (zh) * | 2020-07-28 | 2023-11-24 | 上海工程技术大学 | 一种基于联合时空采样的无监督视频序列行人再识别方法 |
CN112102371A (zh) * | 2020-09-14 | 2020-12-18 | 湖州中科院应用技术研究与产业化中心 | 基于整体图平均化模型的群体目标轨迹分析模型 |
CN112200841A (zh) * | 2020-09-30 | 2021-01-08 | 杭州海宴科技有限公司 | 一种基于行人体态的跨域多摄像头跟踪方法和装置 |
CN112200106A (zh) * | 2020-10-16 | 2021-01-08 | 中国计量大学 | 跨相机行人重识别与跟踪方法 |
CN112308023A (zh) * | 2020-11-20 | 2021-02-02 | 上海迈外迪网络科技有限公司 | 识别行人运动的方法、装置和设备 |
CN112308023B (zh) * | 2020-11-20 | 2023-06-20 | 上海迈外迪网络科技有限公司 | 识别行人运动的方法、装置和设备 |
CN112465866A (zh) * | 2020-11-27 | 2021-03-09 | 杭州海康威视数字技术股份有限公司 | 多目标轨迹获取方法、装置、系统及存储介质 |
CN112465866B (zh) * | 2020-11-27 | 2024-02-02 | 杭州海康威视数字技术股份有限公司 | 多目标轨迹获取方法、装置、系统及存储介质 |
CN113033349B (zh) * | 2021-03-11 | 2023-12-26 | 北京文安智能技术股份有限公司 | 行人重识别的俯视图像选取方法、存储介质和电子设备 |
CN113033349A (zh) * | 2021-03-11 | 2021-06-25 | 北京文安智能技术股份有限公司 | 行人重识别的俯视图像选取方法、存储介质和电子设备 |
CN113052876B (zh) * | 2021-04-25 | 2022-09-02 | 合肥中科类脑智能技术有限公司 | 一种基于深度学习的视频接力跟踪方法及系统 |
CN113052876A (zh) * | 2021-04-25 | 2021-06-29 | 合肥中科类脑智能技术有限公司 | 一种基于深度学习的视频接力跟踪方法及系统 |
CN113256690B (zh) * | 2021-06-16 | 2021-09-17 | 中国人民解放军国防科技大学 | 一种基于视频监控的行人多目标跟踪方法 |
CN113256690A (zh) * | 2021-06-16 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于视频监控的行人多目标跟踪方法 |
CN113420679A (zh) * | 2021-06-26 | 2021-09-21 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪算法 |
CN113420679B (zh) * | 2021-06-26 | 2024-04-26 | 南京搜文信息技术有限公司 | 一种人工智能跨相机多目标追踪系统及追踪方法 |
CN113627497B (zh) * | 2021-07-27 | 2024-03-12 | 武汉大学 | 一种基于时空约束的跨摄像头行人轨迹匹配方法 |
CN117576146A (zh) * | 2023-11-09 | 2024-02-20 | 中国矿业大学(北京) | 建筑内多路摄像机跨视域行人轨迹还原方法和系统 |
CN117576146B (zh) * | 2023-11-09 | 2024-05-10 | 中国矿业大学(北京) | 建筑内多路摄像机跨视域行人轨迹还原方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110728702B (zh) | 2022-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110728702B (zh) | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 | |
Manafifard et al. | A survey on player tracking in soccer videos | |
Wang et al. | Tracklet association by online target-specific metric learning and coherent dynamics estimation | |
Zhang et al. | Learning semantic scene models by object classification and trajectory clustering | |
Breitenstein et al. | Online multiperson tracking-by-detection from a single, uncalibrated camera | |
Tan et al. | Multi-camera vehicle tracking and re-identification based on visual and spatial-temporal features. | |
CN111767847B (zh) | 一种集成目标检测和关联的行人多目标跟踪方法 | |
CN113139620A (zh) | 基于目标关联学习的端到端多目标检测与跟踪联合方法 | |
CN108564598B (zh) | 一种改进的在线Boosting目标跟踪方法 | |
CN114240997B (zh) | 一种智慧楼宇在线跨摄像头多目标追踪方法 | |
Hsu et al. | Traffic-aware multi-camera tracking of vehicles based on reid and camera link model | |
CN111862145A (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
CN111353448A (zh) | 基于相关性聚类和时空约束的行人多目标跟踪方法 | |
CN112132873A (zh) | 一种基于计算机视觉的多镜头行人识别与跟踪 | |
CN114724082A (zh) | 一种基于改进的YOLOv5和DeepSORT的行人追踪方法 | |
Yang et al. | Box-grained reranking matching for multi-camera multi-target tracking | |
Tao et al. | Tracking for half an hour | |
CN114926859A (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
CN114820765A (zh) | 图像识别方法、装置、电子设备及计算机可读存储介质 | |
Galor et al. | Strong-TransCenter: Improved multi-object tracking based on transformers with dense representations | |
Xiang et al. | Multitarget tracking using hough forest random field | |
CN112560651B (zh) | 基于深度网络和目标分割结合的目标跟踪方法及装置 | |
Wickramasinghe et al. | Pedestrian Detection, Tracking, Counting, Waiting Time Calculation and Trajectory Detection for Pedestrian Crossings Traffic light systems | |
Taalimi et al. | Robust multi-object tracking using confident detections and safe tracklets | |
CN113505812A (zh) | 一种基于双流卷积网络的高压断路器轨迹动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |