CN112884815A - 一种基于多摄像机的车辆追踪方法 - Google Patents
一种基于多摄像机的车辆追踪方法 Download PDFInfo
- Publication number
- CN112884815A CN112884815A CN202110141583.XA CN202110141583A CN112884815A CN 112884815 A CN112884815 A CN 112884815A CN 202110141583 A CN202110141583 A CN 202110141583A CN 112884815 A CN112884815 A CN 112884815A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- target vehicle
- node
- camera
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000033001 locomotion Effects 0.000 claims abstract description 97
- 238000009434 installation Methods 0.000 claims abstract description 40
- 238000013135 deep learning Methods 0.000 claims abstract description 38
- 238000012546 transfer Methods 0.000 claims description 61
- 238000001514 detection method Methods 0.000 claims description 34
- 238000012544 monitoring process Methods 0.000 claims description 24
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000008034 disappearance Effects 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000007704 transition Effects 0.000 claims description 6
- 238000005034 decoration Methods 0.000 claims description 5
- 238000007619 statistical method Methods 0.000 claims description 5
- 230000029305 taxis Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多摄像机的车辆追踪方法,包括:获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果,该方法计算量小,能够得到可靠、鲁棒的目标车辆持续跟踪结果。
Description
技术领域
本发明涉及视频监控技术领域,尤其涉及的是一种基于多摄像机的车辆追踪方法。
背景技术
随着视频监控技术的广泛应用,其模式已经从单摄像机孤立使用演变为大范围视频监控网络,实现了更广的监控范围和更多样的观测角度,能够更加全面地捕捉目标信息。目前,视频监控在公共安全、智能交通等方面的应用潜力引起了政府部门和相关行业的极大重视,在关键道路、路口处安装了越来越多的高清摄像头,以获取和统计各类交通数据,为公安和交管部门在打击犯罪、目标抓捕、交通管理等方面发挥极大的作用,其中,嫌疑人行动路线分析和违法车辆的行驶路线监控是其中的一个重要应用方向。
目前,虽然已有针对多摄像机目标跟踪的若干研究,然而对于车辆在多摄像机之间的运动跟踪问题,还没有专门的成熟方法,一方面,摄像机拓扑关系模型仅考虑了道路较窄且目标运动模式较少的简单场景,无法应用于城市复杂道路结构和车辆运动追踪情况下的建模,并且也没有涉及车辆跟踪中的复杂特征选择问题,无法对车辆进行精准的持续跟踪。另一方面,现有技术对跨摄像机进行车辆跟踪时,一般是采用重识别的方法,利用深度学习模型对查询图片和图库集进行特征提取,然后采用某种度量方式计算查询图片与图库集中图像的特征距离,通过距离大小来判断是否为同一目标,该方法没有利用道路数据、摄像机之间的拓扑关系以及车辆运动信息,不仅计算量较大,而且对于多摄像机分辨率、光照、视角等存在差异的情况,难以得到可靠、鲁棒的跟踪结果。
因此,现有技术还有待改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种基于多摄像机的车辆追踪方法,旨在解决现有技术中多摄像机进行车辆追踪时,没有利用道路数据、摄像机之间的拓扑关系以及车辆运动信息,不仅计算量较大,而且对于多摄像机分辨率、光照、视角等存在差异的情况,难以得到可靠、鲁棒的跟踪结果的问题。
本发明解决问题所采用的技术方案如下:
第一方面,本发明实施例提供一种基于多摄像机的车辆追踪方法,其中,所述方法包括:
获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;
当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
在一种实现方式中,其中,所述获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系包括:
获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据;
将摄像机作为节点;
对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点;
将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边;
根据摄像机安装参数、地理信息数据、历史交通流数据、公交车、出租车的行车记录数据进行理论估算和统计分析,得到车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系;
根据车辆相对于所述节点的位置变化关系和车辆在所述节点中消失前的行驶方向信息,得到每条边对应的连接关系属性信息;其中,所述连接关系属性信息包含所述车辆与所述节点之间的相对运动类型和所述车辆的行驶方向信息;
将所述节点、所述有向边、所述时间转移关系和所述连接关系属性组成摄像机网络时空拓扑关系。
在一种实现方式中,其中,所述对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点包括:
当所述节点分布密集时,选取所述节点对应的监控区域所有通行方向上和它相距最近的所述节点作为相邻节点;
当所述节点分布稀疏时,选取所述节点对应的所有通行方向上和它路径最短的所述节点作为相邻节点,每条道路或者路口仅选取一个所述相邻节点。
在一种实现方式中,其中,所述将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边包括:
当所述节点分布密集时,根据所述节点及与所述节点对应的所述相邻节点的安装位置、监控区域、已知的道路结构信息和通行规则约束确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;
当所述节点分布稀疏时,根据地理信息系统提供的最优路径规划确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;
将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边。
在一种实现方式中,其中,所述获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系还包括:
采用图模型来表示所述摄像机网络时空拓扑关系,表达式为:
G=(V,E)
V={vi|1≤i≤N}
E={e(i,j)|1≤i,j≤N}
式中,V表示节点集,vi为摄像机网络拓扑图中的第i个节点,E表示节点与其相邻节点之间的边集,包括一系列有序节点对,e(i,j)为从节点vi到节点vj的转移关系,其中,所述转移关系为边,当存在从所述节点vi到所述节点vj的行驶路径时,e(i,j)=1,否则,e(i,j)=0,且由于边具有方向性,e(i,j)与e(j,i)不一定相等;对于每对转移关系e(i,j),还包括三个属性信息:转移时间范围、以标志位FP来表示的该连接关系对应的车辆和所述节点vi之间的相对运动类型和以标志位Fa来表示的该连接关系对应的车辆行驶方向。
在一种实现方式中,其中,所述获取目标车辆,在单摄像机内对所述目标车辆进行跟踪包括:
获取目标车辆;
根据目标车辆,利用YoloV4目标检测算法检测视频中的目标车辆,输出检测时间、车辆类型、编号和检测框位置的图像坐标;
根据检测时间、车辆类型、编号、检测框位置的图像坐标,采用Deep Sort目标跟踪算法对所述目标车辆的运动进行连续跟踪,得到目标车辆运动轨迹,其中,所述目标车辆运动轨迹包括所述目标车辆的轨迹编号,与所述轨迹编号对应的每一采样点的检测时间和检测框位置坐标;
获取目标车辆与所述单摄像机之间的相对运动类型;其中,所述相对运动类型包括所述目标车辆靠近、远离或先靠近后远离所述单摄像机运动;
提取目标车辆行驶方向指示信息,得到所述目标车辆的行驶方向;其中,所述目标车辆行驶方向指示信息包括车道标线、车辆轨迹、车辆指示灯闪烁信息;
获取目标车辆质量较高的车辆图片,并提取所述目标车辆的车牌和车辆画像信息;其中,所述车辆画像信息包括车型、车辆品牌及型号、车身颜色、车内摆放物或挂饰、有无天窗、有无车顶架、副驾驶有无人。
在一种实现方式中,其中,所述当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集包括:
当目标车辆从所述单摄像机中消失后,在所述摄像机网络时空拓扑关系中,将目标关联计算时刻与车辆消失时刻的时间差在所述单摄像机与其下游相邻节点之间的转移时间范围内的下游相邻节点集合作为第一候选节点集,将所述第一候选节点集对应的连接关系集合作为第一候选连接关系集;其中,所述第一候选连接关系集包含连接所述单摄像机和第一候选节点集中的节点的有向边和所述有向边的属性信息;
根据目标车辆与所述单摄像机之间的相对运动类型,对所述第一候选节点集和所述第一候选连接关系集进行筛选,得到第二候选节点集和第二候选连接关系集;
根据目标车辆在所述单摄像机中消失前的行驶方向,对所述第二候选节点集和所述第二候选连接关系集进行筛选,得到候选节点集。
在一种实现方式中,其中,所述获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与所述目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果包括:
获取目标车辆车牌和目标车辆画像;
获取所述候选节点集所拍摄的车辆的车牌和车辆画像信息;
当所述目标车辆和所述候选节点集所拍摄的车辆都包含车牌信息时,将所述候选节点集所拍摄的车辆的车牌和所述目标车辆车牌进行关联,当所述候选节点集所拍摄的车辆的车牌与所述目标车辆的车牌相同时,则判断关联成功,记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线;
当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合;
根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
在一种实现方式中,其中,所述当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合包括:
当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,根据所述目标车辆和所述候选节点集所拍摄车辆的车辆画像信息,得到有效车辆画像信息个数集合;
根据目标车辆画像和候选节点集所拍摄车辆的车辆画像信息的一致程度,得到关联车辆画像信息个数集合;
将所述关联车辆画像信息个数集合除以所述有效车辆画像信息个数集合,得到所述目标车辆的第一车辆关联得分集合。
在一种实现方式中,其中,所述根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果包括:
获取目标车辆图片;
获取所述候选节点集所拍摄的车辆图片;
采用BoT-BS算法进行车辆的关联识别,将所述目标车辆图片和所述候选节点集所拍摄的车辆图片进行深度学习特征提取和相似度计算,得到所述目标车辆的第二车辆关联得分集合;
根据所述第一车辆关联得分集合和所述第二车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
在一种实现方式中,其中,所述根据所述第一车辆关联得分集合和所述第二车辆关联得分集合,得到目标车辆跨摄像机跟踪结果包括:
根据所述第一车辆关联得分集合和所述第二车辆关联得分集合得到车辆目标关联总得分集合;
当所述车辆目标关联总得分集合中关联总得分最大且连续关联到同一相邻节点下同一轨迹编号的车辆的次数满足预设值时,则判断所述候选节点集中的候选车辆与所述目标车辆关联成功;
当所述候选节点集中的候选车辆与所述目标车辆关联成功时,则记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线。
在一种实现方式中,其中,所述获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果还包括:
将跨摄像机跟踪得到的所述目标车辆所在的当前节点作为新的所述单摄像机,继续进行目标车辆的单摄像机跟踪和跨摄像机跟踪,并且将所述单摄像机跟踪得到的所述目标车辆的运动轨迹更新到目标车辆行驶轨迹记录中;
根据所述目标车辆在所述节点之间的转移路线、所述目标车辆行驶轨迹记录、所述节点的安装位置,通过地理信息系统的辅助,得到所述目标车辆的行驶时段和行驶路线。
第二方面,本发明实施例还提供一种基于多摄像机的车辆追踪装置,其中,所述装置包括:
摄像机网络时空拓扑关系构建单元,用于获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
目标车辆运动轨迹获取单元,用于根据目标车辆,在单摄像机内对所述目标车辆进行跟踪;
候选节点集获取单元,用于当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
目标车辆跨摄像机跟踪处理单元,用于根据获取的目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
第三方面,本发明实施例还提供一种服务器,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行如上述任意一项所述的基于多摄像机的车辆追踪方法。
第四方面,本发明实施例还提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如上述任意一项所述的基于多摄像机的车辆追踪方法。
本发明的有益效果:本发明实施例首先获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;然后获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;接着当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;最后获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果;可见,本发明实施例中的基于多摄像机的车辆跟踪方法能够实现对目标车辆的持续跟踪,并且所述方法计算量小,能得到可靠、鲁棒的跟踪结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于多摄像机的车辆追踪方法流程示意图。
图2为本发明实施例提供的基于多摄像机的车辆追踪装置的原理框图。
图3为本发明实施例提供的服务器的内部结构原理框图。
具体实施方式
本发明公开了一种基于多摄像机的车辆追踪方法,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
目前,虽然已有针对多摄像机目标跟踪的若干研究,然而对于车辆在多摄像机之间的运动跟踪问题,还没有专门的成熟方法,一方面,摄像机拓扑关系模型仅考虑了道路较窄且目标运动模式较少的简单场景,无法应用于城市复杂道路结构和车辆运动追踪情况下的建模,并且也没有涉及车辆跟踪中的复杂特征选择问题,无法对车辆进行精准的持续跟踪。另一方面,现有技术对跨摄像机进行车辆跟踪时,一般是采用重识别的方法,利用深度学习模型对查询图片和图库集进行特征提取,然后采用某种度量方式计算查询图片与图库集中图像的特征距离,通过距离大小来判断是否为同一目标,该方法没有利用道路数据、摄像机之间的拓扑关系以及车辆运动信息,不仅计算量较大,而且对于多摄像机分辨率、光照、视角等存在差异的情况,难以得到可靠、鲁棒的跟踪结果。
为了解决现有技术的问题,本实施例提供了一种基于多摄像机的车辆追踪方法,通过所述方法可以实现对目标车辆进行长时间和长距离的准确跟踪,并且所述方法计算量小,能得到可靠、鲁棒的跟踪结果。具体实施时,先获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系,为后续执行跨摄像机目标跟踪做准备;然后,获取目标车辆,在单摄像机内对所述目标车辆进行跟踪,实际中需要获取不断更新的所有单摄像机跟踪的目标车辆运动轨迹;当目标车辆从某个所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集,以尽可能缩小候选节点查找范围,提高跨摄像机跟踪速度;最后,获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果,可以实现对目标车辆的持续跟踪,并且所述方法计算量小,能够得到可靠、鲁棒的跟踪结果。
举例说明
随着视频监控技术的广泛应用,其模式已经从单摄像机孤立使用演变为大范围视频监控网络,实现了更广的监控范围和更多样的观测角度,能够更加全面地捕捉目标信息。目前,视频监控在公共安全、智能交通等方面的应用潜力引起了政府部门和相关行业的极大重视,安装人员在关键道路、路口处安装了越来越多的高清摄像头,以获取和统计各类交通数据,为公安和交管部门在打击犯罪、目标抓捕、交通管理等方面发挥极大的作用,其中,嫌疑人行动路线分析和违法车辆的行驶路线监控是其中的一个重要应用方向。车辆的行驶路线获取需要完成在单摄像机视野内的车辆目标跟踪以及跨摄像机间的车辆目标关联,单摄像机内的目标跟踪已取得了较好的研究成果,而跨摄像机的目标关联尚没有较成熟的解决方案,由于不同摄像机的工作参数、成像质量、安装角度、周围环境等均存在差异,导致不同摄像机拍摄的车辆外观特性可能有很大不同,导致现有技术中跨摄像机的目标关联效果很差。因此,如何有效地利用摄像机间的时空拓扑关系,把不同摄像机拍摄到的同一车辆目标数据关联起来,实现对目标车辆的持续跟踪,是车辆行驶路线分析中需要解决的关键问题。在本实施例中,首先获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系,为后续跨摄像机目标车辆关联做准备;然后获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;接着当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集,进一步缩小目标车辆关联范围;最后获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果,以使得本发明的基于多摄像机的车辆跟踪方法能实现对目标车辆的持续跟踪,并且所述方法计算量小,能够得到可靠、鲁棒的跟踪结果。
示例性方法
本实施例提供一种基于多摄像机的车辆追踪方法,该方法可以应用于服务器。具体如图1所示,所述方法包括:
步骤S100、获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
具体地,对于城市道路交通场景,摄像机通常安装于道路两侧或者路口处,对道路和路口区域的交通状态实施监控,摄像机网络的时空拓扑关系与道路拓扑及其属性具有极大的关系;为了实现多摄像机对车辆的跟踪,故要获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系。
为了得到摄像机网络时空拓扑关系,所述获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系包括如下步骤:
步骤S101、获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据;
步骤S102、将摄像机作为节点;
步骤S103、对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点;
步骤S104、将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边;
步骤S105、根据摄像机安装参数、地理信息数据、历史交通流数据、公交车、出租车的行车记录数据进行理论估算和统计分析,得到车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系;
步骤S106、根据车辆相对于所述节点的位置变化关系和车辆在所述节点中消失前的行驶方向信息,得到每条边对应的连接关系属性信息;其中,所述连接关系属性信息包含所述车辆与所述节点之间的相对运动类型和所述车辆的行驶方向信息;
步骤S107、将所述节点、所述有向边、所述时间转移关系和所述连接关系属性组成摄像机网络时空拓扑关系。
具体地,为了构建摄像机网络时空拓扑关系,本实施例首先需要获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据;本实施例获取到道路结构与通行属性之后就可以得到城市道路的类型、数量和通行规则情况,获取到摄像机安装参数之后就可以知道摄像机的位置、姿态和监控范围,获取到历史车流数据就可以估计车辆通行的时间,获取到地理信息数据以后就可以辅助提供车辆行驶的路径规划信息,这些都是构建摄像机网络时空拓扑关系的基础。接着,将摄像机作为节点,然后确定每个节点的相邻节点,对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点。
为了得到相邻节点,所述对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点包括如下步骤:当所述节点分布密集时,选取所述节点对应的监控区域所有通行方向上和它相距最近的所述节点作为相邻节点;当所述节点分布稀疏时,选取所述节点对应的所有通行方向上和它路径最短的所述节点作为相邻节点,每条道路或者路口仅选取一个所述相邻节点。
具体地,考虑现实中节点分布有稀疏和密集两种情况,得到相邻节点的情况也有两种:当所述节点分布密集时,选取所述节点对应的监控区域所有通行方向上和它相距最近的所述节点作为相邻节点,此时,每个路口和道路都安装若干节点,车辆从一个节点视场范围消失后出现在另一个节点的视场范围内的路径是唯一确定的;当所述节点分布稀疏时,选取所述节点对应的所有通行方向上和它路径最短的所述节点作为相邻节点,每条道路或者路口仅选取一个所述相邻节点,此时,节点之间相隔若干路口或者较长距离,节点监控区域不重叠且相距较远,车辆从一个节点视场范围消失后出现在另一个节点的视场范围内的路径不是唯一的。
当建立了节点和相邻节点之后,还需要建立节点之间的连接关系,即有向边,将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边。相应的,所述将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边包括如下步骤:当所述节点分布密集时,根据所述节点及与所述节点对应的所述相邻节点的安装位置、监控区域、已知的道路结构信息和通行规则约束确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;当所述节点分布稀疏时,根据地理信息系统提供的最优路径规划确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边。
举例说明,当所述节点分布密集时,可根据所述节点安装位置、监控区域、已知的道路结构信息和通行规则约束确定车辆的运动转移模式,例如,可以结合节点安装位置和监控区域,根据车辆行驶在单向或双向行驶道路,车辆行驶时是位于直行或者转弯或者掉头车道等来确定车辆的运动转移模式。此外,对于允许掉头的道路区域,节点还存在自连接关系,也即,车辆从当前节点消失后,因为掉头的缘故又在很短的时间内出现在当前节点的视场内。当所述节点分布稀疏时,可根据地理信息系统(如百度地图或者高德地图)提供的最优路径规划确定车辆在所述节点及其相邻节点之间的双向转移关系,按照转移方向将所述节点和其相邻节点连接起来。由此,即确定了每个所述节点和其相邻节点之间的连接关系和方向性,也就是摄像机网络时空拓扑关系图中的有向边。
得到有向边后,还需根据摄像机安装参数、地理信息数据、历史交通流数据、公交车、出租车的行车记录数据进行理论估算和统计分析,得到车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系。具体地,可以利用节点安装参数、信号灯控制方案、历史交通流数据(车速、延误等)以及公交车、出租车等服务车辆的行车记录数据进行统计分析和估算,也可以利用地理信息系统进行辅助,从而确定车辆在每个节点和其相邻节点之间转移的时间范围。举例说明,对于节点分布密集的情况,由于节点和其相邻节点之间相距较近,其转移时间通常很短并且可以准确地估计,此时可基于历史数据统计或者在一定的车辆行驶状态假设条件下结合节点位置信息和信号灯控制方案进行理论估算的方法得到节点和其相邻节点之间转移的时间范围;对于节点分布稀疏的情况,由于节点和其相邻节点之间相距较远或者相隔若干路口导致二者之间存在多种推荐的通行路径,此时可通过综合地理信息系统输出的排名前三的最优路径规划结果对应的通行时间来估计得到最终的节点和其相邻节点之间转移的时间范围。由此,即得到了车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系。
得到车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系后,还需根据车辆相对于所述节点的位置变化关系和车辆在所述节点中消失前的行驶方向信息,得到每条边对应的连接关系属性信息;其中,所述连接关系属性信息包含所述车辆与所述节点之间的相对运动类型和所述车辆的行驶方向信息。具体地,每个节点都可能包括若干指向它的有向边和由它指向其他节点的有向边,表示发生在它和不同相邻节点之间的运动转移模式,分别称为输入有向边和输出有向边,每个输入有向边都存在与之对应的若干输出有向边,这与车辆相对于所述节点的位置变化关系和车辆在所述节点中消失前的行驶方向信息均有关,因此,还要为每条所述有向边(即连接关系)添加属性信息,用于辅助后续根据目标车辆的行驶信息精准地查找候选节点集。举例说明,对于每个节点来说,每个节点与其下游相邻节点组成的连接关系对的属性辅助信息主要包括两个方面,一是连接关系对和车辆与所述节点之间的相对运动类型的对应关系,二是连接关系对和车辆在所述节点中消失前的行驶方向的对应关系,可以根据节点安装位置、安装朝向、道路类型(单向/双向)和道路结构来确定它们之间的对应关系。其中,车辆与所述节点之间的相对运动类型可以分为三种情况:一是车辆由远及近接近所述节点,二是车辆由近及远远离所述节点,三是车辆先接近后远离所述节点,将连接关系对和车辆与所述节点之间的相对运动类型的对应关系用标志位FP来表示,当车辆接近所述节点时,将所述节点与其下游相邻节点连接关系对的标志位FP设置为0;当车辆远离所述节点时,将所述节点与其下游相邻节点连接关系对的标志位FP设置为1;当车辆先接近后远离所述节点时,将所述节点与其下游相邻节点连接关系对的标志位FP设置为2,需要说明的是,每条有向边(即所述连接关系对)对应的该标志位取值个数可以有1个及以上。车辆在所述节点中消失前的行驶方向包括直行、转弯、掉头和分支(叉路),可以根据交通标线、行驶车道和车辆轨迹等信息来获取,其中,分支对应实际中快速路、Y形路、非十字交叉路口等复杂结构道路存在多个分叉路的情况,将所述节点与其下游相邻节点组成的连接关系对和车辆在所述节点中消失前的行驶方向的对应关系用标志位Fa来表示,标志位Fa的取值与车辆行驶方向的关系如下:当车辆行驶方向是直行时,标志位Fa取值为0;当车辆行驶方向为右转时,标志位Fa取值为1;当车辆行驶方向为左转时,标志位Fa取值为2;当车辆行驶方向为掉头时,标志位Fa取值为3;当车辆行驶方向指向为某条分支道路时,则可以根据道路结构和车辆所选择的分支道路对Fa的取值进行特殊标记,实际中,可针对不同地区道路的特点基于上述思想进行灵活设计和扩展,此处不再一一列举。
这样,得到所述节点、所述有向边、所述时间转移关系和所述连接关系属性后,摄像机网络时空拓扑关系就由上述元素完整的构建起来了。
为了量化表示摄像机网络时空拓扑关系,本发明实施例构建了一个图模型,其中,所述图模型是根据摄像机网络的时间拓扑关系和空间拓扑关系构建的,其包含节点集、节点之间的边集、从一个节点到另一个节点的时间转移关系、以及边的属性信息;具体地,摄像机网络时空拓扑关系对应的图模型可以表示为:
G=(V,E)
V={vi|1≤i≤N}
E={e(i,j)|1≤i,j≤N}
式中,V表示节点集,vi为摄像机网络拓扑图中的第i个节点,E表示节点与其相邻节点之间的边集,包括一系列有序节点对,e(i,j)为从节点vi到节点vj的转移关系,其中,所述转移关系即为有向边,当存在从所述节点vi到所述节点vj的行驶路径时,e(i,j)=1,否则,e(i,j)=0,且由于边具有方向性,e(i,j)与e(j,i)不一定相等;对于每对转移关系e(i,j),还包括三个属性信息:转移时间范围、以标志位FP来表示的该连接关系对应的车辆和所述节点vi之间的相对运动类型和以标志位Fa来表示的该连接关系对应的车辆行驶方向。
由于城市道路的结构特点,使得图模型具有强烈的稀疏性,为了提高运算效率和存储资源利用率,故采用邻接表的形式将图表示出来。
构建完摄像机网络时空拓扑关系后,可以执行如图1所示的步骤:步骤S200、获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;
具体地,如果要实现对目标车辆的长时间、长距离的跟踪,首先要获取目标车辆在每个单摄像机中的运动轨迹,然后根据目标车辆在节点之间的转移顺序和转移路径将所有获取到的单摄像机中目标车辆的运动轨迹串接起来就构成了目标车辆的整体行驶轨迹。因此,首先根据获取到的目标车辆信息,在包含该目标车辆的一个摄像机中对目标车辆进行跟踪,得到目标车辆在该单摄像机中的运动轨迹。
为了得到目标车辆运动轨迹,所述获取目标车辆,在单摄像机内对所述目标车辆进行跟踪包括如下步骤:
步骤S201、获取目标车辆;
步骤S202、根据目标车辆,利用YoloV4目标检测算法检测视频中的目标车辆,输出检测时间、车辆类型、编号和检测框位置的图像坐标;
步骤S203、根据检测时间、车辆类型、编号、检测框位置的图像坐标,采用DeepSort目标跟踪算法对所述目标车辆的运动进行连续跟踪,得到目标车辆运动轨迹,其中,所述目标车辆运动轨迹包括所述目标车辆的轨迹编号,与所述轨迹编号对应的每一采样点的检测时间和检测框位置坐标;
步骤S204、获取目标车辆与所述单摄像机之间的相对运动类型;其中,所述相对运动类型包括所述目标车辆靠近、远离或先靠近后远离所述单摄像机运动;
步骤S205、提取目标车辆行驶方向指示信息,得到所述目标车辆的行驶方向;其中,所述目标车辆行驶方向指示信息包括车道标线、车辆轨迹、车辆指示灯闪烁信息;
步骤S206、获取目标车辆质量较高的车辆图片,并提取所述目标车辆的车牌和车辆画像信息;其中,所述车辆画像信息包括车型、车辆品牌及型号、车身颜色、车内摆放物或挂饰、有无天窗、有无车顶架、副驾驶有无人。
在本实施例中,首先获取目标车辆,根据目标车辆,利用YoloV4目标检测算法检测视频中的车辆,输出检测时间、车辆类型、编号和检测框位置的图像坐标,再根据检测时间、车辆类型、编号、检测框位置的图像坐标,采用Deep Sort目标跟踪算法对所述目标车辆的运动进行连续跟踪,得到目标车辆运动轨迹,其中,所述目标车辆运动轨迹包括所述目标车辆的轨迹编号,与所述轨迹编号对应的每一采样点的检测时间和检测框位置坐标。然后获取目标车辆与所述单摄像机之间的相对运动类型;其中,所述相对运动类型包括所述目标车辆靠近、远离或先靠近后远离所述单摄像机运动,例如:在不对节点镜头参数进行调节的情况下,可以根据同一目标车辆检测框大小随时间的变化情况判断目标车辆与所述单摄像机之间的相对运动类型,当所述单摄像机中的目标车辆检测框逐渐增大时,表示目标车辆在接近所述单摄像机运动,当所述单摄像机中的目标车辆检测框逐渐减小时,表示目标车辆在远离所述单摄像机运动;得到目标车辆与所述单摄像机之间的相对运动类型后还需要提取目标车辆行驶方向指示信息,得到所述目标车辆的行驶方向;其中,所述目标车辆行驶方向指示信息包括车道标线、车辆轨迹、车辆指示灯闪烁信息;最后还需要获取目标车辆质量较高的车辆图片,并提取所述目标车辆的车牌和车辆画像信息;其中,所述车辆画像信息包括车型、车辆品牌及型号、车身颜色、车内摆放物或挂饰、有无天窗、有无车顶架、副驾驶有无人。在单摄像机内对所述目标车辆进行跟踪结束后,将识别到的目标车辆属性信息、目标车辆与所述单摄像机之间的相对运动类型、目标车辆行驶方向和车辆图片一起上报服务器,为后续进行跨摄像机的目标车辆跟踪做准备。
在单摄像机内对所述目标车辆进行跟踪结束后,执行如图1所示步骤:步骤S300、当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
实际中,当目标车辆从当前的单摄像机中消失后,需要快速及时地找到可能出现目标车辆的下一节点,因此,根据时间信息以及目标车辆运动信息如目标车辆与当前节点之间的相对运动类型和车辆行驶方向信息,在摄像机网络时空拓扑关系中查找满足一定约束条件的当前节点的下游相邻节点作为候选节点集,以尽量缩小候选节点的范围,提高跨摄像机跟踪效率。
为了得到候选节点集,所述当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集包括如下步骤:
步骤S301、当目标车辆从所述单摄像机中消失后,在所述摄像机网络时空拓扑关系中,将目标关联计算时刻与车辆消失时刻的时间差在所述单摄像机与其下游相邻节点之间的转移时间范围内的下游相邻节点集合作为第一候选节点集,将所述第一候选节点集对应的连接关系集合作为第一候选连接关系集;其中,所述第一候选连接关系集包含连接所述单摄像机和第一候选节点集中的节点的有向边和所述有向边的属性信息;
步骤S302、根据目标车辆与所述单摄像机之间的相对运动类型,对所述第一候选节点集和所述第一候选连接关系集进行筛选,得到第二候选节点集和第二候选连接关系集;
步骤S303、根据目标车辆在所述单摄像机中消失前的行驶方向,对所述第二候选节点集和所述第二候选连接关系集进行筛选,得到候选节点集。
具体地,当目标车辆从所述单摄像机中消失后,在所述摄像机网络时空拓扑关系中,将目标关联计算时刻与车辆消失时刻的时间差在所述单摄像机与其下游相邻节点之间的转移时间范围内的下游相邻节点集合作为第一候选节点集,将所述第一候选节点集对应的连接关系集合作为第一候选连接关系集;其中,所述第一候选连接关系集包含连接所述单摄像机和第一候选节点集中的节点的有向边和所述有向边的属性信息。举例说明,当车辆从一个节点中消失后,将最先出现在和它相邻的若干节点中,假设要对目标车辆进行连续观测和跟踪,目标车辆在当前节点中的消失时刻为td,从摄像机网络时空拓扑关系邻接表中筛选出与该节点相邻的下游节点构成下游相邻节点集合,记为Sv={Ci|i=1,2...,N},对应的连接关系集合记为Se,N为节点数量,该节点与下游相邻节点集合Sv中第i个节点之间的转移时间范围为[Ti,min,Ti,max];若目标关联计算时刻为tc,tc为晚于td且早于在下一节点中发现且跟踪上该目标车辆的时刻,计算目标关联计算时刻与车辆消失时刻的时间差Δt=tc-td,当Δt在下游相邻节点集合Sv中第i个节点转移时间范围内时,则判定该节点为目标车辆可能出现的下一节点,从而得到第一候选节点集S′v={Ci|i=1,2...,N′,Δt∈[Ti,min,Ti,max]}及其对应的第一候选连接关系集S′e。例如,假设目标车辆在时刻9点5分5秒在当前节点中消失,而当前节点与下游相邻节点集合中的节点之间的转移时间范围包括10秒到20秒、2秒到5秒等等,那么在时刻9点5分8秒去查找目标车辆可能出现的下一节点时,此时,目标关联计算时刻与目标车辆消失时刻的时间差为3秒,就可以排除转移时间范围为10秒到20秒的下游相邻节点,而选择包含时间差3秒的转移时间范围(如2秒到5秒)对应的下游相邻节点,从而得到第一候选节点集S′v和其对应的第一候选连接关系集S′e;
为了降低计算复杂度,还需要进一步缩小第一候选节点集和第一候选连接关系集的范围,根据目标车辆与所述单摄像机之间的相对运动类型,对所述第一候选节点集和所述第一候选连接关系集进行筛选,得到第二候选节点集和第二候选连接关系集。举例说明,利用目标车辆相对当前节点的运动关系对S′v和S′e做进一步筛选,当目标车辆在逐渐接近当前节点时,从S′e中筛选标志位FP为0的连接关系构成第二候选连接关系集S″e,对应的节点构成第二候选节点集S″v;当目标车辆在逐渐远离当前节点时,从S′e中筛选标志位FP为1的连接关系构成第二候选连接关系集S″e,对应的节点构成第二候选节点集S″v;当目标车辆先接近后远离当前节点时,从S′e中筛选标志位FP为2的连接关系构成第二候选连接关系集S″e,对应的节点构成第二候选节点集S″v。实际中,相比于行人,车辆行驶具有有限种固定的模式,故还可以进一步缩小候选节点集合的范围,根据目标车辆在所述单摄像机中消失前的行驶方向,对所述第二候选节点集和所述第二候选连接关系集进行筛选,得到候选节点集。举例说明,假设利用交通标线、车辆轨迹等信息获取到目标车辆在当前节点中消失前的运动方向信息,例如,左转弯、右转弯、直行、掉头或者驶向某个道路分支等,可根据车辆行驶方向与摄像机网络时空拓扑关系图模型中该节点与其下游相邻节点组成的连接关系对的对应关系,即第二候选连接关系集S″e中的标志位Fa对第二候选节点集S″v进一步筛选,从而得到最终的候选节点集,记为S″′v并输出。例如,如果获取到目标车辆在交通路口处即将左转弯的信息,那么就可以将右转弯、直行或者掉头等情况对应的第二候选节点集S″v中的节点进一步筛除。
在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集后,就可以执行如图1所示的步骤:步骤S400、获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与所述目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
考虑到实际中,相邻节点的视场区域会出现无重叠或者缺少所述节点和其相邻节点之间的精确标定信息的情况,这样就难以通过轨迹信息和几何变换等进行运动参数匹配的方式来实现目标车辆的可靠跟踪,因此,本发明实施例将目标车辆跨摄像机跟踪视为一个目标关联识别问题。获取目标车辆以后,通过在单摄像机内对所述目标车辆进行跟踪可以得到目标车辆车牌、目标车辆画像和目标车辆图片;每个节点完成对自身拍摄视频的车辆检测和跟踪,得到车辆检测框的位置和大小,根据节点的用途和功能配置情况完成车牌识别和车辆画像信息提取,然后将提取到的车牌、车辆轨迹编号、车辆画像、车辆图片以及节点ID回传到服务器,候选节点集中的每个节点也可以直接上传自身拍摄的视频、图片或者部分处理结果,而上述功能的剩余部分则由服务器来完成,在得到目标车辆转移的候选节点集S″′v以后,即可获取候选节点集中所有节点拍摄的车辆集合的车牌、车辆画像和车辆图片,将所有候选节点的上述输出结果集合作为目标关联的候选车辆数据集D,即为上文所述候选节点集获取的车辆集合及其特征;将单摄像机目标车辆跟踪输出的目标车辆信息与候选车辆数据集D进行关联匹配,提取目标车辆和待关联候选车辆的深度学习特征,然后综合所掌握的车辆特征信息,按照一定的特征优先级进行逐级匹配,并通过语义特征、深度学习特征等多种特征融合的方式得到最终的目标车辆关联结果,从而得到目标车辆跨摄像机跟踪结果,上述目标车辆关联处理过程可在服务器上执行。
为了得到跨摄像机的车辆跟踪结果,所述获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与所述目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果包括如下步骤:
步骤S401、获取目标车辆车牌和目标车辆画像;
步骤S402、获取所述候选节点集所拍摄的车辆的车牌和车辆画像信息;
步骤S403、当所述目标车辆和所述候选节点集所拍摄的车辆都包含车牌信息时,将所述候选节点集所拍摄的车辆的车牌和所述目标车辆车牌进行关联,当所述候选节点集所拍摄的车辆的车牌与所述目标车辆的车牌相同时,则判断关联成功,记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线;
步骤S404、当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合;
步骤S405、根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
在本实施例中,为了进行目标车辆关联,先获取目标车辆车牌和目标车辆画像;还要获取所述候选节点集所拍摄的车辆的车牌和车辆画像信息;当所述目标车辆和所述候选节点集所拍摄的车辆都包含车牌信息时,将所述候选节点集所拍摄的车辆的车牌和所述目标车辆车牌进行关联,当所述候选节点集所拍摄的车辆的车牌与所述目标车辆的车牌相同时,则判断关联成功;此时,记录关联成功车辆对应的节点ID,更新所述目标车辆在所述节点之间的转移路线,然后结束跨摄像机目标车辆跟踪流程的调用执行。当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合。
在一种实现方式中,所述当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合包括如下步骤:当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,根据所述目标车辆和所述候选节点集所拍摄车辆的车辆画像信息,得到有效车辆画像信息个数集合;根据目标车辆画像和候选节点集所拍摄车辆的车辆画像信息的一致程度,得到关联车辆画像信息个数集合;将所述关联车辆画像信息个数集合除以所述有效车辆画像信息个数集合,得到所述目标车辆的第一车辆关联得分集合。
具体地,当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,可以将提取到的车辆的多种特征用于后续关联识别,例如车辆画像信息,包括车型(如轿车、SUV、中型/大型货车、客车等)、车辆品牌、车辆型号、车身颜色、车内摆放物/挂饰、有无天窗、是否有车顶架、副驾驶是否有人等,对于所述目标车辆和所述候选节点集所拍摄的每个车辆而言,将它们共同具有且有效的车辆画像类别称之为有效车辆画像信息,通过对所述目标车辆和所述候选节点集所拍摄车辆的车辆画像信息的种类和有效性进行比对和统计,得到有效车辆画像信息个数集合,将所述候选节点集获取的车辆集合中的一个样本称为待关联候选车辆,与之对应的有效车辆画像信息个数记为M(建议M≥5);再根据目标车辆画像和候选节点集所拍摄车辆的车辆画像信息的一致程度,得到关联车辆画像信息个数集合,例如,将待关联候选车辆与目标车辆一致的车辆画像信息个数记为M′;最后,将所述关联车辆画像信息个数集合除以所述有效车辆画像信息个数集合,得到所述目标车辆的第一车辆关联得分集合,例如,待关联候选车辆与目标车辆的第一车辆关联得分为将所述目标车辆的第一车辆关联得分集合记为S1。
得到第一车辆关联得分集合后,根据所述第一车辆关联得分集合,可以进一步利用其它车辆信息通过机器学习算法计算得到目标车辆跨摄像机跟踪结果。
所述根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果包括如下步骤:获取目标车辆图片;获取所述候选节点集所拍摄的车辆图片;采用BoT-BS算法进行车辆的关联识别,将所述目标车辆图片和所述候选节点集所拍摄的车辆图片进行深度学习特征提取和相似度计算,得到所述目标车辆的第二车辆关联得分集合;根据所述第一车辆关联得分集合和所述第二车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
在本实施例中,获取所述第一车辆关联得分集合后,还要获取所述目标车辆图片和所述候选节点集所拍摄的车辆图片,然后采用BoT-BS算法进行目标车辆的关联识别,对所述目标车辆图片和所述候选节点集所拍摄的车辆图片进行深度学习特征提取和相似度计算,将输出的相似度作为所述目标车辆的第二车辆关联得分集合S2。最后,根据所述第一车辆关联得分集合S1和所述第二车辆关联得分集合S2,得到目标车辆跨摄像机跟踪结果。
进一步地,为了得到目标车辆跨摄像机跟踪结果,所述根据所述第一车辆关联得分集合S1和所述第二车辆关联得分集合S2,得到目标车辆跨摄像机跟踪结果包括如下步骤:根据所述第一车辆关联得分集合和所述第二车辆关联得分集合得到车辆目标关联总得分集合;当所述车辆目标关联总得分集合中关联总得分最大且连续关联到同一相邻节点下同一轨迹编号的车辆的次数满足预设值时,则判断所述候选节点集中的候选车辆与所述目标车辆关联成功;当所述候选节点集中的候选车辆与所述目标车辆关联成功时,则记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线。
具体地,首先根据所述第一车辆关联得分集合S1和所述第二车辆关联得分集合S2,计算出车辆目标关联总得分集合为然后,将目标车辆与候选车辆数据集D(即所述候选节点集获取的车辆集合及其特征)中的每个车辆一一配对,当候选车辆数据集中某个待关联候选车辆的关联总得分最大且连续NF(例如,取值为5)次均为同一节点中的同一轨迹编号的车辆时,则认为该候选车辆与目标车辆是同一辆车,判定该候选车辆与所述目标车辆关联成功,记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线,结束跨摄像机目标车辆跟踪流程的调用执行。
此外,当得到目标车辆在节点之间的转移路线后,将跨摄像机跟踪得到的所述目标车辆所在的当前节点作为新的所述单摄像机,继续进行目标车辆的单摄像机跟踪和跨摄像机跟踪,并且将所述单摄像机跟踪得到的所述目标车辆的运动轨迹更新到目标车辆行驶轨迹记录中;根据所述目标车辆在所述节点之间的转移路线、所述目标车辆行驶轨迹记录、所述节点的安装位置,通过地理信息系统的辅助,得到所述目标车辆的行驶时段和行驶路线。
具体地,对于目标车辆在某节点消失后的每个时刻,均采用步骤S300所述的目标车辆转移候选节点选择方法筛选出待关联的候选节点集,采用步骤S400所述的目标车辆跨摄像机跟踪方法进行目标关联识别,直到确认目标车辆所在的下一节点为止;然后,将跨摄像机跟踪得到的所述目标车辆所在的当前节点作为新的所述单摄像机,继续对目标车辆进行单摄像机跟踪以及后续的跨摄像机跟踪,将新的所述单摄像机中跟踪到的目标轨迹和目标车辆在不同地点对应的时间信息更新到服务器所维护的目标车辆行驶记录中;根据目标车辆在节点之间的转移路线和节点安装参数(如位置),通过地理信息系统(如高德地图或者百度地图)的辅助,最终得到目标车辆的行驶时段和行驶路线。
示例性设备
如图2中所示,本发明实施例提供一种基于多摄像机的车辆追踪装置,该装置包括摄像机网络时空拓扑关系构建单元501,目标车辆运动轨迹获取单元502,候选节点集获取单元503,目标车辆跨摄像机跟踪处理单元504,其中:
摄像机网络时空拓扑关系构建单元501,用于获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
目标车辆运动轨迹获取单元502,用于根据目标车辆,在单摄像机内对所述目标车辆进行跟踪;
候选节点集获取单元503,用于当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
目标车辆跨摄像机跟踪处理单元504,用于根据获取的目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
基于上述实施例,本发明还提供了一种服务器,其原理框图如图3所示。该服务器包括通过系统总线连接的处理器、存储器、网络接口、显示屏、温度传感器。其中,该服务器的处理器用于提供计算和控制能力。该服务器的存储器包括非易失性存储介质、内存储器;其中,该非易失性存储介质存储有操作系统和计算机程序;该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境;该计算机程序被处理器执行以实现一种基于多摄像机的车辆追踪方法。该服务器的网络接口用于与外部的终端通过网络连接通信。该服务器的显示屏可以是液晶显示屏或者电子墨水显示屏,该服务器的温度传感器预先在服务器内部设置,用于检测内部设备的运行温度。
本领域技术人员可以理解,图3中的原理图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的服务器的限定,具体的服务器可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种服务器,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行以下操作的指令:
获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;
当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序指令和相关的硬件来完成的,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本发明的亮点在于:
1.综合利用摄像机拓扑关系和车辆特征,提出了一种对车辆进行长时间、长距离连续跟踪的实现方案,能够获得一条完整的目标车辆行驶路线;
2.针对交通应用场景,充分利用道路结构信息、历史交通流数据、摄像机安装参数等多源数据,不仅明确了相邻节点及其连接关系,还根据车辆与当前节点的相对位置关系变化和车辆行驶方向,为连接关系添加属性信息,从而构建了更加精细的摄像机网络时空拓扑关系,能够有效地缩小车辆转移节点搜索范围,提高目标关联的效率;
3.在进行跨摄像机目标关联时,根据所掌握的车辆特征丰富程度,优先通过车牌进行目标车辆关联,在无法获取车牌时,利用车辆画像信息和深度学习特征关联得分融合的方式确定关联车辆,提高了关联准确率,能够适用于大多数实际场合;
4.所有节点和服务器具有同步的时间信息,每个节点将实时时间信息、检测结果、跟踪结果和车辆特征同步上报,用于跨摄像机目标车辆跟踪和目标车辆全局行驶记录生成,使得最终得到的目标车辆行驶路线包含时间和位置两方面的信息,从而方便地确定每个时刻目标车辆所在的位置。
综上所述,本发明公开了基于多摄像机的车辆追踪方法、服务器、存储介质,所述方法包括:获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果,该方法计算量小,能够得到可靠、鲁棒的目标车辆持续跟踪结果。
基于上述实施例,本发明公开了一种基于多摄像机的车辆追踪方法,应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (14)
1.一种基于多摄像机的车辆追踪方法,其特征在于,所述方法包括:
获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系;
获取目标车辆,在单摄像机内对所述目标车辆进行跟踪;
当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集;
获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果。
2.根据权利要求1所述的基于多摄像机的车辆追踪方法,其特征在于,所述获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系包括:
获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据;
将摄像机作为节点;
对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点;
将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边;
根据摄像机安装参数、地理信息数据、历史交通流数据、公交车、出租车的行车记录数据进行理论估算和统计分析,得到车辆在每个所述节点及与所述节点对应的所述相邻节点之间的时间转移关系;
根据车辆相对于所述节点的位置变化关系和车辆在所述节点中消失前的行驶方向信息,得到每条边对应的连接关系属性信息;其中,所述连接关系属性信息包含所述车辆与所述节点之间的相对运动类型和所述车辆的行驶方向信息;
将所述节点、所述有向边、所述时间转移关系和所述连接关系属性组成摄像机网络时空拓扑关系。
3.根据权利要求2所述的基于多摄像机的车辆追踪方法,其特征在于,所述对于每个所述节点,将其周围每个方向上相距最近的节点或者每个通行方向的可达路径最短节点称为相邻节点包括:
当所述节点分布密集时,选取所述节点对应的监控区域所有通行方向上和它相距最近的所述节点作为相邻节点;
当所述节点分布稀疏时,选取所述节点对应的所有通行方向上和它路径最短的所述节点作为相邻节点,每条道路或者路口仅选取一个所述相邻节点。
4.根据权利要求2所述的基于多摄像机的车辆追踪方法,其特征在于,所述将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边包括:
当所述节点分布密集时,根据所述节点及与所述节点对应的所述相邻节点的安装位置、监控区域、已知的道路结构信息和通行规则约束确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;
当所述节点分布稀疏时,根据地理信息系统提供的最优路径规划确定车辆在所述节点及与所述节点对应的所述相邻节点之间的运动转移模式;
将车辆在每个所述节点及与所述节点对应的所述相邻节点之间的运动转移模式作为有向边。
5.根据权利要求2所述的基于多摄像机的车辆追踪方法,其特征在于,所述获取道路结构与通行属性、摄像机安装参数、历史车流数据和地理信息数据,构建摄像机网络时空拓扑关系还包括:
采用图模型来表示所述摄像机网络时空拓扑关系,表达式为:
G=(V,E)
V={vi|1≤i≤N}
E={e(i,j)|1≤i,j≤N}
式中,V表示节点集,vi为摄像机网络拓扑图中的第i个节点,E表示节点与其相邻节点之间的边集,包括一系列有序节点对,e(i,j)为从节点vi到节点vj的转移关系,其中,所述转移关系为边,当存在从所述节点vi到所述节点vj的行驶路径时,e(i,j)=1,否则,e(i,j)=0,且由于边具有方向性,e(i,j)与e(j,i)不一定相等;对于每对转移关系e(i,j),还包括三个属性信息:转移时间范围、以标志位FP来表示的该连接关系对应的车辆和所述节点vi之间的相对运动类型和以标志位Fa来表示的该连接关系对应的车辆行驶方向。
6.根据权利要求1所述的基于多摄像机的车辆追踪方法,其特征在于,所述获取目标车辆,在单摄像机内对所述目标车辆进行跟踪包括:
获取目标车辆;
根据目标车辆,利用YoloV4目标检测算法检测视频中的目标车辆,输出检测时间、车辆类型、编号和检测框位置的图像坐标;
根据检测时间、车辆类型、编号、检测框位置的图像坐标,采用Deep Sort目标跟踪算法对所述目标车辆的运动进行连续跟踪,得到目标车辆运动轨迹,其中,所述目标车辆运动轨迹包括所述目标车辆的轨迹编号,与所述轨迹编号对应的每一采样点的检测时间和检测框位置坐标;
获取目标车辆与所述单摄像机之间的相对运动类型;其中,所述相对运动类型包括所述目标车辆靠近、远离或先靠近后远离所述单摄像机运动;
提取目标车辆行驶方向指示信息,得到所述目标车辆的行驶方向;其中,所述目标车辆行驶方向指示信息包括车道标线、车辆轨迹、车辆指示灯闪烁信息;
获取目标车辆质量较高的车辆图片,并提取所述目标车辆的车牌和车辆画像信息;其中,所述车辆画像信息包括车型、车辆品牌及型号、车身颜色、车内摆放物或挂饰、有无天窗、有无车顶架、副驾驶有无人。
7.根据权利要求1所述的基于多摄像机的车辆追踪方法,其特征在于,所述当目标车辆从所述单摄像机中消失后,根据目标车辆与所述单摄像机之间的相对运动类型、车辆行驶方向和时间信息,在所述摄像机网络时空拓扑关系中查找满足约束条件的所述单摄像机的相邻节点作为候选节点集包括:
当目标车辆从所述单摄像机中消失后,在所述摄像机网络时空拓扑关系中,将目标关联计算时刻与车辆消失时刻的时间差在所述单摄像机与其下游相邻节点之间的转移时间范围内的下游相邻节点集合作为第一候选节点集,将所述第一候选节点集对应的连接关系集合作为第一候选连接关系集;其中,所述第一候选连接关系集包含连接所述单摄像机和第一候选节点集中的节点的有向边和所述有向边的属性信息;
根据目标车辆与所述单摄像机之间的相对运动类型,对所述第一候选节点集和所述第一候选连接关系集进行筛选,得到第二候选节点集和第二候选连接关系集;
根据目标车辆在所述单摄像机中消失前的行驶方向,对所述第二候选节点集和所述第二候选连接关系集进行筛选,得到候选节点集。
8.根据权利要求1所述的基于多摄像机的车辆追踪方法,其特征在于,所述获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与所述目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果包括:
获取目标车辆车牌和目标车辆画像;
获取所述候选节点集所拍摄的车辆的车牌和车辆画像信息;
当所述目标车辆和所述候选节点集所拍摄的车辆都包含车牌信息时,将所述候选节点集所拍摄的车辆的车牌和所述目标车辆车牌进行关联,当所述候选节点集所拍摄的车辆的车牌与所述目标车辆的车牌相同时,则判断关联成功,记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线;
当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合;
根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
9.根据权利要求8所述的基于多摄像机的车辆追踪方法,其特征在于,所述当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,则根据目标车辆画像和所述候选节点集所拍摄车辆的车辆画像信息,得到所述目标车辆的第一车辆关联得分集合包括:
当未获取到所述目标车辆或者所述候选节点集所拍摄的车辆的车牌时,根据所述目标车辆和所述候选节点集所拍摄车辆的车辆画像信息,得到有效车辆画像信息个数集合;
根据目标车辆画像和候选节点集所拍摄车辆的车辆画像信息的一致程度,得到关联车辆画像信息个数集合;
将所述关联车辆画像信息个数集合除以所述有效车辆画像信息个数集合,得到所述目标车辆的第一车辆关联得分集合。
10.根据权利要求8所述的基于多摄像机的车辆追踪方法,其特征在于,所述根据所述第一车辆关联得分集合,得到目标车辆跨摄像机跟踪结果包括:
获取目标车辆图片;
获取所述候选节点集所拍摄的车辆图片;
采用BoT-BS算法进行车辆的关联识别,将所述目标车辆图片和所述候选节点集所拍摄的车辆图片进行深度学习特征提取和相似度计算,得到所述目标车辆的第二车辆关联得分集合;
根据所述第一车辆关联得分集合和所述第二车辆关联得分集合,得到目标车辆跨摄像机跟踪结果。
11.根据权利要求10所述的基于多摄像机的车辆追踪方法,其特征在于,所述根据所述第一车辆关联得分集合和所述第二车辆关联得分集合,得到目标车辆跨摄像机跟踪结果包括:
根据所述第一车辆关联得分集合和所述第二车辆关联得分集合得到车辆目标关联总得分集合;
当所述车辆目标关联总得分集合中关联总得分最大且连续关联到同一相邻节点下同一轨迹编号的车辆的次数满足预设值时,则判断所述候选节点集中的候选车辆与所述目标车辆关联成功;
当所述候选节点集中的候选车辆与所述目标车辆关联成功时,则记录其对应的节点ID,更新所述目标车辆在所述节点之间的转移路线。
12.根据权利要求8所述的基于多摄像机的车辆追踪方法,其特征在于,所述获取目标车辆车牌、目标车辆画像和深度学习特征,将候选节点集获取的车辆集合的车牌、车辆画像和深度学习特征与目标车辆进行关联识别,得到目标车辆跨摄像机跟踪结果还包括:
将跨摄像机跟踪得到的所述目标车辆所在的当前节点作为新的所述单摄像机,继续进行目标车辆的单摄像机跟踪和跨摄像机跟踪,并且将所述单摄像机跟踪得到的所述目标车辆的运动轨迹更新到目标车辆行驶轨迹记录中;
根据所述目标车辆在所述节点之间的转移路线、所述目标车辆行驶轨迹记录、所述节点的安装位置,通过地理信息系统的辅助,得到所述目标车辆的行驶时段和行驶路线。
13.一种服务器,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行如权利要求1-12中任意一项所述的方法。
14.一种非临时性计算机可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1-12中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110141583.XA CN112884815A (zh) | 2021-02-02 | 2021-02-02 | 一种基于多摄像机的车辆追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110141583.XA CN112884815A (zh) | 2021-02-02 | 2021-02-02 | 一种基于多摄像机的车辆追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112884815A true CN112884815A (zh) | 2021-06-01 |
Family
ID=76052568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110141583.XA Pending CN112884815A (zh) | 2021-02-02 | 2021-02-02 | 一种基于多摄像机的车辆追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112884815A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113470081A (zh) * | 2021-07-21 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种车辆跟踪方法、装置、计算机设备及存储介质 |
CN113469101A (zh) * | 2021-07-13 | 2021-10-01 | 广联达科技股份有限公司 | 一种车辆重识别的方法、装置、设备及可读存储介质 |
CN113487651A (zh) * | 2021-06-17 | 2021-10-08 | 超节点创新科技(深圳)有限公司 | 行李跟踪方法、装置、设备及可读存储介质 |
CN113688814A (zh) * | 2021-10-27 | 2021-11-23 | 武汉邦拓信息科技有限公司 | 图像识别方法及装置 |
US20220261577A1 (en) * | 2021-02-17 | 2022-08-18 | Electronics And Telecommunications Research Institute | Method and apparatus for reidentification |
CN115223374A (zh) * | 2022-07-15 | 2022-10-21 | 北京精英路通科技有限公司 | 车辆跟踪方法、装置及电子设备 |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
CN115830079A (zh) * | 2023-02-15 | 2023-03-21 | 天翼交通科技有限公司 | 交通参与者的轨迹追踪方法、装置及介质 |
CN115880661A (zh) * | 2023-02-01 | 2023-03-31 | 天翼云科技有限公司 | 一种车辆匹配的方法及装置、电子设备、存储介质 |
CN117528035A (zh) * | 2024-01-05 | 2024-02-06 | 四川省寰宇众恒科技有限公司 | 一种基于主动通知的物体跨境头追踪方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016188116A1 (zh) * | 2015-05-25 | 2016-12-01 | 华南理工大学 | 一种车载自组网中基于信任度检测的安全路由协议 |
CN106846374A (zh) * | 2016-12-21 | 2017-06-13 | 大连海事大学 | 多摄像头场景下车辆的轨迹计算方法 |
CN212084368U (zh) * | 2020-06-01 | 2020-12-04 | 浙江省机电设计研究院有限公司 | 一种高速公路车辆轨迹跟踪系统 |
-
2021
- 2021-02-02 CN CN202110141583.XA patent/CN112884815A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016188116A1 (zh) * | 2015-05-25 | 2016-12-01 | 华南理工大学 | 一种车载自组网中基于信任度检测的安全路由协议 |
CN106846374A (zh) * | 2016-12-21 | 2017-06-13 | 大连海事大学 | 多摄像头场景下车辆的轨迹计算方法 |
CN212084368U (zh) * | 2020-06-01 | 2020-12-04 | 浙江省机电设计研究院有限公司 | 一种高速公路车辆轨迹跟踪系统 |
Non-Patent Citations (1)
Title |
---|
QIU, HANG 等: "Kestrel: Video Analytics for Augmented Multi-Camera Vehicle Tracking", <UC SANTA BARBARA PREVIOUSLY PUBLISHED WORKS>, 1 April 2018 (2018-04-01), pages 1 - 13 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220261577A1 (en) * | 2021-02-17 | 2022-08-18 | Electronics And Telecommunications Research Institute | Method and apparatus for reidentification |
CN113487651A (zh) * | 2021-06-17 | 2021-10-08 | 超节点创新科技(深圳)有限公司 | 行李跟踪方法、装置、设备及可读存储介质 |
CN113487651B (zh) * | 2021-06-17 | 2022-07-05 | 超节点创新科技(深圳)有限公司 | 行李跟踪方法、装置、设备及可读存储介质 |
CN113469101A (zh) * | 2021-07-13 | 2021-10-01 | 广联达科技股份有限公司 | 一种车辆重识别的方法、装置、设备及可读存储介质 |
CN113470081B (zh) * | 2021-07-21 | 2024-06-04 | 浙江大华技术股份有限公司 | 一种车辆跟踪方法、装置、计算机设备及存储介质 |
CN113470081A (zh) * | 2021-07-21 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种车辆跟踪方法、装置、计算机设备及存储介质 |
CN113688814A (zh) * | 2021-10-27 | 2021-11-23 | 武汉邦拓信息科技有限公司 | 图像识别方法及装置 |
CN115223374A (zh) * | 2022-07-15 | 2022-10-21 | 北京精英路通科技有限公司 | 车辆跟踪方法、装置及电子设备 |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
CN115880661A (zh) * | 2023-02-01 | 2023-03-31 | 天翼云科技有限公司 | 一种车辆匹配的方法及装置、电子设备、存储介质 |
CN115830079A (zh) * | 2023-02-15 | 2023-03-21 | 天翼交通科技有限公司 | 交通参与者的轨迹追踪方法、装置及介质 |
CN117528035A (zh) * | 2024-01-05 | 2024-02-06 | 四川省寰宇众恒科技有限公司 | 一种基于主动通知的物体跨境头追踪方法及系统 |
CN117528035B (zh) * | 2024-01-05 | 2024-03-22 | 四川省寰宇众恒科技有限公司 | 一种基于主动通知的物体跨境头追踪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884815A (zh) | 一种基于多摄像机的车辆追踪方法 | |
Mandal et al. | Object detection and tracking algorithms for vehicle counting: a comparative analysis | |
Khan et al. | A survey of advances in vision-based vehicle re-identification | |
Yang et al. | Generating lane-based intersection maps from crowdsourcing big trace data | |
Zhao et al. | A novel multi-lane detection and tracking system | |
Mallikarjuna et al. | Traffic data collection under mixed traffic conditions using video image processing | |
US20140314275A1 (en) | Pedestrian Right of Way Monitoring and Reporting System and Method | |
JP4874607B2 (ja) | 物体測位装置 | |
CN113326719A (zh) | 一种用于目标追踪的方法、设备及系统 | |
Bloisi et al. | Argos—A video surveillance system for boat traffic monitoring in Venice | |
Chang et al. | Video analytics in smart transportation for the AIC'18 challenge | |
WO2020211593A1 (zh) | 交通道路的数字化重建方法、装置和系统 | |
Lee et al. | Accurate ego-lane recognition utilizing multiple road characteristics in a Bayesian network framework | |
KR20160103459A (ko) | 노드-링크 기반 카메라 네트워크 통합 감시 시스템 및 감시 방법 | |
Pi et al. | Visual recognition for urban traffic data retrieval and analysis in major events using convolutional neural networks | |
Gupta et al. | A computer vision based approach for automated traffic management as a smart city solution | |
CN114694078A (zh) | 一种基于多目标跟踪的交通行为判定方法 | |
Chen et al. | A framework for real-time vehicle counting and velocity estimation using deep learning | |
CN112562315B (zh) | 一种获取车流信息的方法、终端及存储介质 | |
CN113689705B (zh) | 车辆闯红灯检测方法、装置、计算机设备和存储介质 | |
Komasilovs et al. | Traffic Monitoring using an Object Detection Framework with Limited Dataset. | |
CN109410578B (zh) | 一种基于计算机视觉的交通路口断面车流量检测方法 | |
CN115731287B (zh) | 基于集合与拓扑空间的运动目标检索方法 | |
Shinde et al. | Traffic optimization algorithms in optical networks for real time traffic analysis | |
Zhou et al. | Learning single-shot vehicle orientation estimation from large-scale street panoramas |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |