CN111340856A - 车辆的跟踪方法、装置、设备及存储介质 - Google Patents

车辆的跟踪方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111340856A
CN111340856A CN201811554704.8A CN201811554704A CN111340856A CN 111340856 A CN111340856 A CN 111340856A CN 201811554704 A CN201811554704 A CN 201811554704A CN 111340856 A CN111340856 A CN 111340856A
Authority
CN
China
Prior art keywords
target vehicle
vehicle
pixel
plane
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811554704.8A
Other languages
English (en)
Other versions
CN111340856B (zh
Inventor
沈涛
王科
曹雨崧
裴建军
王晓鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision System Technology Co Ltd
Original Assignee
Hangzhou Hikvision System Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision System Technology Co Ltd filed Critical Hangzhou Hikvision System Technology Co Ltd
Priority to CN201811554704.8A priority Critical patent/CN111340856B/zh
Publication of CN111340856A publication Critical patent/CN111340856A/zh
Application granted granted Critical
Publication of CN111340856B publication Critical patent/CN111340856B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Abstract

本发明公开了一种车辆的跟踪方法、装置、设备及存储介质,属于视频监控领域。所述方法包括:根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围;根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域;根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,以实现所述目标车辆的跟踪。本发明通过目标车辆在第二监控画面中所处的画面区域,将目标车辆与第二监控画面中的车辆进行关联时,可以减少运算量,从而提高了车辆的跟踪效率。

Description

车辆的跟踪方法、装置、设备及存储介质
技术领域
本发明涉及视频监控领域,特别涉及一种车辆的跟踪方法、装置、设备及存储介质。
背景技术
目前,视频监控技术应用到各行各业,尤其对于城市交通的道路监控来说,视频监控技术显得尤为重要。为了实现道路监控,通常需要在道路上部署多个摄像机,通过该多个摄像机对道路上行驶的车辆进行跟踪,以实现道路监控。
相关技术提出了一种车辆的跟踪方法,包括:根据需要跟踪的目标车辆获取目标车辆的样本图像。当目标车辆离开某一摄像机的监控范围时,根据道路上部署的多个摄像机之间的连通关系矩阵,对当前摄像机及其所连通的其他摄像机发送车辆匹配指令,该车辆匹配指令中携带目标车辆的样本图像。之后,确定开始匹配时刻和结束匹配时刻。这样,对于接收到车辆匹配指令的所有摄像机来说,都需要在开始匹配时刻与结束匹配时刻之间,将各自监控范围内的车辆与目标车辆的样本图像进行匹配,从而实现目标车辆的跟踪。
由于上述方法中,所有连通的摄像机都需要在各自的监控范围内进行目标车辆的匹配,一旦开始匹配时刻至结束匹配时刻之间出现的车辆较多,那么就需要匹配多次,从而导致车辆的跟踪效率较低。
发明内容
本发明实施例提供了一种车辆的跟踪方法、装置、设备及存储介质,可以解决相关技术中车辆跟踪效率低的问题。所述技术方案如下:
第一方面,提供一种车辆的跟踪方法,所述方法包括:
根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,所述第一监控画面为第一摄像机的监控画面,所述目标车辆为待跟踪的车辆;
根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,所述第二监控画面为第二摄像机的监控画面,所述第二摄像机是指所述目标车辆的行驶方向上与所述第一摄像机位置相邻的摄像机,且所述第二摄像机的道路监控区域与所述第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值;
根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,以实现所述目标车辆的跟踪。
可选地,所述根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,包括:
根据所述当前时刻的平面坐标和所述上一时刻的平面坐标,确定所述目标车辆在当前的位置获取时间段内的平均速度;
根据所述目标车辆在当前的位置获取时间段内的平均速度,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离;
根据所述目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
可选地,所述根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,包括:
以所述当前时刻的平面坐标为圆心,以所述平面距离范围的上限和下限为半径,确定一个圆环区域;
将所述目标车辆的行驶方向上且位于所述第二监控画面内的一部分圆环区域,确定为所述目标车辆在所述第二监控画面中所处的画面区域。
可选地,所述根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,包括:
当所述预测出的画面区域中存在未被识别的车辆时,确定所述目标车辆的数量和所述未被识别的车辆的数量;
当所述目标车辆的数量和所述未被识别的车辆的数量均为1时,将所述目标车辆与所述未被识别的车辆进行关联;
当所述目标车辆的数量大于或等于2,且所述未被识别的车辆的数量为1时,确定所述未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联;
当所述目标车辆的数量和所述未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度;
从所述至少四个相似度中选择大于参考相似度阈值的相似度;
对于选择出的任一相似度,将用于确定所述任一相似度的特征信息对应的两辆车辆进行关联。
可选地,所述根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围之前,还包括:
确定第一像素点的像素坐标和第二像素点的像素坐标,所述第一像素点为所述目标车辆当前时刻在所述第一监控画面中所处的像素点,所述第二像素点为所述目标车辆上一时刻在所述第一监控画面中所处的像素点;
根据所述第一像素点的像素坐标和所述第二像素点的像素坐标,从存储的第一映射关系中,确定所述第一像素点的平面坐标和所述第二像素点的平面坐标,所述第一映射关系是指所述第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系;
将所述第一像素点的平面坐标确定为所述第一监控画面中所述目标车辆当前时刻的平面坐标,将所述第二像素点的平面坐标确定为所述第一监控画面中所述目标车辆上一时刻的平面坐标。
可选地,所述根据所述第一像素点的像素坐标和所述第二像素点的像素坐标,从存储的第一映射关系中,确定所述第一像素点的平面坐标和所述第二像素点的平面坐标之前,还包括:
确定第一透视变换矩阵,所述第一透视变换矩阵为所述第一摄像机对应的透视变换矩阵;
根据所述第一透视变换矩阵,将所述第一监控画面中每个像素点的像素坐标转换为平面坐标;
将所述第一监控画面中每个像素点的像素坐标与平面坐标存储至所述第一映射关系中。
可选地,所述确定第一透视变换矩阵,包括:
确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标;
根据所述4组不同的坐标,确定所述第一透视变换矩阵。
可选地,所述确定测试车辆在至少两个不同车道上的4组不同的坐标,包括:
当平面坐标系为高斯平面坐标系,且所述测试车辆行驶在所述第一摄像机的道路监控区域内时,确定所述测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在所述多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻;
将所述多个经纬度信息转换至所述平面坐标系中,以得到多个平面坐标;
确定所述测试车辆在所述第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻;
根据所述多个经纬度确定时刻和所述多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。
第二方面,提供一种车辆的跟踪装置,所述装置包括:
第一预测模块,用于根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,所述第一监控画面为第一摄像机的监控画面,所述目标车辆为待跟踪的车辆;
第二预测模块,用于根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,所述第二监控画面为第二摄像机的监控画面,所述第二摄像机是指所述目标车辆的行驶方向上与所述第一摄像机位置相邻的摄像机,且所述第二摄像机的道路监控区域与所述第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值;
关联模块,用于根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,以实现所述目标车辆的跟踪。
可选地,所述第一预测模块包括:
第一确定单元,用于根据所述当前时刻的平面坐标和所述上一时刻的平面坐标,确定所述目标车辆在当前的位置获取时间段内的平均速度;
第一预测单元,用于根据所述目标车辆在当前的位置获取时间段内的平均速度,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离;
第二预测单元,用于根据所述目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
可选地,所述第二预测模块包括:
第二确定单元,用于以所述当前时刻的平面坐标为圆心,以所述平面距离范围的上限和下限为半径,确定一个圆环区域;
第三确定单元,用于将所述目标车辆的行驶方向上且位于所述第二监控画面内的一部分圆环区域,确定为所述目标车辆在所述第二监控画面中所处的画面区域。
可选地,所述关联模块包括:
第四确定单元,用于当所述预测出的画面区域中存在未被识别的车辆时,确定所述目标车辆的数量和所述未被识别的车辆的数量;
第一关联单元,用于当所述目标车辆的数量和所述未被识别的车辆的数量均为1时,将所述目标车辆与所述未被识别的车辆进行关联;
第二关联单元,用于当所述目标车辆的数量大于或等于2,且所述未被识别的车辆的数量为1时,确定所述未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联;
第五确定单元,用于当所述目标车辆的数量和所述未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度;
选择单元,用于从所述至少四个相似度中选择大于参考相似度阈值的相似度;
第三关联单元,用于对于选择出的任一相似度,将用于确定所述任一相似度的特征信息对应的两辆车辆进行关联。
可选地,所述装置还包括:
第一确定模块,用于确定第一像素点的像素坐标和第二像素点的像素坐标,所述第一像素点为所述目标车辆当前时刻在所述第一监控画面中所处的像素点,所述第二像素点为所述目标车辆上一时刻在所述第一监控画面中所处的像素点;
第二确定模块,用于根据所述第一像素点的像素坐标和所述第二像素点的像素坐标,从存储的第一映射关系中,确定所述第一像素点的平面坐标和所述第二像素点的平面坐标,所述第一映射关系是指所述第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系;
第三确定模块,用于将所述第一像素点的平面坐标确定为所述第一监控画面中所述目标车辆当前时刻的平面坐标,将所述第二像素点的平面坐标确定为所述第一监控画面中所述目标车辆上一时刻的平面坐标。
可选地,所述装置还包括:
第四确定模块,用于确定第一透视变换矩阵,所述第一透视变换矩阵为所述第一摄像机对应的透视变换矩阵;
转换模块,用于根据所述第一透视变换矩阵,将所述第一监控画面中每个像素点的像素坐标转换为平面坐标;
存储模块,用于将所述第一监控画面中每个像素点的像素坐标与平面坐标存储至所述第一映射关系中。
可选地,所述第四确定模块包括:
第六确定单元,用于确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标;
第七确定单元,用于根据所述4组不同的坐标,确定所述第一透视变换矩阵。
可选地,所述第六确定单元,具体用于:
当平面坐标系为高斯平面坐标系,且所述测试车辆行驶在所述第一摄像机的道路监控区域内时,确定所述测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在所述多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻;
将所述多个经纬度信息转换至所述平面坐标系中,以得到多个平面坐标;
确定所述测试车辆在所述第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻;
根据所述多个经纬度确定时刻和所述多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。
第三方面,提供一种车辆跟踪设备,所述车辆跟踪设备包括:
处理器和存储器;
其中,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现上述第一方面所述的车辆的跟踪方法。
第四方面,提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现上述第一方面所述的车辆的跟踪方法。
本发明实施例提供的技术方案带来的有益效果是:在本发明实施例中,由于位置获取时间段的时长一般比较小,因此,可以根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。然后,根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域。由于目标车辆在第二监控画面中所处的画面区域是第二监控画面的一部分,所以,相比于第二监控画面的整个区域,预测出的画面区域中出现的车辆较少,这样,根据预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联时,可以减少运算量,从而提高了车辆的跟踪效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的实施环境示意图;
图2是本发明实施例提供的一种车辆的跟踪方法流程图;
图3是本发明实施例提供的一种车辆的跟踪方法流程图;
图4是本发明实施例提供的一种车道平面示意图;
图5是本发明实施例提供的一种车辆的跟踪装置结构示意图;
图6是本发明实施例提供的一种车辆跟踪设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
图1是本发明实施例提供的一种实施环境示意图。该实施环境中包括多个摄像机101和一个车辆跟踪设备102。车辆跟踪设备102与该多个摄像机101通过网络连接。多个摄像机101用于对道路上行驶的车辆进行监控,车辆跟踪设备102用于根据多个摄像机101的监控画面进行车辆跟踪。车辆跟踪设备102可以是服务器,也可以是其他的控制设备。
该多个摄像机101部署在道路的直线段部分,位置相邻的两个摄像机101的道路监控区域不存在重叠,且位置相邻的两个摄像机101的道路监控区域之间的间隙距离不大于第一参考距离阈值。该间隙距离是指两个相邻的道路监控区域中最靠近的两个边界之间的距离。该第一参考距离阈值是根据该道路的直线段部分的平均车速和位置获取时间段的时长确定得到。示例的,在一种可能的实现方式中,可以将该道路的直线段部分的平均车速和位置获取时间段的时长相乘,得到第一参考距离阈值。其中,平均车速可以事先统计得到,位置获取时间段是指在进行车辆跟踪的过程中,获取车辆位置的相邻两个时刻之间的时间段。
图2是本发明实施例提供的一种车辆的跟踪方法的流程图。该方法应用于车辆跟踪设备中,参见图2,该方法包括:
步骤201:根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,第一监控画面为第一摄像机的监控画面,目标车辆为待跟踪的车辆。
步骤202:根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域,第二监控画面为第二摄像机的监控画面,第二摄像机是指目标车辆的行驶方向上与第一摄像机位置相邻的摄像机,且第二摄像机的道路监控区域与第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值。
步骤203:根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联,以实现目标车辆的跟踪。
在本发明实施例中,由于位置获取时间段的时长一般比较小,因此,可以根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。然后,根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域。由于目标车辆在第二监控画面中所处的画面区域是第二监控画面的一部分,所以,相比于第二监控画面的整个区域,预测出的画面区域中出现的车辆较少,这样,根据预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联时,可以减少运算量,从而提高了车辆的跟踪效率。
可选地,根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,包括:
根据当前时刻的平面坐标和上一时刻的平面坐标,确定目标车辆在当前的位置获取时间段内的平均速度;
根据目标车辆在当前的位置获取时间段内的平均速度,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离;
根据目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
可选地,根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域,包括:
以当前时刻的平面坐标为圆心,以预测出的平面距离范围的上限和下限为半径,确定一个圆环区域;
将目标车辆的行驶方向上且位于第二监控画面内的一部分圆环区域,确定为目标车辆在第二监控画面中所处的画面区域。
可选地,根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联,包括:
当预测出的画面区域中存在未被识别的车辆时,确定目标车辆的数量和未被识别的车辆的数量;
当目标车辆的数量和未被识别的车辆的数量均为1时,将目标车辆与未被识别的车辆进行关联;
当目标车辆的数量大于或等于2,且未被识别的车辆的数量为1时,确定未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联;
当目标车辆的数量和未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度;
从确定得到的至少四个相似度中选择大于参考相似度阈值的相似度;
对于选择出的任一相似度,将用于确定任一相似度的特征信息对应的两辆车辆进行关联。
可选地,根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围之前,还包括:
确定第一像素点的像素坐标和第二像素点的像素坐标,第一像素点为目标车辆当前时刻在第一监控画面中所处的像素点,第二像素点为目标车辆上一时刻在第一监控画面中所处的像素点;
根据第一像素点的像素坐标和第二像素点的像素坐标,从存储的第一映射关系中,确定第一像素点的平面坐标和第二像素点的平面坐标,第一映射关系是指第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系;
将第一像素点的平面坐标确定为第一监控画面中目标车辆当前时刻的平面坐标,将第二像素点的平面坐标确定为第一监控画面中目标车辆上一时刻的平面坐标。
可选地,根据第一像素点的像素坐标和第二像素点的像素坐标,从存储的第一映射关系中,确定第一像素点的平面坐标和第二像素点的平面坐标之前,还包括:
确定第一透视变换矩阵,第一透视变换矩阵为第一摄像机对应的透视变换矩阵;
根据第一透视变换矩阵,将第一监控画面中每个像素点的像素坐标转换为平面坐标;
将第一监控画面中每个像素点的像素坐标与平面坐标存储至第一映射关系中。
可选地,确定第一透视变换矩阵,包括:
确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标;
根据确定得到的4组不同的坐标,确定第一透视变换矩阵。
可选地,确定测试车辆在至少两个不同车道上的4组不同的坐标,包括:
当平面坐标系为高斯平面坐标系,且测试车辆行驶在第一摄像机的道路监控区域内时,确定测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在该多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻;
将确定得到的多个经纬度信息转换至平面坐标系中,以得到多个平面坐标;
确定测试车辆在第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻;
根据确定得到的多个经纬度确定时刻和多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。
上述所有可选技术方案,均可按照任意结合形成本发明的可选实施例,本发明实施例对此不再一一赘述。
图3是本发明实施例提供的一种车辆的跟踪方法的流程图。下面本发明实施例将对上述图2所示的实施例进行展开说明。参见图3,该方法包括:
步骤301:车辆跟踪设备确定第一像素点的像素坐标和第二像素点的像素坐标,第一像素点为目标车辆当前时刻在第一监控画面中所处的像素点,第二像素点为目标车辆上一时刻在第一监控画面中所处的像素点,第一监控画面为第一摄像机的监控画面,目标车辆为待跟踪的车辆。
在本发明实施例中,在道路的直线段部分部署的多个摄像机可以对道路的直线段部分行驶的车辆进行监控,并将监控画面实时地同步给车辆跟踪设备。而且,当目标车辆当前处于第一摄像机的道路监控区域时,也即是,目标车辆出现在第一监控画面中,这样,在车辆跟踪设备对目标车辆进行跟踪时,可以确定第一像素点的像素坐标和第二像素点的像素坐标。其中,第一摄像机为该多个摄像机中的任一摄像机。
在一种可能的实现方式中,可以根据第一监控画面建立图像坐标系,然后,确定第一像素点和第二像素点分别在该图像坐标系中的坐标,并将确定的坐标作为第一像素点的像素坐标和第二像素点的像素坐标。其中,可以以第一监控画面的左下角为坐标原点,以第一监控画面最下边的边缘为横轴,以第一监控画面最左边的边缘为纵轴,建立图像坐标系。当然,这种图像坐标系只是一种实现方式,实际应用中,还可以以第一监控画面中其他的点为原点,以其他的边缘为横轴和纵轴建立图像坐标系,本发明实施例对此不进行一一举例。
需要说明的是,由于目标车辆的车身存在一定的面积,所以,目标车辆在第一监控画面中一般会占用多个像素点。为了便于计算,本发明实施例可以将该多个像素点中的中心位置处的像素点确定为目标车辆在第一监控画面中所处的像素点。当然,也可以将该多个像素点中的其他任意一个像素点作为目标车辆在第一监控画面中所处的像素点。
另外,摄像机对道路的直线段部分行驶的车辆进行监控的过程中,可以按照一定的时间间隔来采集一帧视频图像。也即是,按照一定的时间间隔来获取一次车辆的位置。该时间间隔即为获取车辆位置的相邻两个时刻之间的时间间隔。本发明实施例将获取车辆位置的相邻两个时刻之间的时间段称为位置获取时间段。所以,上述步骤301中的当前时刻与上一时刻之间的时长即为该时间间隔的长度,而且上述步骤301中的当前时刻与上一时刻之间的时间段即为一个位置获取时间段。
步骤302:车辆跟踪设备根据第一像素点的像素坐标和第二像素点的像素坐标,从存储的第一映射关系中,确定第一像素点的平面坐标和第二像素点的平面坐标,第一映射关系是指第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系。
由于每个摄像机的架设位置不同,也即是,每个摄像机的道路监控区域不同,从而导致每个摄像机覆盖的监控画面不同,所以,为了进行车辆跟踪,需要为多个摄像机的监控画面建立一个统一的坐标系。本发明实施例中,车辆跟踪设备为该多个摄像机建立一个统一的平面坐标系。该平面坐标系可以为高斯平面坐标系,也可以为自定义的平面坐标系。其中,高斯平面坐标系即为大地平面坐标系,是以高斯-克吕格投影分带的中央子午线为纵轴,以赤道的投影为横轴建立的平面直角坐标系。
在建立平面坐标系之后,车辆跟踪设备可以确定第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系,即,第一映射关系。这样,在车辆跟踪设备确定第一像素点的像素坐标和第二像素点的像素坐标之后,可以从第一映射关系中,确定第一像素点的平面坐标和第二像素点的平面坐标。
其中,车辆跟踪设备确定第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系的过程可以为:确定第一透视变换矩阵,第一透视变换矩阵为第一摄像机对应的透视变换矩阵,根据第一透视变换矩阵,将第一监控画面中每个像素点的像素坐标转换为平面坐标,将第一监控画面中每个像素点的像素坐标与平面坐标存储至第一映射关系中。
透视变换矩阵是为了将像素坐标转换为平面坐标的矩阵。在每个摄像机的道路监控区域不同的情况下,每个摄像机的透视变换矩阵也将不同。所以,为了实现将第一监控画面中每个像素点的像素坐标转换为平面坐标,车辆跟踪设备可以确定第一监控画面的透视变换矩阵,即,确定第一透视变换矩阵。在本发明实施例中,可以驾驶测试车辆行驶在该道路的直线段部分,这样,第一摄像机可以对测试车辆进行监控,通过第一摄像机对测试车辆的监控数据可以确定第一透视变换矩阵。具体确定过程可以为:车辆跟踪设备确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标,根据4组不同的坐标,确定第一透视变换矩阵。
在本发明实施例中,可以将测试车辆行驶在至少两个不同的车道上,这样,车辆跟踪设备可以根据测试车辆在至少两个不同车道上的4组不同的坐标,确定第一透视变换矩阵,进而保证确定的第一透视变换矩阵的准确率较高。
示例的,在一种可能的实现方式中,车辆跟踪设备可以根据该4组不同的坐标,按照下述公式来确定第一透视变换矩阵:
Figure BDA0001911549380000131
Figure BDA0001911549380000141
Figure BDA0001911549380000142
其中,在上述公式中,u为像素坐标中的横坐标,v为像素坐标中的纵坐标,x为像素坐标对应的平面坐标中的横坐标,y为像素坐标对应的平面坐标中的纵坐标,
Figure BDA0001911549380000143
为第一透视变换矩阵,a11......a32为第一透视变换矩阵中的元素。
例如,上述4组不同的坐标中的平面坐标分别为(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),对应的像素坐标分别为(u1,v1)、(u2,v2)、(u3,v3)、(u4,v4),将这4组坐标代入上述公式,可得:
Figure BDA0001911549380000144
从而可以求解出a11......a32,进而确定第一透视变换矩阵。
按照上面的描述,车辆跟踪设备对该多个摄像机建立的平面坐标系可以为高斯平面坐标系,也可以为自定义的平面坐标系。当平面坐标系不同时,确定测试车辆在至少两个车道上的4组不同的坐标的方法也不同,下来对这两种情况分别进行说明。
第一种情况,当平面坐标系为高斯平面坐标系时,若测试车辆行驶在第一摄像机的道路监控区域内,则车辆跟踪设备确定测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻。将该多个经纬度信息转换至平面坐标系中,以得到多个平面坐标。然后,车辆跟踪设备确定测试车辆在第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻。根据该多个经纬度确定时刻和该多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。这样,即可确定出至少两个不同车道上的4组不同的坐标。
在第一种情况中,测试车辆可以确定自身在至少两个不同车道中的多个不同位置处的经纬度信息,以及在该多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻。之后,与车辆跟踪设备进行通信,将该多个经纬度信息和多个经纬度确定时刻传送给车辆跟踪设备。这样,车辆跟踪设备即可将该多个经纬度信息转换至平面坐标系中。
其中,车辆跟踪设备将该多个经纬度信息转换至平面坐标系的方法可以参考相关技术。另外,车辆跟踪设备确定测试车辆在第一监控画面中的多个不同位置处的像素坐标的方法,与步骤301中确定第一像素点和第二像素点的像素坐标的方法相同,本发明实施例在此不再详细阐述。
需要说明的是,为了将同一时刻确定的平面坐标和像素坐标作为一组坐标,需要事先将测试车辆的时钟与车辆跟踪设备的时钟同步。
第二种情况,当平面坐标系为自定义的平面坐标系时,若测试车辆行驶在第一摄像机的道路监控区域内的4个不同的参考位置,则车辆跟踪设备确定测试车辆在第一监控画面中对应的4个位置处的像素坐标,该4个不同的参考位置位于至少两个不同的车道上。然后,将第一摄像机的道路监控区域内的4个不同的参考位置在自定义的平面坐标系中的平面坐标,以及确定的4个对应的像素坐标,组成测试车辆在至少两个不同车道上的4组不同的坐标。
由于平面坐标系是自定义的平面坐标系,而且在第一摄像机的道路监控区域内设置的4个不同的参考位置也是自定义的,所以,可以确定这4个不同参考位置在平面坐标系中的平面坐标。这样,测试车辆行驶在这4个不同的参考位置时,可以从第一监控画面中确定对应的4个像素坐标,从而确定出测试车辆在至少两个不同车道上的4组不同的坐标。
值得注意的是,上述步骤302只是一种确定第一像素点的平面坐标和第二像素点的平面坐标的实现方式。也即是,上述步骤302是事先将第一监控画面中的每个像素点的像素坐标都转换为平面坐标,然后将第一监控画面中每个像素点的像素坐标与平面坐标存储至第一映射关系中。这样,只需根据第一像素点的像素坐标和第二像素点的像素坐标,从第一映射关系中获取第一像素点的平面坐标和第二像素点的平面坐标,而无需实时地计算第一像素点的平面坐标和第二像素点的平面坐标,节省了计算时间,从而可以提高车辆跟踪的效率。
当然,在另一种实现方式中,车辆跟踪设备也可以实时地计算第一像素点的平面坐标和第二像素点的平面坐标,即,车辆跟踪设备根据第一透视变换矩阵,将第一像素点的像素坐标转换为平面坐标,并根据第一透视变换矩阵,将第二像素点的像素坐标转换为平面坐标。其中,在这种实现方式中,车辆跟踪设备也可以事先确定第一透视变换矩阵,且事先确定第一透视变换矩阵的方法可以与上述提到的方法相同。
步骤303:车辆跟踪设备将第一像素点的平面坐标确定为第一监控画面中目标车辆当前时刻的平面坐标,将第二像素点的平面坐标确定为第一监控画面中目标车辆上一时刻的平面坐标。
由于第一像素点为目标车辆当前时刻在第一监控画面中所处的像素点,第二像素点为目标车辆上一时刻在第一监控画面中所处的像素点,也即是,第一像素点为目标车辆当前时刻在第一监控画面中所处的位置,第二像素点为目标车辆上一时刻在第一监控画面中所处的位置,所以,在确定出第一像素点的像素坐标和第二像素点的像素坐标之后,可以将第一像素点的平面坐标确定为第一监控画面中目标车辆当前时刻的平面坐标,将第二像素点的平面坐标确定为第一监控画面中目标车辆上一时刻的平面坐标。
步骤304:车辆跟踪设备根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
在确定第一监控画面中目标车辆当前时刻的平面坐标,以及第一监控画面中目标车辆上一时刻的平面坐标之后,车辆跟踪设备可以按照下述(1)-(3)的步骤来预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
(1)、根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,确定目标车辆在当前的位置获取时间段内的平均速度。
按照步骤301的描述,当前时刻与上一时刻之间的时间段为位置获取时间段,对于当前时刻来说,当前时刻与上一时刻之间的位置获取时间段可以称为当前的位置获取时间段。所以,车辆跟踪设备可以确定第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标之间的距离。然后,确定该距离与位置获取时间段的时长之间的商值,得到目标车辆在当前的位置获取时间段内的平均速度。
其中,该距离与位置获取时间段的时长之间的商值,是指将该距离除以位置获取时间段的时长得到的值。
(2)、根据目标车辆在当前的位置获取时间段内的平均速度,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离。
由于车辆加速或者减速是一个连续过程,且加速度不会很大,而且位置获取时间段的时长一般也比较小,所以,在较短的时间内平均速度一般不会差的太多,所以,可以将目标车辆在当前的位置获取时间段的平均速度,确定为目标车辆在相邻的下一位置获取时间段内的平均速度。这样,可以将目标车辆在相邻的下一位置获取时间段内的平均速度与位置获取时间段的时长相乘,得到目标车辆在相邻的下一位置获取时间段内移动的平面距离。
(3)、根据目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
虽然在较短的时间内车辆的平均速度一般不会差的太多,但是上述步骤(2)预测出的平面距离还是存在一定的误差,所以,车辆跟踪设备还可以根据目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。也即是,车辆跟踪设备可以将预测出的平面距离与第二参考距离阈值之间的差值,作为平面距离范围的下限,将预测出的平面距离与第二参考距离阈值之间的和值,作为平面距离范围的上限,这样,即可确定出目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
其中,第二参考距离阈值可以预先根据经验设置。
比如,目标车辆在相邻的下一位置获取时间段内移动的平面距离为d1,第二参考距离阈值为ε。那么,预测出的平面距离范围为[d1-ε,d1+ε]。
需要说明的是,车辆跟踪设备不仅可以按照上述(1)-(3)的步骤来预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,还可以通过其他的方式来预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。示例的,在另一种可能的实现方式中,车辆跟踪设备根据当前时刻的平面坐标和上一时刻的平面坐标,确定目标车辆在当前的位置获取时间段内的平均速度。如果目标车辆在当前的位置获取时间段内的平均速度与上一位置获取时间段内的平均速度之间的差值小于参考速度阈值,则将目标车辆在当前的位置获取时间段内移动的平面距离,确定为目标车辆在相邻的下一位置获取时间段内移动的平面距离。之后,将目标车辆在相邻的下一位置获取时间段内移动的平面距离与第二参考距离阈值之间的差值,作为平面距离范围的下限,将目标车辆在相邻的下一位置获取时间段内移动的平面距离与第二参考距离阈值之间的和值,作为平面距离范围的上限,这样,即可确定出目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
摄像机的道路监控区域一般比较大,所以,目标车辆从驶入某一摄像机的道路监控区域,到驶出这个摄像机的道路监控区域所用的时间可能稍微长一点,比如,20秒。但是,位置获取时间段的时长一般较短,比如,200毫秒。因此,通常情况下,车辆跟踪设备不需要一直按照上述步骤301至步骤304,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。而在确定出目标车辆即将驶出当前这个摄像机的道路监控区域的情况下,可以按照上述步骤301至步骤304,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
示例的,在一种可能的实现方式中,可以从每个摄像机的监控画面中划分出车辆即将消失的区域,即,即将驶出区域。当车辆跟踪设备确定目标车辆处于第一监控画面中的即将驶出区域时,可以按照上述步骤301至步骤304,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
从每个摄像机的监控画面中划分即将驶出区域的方式可以包括多种,比如,车辆在道路上的行驶方向为从左向右的方向,那么,可以将每个摄像机的监控画面中的右半区域确定为即将驶出区域。当然,也可以将每个摄像机的监控画面按照行驶方向划分为三部分,将最右边的区域确定为即将驶出区域。
步骤305:车辆跟踪设备根据目标车辆的行驶方向、当前时刻的平面坐标和平面距离范围,预测目标车辆在第二监控画面中所处的画面区域,第二监控画面为第二摄像机的监控画面,第二摄像机是指目标车辆的行驶方向上与第一摄像机位置相邻的摄像机,且第二摄像机的道路监控区域与第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值。
由于车辆跟踪设备对该多个摄像机建立有一个统一的平面坐标,因此,根据目标车辆的行驶方向、当前时刻的平面坐标和平面距离范围,可以从第二监控画面中预测目标车辆所处的画面区域。其中,车辆跟踪设备根据目标车辆的行驶方向、当前时刻的平面坐标和平面距离范围,预测目标车辆在第二监控画面中所处的画面区域的过程可以为:以当前时刻的平面坐标为圆心,以平面距离范围的上限和下限为半径,确定一个圆环区域。将目标车辆的行驶方向上且位于第二监控画面内的一部分圆环区域,确定为目标车辆在第二监控画面中所处的画面区域。
如图4所示,该道路的直线段部分包括3个车道,目标车辆行驶在第二个车道上。第一摄像机的道路监控区域为401指示的虚线框区域,第二摄像机的道路监控区域为402指示的虚线框区域,目标车辆的行驶方向为403指示的方向。假设,目标车辆上一时刻处于404指示的位置,当前时刻处于405指示的位置。也即是,目标车辆上一时刻的平面坐标为404指示的位置,当前时刻的平面坐标为405指示的位置。此时,以当前时刻的平面坐标为圆心,以平面距离范围的上限和下限为半径,确定一个圆环区域之后,确定目标车辆的行驶方向上且位于第二监控画面内的一部分圆环区域,即407指示的区域。其中,图4中406指示的区域为目标车辆的行驶方向上且位于道路上的一部分圆环区域。
上述步骤305仅仅是一种预测目标车辆在第二监控画面中所处的画面区域的实现方式,也即是,上述步骤305是将位于第二监控画面内的一部分圆环区域确定为目标车辆在第二监控画面中所处的画面区域。当然,车辆跟踪设备还可以通过其他的方式来确定目标车辆在第二监控画面中所处的画面区域。示例的,车辆跟踪设备可以以当前时刻的平面坐标为中心,以平面距离范围的上限和下限为正方形的边长的一半,确定一个矩形环区域。将目标车辆的行驶方向上且位于第二监控画面内的一部分矩形环区域,确定为目标车辆在第二监控画面中所处的画面区域。
步骤306:车辆跟踪设备根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联,以实现目标车辆的跟踪。
车辆跟踪设备预测出目标车辆在第二监控画面中所处的画面区域之后,可以根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联,以从第二监控画面中识别出目标车辆,从而实现目标车辆的跟踪。其中,根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联的过程可以为:当预测出的画面区域中存在未被识别的车辆时,确定目标车辆的数量和未被识别的车辆的数量。当目标车辆的数量和未被识别的车辆的数量均为1时,将目标车辆与未被识别的车辆进行关联。当目标车辆的数量大于或等于2,且未被识别的车辆的数量为1时,确定未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联。当目标车辆的数量和未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度。从该至少四个相似度中选择大于参考相似度阈值的相似度。对于选择出的任一相似度,将用于确定该任一相似度的特征信息对应的两辆车辆进行关联。
由于该多个摄像机设置在道路的直线段部分,所以,当目标车辆的数量和未被识别的车辆的数量均为1时,第二监控画面中未被识别的车辆通常就是目标车辆,因此,可以直接将目标车辆与未被识别的车辆进行关联,而无需确定特征信息之间的相似度。但是,当目标车辆的数量大于或等于2,或者,未被识别的车辆的数量大于或等于2时,就需要确定特征信息之间的相似度,否则容易出错。由于本发明实施例计算目标车辆的特征信息与未被识别的车辆的特征信息之间的相似度,所以,用于确定最高相似度的特征信息对应的两个车辆基本就是同一辆车辆,此时,可以将这两辆车辆进行关联。
但是,在目标车辆的数量和未被识别的车辆的数量均大于或等于2的情况下,可能存在能够关联的至少两组车辆,所以,在确定出至少四个相似度之后,可以从该至少四个相似度中选择大于参考相似度阈值的相似度。选择出的相似度可以认为是相似程度极大的,因此,对于选择出的任一相似度,可以将用于确定该任一相似度的特征信息对应的两辆车辆进行关联。这样,即可关联得到至少一组车辆。
需要说明的是,目标车辆的特征信息可以从第一监控画面中提取得到。当然,也可以在目标车辆行驶在该多个摄像机中第一个摄像机的道路监控区域时,从第一个摄像机的监控画面中提取得到。另外,第二监控画面中未被识别的车辆是指未与第一监控画面中的车辆进行关联的车辆。换句话说,第二监控画面中出现的车辆与第一监控画面中出现的车辆关联之后,这个车辆就可以称为已经识别的车辆。
进一步地,在通过上述步骤进行目标车辆的跟踪之后,可以确定目标车辆在多个摄像机的监控画面中出现的位置,以及出现在各个位置的时间,然后,按照时间的前后,可以将目标车辆在多个摄像机的监控画面中出现的位置连线,得到目标车辆在该道路的直线段部分的行驶轨迹。然后,还可以根据目标车辆在该道路的直线段部分的行驶轨迹,来确定目标车辆在行驶的过程中是否存在连续变道的情况。即,按照行驶轨迹,确定从驶入到驶出之间的时间段内行驶的车道编号,进而如果在参考时长阈值内存在至少连续3次行驶在不同的车道上,即可确定目标车辆在行驶的过程中存在连续变道的情况。
当然,也可以按照目标车辆在多个摄像机的监控画面中出现的位置,以及行驶的时长,确定该道路的直线段部分是否出现堵车。
在本发明实施例中,由于位置获取时间段的时长一般比较小,因此,可以根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。然后,根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域。由于目标车辆在第二监控画面中所处的画面区域是第二监控画面的一部分,所以,相比于第二监控画面的整个区域,预测出的画面区域中出现的车辆较少,这样,根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联时,可以减少运算量,从而提高了车辆的跟踪效率。
图5是本发明实施例提供的一种车辆的跟踪装置的框图。参见图5,该装置包括第一预测模块501、第二预测模块502和关联模块503。
第一预测模块501,用于根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,第一监控画面为第一摄像机的监控画面,目标车辆为待跟踪的车辆;
第二预测模块502,用于根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域,第二监控画面为第二摄像机的监控画面,第二摄像机是指目标车辆的行驶方向上与第一摄像机位置相邻的摄像机,且第二摄像机的道路监控区域与第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值;
关联模块503,用于根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联,以实现目标车辆的跟踪。
可选地,第一预测模块501包括:
第一确定单元,用于根据当前时刻的平面坐标和上一时刻的平面坐标,确定目标车辆在当前的位置获取时间段内的平均速度;
第一预测单元,用于根据目标车辆在当前的位置获取时间段内的平均速度,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离;
第二预测单元,用于根据目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
可选地,第二预测模块502包括:
第二确定单元,用于以当前时刻的平面坐标为圆心,以预测出的平面距离范围的上限和下限为半径,确定一个圆环区域;
第三确定单元,用于将目标车辆的行驶方向上且位于第二监控画面内的一部分圆环区域,确定为目标车辆在第二监控画面中所处的画面区域。
可选地,关联模块503包括:
第四确定单元,用于当预测出的画面区域中存在未被识别的车辆时,确定目标车辆的数量和未被识别的车辆的数量;
第一关联单元,用于当目标车辆的数量和未被识别的车辆的数量均为1时,将目标车辆与未被识别的车辆进行关联;
第二关联单元,用于当目标车辆的数量大于或等于2,且未被识别的车辆的数量为1时,确定未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联;
第五确定单元,用于当目标车辆的数量和未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度;
选择单元,用于从确定得到的至少四个相似度中选择大于参考相似度阈值的相似度;
第三关联单元,用于对于选择出的任一相似度,将用于确定该任一相似度的特征信息对应的两辆车辆进行关联。
可选地,该装置还包括:
第一确定模块,用于确定第一像素点的像素坐标和第二像素点的像素坐标,第一像素点为目标车辆当前时刻在第一监控画面中所处的像素点,第二像素点为目标车辆上一时刻在第一监控画面中所处的像素点;
第二确定模块,用于根据第一像素点的像素坐标和第二像素点的像素坐标,从存储的第一映射关系中,确定第一像素点的平面坐标和第二像素点的平面坐标,第一映射关系是指第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系;
第三确定模块,用于将第一像素点的平面坐标确定为第一监控画面中目标车辆当前时刻的平面坐标,将第二像素点的平面坐标确定为第一监控画面中目标车辆上一时刻的平面坐标。
可选地,该装置还包括:
第四确定模块,用于确定第一透视变换矩阵,第一透视变换矩阵为第一摄像机对应的透视变换矩阵;
转换模块,用于根据第一透视变换矩阵,将第一监控画面中每个像素点的像素坐标转换为平面坐标;
存储模块,用于将第一监控画面中每个像素点的像素坐标与平面坐标存储至第一映射关系中。
可选地,第四确定模块包括:
第六确定单元,用于确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标;
第七确定单元,用于根据确定得到的4组不同的坐标,确定第一透视变换矩阵。
可选地,第六确定单元,具体用于:
当平面坐标系为高斯平面坐标系,且测试车辆行驶在第一摄像机的道路监控区域内时,确定测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在确定得到的多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻;
将确定得到的多个经纬度信息转换至平面坐标系中,以得到多个平面坐标;
确定测试车辆在第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻;
根据确定得到的多个经纬度确定时刻和多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。
在本发明实施例中,由于位置获取时间段的时长一般比较小,因此,可以根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。然后,根据目标车辆的行驶方向、当前时刻的平面坐标和预测出的平面距离范围,预测目标车辆在第二监控画面中所处的画面区域。由于目标车辆在第二监控画面中所处的画面区域是第二监控画面的一部分,所以,相比于第二监控画面的整个区域,预测出的画面区域中出现的车辆较少,这样,根据目标车辆的特征信息和预测出的画面区域,将目标车辆与第二监控画面中的车辆进行关联时,可以减少运算量,从而提高了车辆的跟踪效率。
需要说明的是:上述实施例提供的车辆的跟踪装置在跟踪车辆时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将车辆的跟踪装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的车辆的跟踪装置与车辆的跟踪方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图6是本发明实施例提供的一种车辆跟踪设备的结构示意图,该车辆跟踪设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)601和一个或一个以上的存储器602,其中,所述存储器602中存储有至少一条指令,所述至少一条指令由该处理器601加载并执行。当然,该车辆跟踪设备600还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该车辆跟踪设备600还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由上述终端或服务器中的处理器执行以完成上述实施例中车辆跟踪方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种车辆的跟踪方法,其特征在于,所述方法包括:
根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,所述第一监控画面为第一摄像机的监控画面,所述目标车辆为待跟踪的车辆;
根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,所述第二监控画面为第二摄像机的监控画面,所述第二摄像机是指所述目标车辆的行驶方向上与所述第一摄像机位置相邻的摄像机,且所述第二摄像机的道路监控区域与所述第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值;
根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,以实现所述目标车辆的跟踪。
2.如权利要求1所述的方法,其特征在于,所述根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,包括:
根据所述当前时刻的平面坐标和所述上一时刻的平面坐标,确定所述目标车辆在当前的位置获取时间段内的平均速度;
根据所述目标车辆在当前的位置获取时间段内的平均速度,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离;
根据所述目标车辆在相邻的下一位置获取时间段内移动的平面距离,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围。
3.如权利要求1或2所述的方法,其特征在于,所述根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,包括:
以所述当前时刻的平面坐标为圆心,以所述平面距离范围的上限和下限为半径,确定一个圆环区域;
将所述目标车辆的行驶方向上且位于所述第二监控画面内的一部分圆环区域,确定为所述目标车辆在所述第二监控画面中所处的画面区域。
4.如权利要求1所述的方法,其特征在于,所述根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,包括:
当所述预测出的画面区域中存在未被识别的车辆时,确定所述目标车辆的数量和所述未被识别的车辆的数量;
当所述目标车辆的数量和所述未被识别的车辆的数量均为1时,将所述目标车辆与所述未被识别的车辆进行关联;
当所述目标车辆的数量大于或等于2,且所述未被识别的车辆的数量为1时,确定所述未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,将用于确定最高相似度的特征信息对应的两辆车辆进行关联;
当所述目标车辆的数量和所述未被识别的车辆的数量均大于或等于2时,确定每个未被识别的车辆的特征信息与每个目标车辆的特征信息之间的相似度,以得到至少四个相似度;
从所述至少四个相似度中选择大于参考相似度阈值的相似度;
对于选择出的任一相似度,将用于确定所述任一相似度的特征信息对应的两辆车辆进行关联。
5.如权利要求1所述的方法,其特征在于,所述根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围之前,还包括:
确定第一像素点的像素坐标和第二像素点的像素坐标,所述第一像素点为所述目标车辆当前时刻在所述第一监控画面中所处的像素点,所述第二像素点为所述目标车辆上一时刻在所述第一监控画面中所处的像素点;
根据所述第一像素点的像素坐标和所述第二像素点的像素坐标,从存储的第一映射关系中,确定所述第一像素点的平面坐标和所述第二像素点的平面坐标,所述第一映射关系是指所述第一监控画面中每个像素点的像素坐标与平面坐标之间的映射关系;
将所述第一像素点的平面坐标确定为所述第一监控画面中所述目标车辆当前时刻的平面坐标,将所述第二像素点的平面坐标确定为所述第一监控画面中所述目标车辆上一时刻的平面坐标。
6.如权利要求5所述的方法,其特征在于,所述根据所述第一像素点的像素坐标和所述第二像素点的像素坐标,从存储的第一映射关系中,确定所述第一像素点的平面坐标和所述第二像素点的平面坐标之前,还包括:
确定第一透视变换矩阵,所述第一透视变换矩阵为所述第一摄像机对应的透视变换矩阵;
根据所述第一透视变换矩阵,将所述第一监控画面中每个像素点的像素坐标转换为平面坐标;
将所述第一监控画面中每个像素点的像素坐标与平面坐标存储至所述第一映射关系中。
7.如权利要求6所述的方法,其特征在于,所述确定第一透视变换矩阵,包括:
确定测试车辆在至少两个不同车道上的4组不同的坐标,每组坐标中包括一个平面坐标和对应的一个像素坐标;
根据所述4组不同的坐标,确定所述第一透视变换矩阵。
8.如权利要求7所述的方法,其特征在于,所述确定测试车辆在至少两个不同车道上的4组不同的坐标,包括:
当平面坐标系为高斯平面坐标系,且所述测试车辆行驶在所述第一摄像机的道路监控区域内时,确定所述测试车辆在至少两个不同车道中的多个不同位置处的经纬度信息,以及在所述多个不同位置处的时刻,以得到多个经纬度信息和多个经纬度确定时刻;
将所述多个经纬度信息转换至所述平面坐标系中,以得到多个平面坐标;
确定所述测试车辆在所述第一监控画面中的多个不同位置处的像素坐标和像素坐标确定时刻,以得到多个像素坐标和多个像素坐标确定时刻;
根据所述多个经纬度确定时刻和所述多个像素坐标确定时刻,将同一时刻确定的平面坐标和像素坐标作为一组坐标。
9.一种车辆的跟踪装置,其特征在于,所述装置包括:
第一预测模块,用于根据第一监控画面中目标车辆当前时刻的平面坐标和上一时刻的平面坐标,预测所述目标车辆在相邻的下一位置获取时间段内移动的平面距离范围,所述第一监控画面为第一摄像机的监控画面,所述目标车辆为待跟踪的车辆;
第二预测模块,用于根据所述目标车辆的行驶方向、所述当前时刻的平面坐标和所述平面距离范围,预测所述目标车辆在第二监控画面中所处的画面区域,所述第二监控画面为第二摄像机的监控画面,所述第二摄像机是指所述目标车辆的行驶方向上与所述第一摄像机位置相邻的摄像机,且所述第二摄像机的道路监控区域与所述第一摄像机的道路监控区域之间的间隙距离不大于第一参考距离阈值;
关联模块,用于根据所述目标车辆的特征信息和预测出的画面区域,将所述目标车辆与所述第二监控画面中的车辆进行关联,以实现所述目标车辆的跟踪。
10.一种车辆跟踪设备,其特征在于,所述车辆跟踪设备包括:
处理器和存储器;
其中,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如权利要求1至8中任一权利要求所述的车辆的跟踪方法。
11.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至8中任一权利要求所述的车辆的跟踪方法。
CN201811554704.8A 2018-12-19 2018-12-19 车辆的跟踪方法、装置、设备及存储介质 Active CN111340856B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811554704.8A CN111340856B (zh) 2018-12-19 2018-12-19 车辆的跟踪方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811554704.8A CN111340856B (zh) 2018-12-19 2018-12-19 车辆的跟踪方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN111340856A true CN111340856A (zh) 2020-06-26
CN111340856B CN111340856B (zh) 2024-04-02

Family

ID=71186815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811554704.8A Active CN111340856B (zh) 2018-12-19 2018-12-19 车辆的跟踪方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111340856B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111818313A (zh) * 2020-08-28 2020-10-23 深圳市城市交通规划设计研究中心股份有限公司 一种基于监控视频的车辆实时追踪方法及装置
CN112613485A (zh) * 2021-01-04 2021-04-06 广东韶钢松山股份有限公司 机车视频跟踪方法、装置、电子设备及可读存储介质
CN112884837A (zh) * 2021-03-16 2021-06-01 百度在线网络技术(北京)有限公司 道路定位方法、装置、设备及存储介质
CN112925352A (zh) * 2020-11-25 2021-06-08 河北汉光重工有限责任公司 一种提高光电跟踪仪引导精度的系统与方法
CN113516710A (zh) * 2021-07-20 2021-10-19 禾多阡陌科技(北京)有限公司 坐标定位方法、装置、电子设备和计算机可读介质
CN114333409A (zh) * 2021-12-31 2022-04-12 北京精英路通科技有限公司 目标跟踪方法、装置、电子设备及存储介质
CN114998849A (zh) * 2022-05-27 2022-09-02 电子科技大学 一种基于路端单目相机的交通流要素感知与定位方法及其应用

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101572804A (zh) * 2009-03-30 2009-11-04 浙江大学 多摄像机智能控制方法及装置
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
CN102176246A (zh) * 2011-01-30 2011-09-07 西安理工大学 一种多相机目标接力跟踪系统的相机接力关系确定方法
WO2014103673A1 (ja) * 2012-12-28 2014-07-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US20150002745A1 (en) * 2013-07-01 2015-01-01 Xerox Corporation System and method for enhancing images and video frames
CN104539909A (zh) * 2015-01-15 2015-04-22 安徽大学 一种视频监控方法及视频监控服务器
CN105631900A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种车辆跟踪方法及装置
CN105741325A (zh) * 2016-03-15 2016-07-06 上海电气集团股份有限公司 一种跟踪移动目标的方法及移动目标跟踪设备
CN105740855A (zh) * 2016-03-24 2016-07-06 博康智能信息技术有限公司 一种基于深度学习的前后车牌检测识别方法
CN106255059A (zh) * 2016-07-27 2016-12-21 南京师范大学 一种基于几何方式的无设备目标定位方法
CN106295594A (zh) * 2016-08-17 2017-01-04 北京大学 一种基于动态路径树的跨摄像头目标跟踪方法及装置
CN106446824A (zh) * 2016-09-21 2017-02-22 防城港市港口区思达电子科技有限公司 一种车辆检测和跟踪方法
CN106709436A (zh) * 2016-12-08 2017-05-24 华中师范大学 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN108847026A (zh) * 2018-05-31 2018-11-20 安徽四创电子股份有限公司 一种基于矩阵坐标转换实现数据叠加显示的方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101572804A (zh) * 2009-03-30 2009-11-04 浙江大学 多摄像机智能控制方法及装置
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
CN102176246A (zh) * 2011-01-30 2011-09-07 西安理工大学 一种多相机目标接力跟踪系统的相机接力关系确定方法
WO2014103673A1 (ja) * 2012-12-28 2014-07-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US20150002745A1 (en) * 2013-07-01 2015-01-01 Xerox Corporation System and method for enhancing images and video frames
CN104539909A (zh) * 2015-01-15 2015-04-22 安徽大学 一种视频监控方法及视频监控服务器
CN105631900A (zh) * 2015-12-30 2016-06-01 浙江宇视科技有限公司 一种车辆跟踪方法及装置
CN105741325A (zh) * 2016-03-15 2016-07-06 上海电气集团股份有限公司 一种跟踪移动目标的方法及移动目标跟踪设备
CN105740855A (zh) * 2016-03-24 2016-07-06 博康智能信息技术有限公司 一种基于深度学习的前后车牌检测识别方法
CN106255059A (zh) * 2016-07-27 2016-12-21 南京师范大学 一种基于几何方式的无设备目标定位方法
CN106295594A (zh) * 2016-08-17 2017-01-04 北京大学 一种基于动态路径树的跨摄像头目标跟踪方法及装置
CN106446824A (zh) * 2016-09-21 2017-02-22 防城港市港口区思达电子科技有限公司 一种车辆检测和跟踪方法
CN106709436A (zh) * 2016-12-08 2017-05-24 华中师范大学 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统
CN108847026A (zh) * 2018-05-31 2018-11-20 安徽四创电子股份有限公司 一种基于矩阵坐标转换实现数据叠加显示的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
M DIXON 等: "An efficient system for vehicle tracking in multi-camera networks", IEEE, 31 December 2009 (2009-12-31) *
冉欢欢 等: "基于距离信息的Mean-Shift跟踪算法", 兵工学报, no. 01, 15 January 2013 (2013-01-15) *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111818313A (zh) * 2020-08-28 2020-10-23 深圳市城市交通规划设计研究中心股份有限公司 一种基于监控视频的车辆实时追踪方法及装置
CN112925352A (zh) * 2020-11-25 2021-06-08 河北汉光重工有限责任公司 一种提高光电跟踪仪引导精度的系统与方法
CN112613485A (zh) * 2021-01-04 2021-04-06 广东韶钢松山股份有限公司 机车视频跟踪方法、装置、电子设备及可读存储介质
CN112884837A (zh) * 2021-03-16 2021-06-01 百度在线网络技术(北京)有限公司 道路定位方法、装置、设备及存储介质
CN112884837B (zh) * 2021-03-16 2023-06-20 百度在线网络技术(北京)有限公司 道路定位方法、装置、设备及存储介质
CN113516710A (zh) * 2021-07-20 2021-10-19 禾多阡陌科技(北京)有限公司 坐标定位方法、装置、电子设备和计算机可读介质
CN114333409A (zh) * 2021-12-31 2022-04-12 北京精英路通科技有限公司 目标跟踪方法、装置、电子设备及存储介质
CN114998849A (zh) * 2022-05-27 2022-09-02 电子科技大学 一种基于路端单目相机的交通流要素感知与定位方法及其应用
CN114998849B (zh) * 2022-05-27 2024-04-16 电子科技大学 一种基于路端单目相机的交通流要素感知与定位方法及其应用

Also Published As

Publication number Publication date
CN111340856B (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN111340856A (zh) 车辆的跟踪方法、装置、设备及存储介质
KR102266830B1 (ko) 차선 결정 방법, 디바이스 및 저장 매체
KR102652023B1 (ko) 실시간 교통 정보 제공 방법 및 장치
KR20200121274A (ko) 전자 지도를 업데이트하기 위한 방법, 장치 및 컴퓨터 판독 가능한 저장 매체
CN105761500A (zh) 交通事故处理方法及交通事故处理装置
US11430199B2 (en) Feature recognition assisted super-resolution method
US11250274B2 (en) In-vehicle device and control method
Odeh Management of an intelligent traffic light system by using genetic algorithm
WO2023011331A1 (zh) 编队行驶的控制方法、装置、介质及电子设备
CN113286081B (zh) 机场全景视频的目标识别方法、装置、设备及介质
EP3934232A1 (en) Imaging system
CN111275787A (zh) 一种利用行车记录仪绘制地图的方法及系统
CN114627409A (zh) 一种车辆异常变道的检测方法及装置
CN111754551A (zh) 目标跟踪方法、装置、系统、设备及存储介质
CN111340880B (zh) 用于生成预测模型的方法和装置
CN113327219B (zh) 基于多源数据融合的图像处理方法与系统
CN115144843A (zh) 一种物体位置的融合方法及装置
CN115601738A (zh) 停车信息获取方法、装置、设备、存储介质及程序产品
CN115123571A (zh) 智慧机场及智慧机场跑道车辆实时跟踪渲染方法与系统
CN115200586A (zh) 基于协同感知和智能边缘计算的自动驾驶路径规划方法
CN110019608A (zh) 一种信息采集方法、装置和系统及存储设备
CN113963310A (zh) 一种公交站的人流量检测方法、装置及电子设备
JP2021076593A (ja) 構築及び位置特定技術分野に焦点を当てた動的マップ生成
CN113762030A (zh) 数据处理方法、装置、计算机设备及存储介质
CN106781470B (zh) 城市道路的运行速度的处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant