CN105469052B - 一种车辆检测跟踪方法和装置 - Google Patents
一种车辆检测跟踪方法和装置 Download PDFInfo
- Publication number
- CN105469052B CN105469052B CN201510831439.3A CN201510831439A CN105469052B CN 105469052 B CN105469052 B CN 105469052B CN 201510831439 A CN201510831439 A CN 201510831439A CN 105469052 B CN105469052 B CN 105469052B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- image
- location information
- boundary rectangle
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种车辆检测跟踪方法和装置,所述方法包括:对当前拍摄到的车辆图像进行检测,得到车辆图像的车辆特征;从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型;通过选取出的一组模型,对车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息;根据得到的各个车辆的位置信息,对车辆图像中的车辆进行跟踪。通过本发明提供的一种车辆检测跟踪方法和装置,可以提高车辆定位的精准度,提升车辆跟踪速度。
Description
技术领域
本发明涉及视频图像处理领域,具体而言,涉及一种车辆检测跟踪方法和装置。
背景技术
目前,在汽车行驶的过程中,正常行驶的汽车周围的车辆都有可能靠近它,如果距离靠的太近,就可能造成正常行驶的汽车与靠近其的车辆发生追尾剐蹭,对车辆的行车安全造成威胁。为了保证正常行驶的汽车的行车安全,可使正常行驶的汽车检测其周围车辆的车辆位置,及时发现周围的靠近车辆。
相关技术中,在汽车检测其周围车辆的车辆位置的过程中,先获取车辆的周围车辆的车辆图像,然后将获取的车辆图像大小缩放到满足预设的模型尺寸的大小后,通过模型进行图像特征检测得到车辆在图像缩放后的位置信息,最后将缩放后的位置信息还原,得到车辆在原始图像中的位置信息。
在汽车检测其周围车辆的车辆位置的过程中,当获取到的车辆图像的尺寸与训练模型的大小相差很大时,对车辆图像的尺寸缩放会增大检测到的车辆位置的检测误差,降低定位车辆位置的准确度。
发明内容
有鉴于此,本发明实施例的目的在于提供一种车辆检测跟踪方法和装置,以减少检测到的车辆位置的检测误差,提高定位车辆位置的准确度。
第一方面,本发明实施例提供了一种车辆检测跟踪方法,包括:
对当前拍摄到的车辆图像进行检测,得到所述车辆图像的车辆特征;其中,所述车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征;
从预先训练的多模型网络结构中选取适应所述车辆图像尺寸的一组模型;
通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息;
根据得到的各个所述车辆的位置信息,对所述车辆图像中的车辆进行跟踪。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息,包括:
判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,所述位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和所述车辆的车辆搜索区域;
如果是,通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
如果否,使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,通过全局检测算法和选取出的所述一组模型,对所述车辆图像中的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息,包括:
通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,得到所述车辆图像中各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标;
以各个所述车辆的所述轮廓外接矩形的中心点坐标为各个所述车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对所述车辆搜索区域中心进行扩展,得到所述车辆搜索区域。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标,包括:
从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
通过局部检测算法和选择出的至少一层模型,对所述车辆搜索区域中的所述车辆特征进行车辆检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,根据得到的各个所述车辆的位置信息,对所述车辆图像中的各个所述车辆进行跟踪,包括:
将确定的各个所述车辆的位置信息存储到预设的车辆跟踪列表中;
从所述车辆跟踪列表中获取所述车辆图像的上一帧车辆图像中记录的各个所述车辆的轮廓外接矩形的端点坐标;
根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度;
确定各个所述车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
将所述关联车辆的置信度与车辆跟踪列表中记录的所述关联车辆的目标分数相加,得到所述关联车辆更新后的目标分数,其中,所述置信度包含在所述关联车辆的位置信息中;
当所述关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且所述关联车辆的关联次数大于等于关联次数阈值时,输出从所述车辆图像中确定的所述关联车辆的位置信息,以对所述关联车辆进行跟踪。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中,根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度,包括:
根据所述车辆图像和所述上一帧车辆图像的各个所述车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个所述车辆分别在所述车辆图像中和在所述上一帧车辆图像中的车辆轮廓外接矩形面积;
通过公式对各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个所述车辆在所述车辆图像中的车辆轮廓外接矩形面积,Rb表示各个所述车辆在所述上一帧车辆图像中的车辆轮廓外接矩形面积。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中,根据得到的各个所述车辆的位置信息,对所述车辆图像中的各个所述车辆进行跟踪还包括:
确定各个所述车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
判断所述未关联车辆的目标分数是否大于等于第一目标分数阈值;
如果是,输出从所述车辆图像中确定的所述未关联车辆的位置信息,以对所述未关联车辆进行跟踪;
如果否,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪。
结合第一方面,本发明实施例提供了第一方面的第七种可能的实施方式,其中,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪,包括:
计算所述未关联车辆的轮廓外接矩形的中心点预测坐标;
根据计算得到的所述中心点预测坐标,得到所述未关联车辆的预测位置信息;
使所述车辆跟踪列表中记录的所述未关联车辆的目标分数减去一预定分数,得到更新后的所述未关联车辆的目标分数;
当更新后的所述未关联车辆的目标分数大于等于第一目标分数阈值时,输出所述未关联车辆的所述预测位置信息,以对所述未关联车辆进行跟踪;
当更新后的所述未关联车辆的目标分数小于第二目标分数阈值时,从所述车辆跟踪列表中删除所述未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
结合第一方面,本发明实施例提供了第一方面的第八种可能的实施方式,其中,计算所述未关联车辆的轮廓外接矩形的中心点预测坐标,包括:
通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对所述未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的所述未关联车辆的中心点横坐标,Yi表示预测的所述未关联车辆的中心点纵坐标,Xi-1表示所述上一帧车辆图像中所述未关联车辆的中心点横坐标,Yi-1表示所述上一帧车辆图像中所述未关联车辆的中心点纵坐标;Vx表示所述未关联车辆的水平方向运动速度,Vy表示所述未关联车辆的垂直方向运动速度。
第二方面,本发明实施例提供了一种车辆检测跟踪装置,包括:
车辆特征检测模块,用于对当前拍摄到的车辆图像进行检测,得到所述车辆图像的车辆特征;其中,所述车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征;
模型选择模块,用于从预先训练的多模型网络结构中选取适应所述车辆图像尺寸的一组模型;
位置信息确定模块,用于通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息;
车辆跟踪模块,用于根据得到的各个所述车辆的位置信息,对所述车辆图像中的车辆进行跟踪。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述模型选择模块,包括:
时间长度判断单元,用于判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,所述位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和所述车辆的车辆搜索区域;
第一车辆位置信息确定单元,用于当时间长度判断单元的判断结果为是时,通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
第二车辆位置信息确定单元,用于当时间长度判断单元的判断结果为否时,使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述第一车辆位置信息确定单元,包括:
车辆检测子单元,用于通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,得到所述车辆图像中各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标;
车辆搜索区域确定子单元,用于以各个所述车辆的所述轮廓外接矩形的中心点坐标为各个所述车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对所述车辆搜索区域中心进行扩展,得到所述车辆搜索区域。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述第二车辆位置信息确定单元,包括:
模型确定子单元,用于从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
车辆位置信息检测子单元,用于通过局部检测算法和选择出的至少一层模型,对所述车辆搜索区域中的所述车辆特征进行车辆检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
结合第二方面,本发明实施例提供了第二方面的第四种可能的实施方式,其中,所述车辆跟踪模块,包括:
位置信息存储单元,用于将确定的各个所述车辆的位置信息存储到预设的车辆跟踪列表中;
上一帧车辆图像信息获取单元,用于从所述车辆跟踪列表中获取所述车辆图像的上一帧车辆图像中记录的各个所述车辆的轮廓外接矩形的端点坐标;
车辆关联度计算单元,用于根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度;
关联车辆确定单元,用于确定各个所述车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
目标分数更新单元,用于将所述关联车辆的置信度与车辆跟踪列表中记录的所述关联车辆的目标分数相加,得到所述关联车辆更新后的目标分数,其中,所述置信度包含在所述关联车辆的位置信息中;
关联车辆位置信息输出单元,用于当所述关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且所述关联车辆的关联次数大于等于关联次数阈值时,输出从所述车辆图像中确定的所述关联车辆的位置信息,以对所述关联车辆进行跟踪。
结合第二方面,本发明实施例提供了第二方面的第五种可能的实施方式,其中,所述车辆关联度计算单元,包括:
面积计算子单元,用于根据所述车辆图像和所述上一帧车辆图像的各个所述车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个所述车辆分别在所述车辆图像中和在所述上一帧车辆图像中的车辆轮廓外接矩形面积;
车辆关联度计算子单元,用于通过公式对各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个所述车辆在所述车辆图像中的车辆轮廓外接矩形面积,Rb表示各个所述车辆在所述上一帧车辆图像中的车辆轮廓外接矩形面积。
结合第二方面,本发明实施例提供了第二方面的第六种可能的实施方式,其中,所述车辆跟踪模块还包括:
未关联车辆确定单元,用于确定各个所述车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
目标分数判断单元,用于判断所述未关联车辆的所述未关联车辆的目标分数是否大于等于第一目标分数阈值;
未关联车辆位置信息输出单元,用于当目标分数判断单元的判断结果为是时,输出从所述车辆图像中确定的所述未关联车辆的位置信息,以对所述未关联车辆进行跟踪;
未关联车辆预测位置输出单元,用于当关联次数判断单元的判断结果为否时,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪。
结合第二方面,本发明实施例提供了第二方面的第七种可能的实施方式,其中,所述未关联车辆预测位置输出单元包括:
预测坐标计算子单元,用于计算所述未关联车辆的轮廓外接矩形的中心点预测坐标;
预测位置信息确定子单元,用于根据计算得到的所述中心点预测坐标,得到所述未关联车辆的预测位置信息;
目标分数更新子单元,用于使所述车辆跟踪列表中记录的所述未关联车辆的目标分数减去一预定分数,得到更新后的所述未关联车辆的目标分数;
预测位置信息输出子单元,用于当更新后的所述未关联车辆的目标分数大于等于第一目标分数阈值时,输出所述未关联车辆的所述预测位置信息,以对所述未关联车辆进行跟踪;
未关联车辆位置信息删除子单元,用于当更新后的所述未关联车辆的目标分数小于第二目标分数阈值时,从所述车辆跟踪列表中删除所述未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
结合第二方面,本发明实施例提供了第二方面的第八种可能的实施方式,其中,所述预测坐标计算子单元,用于通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对所述未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的所述未关联车辆的中心点横坐标,Yi表示预测的所述未关联车辆的中心点纵坐标,Xi-1表示所述上一帧车辆图像中所述未关联车辆的中心点横坐标,Yi-1表示所述上一帧车辆图像中所述未关联车辆的中心点纵坐标;Vx表示所述未关联车辆的水平方向运动速度,Vy表示所述未关联车辆的垂直方向运动速度。
本发明实施例提供的一种车辆检测跟踪方法和装置,通过从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型对得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,与现有技术中需要将获取的车辆图像大小缩放到满足预设模型尺寸大小后,再通过模型进行图像特征检测相比,无需进行车辆图像的尺寸缩放,直接通过选取的模型对得到的车辆特征进行车辆检测,从而减少由于对车辆图像的尺寸缩放造成的车辆位置检测误差,提高定位车辆位置的准确度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的一种车辆检测跟踪方法所涉及的一种实施系统的结构示意图;
图2示出了本发明实施例1所提供的一种车辆检测跟踪方法;
图3示出了本发明实施例2所提供的另一种车辆检测跟踪方法;
图4示出了本发明实施例3所提供的一种车辆检测跟踪装置。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到相关的车辆检测跟踪技术中,在汽车检测其周围车辆的车辆位置的过程中,当获取到的车辆图像的尺寸与训练模型的大小相差很大时,对车辆图像的尺寸缩放会增大检测到的车辆位置的检测误差,降低定位车辆位置的准确度。基于此,本发明实施例提供了一种车辆检测跟踪方法和装置。
参见图1,其示出了本发明实施例提供的一种车辆检测跟踪方法所涉及的一种实施系统的结构示意图,该系统包括:车辆检测跟踪设备10,车辆检测跟踪设备10,车辆检测跟踪设备10包括:车辆检测跟踪器件100和与车辆检测跟踪器件100进行数据交互的车辆信息数据库101。
其中,车辆检测跟踪器件100,用于对当前拍摄到的车辆图像进行检测,得到车辆图像的车辆特征,从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型;通过选取出的一组模型,对车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,根据得到的各个车辆的位置信息,对车辆图像中的车辆进行跟踪,并将得到的各个车辆的位置信息发送到车辆信息数据库101进行存储。
车辆信息数据库101,设置有车辆跟踪列表,用于获取车辆检测跟踪器件100发送的车辆图像中各个车辆的位置信息并进行存储。
车辆检测跟踪设备10可以采用现有的任意型号的行车记录仪或者车辆全景影像系统对周围车辆进行跟踪,这里不再一一赘述。
车辆检测跟踪器件100可以采用现有的任何中央处理器、微处理器或者可编程器件对周围车辆进行检测跟踪,这里不再一一赘述。
车辆信息数据库101可以采用现有的任何大容量存储介质对车辆的位置信息进行存储,这里不再一一赘述。
实施例1
参见图2,本实施例提供一种车辆检测跟踪方法,包括以下步骤:
步骤200、对当前拍摄到的车辆图像进行检测,得到车辆图像的车辆特征;其中,车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征。
车辆图像是车辆上预先安装的行车记录仪或者车辆全景影像系统在车辆的行驶过程中通过行车记录仪或者车辆全景影像系统自带的摄像头拍摄的每一帧车辆图像。
图像灰度特征、梯度幅值特征和梯度方向特征可以使用改进的聚合通道特征算法(SACF)进行获取;当然,也可以采用其他现有的可以得到车辆图像的图像灰度特征、梯度幅值特征和梯度方向特征的图像特征算法,这里不再一一赘述。
步骤202、从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型。
多模型网络结构,具有多组已经训练好的模型,包括可以适应各种尺寸车辆图像的模型。
在训练多模型网络结构中的一组模型时,需要先确定该组模型中第一层模型的尺寸,然后根据该组模型中第一层模型的尺寸确定出该组模型中其他层模型的尺寸,最后根据得到的该组模型尺寸,采用级联adaboost算法的方式进行训练,获得模型。
其中,多模型网络结构中一组模型中的每层模型的宽度和高度分别为:mk=m0+8*k*γ,nk=n0+8*k*γ;
其中,m0是第一层模型的宽度,n0是第一层模型的高度,mk是第k+1层模型的宽度,nk是第k+1层模型的高度,k是常数,γ是比例系数。
比如当前拍摄的车辆图像的尺寸是640×480的,那么就从预先训练的多模型网络结构中,选择一组模型对该尺寸的车辆图像进行特征检测。被选择出的该组模型中包括可以直接对该尺寸的车辆图像进行特征检测的一层模型。
步骤204、通过选取出的一组模型,对车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息。
通过选取出的一组模型,使用全局检测算法或者局部检测算法对得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息。
步骤206、根据得到的各个车辆的位置信息,对车辆图像中的车辆进行跟踪。
综上所述,本实施例提供的一种车辆检测跟踪方法,通过从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型对得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,与现有技术中需要将获取的车辆图像大小缩放到满足预设模型尺寸大小后,再通过模型进行图像特征检测相比,无需进行车辆图像的尺寸缩放,直接通过选取的模型对得到的车辆特征进行车辆检测,从而减少由于对车辆图像的尺寸缩放造成的车辆位置检测误差,提高定位车辆位置的准确度。
相关技术中,在进行车辆检测的过程中,会先对图像特征进行全局检测,然后继续进行局部检测,来保证车辆检测的准确性,但对每张图像均进行全局检测和局部检测,会增加车辆检测消耗的时间,为了减少车辆检测所耗费的时间,通过选取出的一组模型,对车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,包括以下步骤1至步骤3:
(1)判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和车辆的车辆搜索区域,如果是则执行步骤2,如果否则执行步骤3;
(2)通过全局检测算法和选取出的一组模型,对车辆图像中得到的车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
(3)使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个车辆的车辆搜索区域中的车辆特征进行特征检测,确定各个车辆的轮廓外接矩形的中心点坐标和端点坐标。
在步骤1中,由于检测的当前车辆图像是摄像头所拍摄的一帧车辆图像,所以在判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度时,可以通过预设的帧数来确定是否使用全局检测算法。
比如,预设时间长度是100帧时,那么只有距离最近一次使用全局检测算法的帧数间隔达到100帧的时候,才会再次使用全局检测算法确定车辆的位置信息。
当然,预设时间长度也可使用分秒等时间单位进行描述,这里不再一一赘述。
预设时间长度,可以是厂商预设的,也可以是用户根据实际使用情况而设置的时间长度。
上述步骤2中的通过全局检测算法和选取出的一组模型,对车辆图像中的车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息,包括以下步骤2a和步骤2b:
(2a)通过全局检测算法和选取出的一组模型,对车辆图像中得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的轮廓外接矩形的中心点坐标和端点坐标;
(2b)以各个车辆的轮廓外接矩形的中心点坐标为各个车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对车辆搜索区域中心进行扩展,得到车辆搜索区域。
其中,车辆搜索区域的大小应该大于该车辆的轮廓外接矩形的大小。
在步骤3中,最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标,就是对上一帧车辆图像进行车辆检测时得到的车辆的轮廓外接矩形的中心点坐标和端点坐标。进一步地,上述步骤3中的通过局部检测算法和选取出的一组模型,对各个车辆的车辆搜索区域中的车辆特征进行特征检测,确定各个车辆的轮廓外接矩形的中心点坐标,包括以下步骤3a至3b:
(3a)从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
(3b)通过局部检测算法和选择出的至少一层模型,对车辆搜索区域中的车辆特征进行车辆检测,确定各个车辆的轮廓外接矩形的中心点坐标和端点坐标。
在步骤3a中,可以从确定出的一组模型中根据车辆搜索区域尺寸选择出大于车辆搜索区域尺寸的第一模型、与车辆搜索区域尺寸合适的第二模型以及小于车辆搜索区域尺寸的第三模型分别对车辆搜索区域中的车辆特征进行车辆位置检测。
通过对上述步骤2和步骤3的进一步描述,通过从预设的多模型网络结构中确定出适应车辆搜索区域图像的尺寸大小的一组模型后,直接可以通过全局检测算法或者局部检测算法并采用确定的模型对车辆进行检测,而无需对图像进行缩放,避免了对图像进行缩放的过程中造成增大车辆位置检测误差的缺陷,提高了车辆定位的准确率的同时,由于无需对图像进行缩放,还简化了图像特征检测的步骤,提高了图像特征的检测效率。
综上所述,在进行特征检测之前,先判断距离上次进行全局检测的时长是否达到预设时间长度,在达到预设时间长度后,通过全局检测算法对车辆位置进行检测,若当前还没有达到预设时间长度,那么通过局部检测算法对车辆位置进行检测,所以在对图像特征的检测过程中,交替使用全局检测算法和局部检测算法对图像特征进行检测,减少了图像检测所耗费的时间,提高了图像特征的检测效率。
相关技术中,会通过光流法对匹配目标区域内的特征来进行匹配目标定位,但是光流法中特征匹配过程复杂度高,计算速度较慢,因而无法达到实时定位目标的效果。所以,为了提高车辆定位的效率,根据得到的各个车辆的位置信息,对车辆图像中的各个车辆进行跟踪,包括以下步骤1至步骤6:
(1)将确定的各个车辆的位置信息存储到预设的车辆跟踪列表中;
(2)从车辆跟踪列表中获取车辆图像的上一帧车辆图像中记录的各个车辆的轮廓外接矩形的端点坐标;
(3)根据车辆图像和上一帧车辆图像中各个车辆的轮廓外接矩形的端点坐标,计算各个车辆在车辆图像和上一帧车辆图像中的车辆关联度;
(4)确定各个车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
(5)将关联车辆的置信度与车辆跟踪列表中记录的关联车辆的目标分数相加,得到关联车辆更新后的目标分数,其中,置信度包含在关联车辆的位置信息中;
(6)当关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且关联车辆的关联次数大于等于关联次数阈值时,输出从车辆图像中确定的关联车辆的位置信息,以对关联车辆进行跟踪。
在步骤1中,车辆跟踪列表中设置有当前跟踪的车辆和车辆的位置信息的对应关系。车辆的位置信息中除了包括从当前的车辆图像中获取的位置信息外,还包括上一帧车辆图像中车辆的位置信息以及车辆已经关联的关联次数。
车辆的关联次数,表示该车辆已经被车辆上安装的行车记录仪或者车辆全景影像系统跟踪的次数。
步骤3具体包括如下步骤3a至步骤3b:
(3a)根据车辆图像和上一帧车辆图像的各个车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个车辆分别在车辆图像中和在上一帧车辆图像中的车辆轮廓外接矩形面积;
(3b)通过公式对各个车辆在车辆图像和上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个车辆中的在车辆图像中的车辆轮廓外接矩形面积,Rb表示各个车辆在上一帧车辆图像中的车辆轮廓外接矩形面积。
在步骤3a中,根据车辆图像和上一帧车辆图像中各个车辆的车辆轮廓外接矩形的端点坐标,就可以确定各个车辆在车辆图像和上一帧车辆图像中车辆轮廓外接矩形的大小以及所占的范围,所以之后使用现有的任何计算面积的方法都可以确定各个车辆分别在车辆图像中和在上一帧车辆图像中的车辆轮廓外接矩形的面积。
根据步骤3a至步骤3b的描述,通过简单的计算就可以得到车辆关联度,加快了实时跟踪车辆的过程中的计算速度。
在步骤4中,对确定的关联车辆在车辆跟踪列表中记录的关联次数加一,对车辆跟踪列表中车辆的关联次数进行更新。
在步骤5中,关联车辆的置信度是在通过全局检测算法或者局部检测算法得到该关联车辆的轮廓外接矩形的中心点坐标和端点坐标时一起得到的数据,用于说明得到的该关联车辆的位置信息的精准度。车辆的置信度越大,说明得到的车辆的位置信息越准确。
步骤6具体包括以下步骤6a至步骤6b:
(6a)判断关联车辆更新后的目标分数是否大于等于预设的第一目标分数阈值,如果是则执行步骤6b,否则结束流程;
(6b)
输出从车辆图像中确定的关联车辆的位置信息,以对关联车辆进行跟踪。
综上所述,通过简单的计算车辆图像和上一帧车辆图像中各个车辆的目标分数,就可以对车辆定位并进行跟踪,无需通过复杂的特征匹配过程,提高了车辆定位过程中的计算速度,从而可以实时对车辆位置进行定位跟踪。
相关技术中,如果对不符合要求的车辆不进行跟踪的话,可能会造成车辆行驶过程中的危险,为了更好地检测车辆周围的车辆情况,根据得到的各个车辆的位置信息,对车辆图像中的各个车辆进行跟踪还包括以下步骤1至步骤4:
(1)确定各个车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
(2)判断未关联车辆的关联次数是否达到关联次数阈值,如果是则执行步骤3,如果否则执行步骤4;
(3)当未关联车辆的目标分数大于等于第一目标分数阈值时,输出从车辆图像中确定的未关联车辆的位置信息,以对未关联车辆进行跟踪;
(4)计算并输出未关联车辆的预测位置信息,以对未关联车辆进行跟踪。
综上所述,可以对不符合要求的未关联车辆继续进行检测跟踪,以降低车辆行驶过程中的危险,并提高了车辆跟踪的准确性。
相关技术中,在连续多帧未检测出车辆跟踪列表中某个车辆的位置信息时,还会继续使用最近一次检测到的车辆位置对车辆的位置进行输出,会造成车辆实际位置与检测位置的偏差,降低定位车辆位置的准确率;为了提高定位车辆位置的准确率,上述步骤4的计算并输出未关联车辆的预测位置信息,以对未关联车辆进行跟踪,包括以下步骤4a至步骤4e:
(4a)计算未关联车辆的轮廓外接矩形的中心点预测坐标;
(4b)根据计算得到的中心点预测坐标,得到未关联车辆的预测位置信息;
(4c)使车辆跟踪列表中记录的未关联车辆的目标分数减去一预定分数,得到更新后的未关联车辆的目标分数;
(4d)当更新后的未关联车辆的目标分数大于等于第一目标分数阈值时,输出未关联车辆的预测位置信息,以对未关联车辆进行跟踪;
(4e)当更新后的未关联车辆的目标分数小于第二目标分数阈值时,从车辆跟踪列表中删除未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
在步骤4a中,通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的未关联车辆的中心点横坐标,Yi表示预测的未关联车辆的中心点纵坐标,Xi-1表示上一帧车辆图像中未关联车辆的中心点横坐标,Yi-1表示上一帧车辆图像中未关联车辆的中心点纵坐标;Vx表示未关联车辆的水平方向运动速度,Vy表示未关联车辆的垂直方向运动速度。
可选地,Vx可以由公式Vx=(Xi-1-Xi-N)/(N-1)得到:
其中,Xi-N表示车辆图像之前的第N帧车辆图像中该未关联车辆中心的横坐标,N是预设常数。
可选地,Vy可以由公式Vy=(Yi-1-Yi-N)/(N-1)得到:
其中,Yi-N表示车辆图像之前的第N帧车辆图像中该未关联车辆中心的纵坐标。
当然,Vx和Vy还可以通过其他的方式得到,这里不再一一赘述。
步骤4b包括以下步骤4b-1至步骤4b-2:
(4b-1)根据上一帧图像中该未关联车辆的端点坐标,得到该未关联车辆的轮廓外接矩形面积;
(4b-2)计算得到的中心点预测坐标以及该未关联车辆的轮廓外接矩形面积,得到该未关联车辆的预测位置信息。
在步骤4b-1中,根据上一帧车辆图像中该未关联车辆的端点坐标,就可以确定该未关联车辆在上一帧车辆图像中车辆轮廓外接矩形的大小以及所占的范围,所以之后使用现有的任何计算面积的方法都可以确定该未关联车辆的在上一帧车辆图像中的车辆轮廓外接矩形的面积。
通过步骤4e描述的内容,可以将不需要跟踪的车辆的位置信息从车辆跟踪列表中删除,从而对车辆跟踪列表中记录的内容进行实时更新,以避免在车辆跟踪列表中记录大量无用的车辆的位置信息导致车辆跟踪列表过于冗余的缺陷,而且由于车辆跟踪列表中没有冗余信息,从而进一步保证了车辆跟踪列表的读取速度。
根据步骤4a至步骤4e的描述,通过简单的计算,就可以预测出未关联车辆的预测位置信息,从而可以快速对车辆的位置进行预测,提高定位车辆位置的准确率,保证了对车辆位置跟踪的实时有效性。
实施例2
参见图3,本实施例提供另一种车辆检测跟踪方法,该车辆检测跟踪方法可以分为检测和跟踪两个主要的步骤,基于视频的车辆检测又可以分为训练和检测两个阶段。基于视频的车辆检测是采用机器学习的方法进行训练,对车辆检测过程中的特征以及特征的计算方式进行了设计,采用了混合通道特征作为训练和检测的车辆特征,训练器采用级联的Adaboost算法,检测采用全局和局部结合的多尺度多模型检测模式,车辆的跟踪采用检测关联积分法,实现快速的车辆跟踪效果。
本实施例中提供的特征计算方法如下描述:
车辆检测特征采用SACF特征进行描述,SACF特征包括灰度、梯度幅值、梯度方向的组合。灰度特征中取ai,j,ai,j+1ai+1,j,ai+1,j+1(i,j为当前像素点的坐标)四个像素点的均值作为当前点的灰度特征,即w*h大小的车辆模型,可提取灰度特征为:w/4*h/4,梯度幅值特征为w/4*h/4,梯度方向特征为4*w/4*h/4,所以车辆检测模型特征的维度为(1+1+4)*w/4*h/4维;(w,h分别为车辆模型的宽度和高度)。计算包括以下几个步骤:计算图像灰度特征。
其中,图像灰度特征的计算方法如下(输入图像为RGB,结果图像为灰度图G)G=a*R+b*G+c*B,a,b,c分别为比例系数;
计算灰度特征,灰度特征计算每4个点计算一个灰度特征值,灰度特征值为该4个点的均值。
计算梯度幅值特征的方法如下:
梯度幅值特征计算方法:其中Gx为水平方向梯度值,Gy为竖直方向梯度值,其计算方法如下:Gx=[-1 0 1]*A,Gy=[-1 0 1]T*A,其中A代表原始图像。梯度幅值特征M为计算每4个点梯度幅值的均值作为该点的梯度幅值。
计算梯度方向特征的方法如下:
角度计算方法为其中θ的取值范围为将θ的值归到4个方向bin中,如下:
bin[0]为bin[1]为bin[2]为bin[3]为
设定梯度方向特征值为Hi,j[k],k∈[1,4],Hi,j[k]=Hi,j[k]+Mi,j,其中k为当前点归属的方向bin;当前像素点的梯度方向特征值为ai,j,ai,j+1ai+1,j,ai+1,j+1(i,j为当前像素点的坐标)四个像素点梯度方向特征的和。
在本实施例提出的一种车辆检测跟踪方法中,模型采用多模型。
以往的方法是训练单个模型,将视频图像进行放缩以满足模型尺寸,本发明采用训练一组大小不同的模型的方式替代视频图像的放缩,进行目标的检测;
一种多模型的检测实现方法如下:
1.模型计算:假设训练的第一层模型大小为m0×n0,那么模型mk×nk的计算方法为:mk=m0+8*k*γ,nk=n0+8*k*γ,其中mk,nk为第K+1个模型的宽度和高度,γ为一比例系数。
2.模型训练:根据模型尺寸,采用级联adaboost的方式进行训练,获得训练模型。
在本实施例提出的一种车辆检测跟踪方法中,车辆检测采用全局与局部检测相结合的方式。
全局检测:根据1中的特征计算方法,计算图像的特征向量,采用训练好的一组车辆检测模型对特征图进行遍历,定位车辆区域位置。
局部检测:根据全局检测到的车辆位置,进行局部区域外扩,计算局部图像的特征图,根据全局检测的车辆模型大小,对该局部区域进行检测,获得车辆位置。
在本实施例提出的一种车辆检测跟踪方法中,车辆跟踪方法包括如下步骤:
车辆跟踪采用检测位置进行结果关联,具体步骤如下:
(1)目标关联。
当前帧检测结果与历史帧结果计算关联度A,其中关联度的计算方法为:其中Ra为当前帧检测结果,Rb为历史帧检测结果,若A>T则目标关联成功,否则关联失败,其中T为目标关联阈值,T的取值范围为(0.5,1)之间。
(2)新目标确认。
若目标连续关联上N次,则确认为新目标,否则目标删除,其中N的取值为N=视频帧率/5。
(3)目标分数计算
目标得分g,当目标连续出现N次时,当前帧车辆目标检测得分b,b为检测获得目标的置信度,目标得分g=g+b,当目标丢失时,此时目标得分g=g–c,其中c的值为上一时刻目标检测得分;此时目标位置根据历史结果进行预测;目标分数累加最高为100分。
(4)目标预测
当目标未检测到时,根据历史帧结果进行预测,预测方法根据历史N1次目标运行的速度和运行方向进行,其中N1为从当前时刻之前车辆检测的N1次位置,N1的取值范围在[2,视频帧率/2]之间。目标在x方向运动速度Vx=(Xi-1-Xi-N1)/(N1-1),目标在y方向运动速度Vy=Yi-1-Yi-N1)/(N1-1),其中Xi-1,Yi-1为前一时刻目标在图像中的位置,其中Xi-N1,Yi-N1为前N1时刻目标在图像中的位置。当前时刻目标的预测Xi=Xi-1+Vx,Yi=Yi-1+Vy。
(5)目标删除
当目标分数g<T2时,目标删除,其中T2为目标最低得分阈值,该值的取值范围为[0,50]。
一种车辆检测跟踪方法,包括如下步骤1至步骤4:
(1)视频图像以视频帧序列的方式输入;
(2)车辆检测:车辆检测分为全图车辆检测和局部定位,其中局部定位通过历史时刻车辆检测的位置,在局部范围内实现车辆检测;
(3)车辆跟踪:车辆跟踪采用车辆检测关联计算的方法,具体方法如上述车辆跟踪方法描述;
(4)结果输出:输出车辆位置信息。
综上所述,本实施例提供的一种车辆检测跟踪方法,通过从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型对得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,与现有技术中需要将获取的车辆图像大小缩放到满足预设模型尺寸大小后,再通过模型进行图像特征检测相比,无需进行车辆图像的尺寸缩放,直接通过选取的模型对得到的车辆特征进行车辆检测,从而减少由于对车辆图像的尺寸缩放造成的车辆位置检测误差,提高定位车辆位置的准确度。
实施例3
参见图4,本实施例提供一种车辆检测跟踪装置,用于执行上述的车辆检测跟踪方法,包括:车辆特征检测模块400、模型选择模块402、位置信息确定模块404和车辆跟踪模块406;
车辆特征检测模400,用于对当前拍摄到的车辆图像进行检测,得到车辆图像的车辆特征;其中,车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征;
模型选择模块402,与车辆特征检测模400连接,用于从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型;
位置信息确定模块404,与模型选择模块402连接,用于通过选取出的一组模型,对车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息;
车辆跟踪模块406,与位置信息确定模块404连接,用于根据得到的各个车辆的位置信息,对车辆图像中的车辆进行跟踪。
综上所述,本实施例提供的一种车辆检测跟踪装置,通过从预先训练的多模型网络结构中选取适应车辆图像尺寸的一组模型对得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的位置信息,与现有技术中需要将获取的车辆图像大小缩放到满足预设模型尺寸大小后,再通过模型进行图像特征检测相比,无需进行车辆图像的尺寸缩放,直接通过选取的模型对得到的车辆特征进行车辆检测,从而减少由于对车辆图像的尺寸缩放造成的车辆位置检测误差,提高定位车辆位置的准确度。
相关技术中,在进行车辆检测的过程中,会先对图像特征进行全局检测,然后继续进行局部检测,来保证车辆检测的准确性,但对每张图像均进行全局检测和局部检测,会增加车辆检测消耗的时间,为了减少车辆检测所耗费的时间,模型选择模块402,包括:
时间长度判断单元,用于判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和车辆的车辆搜索区域;
第一车辆位置信息确定单元,用于当时间长度判断单元的判断结果为是时,通过全局检测算法和选取出的一组模型,对车辆图像中得到的车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
第二车辆位置信息确定单元,用于当时间长度判断单元的判断结果为否时,使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个车辆的车辆搜索区域中的车辆特征进行特征检测,确定各个车辆的轮廓外接矩形的中心点坐标和端点坐标。
其中,第一车辆位置信息确定单元,包括:
车辆检测子单元,用于通过全局检测算法和选取出的一组模型,对车辆图像中得到的车辆特征进行车辆检测,得到车辆图像中各个车辆的轮廓外接矩形的中心点坐标和端点坐标;
车辆搜索区域确定子单元,用于以各个车辆的轮廓外接矩形的中心点坐标为各个车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对车辆搜索区域中心进行扩展,得到车辆搜索区域。
其中,第二车辆位置信息确定单元,包括:
模型确定子单元,用于从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
车辆位置信息检测子单元,用于通过局部检测算法和选择出的至少一层模型,对车辆搜索区域中的车辆特征进行车辆检测,确定各个车辆的轮廓外接矩形的中心点坐标和端点坐标。
通过对上述第一车辆位置信息确定单元和第二车辆位置信息确定单元的进一步描述,通过从预设的多模型网络结构中确定出适应车辆搜索区域图像的尺寸大小的一组模型后,直接可以通过全局检测算法或者局部检测算法并采用确定的模型对车辆进行检测,而无需对图像进行缩放,避免了对图像进行缩放的过程中造成增大车辆位置检测误差的缺陷,提高了车辆定位的准确率的同时,由于无需对图像进行缩放,还简化了图像特征检测的步骤,提高了图像特征的检测效率。
综上所述,在进行特征检测之前,先判断距离上次进行全局检测的时长是否达到预设时间长度,在达到预设时间长度后,通过全局检测算法对车辆位置进行检测,若当前还没有达到预设时间长度,那么通过局部检测算法对车辆位置进行检测,所以在对图像特征的检测过程中,交替使用全局检测算法和局部检测算法对图像特征进行检测,减少了图像检测所耗费的时间,提高了图像特征的检测效率。
相关技术中,会通过光流法对匹配目标区域内的特征来进行匹配目标定位,但是光流法中特征匹配过程复杂度高,计算速度较慢,因而无法达到实时定位目标的效果。所以,为了提高车辆定位的效率,车辆跟踪模块406,包括:
位置信息存储单元,用于将确定的各个车辆的位置信息存储到预设的车辆跟踪列表中;
上一帧车辆图像信息获取单元,用于从车辆跟踪列表中获取车辆图像的上一帧车辆图像中记录的各个车辆的轮廓外接矩形的端点坐标;
车辆关联度计算单元,用于根据车辆图像和上一帧车辆图像中各个车辆的轮廓外接矩形的端点坐标,计算各个车辆在车辆图像和上一帧车辆图像中的车辆关联度;
关联车辆确定单元,用于确定各个车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
目标分数更新单元,用于将关联车辆的置信度与车辆跟踪列表中记录的关联车辆的目标分数相加,得到关联车辆更新后的目标分数,其中,置信度包含在关联车辆的位置信息中;
关联车辆位置信息输出单元,用于当关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且关联车辆的关联次数大于等于关联次数阈值时,输出从车辆图像中确定的关联车辆的位置信息,以对关联车辆进行跟踪。
具体地,车辆关联度计算单元,包括:
面积计算子单元,用于根据车辆图像和上一帧车辆图像的各个车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个车辆分别在车辆图像中和在上一帧车辆图像中的车辆轮廓外接矩形面积;
车辆关联度计算子单元,用于通过公式对各个车辆在车辆图像和上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个车辆在车辆图像中的车辆轮廓外接矩形面积,Rb表示各个车辆在上一帧车辆图像中的车辆轮廓外接矩形面积。
综上所述,通过简单的计算车辆图像和上一帧车辆图像中各个车辆的车辆关联度,就可以对车辆定位并进行跟踪,无需通过复杂的特征匹配过程,提高了车辆定位过程中的计算速度,从而可以实时对车辆位置进行定位跟踪。
相关技术中,如果对不符合要求的车辆不进行跟踪的话,可能会造成车辆行驶过程中的危险,为了更好地检测车辆周围的车辆情况,本实施例提出的车辆跟踪模块406还包括:
未关联车辆确定单元,用于确定各个车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
目标分数判断单元,用于判断未关联车辆的目标分数是否大于等于第一目标分数阈值;
未关联车辆位置信息输出单元,用于当目标分数判断单元的判断结果为是时,输出从车辆图像中确定的未关联车辆的位置信息,以对未关联车辆进行跟踪;
未关联车辆预测位置输出单元,用于当关联次数判断单元的判断结果为否时,计算并输出未关联车辆的预测位置信息,以对未关联车辆进行跟踪。
综上所述,可以对不符合要求的未关联车辆继续进行检测跟踪,以降低车辆行驶过程中的危险,并提高了车辆跟踪的准确性。
相关技术中,在连续多帧未检测出车辆跟踪列表中某个车辆的位置信息时,还会继续使用最近一次检测到的车辆位置对车辆的位置进行输出,会造成车辆实际位置与检测位置的偏差,降低定位车辆位置的准确率;为了提高定位车辆位置的准确率,未关联车辆预测位置输出单元包括:
预测坐标计算子单元,用于计算未关联车辆的轮廓外接矩形的中心点预测坐标;
预测位置信息确定子单元,用于根据计算得到的中心点预测坐标,得到未关联车辆的预测位置信息;
目标分数更新子单元,用于使车辆跟踪列表中记录的未关联车辆的目标分数减去一预定分数,得到更新后的未关联车辆的目标分数;
预测位置信息输出子单元,用于当更新后的未关联车辆的目标分数大于等于第一目标分数阈值时,输出未关联车辆的预测位置信息,以对未关联车辆进行跟踪;
未关联车辆位置信息删除子单元,用于当更新后的未关联车辆的目标分数小于第二目标分数阈值时,从车辆跟踪列表中删除未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
具体地,预测坐标计算子单元,用于通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的未关联车辆的中心点横坐标,Yi表示预测的未关联车辆的中心点纵坐标,Xi-1表示上一帧车辆图像中未关联车辆的中心点横坐标,Yi-1表示上一帧车辆图像中未关联车辆的中心点纵坐标;Vx表示未关联车辆的水平方向运动速度,Vy表示未关联车辆的垂直方向运动速度。
通过未关联车辆位置信息删除子单元所描述的内容,可以将不需要跟踪的车辆的位置信息从车辆跟踪列表中删除,从而对车辆跟踪列表中记录的内容进行实时更新,以避免在车辆跟踪列表中记录大量无用的车辆的位置信息导致车辆跟踪列表过于冗余的缺陷,而且由于车辆跟踪列表中没有冗余信息,从而进一步保证了车辆跟踪列表的读取速度。
综上所述,通过简单的计算,就可以预测出未关联车辆的预测位置信息,从而可以快速对车辆的位置进行预测,提高定位车辆位置的准确率,保证了对车辆位置跟踪的实时有效性。
本发明实施例所提供的进行车辆检测跟踪方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (16)
1.一种车辆检测跟踪方法,其特征在于,包括:
对当前拍摄到的车辆图像进行检测,得到所述车辆图像的车辆特征;其中,所述车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征;
从预先训练的多模型网络结构中选取适应所述车辆图像尺寸的一组模型;
通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息;
根据得到的各个所述车辆的位置信息,对所述车辆图像中的车辆进行跟踪;
所述通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息,包括:
判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,所述位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和所述车辆的车辆搜索区域;
如果是,通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
如果否,使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
2.根据权利要求1所述的方法,其特征在于,通过全局检测算法和选取出的所述一组模型,对所述车辆图像中的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息,包括:
通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,得到所述车辆图像中各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标;
以各个所述车辆的所述轮廓外接矩形的中心点坐标为各个所述车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对所述车辆搜索区域中心进行扩展,得到所述车辆搜索区域。
3.根据权利要求2所述的方法,其特征在于,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标,包括:
从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
通过局部检测算法和选择出的至少一层模型,对所述车辆搜索区域中的所述车辆特征进行车辆检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
4.根据权利要求1所述的方法,其特征在于,根据得到的各个所述车辆的位置信息,对所述车辆图像中的各个所述车辆进行跟踪,包括:
将确定的各个所述车辆的位置信息存储到预设的车辆跟踪列表中;
从所述车辆跟踪列表中获取所述车辆图像的上一帧车辆图像中记录的各个所述车辆的轮廓外接矩形的端点坐标;
根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度;
确定各个所述车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
将所述关联车辆的置信度与车辆跟踪列表中记录的所述关联车辆的目标分数相加,得到所述关联车辆更新后的目标分数,其中,所述置信度包含在所述关联车辆的位置信息中;
当所述关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且所述关联车辆的关联次数大于等于关联次数阈值时,输出从所述车辆图像中确定的所述关联车辆的位置信息,以对所述关联车辆进行跟踪。
5.根据权利要求4所述的方法,其特征在于,根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度,包括:
根据所述车辆图像和所述上一帧车辆图像的各个所述车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个所述车辆分别在所述车辆图像中和在所述上一帧车辆图像中的车辆轮廓外接矩形面积;
通过公式对各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个所述车辆在所述车辆图像中的车辆轮廓外接矩形面积,Rb表示各个所述车辆在所述上一帧车辆图像中的车辆轮廓外接矩形面积。
6.根据权利要求4所述的方法,其特征在于,根据得到的各个所述车辆的位置信息,对所述车辆图像中的各个所述车辆进行跟踪还包括:
确定各个所述车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
判断所述未关联车辆的目标分数是否大于等于第一目标分数阈值;
如果是,输出从所述车辆图像中确定的所述未关联车辆的位置信息,以对所述未关联车辆进行跟踪;
如果否,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪。
7.根据权利要求6所述的方法,其特征在于,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪,包括:
计算所述未关联车辆的轮廓外接矩形的中心点预测坐标;
根据计算得到的所述中心点预测坐标,得到所述未关联车辆的预测位置信息;
使所述车辆跟踪列表中记录的所述未关联车辆的目标分数减去一预定分数,得到更新后的所述未关联车辆的目标分数;
当更新后的所述未关联车辆的目标分数大于等于第一目标分数阈值时,输出所述未关联车辆的所述预测位置信息,以对所述未关联车辆进行跟踪;
当更新后的所述未关联车辆的目标分数小于第二目标分数阈值时,从所述车辆跟踪列表中删除所述未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
8.根据权利要求7所述的方法,其特征在于,计算所述未关联车辆的轮廓外接矩形的中心点预测坐标,包括:
通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对所述未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的所述未关联车辆的中心点横坐标,Yi表示预测的所述未关联车辆的中心点纵坐标,Xi-1表示所述上一帧车辆图像中所述未关联车辆的中心点横坐标,Yi-1表示所述上一帧车辆图像中所述未关联车辆的中心点纵坐标;Vx表示所述未关联车辆的水平方向运动速度,Vy表示所述未关联车辆的垂直方向运动速度。
9.一种车辆检测跟踪装置,其特征在于,包括:
车辆特征检测模块,用于对当前拍摄到的车辆图像进行检测,得到所述车辆图像的车辆特征;其中,所述车辆特征包括以下至少之一:图像灰度特征、梯度幅值特征和梯度方向特征;
模型选择模块,用于从预先训练的多模型网络结构中选取适应所述车辆图像尺寸的一组模型;
位置信息确定模块,用于通过选取出的一组模型,对所述车辆特征进行车辆检测,得到所述车辆图像中各个车辆的位置信息;
车辆跟踪模块,用于根据得到的各个所述车辆的位置信息,对所述车辆图像中的车辆进行跟踪;
所述模型选择模块,包括:
时间长度判断单元,用于判断距离最近一次使用全局检测算法确定车辆的位置信息的时长是否达到预设时间长度;其中,所述位置信息包括车辆的轮廓外接矩形的中心点坐标、端点坐标和所述车辆的车辆搜索区域;
第一车辆位置信息确定单元,用于当时间长度判断单元的判断结果为是时,通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,确定车辆图像中各个车辆的位置信息;
第二车辆位置信息确定单元,用于当时间长度判断单元的判断结果为否时,使用最近一次得到的车辆的轮廓外接矩形的中心点坐标和端点坐标确定车辆搜索区域,通过局部检测算法和选取出的一组模型,对各个所述车辆的所述车辆搜索区域中的所述车辆特征进行特征检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
10.根据权利要求9所述的装置,其特征在于,所述第一车辆位置信息确定单元,包括:
车辆检测子单元,用于通过全局检测算法和选取出的一组模型,对所述车辆图像中得到的所述车辆特征进行车辆检测,得到所述车辆图像中各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标;
车辆搜索区域确定子单元,用于以各个所述车辆的所述轮廓外接矩形的中心点坐标为各个所述车辆的车辆搜索区域中心,按照设定的车辆搜索区域大小对所述车辆搜索区域中心进行扩展,得到所述车辆搜索区域。
11.根据权利要求9所述的装置,其特征在于,所述第二车辆位置信息确定单元,包括:
模型确定子单元,用于从确定出的一组模型中选取适应车辆搜索区域尺寸大小的至少一层模型;
车辆位置信息检测子单元,用于通过局部检测算法和选择出的至少一层模型,对所述车辆搜索区域中的所述车辆特征进行车辆检测,确定各个所述车辆的轮廓外接矩形的中心点坐标和端点坐标。
12.根据权利要求9所述的装置,其特征在于,所述车辆跟踪模块,包括:
位置信息存储单元,用于将确定的各个所述车辆的位置信息存储到预设的车辆跟踪列表中;
上一帧车辆图像信息获取单元,用于从所述车辆跟踪列表中获取所述车辆图像的上一帧车辆图像中记录的各个所述车辆的轮廓外接矩形的端点坐标;
车辆关联度计算单元,用于根据所述车辆图像和所述上一帧车辆图像中各个所述车辆的轮廓外接矩形的端点坐标,计算各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度;
关联车辆确定单元,用于确定各个所述车辆中车辆关联度大于等于预设关联度阈值的车辆为关联车辆;
目标分数更新单元,用于将所述关联车辆的置信度与车辆跟踪列表中记录的所述关联车辆的目标分数相加,得到所述关联车辆更新后的目标分数,其中,所述置信度包含在所述关联车辆的位置信息中;
关联车辆位置信息输出单元,用于当所述关联车辆更新后的目标分数大于等于预设的第一目标分数阈值且所述关联车辆的关联次数大于等于关联次数阈值时,输出从所述车辆图像中确定的所述关联车辆的位置信息,以对所述关联车辆进行跟踪。
13.根据权利要求12所述的装置,其特征在于,所述车辆关联度计算单元,包括:
面积计算子单元,用于根据所述车辆图像和所述上一帧车辆图像的各个所述车辆的位置信息中记录的各个车辆的车辆轮廓外接矩形的端点坐标,确定各个所述车辆分别在所述车辆图像中和在所述上一帧车辆图像中的车辆轮廓外接矩形面积;
车辆关联度计算子单元,用于通过公式对各个所述车辆在所述车辆图像和所述上一帧车辆图像中的车辆关联度A进行计算:
其中,Ra表示各个所述车辆在所述车辆图像中的车辆轮廓外接矩形面积,Rb表示各个所述车辆在所述上一帧车辆图像中的车辆轮廓外接矩形面积。
14.根据权利要求12所述的装置,其特征在于,所述车辆跟踪模块还包括:
未关联车辆确定单元,用于确定各个所述车辆中车辆关联度小于关联度阈值的车辆为未关联车辆;
目标分数判断单元,用于判断所述未关联车辆的目标分数是否大于等于第一目标分数阈值;
未关联车辆位置信息输出单元,用于当目标分数判断单元的判断结果为是时,输出从所述车辆图像中确定的所述未关联车辆的位置信息,以对所述未关联车辆进行跟踪;
未关联车辆预测位置输出单元,用于当关联次数判断单元的判断结果为否时,计算并输出所述未关联车辆的预测位置信息,以对所述未关联车辆进行跟踪。
15.根据权利要求14所述的装置,其特征在于,所述未关联车辆预测位置输出单元包括:
预测坐标计算子单元,用于计算所述未关联车辆的轮廓外接矩形的中心点预测坐标;
预测位置信息确定子单元,用于根据计算得到的所述中心点预测坐标,得到所述未关联车辆的预测位置信息;
目标分数更新子单元,用于使所述车辆跟踪列表中记录的所述未关联车辆的目标分数减去一预定分数,得到更新后的所述未关联车辆的目标分数;
预测位置信息输出子单元,用于当更新后的所述未关联车辆的目标分数大于等于第一目标分数阈值时,输出所述未关联车辆的所述预测位置信息,以对所述未关联车辆进行跟踪;
未关联车辆位置信息删除子单元,用于当更新后的所述未关联车辆的目标分数小于第二目标分数阈值时,从所述车辆跟踪列表中删除所述未关联车辆的位置信息,其中,第二目标分数阈值小于第一目标分数阈值。
16.根据权利要求15所述的装置,其特征在于,所述预测坐标计算子单元,用于通过公式Xi=Xi-1+Vx和Yi=Yi-1+Vy来对所述未关联车辆的中心点预测坐标进行计算;
其中,Xi表示预测的所述未关联车辆的中心点横坐标,Yi表示预测的所述未关联车辆的中心点纵坐标,Xi-1表示所述上一帧车辆图像中所述未关联车辆的中心点横坐标,Yi-1表示所述上一帧车辆图像中所述未关联车辆的中心点纵坐标;Vx表示所述未关联车辆的水平方向运动速度,Vy表示所述未关联车辆的垂直方向运动速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510831439.3A CN105469052B (zh) | 2015-11-25 | 2015-11-25 | 一种车辆检测跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510831439.3A CN105469052B (zh) | 2015-11-25 | 2015-11-25 | 一种车辆检测跟踪方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105469052A CN105469052A (zh) | 2016-04-06 |
CN105469052B true CN105469052B (zh) | 2018-10-19 |
Family
ID=55606723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510831439.3A Active CN105469052B (zh) | 2015-11-25 | 2015-11-25 | 一种车辆检测跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105469052B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886536A (zh) * | 2016-09-26 | 2018-04-06 | 比亚迪股份有限公司 | 行车记录仪定位方法、装置及行车记录仪 |
US10421452B2 (en) * | 2017-03-06 | 2019-09-24 | GM Global Technology Operations LLC | Soft track maintenance |
CN108681743B (zh) * | 2018-04-16 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 图像对象识别方法和装置、存储介质 |
CN110555347B (zh) * | 2018-06-01 | 2022-06-03 | 杭州海康威视数字技术股份有限公司 | 具有危险载货行为的车辆目标识别方法、装置及电子设备 |
CN110610514B (zh) * | 2018-06-15 | 2023-09-19 | 株式会社日立制作所 | 实现多目标跟踪的方法、装置、电子设备 |
CN109541583B (zh) * | 2018-11-15 | 2020-05-01 | 众安信息技术服务有限公司 | 一种前车距离检测方法及系统 |
CN110705695B (zh) * | 2019-10-10 | 2022-11-18 | 北京百度网讯科技有限公司 | 搜索模型结构的方法、装置、设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101318491A (zh) * | 2008-05-14 | 2008-12-10 | 合肥工业大学 | 嵌入式集成视觉辅助行车安全系统 |
CN101770583A (zh) * | 2010-01-15 | 2010-07-07 | 华中科技大学 | 一种基于场景全局特征的模板匹配方法 |
CN104159088A (zh) * | 2014-08-23 | 2014-11-19 | 中科院成都信息技术股份有限公司 | 一种远程智能车辆监控系统及方法 |
-
2015
- 2015-11-25 CN CN201510831439.3A patent/CN105469052B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101318491A (zh) * | 2008-05-14 | 2008-12-10 | 合肥工业大学 | 嵌入式集成视觉辅助行车安全系统 |
CN101770583A (zh) * | 2010-01-15 | 2010-07-07 | 华中科技大学 | 一种基于场景全局特征的模板匹配方法 |
CN104159088A (zh) * | 2014-08-23 | 2014-11-19 | 中科院成都信息技术股份有限公司 | 一种远程智能车辆监控系统及方法 |
Non-Patent Citations (1)
Title |
---|
面向道路安全的行人检测研究;钱慧佳;《中国优秀硕士学位论文全文数据库》;20101015;第42-43页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105469052A (zh) | 2016-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105469052B (zh) | 一种车辆检测跟踪方法和装置 | |
US20230394810A1 (en) | Advanced path prediction | |
JP7109091B2 (ja) | 物体検出器の学習方法及びテスト方法、それを利用した学習装置及びテスト装置 | |
CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN107038723B (zh) | 棒状像素估计方法和系统 | |
CN108256431B (zh) | 一种手部位置标识方法及装置 | |
CN109816701A (zh) | 一种目标跟踪方法及装置、存储介质 | |
CN110163889A (zh) | 目标跟踪方法、目标跟踪装置、目标跟踪设备 | |
CN112907678B (zh) | 车载相机外参姿态动态估计方法、装置、计算机设备 | |
CN108363953B (zh) | 一种行人检测的方法及双目监控设备 | |
CN105913454A (zh) | 一种视频图像中运动目标的像素坐标轨迹预测方法 | |
CN111814753A (zh) | 针对雾天条件下的目标检测方法和装置 | |
CN109961013A (zh) | 车道线的识别方法、装置、设备及计算机可读存储介质 | |
CN108052904A (zh) | 车道线的获取方法及装置 | |
JP2020123346A (ja) | 各領域において最適化された自律走行を遂行できるように位置基盤アルゴリズムの選択によってシームレスパラメータ変更を遂行する方法及び装置 | |
CN106558051A (zh) | 一种改进的从单幅图像检测道路的方法 | |
Zhang et al. | End to end video segmentation for driving: Lane detection for autonomous car | |
CN111091023A (zh) | 一种车辆检测方法、装置及电子设备 | |
CN109919026A (zh) | 一种水面无人艇局部路径规划方法 | |
CN111814754A (zh) | 面向夜间场景的单帧图像行人检测方法和装置 | |
CN111460866B (zh) | 车道线检测及驾驶控制方法、装置和电子设备 | |
CN104471436B (zh) | 用于计算对象的成像比例的变化的方法和设备 | |
CN113011285B (zh) | 车道线检测方法、装置、自动驾驶车辆及可读存储介质 | |
CN112347817A (zh) | 一种视频目标检测与跟踪方法及装置 | |
CN111476062A (zh) | 车道线检测方法、装置、电子设备及驾驶系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PP01 | Preservation of patent right | ||
PP01 | Preservation of patent right |
Effective date of registration: 20220726 Granted publication date: 20181019 |