CN107067755A - 一种基于计算机视觉自动校准交通监控相机的方法 - Google Patents
一种基于计算机视觉自动校准交通监控相机的方法 Download PDFInfo
- Publication number
- CN107067755A CN107067755A CN201710297055.7A CN201710297055A CN107067755A CN 107067755 A CN107067755 A CN 107067755A CN 201710297055 A CN201710297055 A CN 201710297055A CN 107067755 A CN107067755 A CN 107067755A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- vehicle
- mtd
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012544 monitoring process Methods 0.000 title claims abstract description 36
- 238000005259 measurement Methods 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 30
- 239000013598 vector Substances 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 101000746263 Conus leopardus Conotoxin Lp5.1 Proteins 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 229910003460 diamond Inorganic materials 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012271 agricultural production Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
- G08G1/054—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed photographing overspeeding vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于计算机视觉自动校准交通监控相机的方法,其主要内容包括:交通监控相机模型、相机校准和车辆跟踪、比例推算、速度测量,其过程为,基于交通相机模型,通过检测消失点改善相机校准,并使用车辆3D模型来推断场景比例,通过测量Faster‑RCNN检测到的车速,对车辆进行跟踪,从而降低速度测量的误差且改善了相机校准方法。本发明突破了现有方法受相机布置约束的局限,提出场景比例推算的方法,能够处理存在显著视点变化的情况,并且通过检测两个消失点改善相机校准方法,提高精度的同时实现自动校准,适用于大规模部署,在无需停止交通的情况下对监控相机进行安装或校准测量,并可推广到其他领域。
Description
技术领域
本发明涉及智能相机领域,尤其是涉及了一种基于计算机视觉自动校准交通监控相机的方法。
背景技术
智能相机是常用于科研、生产、生活等各个领域,是一种高度集成化的微小型机器视觉系统,集图像采集、图像处理与数据通信等功能于一体,可满足多种视觉检测的应用需求。具体地,如工业生产中的产品缺陷检测,农业生产中的各类种子分检系统,交通系统中的车辆检测,日常生活中的人脸检测等。智能相机的另一个重要的应用是在视觉测量放米按视觉测量是通过将被测物的图像作为检测和传递信息的手段,提取其中的有用信息进而获得被测物体几何参数的一种测量技术。视觉测量被广泛地应用于几何量的在线测量、航空航天遥感测量、精密复杂零件的微尺寸测量等相关技术领域。迄今,针对光学成像与数字图像采集系统的各项参数进行检测校正与标定的问题已经存在很多方法,如何将其应用在智能相机系统中,完成对智能相机的校准的同时,满足一定精度与速度上的要求,这具有重要的实际意义。
本发明提出了一种基于计算机视觉自动校准交通监控相机的方法,用于车辆的速度测量。基于一个交通相机模型,通过精确检测消失点改善相机校准,并使用车辆3D模型来推断场景比例,通过测量Faster-RCNN检测到的车速,对车辆进行跟踪,从而降低了速度测量的误差且改善了相机校准方法。本发明突破了现有方法受相机布置约束的局限,通过精确检测两个消失点改善相机校准方法,提高精度的同时实现自动校准,并且提出场景比例推算的方法,能够处理存在显著视点变化的情况,且保证了优于手动校准更高的精度,适用于大规模部署,在无需停止交通的情况下对监控相机进行安装或校准测量,并可推广到其他领域。
发明内容
针对本发明突破了现有方法受相机布置约束的局限,通过精确检测两个消失点改善相机校准方法,提高精度的同时实现自动校准,并且提出场景比例推算的方法,能够处理存在显著视点变化的情况,且保证了优于手动校准更高的精度,适用于大规模部署,在无需停止交通的情况下对监控相机进行安装或校准测量。
为解决上述问题,本发明提供一种基于计算机视觉自动校准交通监控相机的方法,其主要内容包括:
(一)交通监控相机模型;
(二)相机校准和车辆跟踪;
(三)比例推算;
(四)速度测量。
其中,所述的交通监控相机模型,目标是测量道路平面上任意两点之间的距离,因此构建相机模型,假设图像中心具有零像素偏移和主点c,齐次2D图像坐标用p=[px,py]T表示,3D模型中由表示,其中f是焦距,其他3D点(道路平面上)用P=[Px,Py,Pz]T表示,假设图像坐标系的原点在图像中心,则主点c具有2D齐次坐标[0,0,1]T(相机投影中心的3D坐标为[0,0,0]T),道路平面用ρ表示,用以下方式对消失点进行编码,第一个(在车辆流动的方向)被称为u,第二个消失点(垂直于第一个消失点并且位于道路平面上)由v表示,第三个(垂直于道路平面的方向)是w,使用前两个消失点u,v和主点c,可以计算焦距f,第三个消失点w,道路平面归一化向量n,以及主要路面ρ,然而道路平面只能按比例计算(因无法仅根据消失点找回到路面的距离),因此添加任意值δ=1作为等式(6)的常数项,
ρ=[nT,δ]T (6)
已知道路平面ρ,在路面上对p=[px,py]T进行投影,可计算其3D坐标P=[Px,Py,Pz]T:
可直接用3D坐标P测量道路平面上的距离,点P1和P2之间的距离‖P1-P2‖,并非直接以米(或其他距离单位)表示,因此需要引入另一个校准参数——场景比例λ,将距离‖P1-P2‖从路面上的伪单位通过缩放到λ‖P1-P2‖转换成以米为单位,在图像中心的主点和零像素偏移的假设下,校准方法必须与场景比例λ一起计算两个消失点(u和v)。
其中,所述的相机校准和车辆跟踪,提供消失点的图像坐标和场景比例信息,通过精确检测消失点,并使用汽车3D模型来推断场景比例,测量经由Faster-RCNN检测到的驶过车辆的速度,并结合背景删除法和卡尔曼滤波进行跟踪。
进一步地,所述的消失点检测,通过使用边缘替代图像梯度来改进对第二个消失点的检测,首先估计相机相对于道路旋转所产生的消失点的检测,第一个消失点u是根据车辆的运动通过一个级联的霍夫变换估计而得,而其中车辆运动通过跟踪移动车辆上的感兴趣点形成的线来表征;为了检测第二个消失点v,在其中许多点与v一致的情况下使用驶过车辆的边缘,给定图像I,首先找到种子点si作为图像的梯度幅度的局部最大值,仅保留高于阈值的点,从每个种子点si=[xi,yi,1]T的9×9邻域中,形成矩阵Xi:
其中[mk,nk,1]T是相邻像素(k=1…81)的坐标,并且wk是来自E的它们的梯度大小,即对于9×9邻域,Xi的大小为81×2,然后,从等式(10)可以计算出奇异向量和Xi的值:
其中,
Wi=[a1,a2] (11)
边缘方向是由边缘的第一个奇异列向量di=a1定义,边缘质量由奇异值衡量,每个边缘则可表示为一个三元组εi=(si,di,qi),从输入视频中收集边缘,只保留与已估计的u不一致的项,并累积到菱形空间累加器,将累加器中全局最大值的位置作为第二个消失点v。
进一步地,所述的车辆检测和跟踪,在速度测量过程中,通过Faster-RCNN(FRCN)检测器在每一帧中检测驶过车辆,对包含大约20k个汽车实例的V20K数据集进行检测,均采用监控视角,检测器的检测率为96%,检测器产生图像中汽车位置的粗略信息(边界框没有精确对准的),只跟踪完全可见的车辆,因为被稍微遮挡或过于远离相机,都有可能导致不精确的跟踪甚至错误的速度估计;对于跟踪,使用一个简单的背景模型,通过移动平均值构建背景参考图像,并使用FRCN检测来对前景图像中检测到的团块分组,从每组团块中提取凸包及其2D边界框,最后使用卡尔曼滤波器跟踪凸包的2D边界框以获得车辆的运动,对于每个跟踪车辆,提取参考点用于速度测量,凸包用于构造3D边界框,并将车头前边的中心作为地面/道路平面的参考点,每个轨迹均由边界框和参考点的序列表示,而此边界框和参考点均是由凸包构成。
其中,所述的比例推算,使用细粒度的车辆和少数常见类型,获得图像上车辆的3D模型,并将其与实际观察到的车辆对准以获得适当的比例,采用的比例推算方法需要精确了解车辆类别(精确到生产年份),使用包含这类图像的数据集及其他相关的训练数据,仅对该地区道路上最常见的几种细粒度车辆类型进行分类,再加一个分类用于表示所有其他车辆,使用CNN对数据集进行分类,计算一个车辆轨迹上所有检测的平均概率。
进一步地,所述的概率计算,对于每个车辆,在其周围建立一个3D边界框,以获得图像坐标中车辆基座的中心b,计算旋转矩阵R,矩阵的列数和归一化的和一致,然后可以计算3D视点向量其中负号表示视点矢量是从车辆到相机,当车辆的视点矢量,车辆的类别及其在屏幕上的位置被确定时,即可获得车辆类的3D模型,其中唯一的未知数是车辆的比例(车辆和相机之间的距离)。
进一步地,所述的比例,利用多个不同的比例渲染车辆图像,并通过使用交叉连接(IoU)度量将渲染所得边界框与视频中检测到的边界框进行匹配,将所有车辆实例i和比例j,投影在道路平面上得到Fij和Rij,并将它们用于计算车辆实例的比例λij:
其中是真实世界类型ti的长度,计算IoU匹配度量mij。
进一步地,所述的匹配度量,用于消除不良匹配,利用大于预定阈值的度量mij,将所有比例λij都被考虑在内,从而获得相机的最终比例λ*,
λ*=argmaxλp(λ|(λij,mij)) (14)
最后,根据具有离散空间的核密度估计概率p(λ|(λij,mij))计算λ*。
其中,所述的速度测量,给定一辆带有参考点pi和时间戳ti的跟踪车辆,对于每个参考点i=1…N,利用等式(15)通过将参考点pi投影到地平面Pi(见等式(8))计算出速度v,
计算连续时间之间速度的中值作为速度,为了测量的稳定性,按多个视频帧为一组将时间隔开较大距离,即τ>1,实验中使用τ=5(时间差通常为0.2秒)。
附图说明
图1是本发明一种基于计算机视觉自动校准交通监控相机的方法的系统框架图。
图2是本发明一种基于计算机视觉自动校准交通监控相机的方法的边界框对齐示例图。
图3是本发明一种基于计算机视觉自动校准交通监控相机的方法的相机模型和坐标系。
图4是本发明一种基于计算机视觉自动校准交通监控相机的方法的边缘检测图示。
图5是本发明一种基于计算机视觉自动校准交通监控相机的方法的边缘图示。
图6是本发明一种基于计算机视觉自动校准交通监控相机的方法的车辆检测和跟踪图示。
图7是本发明一种基于计算机视觉自动校准交通监控相机的方法的IoU度量示例。
图8是本发明一种基于计算机视觉自动校准交通监控相机的方法的手动测量图示。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于计算机视觉自动校准交通监控相机的方法的系统框架图。主要包括交通监控相机模型、相机校准和车辆跟踪、比例推算、速度测量。
其中,所述的交通监控相机模型,目标是测量道路平面上任意两点之间的距离,因此构建相机模型,假设图像中心具有零像素偏移和主点c,齐次2D图像坐标用p=[px,py]T表示,3D模型中由表示,其中f是焦距,其他3D点(道路平面上)用P=[Px,Py,Pz]T表示,假设图像坐标系的原点在图像中心,则主点c具有2D齐次坐标[0,0,1]T(相机投影中心的3D坐标为[0,0,0]T),道路平面用ρ表示,用以下方式对消失点进行编码,第一个(在车辆流动的方向)被称为u,第二个消失点(垂直于第一个消失点并且位于道路平面上)由v表示,第三个(垂直于道路平面的方向)是w,使用前两个消失点u,v和主点c,可以计算焦距f,第三个消失点w,道路平面归一化向量n,以及主要路面ρ,然而道路平面只能按比例计算(因无法仅根据消失点找回到路面的距离),因此添加任意值δ=1作为等式(6)的常数项,
ρ=[nT,δ]T (6)
已知道路平面ρ,在路面上对p=[px,py]T进行投影,可计算其3D坐标P=[Px,Py,Pz]T:
可直接用3D坐标P测量道路平面上的距离,点P1和P2之间的距离‖P1-P2‖,并非直接以米(或其他距离单位)表示,因此需要引入另一个校准参数——场景比例λ,将距离‖P1-P2‖从路面上的伪单位通过缩放到λ‖P1-P2‖转换成以米为单位,在图像中心的主点和零像素偏移的假设下,校准方法必须与场景比例λ一起计算两个消失点(u和v)。
其中,所述的相机校准和车辆跟踪,提供消失点的图像坐标和场景比例信息,通过精确检测消失点,并使用汽车3D模型来推断场景比例,测量经由Faster-RCNN检测到的驶过车辆的速度,并结合背景删除法和卡尔曼滤波进行跟踪。
进一步地,所述的消失点检测,通过使用边缘替代图像梯度来改进对第二个消失点的检测,首先估计相机相对于道路旋转所产生的消失点的检测,第一个消失点u是根据车辆的运动通过一个级联的霍夫变换估计而得,而其中车辆运动通过跟踪移动车辆上的感兴趣点形成的线来表征;为了检测第二个消失点v,在其中许多点与v一致的情况下使用驶过车辆的边缘,给定图像I,首先找到种子点si作为图像的梯度幅度的局部最大值,仅保留高于阈值的点,从每个种子点si=[xi,yi,1]T的9×9邻域中,形成矩阵Xi:
其中[mk,nk,1]T是相邻像素(k=1…81)的坐标,并且wk是来自E的它们的梯度大小,即对于9×9邻域,Xi的大小为81×2,然后,从等式(10)可以计算出奇异向量和Xi的值:
其中,
Wi=[a1,a2] (11)
边缘方向是由边缘的第一个奇异列向量di=a1定义,边缘质量由奇异值衡量,每个边缘则可表示为一个三元组εi=(si,di,qi),从输入视频中收集边缘,只保留与已估计的u不一致的项,并累积到菱形空间累加器,将累加器中全局最大值的位置作为第二个消失点v。
进一步地,所述的车辆检测和跟踪,在速度测量过程中,通过Faster-RCNN(FRCN)检测器在每一帧中检测驶过车辆,对包含大约20k个汽车实例的V20K数据集进行检测,均采用监控视角,检测器的检测率为96%,检测器产生图像中汽车位置的粗略信息(边界框没有精确对准的),只跟踪完全可见的车辆,因为被稍微遮挡或过于远离相机,都有可能导致不精确的跟踪甚至错误的速度估计;对于跟踪,使用一个简单的背景模型,通过移动平均值构建背景参考图像,并使用FRCN检测来对前景图像中检测到的团块分组,从每组团块中提取凸包及其2D边界框,最后使用卡尔曼滤波器跟踪凸包的2D边界框以获得车辆的运动,对于每个跟踪车辆,提取参考点用于速度测量,凸包用于构造3D边界框,并将车头前边的中心作为地面/道路平面的参考点,每个轨迹均由边界框和参考点的序列表示,而此边界框和参考点均是由凸包构成。
其中,所述的比例推算,使用细粒度的车辆和少数常见类型,获得图像上车辆的3D模型,并将其与实际观察到的车辆对准以获得适当的比例,采用的比例推算方法需要精确了解车辆类别(精确到生产年份),使用包含这类图像的数据集及其他相关的训练数据,仅对该地区道路上最常见的几种细粒度车辆类型进行分类,再加一个分类用于表示所有其他车辆,使用CNN对数据集进行分类,计算一个车辆轨迹上所有检测的平均概率。
进一步地,所述的概率计算,对于每个车辆,在其周围建立一个3D边界框,以获得图像坐标中车辆基座的中心b,计算旋转矩阵R,矩阵的列数和归一化的和一致,然后可以计算3D视点向量其中负号表示视点矢量是从车辆到相机,当车辆的视点矢量,车辆的类别及其在屏幕上的位置被确定时,即可获得车辆类的3D模型,其中唯一的未知数是车辆的比例(车辆和相机之间的距离)。
进一步地,所述的比例,利用多个不同的比例渲染车辆图像,并通过使用交叉连接(IoU)度量将渲染所得边界框与视频中检测到的边界框进行匹配,将所有车辆实例i和比例j,投影在道路平面上得到Fij和Rij,并将它们用于计算车辆实例的比例λij:
其中是真实世界类型ti的长度,计算IoU匹配度量mij。
进一步地,所述的匹配度量,用于消除不良匹配,利用大于预定阈值的度量mij,将所有比例λij都被考虑在内,从而获得相机的最终比例λ*,
λ*=argmaxλp(λ|(λij,mij)) (14)
最后,根据具有离散空间的核密度估计概率p(λ|(λij,mij))计算λ*。
其中,所述的速度测量,给定一辆带有参考点pi和时间戳ti的跟踪车辆,对于每个参考点i=1…N,利用等式(15)通过将参考点pi投影到地平面Pi(见等式(8))计算出速度v,
计算连续时间之间速度的中值作为速度,为了测量的稳定性,按多个视频帧为一组将时间隔开较大距离,即τ>1,实验中使用τ=5(时间差通常为0.2秒)。
图2是本发明一种基于计算机视觉自动校准交通监控相机的方法的边界框对齐示例图。图中是检测到的车辆和3D模型边界框与车辆检测边界框对齐的示例。顶部:检测到的车辆和相应的3D模型(仅限边缘),底部:具有所显示3D模型边缘(白色实线)的边界框对齐的示例,其边界框由白色虚线描述,而黑色实线边界框是车辆检测的结果。
图3是本发明一种基于计算机视觉自动校准交通监控相机的方法的相机模型和坐标系。由小写字母表示的点p对应在真实空间中路面ρ上以大写字母P表示的点。这种表示方法对于有限点和理想点都保持不变。假设图像坐标系的原点在图像的中心,因此,主点c具有2D齐次坐标[0,0,1]T(相机投影中心的3D坐标为[0,0,0]T)。如图所示,道路平面用ρ表示。我们也用以下方式对消失点进行编码。第一个(在车辆流动的方向)被称为u,第二个消失点(其方向垂直于第一个消失点并且位于道路平面上)由v表示,第三个(垂直于道路平面的方向)是w。
图4是本发明一种基于计算机视觉自动校准交通监控相机的方法的边缘检测图示。为了检测第二个消失点v,在其中许多点与v一致的情况下使用驶过车辆的边缘,检测过程如图所示。从左到右-种子点si作为图像梯度的局部最大值(前景蒙版用于过滤感兴趣区域),图像块围绕种子点聚集,计算边缘方向,边缘的细节及其方向叠加在梯度图像上,在图像中检测到前25%的边缘。
图5是本发明一种基于计算机视觉自动校准交通监控相机的方法的边缘图示。从视频收集的边缘图示,(白色细线)边缘接近第一个消失点,(黑色和白色粗线)边缘累积到菱形空间,(白色粗线)边缘支持检测到的第二个消失点,右下角即为相应的菱形空间。
图6是本发明一种基于计算机视觉自动校准交通监控相机的方法的车辆检测和跟踪图示。图中从左到右:由FRCN(灰色)检测到的车辆,其前景掩模和凸包(白色),围绕凸包和底部前缘的跟踪点构造的3D边界框,通过卡尔曼滤波器跟踪车辆边界框(从凸包)。对于跟踪,使用一个简单的背景模型,通过移动平均值构建背景参考图像,并使用FRCN检测来对前景图像中检测到的团块分组,从每组团块中提取凸包及其2D边界框,最后使用卡尔曼滤波器跟踪凸包的2D边界框以获得车辆的运动,对于每个跟踪车辆,提取参考点用于速度测量,凸包用于构造3D边界框,并将车头前边的中心作为地面/道路平面的参考点,每个轨迹均由边界框和参考点的序列表示,而此边界框和参考点均是由凸包构成。
图7是本发明一种基于计算机视觉自动校准交通监控相机的方法的IoU度量示例。不同比例(从左至右)的IoU(白色框)度量,车辆类型和视点(从上到下)。左侧两幅图所示为较大渲染的车辆,中间所示为最佳匹配效果,右侧两幅图像显示较小渲染的车辆。以白色矩形边缘的形式表示渲染模型的边框,黑色矩形表示检测到的车辆边界框。
图8是本发明一种基于计算机视觉自动校准交通监控相机的方法的手动测量图示。手动测量的每个标记之间的距离。黑色虚线代表车道分界线,垂直于车辆方向的线用灰色虚线表示。最后,通过灰色实线(白色实线)显示指向第一(第二)消失点的两点之间的测量距离。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于计算机视觉自动校准交通监控相机的方法,其特征在于,主要包括交通监控相机模型(一);相机校准和车辆跟踪(二);比例推算(三);速度测量(四)。
2.基于权利要求书1所述的交通监控相机模型(一),其特征在于,目标是测量道路平面上任意两点之间的距离,因此构建相机模型,假设图像中心具有零像素偏移和主点c,齐次2D图像坐标用p=[px,py]T表示,3D模型中由表示,其中f是焦距,其他3D点(道路平面上)用P=[Px,Py,Pz]T表示,假设图像坐标系的原点在图像中心,则主点c具有2D齐次坐标[0,0,1]T(相机投影中心的3D坐标为[0,0,0]T),道路平面用ρ表示,用以下方式对消失点进行编码,第一个(在车辆流动的方向)被称为u,第二个消失点(垂直于第一个消失点并且位于道路平面上)由v表示,第三个(垂直于道路平面的方向)是w,使用前两个消失点u,v和主点c,可以计算焦距f,第三个消失点w,道路平面归一化向量n,以及主要路面ρ,然而道路平面只能按比例计算(因无法仅根据消失点找回到路面的距离),因此添加任意值δ=1作为等式(6)的常数项,
<mrow>
<mi>f</mi>
<mo>=</mo>
<msqrt>
<mrow>
<mo>-</mo>
<msup>
<mi>u</mi>
<mi>T</mi>
</msup>
<mo>&CenterDot;</mo>
<mi>v</mi>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mover>
<mi>u</mi>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msub>
<mi>u</mi>
<mi>x</mi>
</msub>
<mo>,</mo>
<msub>
<mi>u</mi>
<mi>y</mi>
</msub>
<mo>,</mo>
<mi>f</mi>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mover>
<mi>v</mi>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msub>
<mi>v</mi>
<mi>x</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>y</mi>
</msub>
<mo>,</mo>
<mi>f</mi>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mover>
<mi>w</mi>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<mover>
<mi>u</mi>
<mo>&OverBar;</mo>
</mover>
<mo>&times;</mo>
<mover>
<mi>v</mi>
<mo>&OverBar;</mo>
</mover>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mfrac>
<mover>
<mi>w</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mover>
<mi>w</mi>
<mo>&OverBar;</mo>
</mover>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
ρ=[nT,δ]T (6)
已知道路平面ρ,在路面上对p=[px,py]T进行投影,可计算其3D坐标P=[Px,Py,Pz]T:
<mrow>
<mover>
<mi>p</mi>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msub>
<mi>p</mi>
<mi>x</mi>
</msub>
<mo>,</mo>
<msub>
<mi>p</mi>
<mi>y</mi>
</msub>
<mo>,</mo>
<mi>f</mi>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>P</mi>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mi>&delta;</mi>
<mrow>
<mo>&lsqb;</mo>
<msup>
<mover>
<mi>p</mi>
<mo>&OverBar;</mo>
</mover>
<mi>T</mi>
</msup>
<mo>,</mo>
<mn>0</mn>
<mo>&rsqb;</mo>
<mo>&CenterDot;</mo>
<mi>&rho;</mi>
</mrow>
</mfrac>
<mover>
<mi>p</mi>
<mo>&OverBar;</mo>
</mover>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
可直接用3D坐标P测量道路平面上的距离,点P1和P2之间的距离‖P1-P2‖,并非直接以米(或其他距离单位)表示,因此需要引入另一个校准参数——场景比例λ,将距离‖P1-P2‖从路面上的伪单位通过缩放到λ‖P1-P2‖转换成以米为单位,在图像中心的主点和零像素偏移的假设下,校准方法必须与场景比例λ一起计算两个消失点(u和v)。
3.基于权利要求书1所述的相机校准和车辆跟踪(二),其特征在于,提供消失点的图像坐标和场景比例信息,通过精确检测消失点,并使用汽车3D模型来推断场景比例,测量经由Faster-RCNN检测到的驶过车辆的速度,并结合背景删除法和卡尔曼滤波进行跟踪。
4.基于权利要求书3所述的消失点检测,其特征在于,通过使用边缘替代图像梯度来改进对第二个消失点的检测,首先估计相机相对于道路旋转所产生的消失点的检测,第一个消失点u是根据车辆的运动通过一个级联的霍夫变换估计而得,而其中车辆运动通过跟踪移动车辆上的感兴趣点形成的线来表征;为了检测第二个消失点v,在其中许多点与v一致的情况下使用驶过车辆的边缘,给定图像I,首先找到种子点si作为图像的梯度幅度的局部最大值,仅保留高于阈值的点,从每个种子点si=[xi,yi,1]T的9×9邻域中,形成矩阵Xi:
<mrow>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>m</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>n</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>m</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>n</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mo>.</mo>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>m</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>n</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
其中[mk,nk,1]T是相邻像素(k=1…81)的坐标,并且wk是来自E的它们的梯度大小,即对于9×9邻域,Xi的大小为81×2,然后,从等式(10)可以计算出奇异向量和Xi的值:
<mrow>
<msub>
<mi>W</mi>
<mi>i</mi>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mi>i</mi>
<mn>2</mn>
</munderover>
<msubsup>
<mi>W</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>=</mo>
<mi>S</mi>
<mi>V</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>X</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,
Wi=[a1,a2] (11)
<mrow>
<msub>
<mi>&Sigma;</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<msub>
<mi>&lambda;</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
</mrow>
边缘方向是由边缘的第一个奇异列向量di=a1定义,边缘质量由奇异值衡量,每个边缘则可表示为一个三元组εi=(si,di,qi),从输入视频中收集边缘,只保留与已估计的u不一致的项,并累积到菱形空间累加器,将累加器中全局最大值的位置作为第二个消失点v。
5.基于权利要求书3所述的车辆检测和跟踪,其特征在于,在速度测量过程中,通过Faster-RCNN(FRCN)检测器在每一帧中检测驶过车辆,对包含大约20k个汽车实例的V20K数据集进行检测,均采用监控视角,检测器的检测率为96%,检测器产生图像中汽车位置的粗略信息(边界框没有精确对准的),只跟踪完全可见的车辆,因为被稍微遮挡或过于远离相机,都有可能导致不精确的跟踪甚至错误的速度估计;对于跟踪,使用一个简单的背景模型,通过移动平均值构建背景参考图像,并使用FRCN检测来对前景图像中检测到的团块分组,从每组团块中提取凸包及其2D边界框,最后使用卡尔曼滤波器跟踪凸包的2D边界框以获得车辆的运动,对于每个跟踪车辆,提取参考点用于速度测量,凸包用于构造3D边界框,并将车头前边的中心作为地面/道路平面的参考点,每个轨迹均由边界框和参考点的序列表示,而此边界框和参考点均是由凸包构成。
6.基于权利要求书1所述的比例推算(三),其特征在于,使用细粒度的车辆和少数常见类型,获得图像上车辆的3D模型,并将其与实际观察到的车辆对准以获得适当的比例,采用的比例推算方法需要精确了解车辆类别(精确到生产年份),使用包含这类图像的数据集及其他相关的训练数据,仅对该地区道路上最常见的几种细粒度车辆类型进行分类,再加一个分类用于表示所有其他车辆,使用CNN对数据集进行分类,计算一个车辆轨迹上所有检测的平均概率。
7.基于权利要求书6所述的概率计算,其特征在于,对于每个车辆,在其周围建立一个3D边界框,以获得图像坐标中车辆基座的中心b,计算旋转矩阵R,矩阵的列数和归一化的和一致,然后可以计算3D视点向量其中负号表示视点矢量是从车辆到相机,当车辆的视点矢量,车辆的类别及其在屏幕上的位置被确定时,即可获得车辆类的3D模型,其中唯一的未知数是车辆的比例(车辆和相机之间的距离)。
8.基于权利要求书7所述的比例,其特征在于,利用多个不同的比例渲染车辆图像,并通过使用交叉连接(IoU)度量将渲染所得边界框与视频中检测到的边界框进行匹配,将所有车辆实例i和比例j,投影在道路平面上得到Fij和Rij,并将它们用于计算车辆实例的比例λij:
<mrow>
<msub>
<mi>&lambda;</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>l</mi>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
</msub>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>F</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>R</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>13</mn>
<mo>)</mo>
</mrow>
</mrow>
其中是真实世界类型ti的长度,计算IoU匹配度量mij。
9.基于权利要求书8所述的匹配度量,其特征在于,用于消除不良匹配,利用大于预定阈值的度量mij,将所有比例λij都被考虑在内,从而获得相机的最终比例λ*,
λ*=argmaxλp(λ|(λij,mij)) (14)
最后,根据具有离散空间的核密度估计概率p(λ|(λij,mij))计算λ*。
10.基于权利要求书1所述的速度测量(四),其特征在于,给定一辆带有参考点pi和时间戳ti的跟踪车辆,对于每个参考点i=1…N,利用等式(15)通过将参考点pi投影到地平面Pi(见等式(8))计算出速度v,
<mrow>
<mi>v</mi>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>...</mo>
<mi>N</mi>
<mo>-</mo>
<mi>&tau;</mi>
</mrow>
</munder>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&lambda;</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
<mo>*</mo>
</msubsup>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mi>&tau;</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>P</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mrow>
<msub>
<mi>t</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mi>&tau;</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
</mrow>
计算连续时间之间速度的中值作为速度,为了测量的稳定性,按多个视频帧为一组将时间隔开较大距离,即τ>1,实验中使用τ=5(时间差通常为0.2秒)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710297055.7A CN107067755A (zh) | 2017-04-28 | 2017-04-28 | 一种基于计算机视觉自动校准交通监控相机的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710297055.7A CN107067755A (zh) | 2017-04-28 | 2017-04-28 | 一种基于计算机视觉自动校准交通监控相机的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107067755A true CN107067755A (zh) | 2017-08-18 |
Family
ID=59605323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710297055.7A Withdrawn CN107067755A (zh) | 2017-04-28 | 2017-04-28 | 一种基于计算机视觉自动校准交通监控相机的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107067755A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010060A (zh) * | 2017-12-06 | 2018-05-08 | 北京小米移动软件有限公司 | 目标检测方法及装置 |
CN109446917A (zh) * | 2018-09-30 | 2019-03-08 | 长安大学 | 一种基于级联霍夫变换的消失点检测方法 |
CN109615862A (zh) * | 2018-12-29 | 2019-04-12 | 南京市城市与交通规划设计研究院股份有限公司 | 道路车辆交通运动状态参数动态获取方法及装置 |
CN109785463A (zh) * | 2019-01-25 | 2019-05-21 | 芜湖智久机器人有限公司 | 一种基于车速的小车故障检测系统及方法 |
CN110176038A (zh) * | 2018-02-21 | 2019-08-27 | 法可赛阿达斯独资有限公司 | 校准车辆的摄像头的方法和系统 |
CN110349415A (zh) * | 2019-06-26 | 2019-10-18 | 江西理工大学 | 一种基于多尺度变换的行车速度测量方法 |
JP2020013573A (ja) * | 2018-07-19 | 2020-01-23 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 車両の三次元画像再構成方法 |
CN112115739A (zh) * | 2019-06-19 | 2020-12-22 | 北京地平线机器人技术研发有限公司 | 一种车辆状态量信息获取方法及装置 |
US11501538B2 (en) * | 2020-08-24 | 2022-11-15 | Verizon Connect Development Limited | Systems and methods for detecting vehicle tailgating |
-
2017
- 2017-04-28 CN CN201710297055.7A patent/CN107067755A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
JAKUB SOCHOR等: "Traffic Surveillance Camera Calibration by 3D Model Bounding Box Alignment for Accurate Vehicle Speed Measurement", 《HTTPS://ARXIV.ORG/ABS/1702.06451V1》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108010060A (zh) * | 2017-12-06 | 2018-05-08 | 北京小米移动软件有限公司 | 目标检测方法及装置 |
CN108010060B (zh) * | 2017-12-06 | 2021-07-27 | 北京小米移动软件有限公司 | 目标检测方法及装置 |
CN110176038B (zh) * | 2018-02-21 | 2021-12-10 | 法可赛阿达斯独资有限公司 | 校准车辆的摄像头的方法、系统和存储介质 |
CN110176038A (zh) * | 2018-02-21 | 2019-08-27 | 法可赛阿达斯独资有限公司 | 校准车辆的摄像头的方法和系统 |
JP7481810B2 (ja) | 2018-07-19 | 2024-05-13 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | 車両の三次元画像再構成方法 |
JP2020013573A (ja) * | 2018-07-19 | 2020-01-23 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 車両の三次元画像再構成方法 |
CN109446917A (zh) * | 2018-09-30 | 2019-03-08 | 长安大学 | 一种基于级联霍夫变换的消失点检测方法 |
CN109446917B (zh) * | 2018-09-30 | 2022-08-30 | 长安大学 | 一种基于级联霍夫变换的消失点检测方法 |
CN109615862A (zh) * | 2018-12-29 | 2019-04-12 | 南京市城市与交通规划设计研究院股份有限公司 | 道路车辆交通运动状态参数动态获取方法及装置 |
CN109785463A (zh) * | 2019-01-25 | 2019-05-21 | 芜湖智久机器人有限公司 | 一种基于车速的小车故障检测系统及方法 |
CN112115739A (zh) * | 2019-06-19 | 2020-12-22 | 北京地平线机器人技术研发有限公司 | 一种车辆状态量信息获取方法及装置 |
CN110349415B (zh) * | 2019-06-26 | 2021-08-20 | 江西理工大学 | 一种基于多尺度变换的行车速度测量方法 |
CN110349415A (zh) * | 2019-06-26 | 2019-10-18 | 江西理工大学 | 一种基于多尺度变换的行车速度测量方法 |
US11501538B2 (en) * | 2020-08-24 | 2022-11-15 | Verizon Connect Development Limited | Systems and methods for detecting vehicle tailgating |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107067755A (zh) | 一种基于计算机视觉自动校准交通监控相机的方法 | |
CN110322702B (zh) | 一种基于双目立体视觉系统的车辆智能测速方法 | |
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
Dubská et al. | Automatic camera calibration for traffic understanding. | |
Geiger et al. | Are we ready for autonomous driving? the kitti vision benchmark suite | |
Grammatikopoulos et al. | Automatic estimation of vehicle speed from uncalibrated video sequences | |
CN105300403B (zh) | 一种基于双目视觉的车辆里程计算法 | |
CN110379168B (zh) | 一种基于Mask R-CNN的交通车辆信息获取方法 | |
Kumar et al. | A semi-automatic 2D solution for vehicle speed estimation from monocular videos | |
CN101408978B (zh) | 一种基于单目视觉的障碍物检测方法及装置 | |
CN105976402A (zh) | 一种单目视觉里程计的真实尺度获取方法 | |
US10832428B2 (en) | Method and apparatus for estimating a range of a moving object | |
CN111915883A (zh) | 一种基于车载摄像的道路交通状况检测方法 | |
CN110415299B (zh) | 一种运动约束下基于设定路牌的车辆位置估计方法 | |
CN112798811A (zh) | 速度测量方法、装置和设备 | |
CN108416798A (zh) | 一种基于光流的车辆距离估计方法 | |
CN108645375A (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
Geiger et al. | Object flow: A descriptor for classifying traffic motion | |
Kanhere et al. | Vehicle segmentation and tracking in the presence of occlusions | |
Patel et al. | Comparison of optical flow algorithms for speed determination of moving objects | |
Philipsen et al. | Day and night-time drive analysis using stereo vision for naturalistic driving studies | |
CN104718560A (zh) | 用于估计单体的大小的图像监测装置及其方法 | |
Kim et al. | Evaluation of feature-based vehicle trajectory extraction algorithms | |
Salahat et al. | Speed estimation from smart phone in-motion camera for the next generation of self-driven intelligent vehicles | |
Xiong et al. | Crowd density estimation based on image potential energy model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170818 |