CN108121941A - 一种基于监控设备的目标物速度计算方法 - Google Patents
一种基于监控设备的目标物速度计算方法 Download PDFInfo
- Publication number
- CN108121941A CN108121941A CN201611078538.XA CN201611078538A CN108121941A CN 108121941 A CN108121941 A CN 108121941A CN 201611078538 A CN201611078538 A CN 201611078538A CN 108121941 A CN108121941 A CN 108121941A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mtd
- msubsup
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及一种基于监控设备的目标物速度计算方法,用于根据安装于行驶车辆上的监控设备所拍摄的视频图像计算目标物的速度,包括:判断原有视频图像在图像物理坐标系下的坐标是否已知,若是则通过坐标变换去除视频图像的畸变,若否则通过图像矫正工具去除视频图像的畸变,得到矫正后的视频图像;建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数;根据归一化和非线性优化后的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置;根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度。与现有技术相比,本发明具有去除图像畸变、结果误差小以及操作性强等优点。
Description
技术领域
本发明涉及智能交通技术领域,尤其是涉及一种基于监控设备的目标物速度计算方法。
背景技术
目前,随着监控设备(如行车记录仪、监控摄像头等)在车辆和道路交通中的广泛使用,我们可以便捷的从记录的视频图像中了解到车辆的行驶画面甚至道路交通事故的发生过程,如行车记录仪可以记录车辆在行驶过程中实时速度、加速等信息,但是我们却无法从记录的画面中直接了解到前方目标物(如车辆、行人等)与本车的相对位置及速度信息;而行车记录仪通常采用的是单目、大广角视觉传感器,在他的成像系统中存在着非线性关系——畸变,由于畸变的存在,更对我们对前方目标物的位置、速度信息的判定加大难度。如果能去除图像畸变甚至求出前方目标物与本车的实时相对位置、速度等参数信息,这不仅能对交警在交通事故中的责任认定提供参考和帮助,还能为交通事故工况信息的研究提供帮助和依据。
目前对于利用视频计算车速的研究方法存在一些不足之处,在于:第一,现有的专利或者专业论文等所涉及的研究领域,大多数只针对没有图像畸变的如监控摄像头中参与方速度的求解;第二,限定于需要知道目标物的几何参数信息,如轴距、车长等;第三,结果误差较大,当目标物与视频画面存在较大角度时,求得的速度会误差很大。
发明内容
本发明的目的是针对上述问题提供一种基于监控设备的目标物速度计算方法。
本发明的目的可以通过以下技术方案来实现:
一种基于监控设备的目标物速度计算方法,用于根据安装于行驶车辆上的监控设备所拍摄的视频图像计算目标物的速度,所述方法包括下列步骤:
1)判断原有视频图像在图像物理坐标系下的坐标是否已知,若是则通过坐标变换去除视频图像的畸变,若否则通过图像矫正工具去除视频图像的畸变,得到矫正后的视频图像;
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数;
3)根据步骤2)得到的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置;
4)根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度。
所述矫正后的视频图像与原有视频图像在图像物理坐标系下的坐标关系具体为:
其中,(Xd,Yd)是矫正后的视频图像在图像物理坐标系下的坐标,(X,Y)是原有视频图像在图像物理坐标系下的坐标,δX(X,Y)和δY(X,Y)分别是横坐标和纵坐标的畸变值。
所述δX(X,Y)和δY(X,Y)具体为:
其中,k1、k2和k3均为径向畸变系数,P1和P2均为离心畸变系数,S1和S2均为薄棱镜畸变系数。
所述建立相对二维坐标系具体为:以视频图像中的一个地面特征点为原点,行驶车辆的行驶方向为纵轴,行驶车辆的行驶方向的垂直方向为横轴建立直角坐标系,所述相对二维坐标系与行驶车辆相对静止。
所述步骤2)具体为:
21)对相对二维坐标系进行归一化,得到归一化后的坐标(X'w,Yw'),所述(X'w,Yw')满足关系:
其中,s为Xw和Yw的缩放因子,和分别为Xw和Yw的均值;
22)用与步骤21)相同的方法对图像像素坐标系进行归一化,得到归一化后的坐标(U',V');
23)根据下述变换关系计算归一化后的变换参数m″11、m″12、m″14、m″21、m″22、m″24、m″31和m″32,所述变换关系为:
24)对步骤23)得到的变换参数进行非线性优化。
所述非线性优化包括基于Levenberg-Marquardt非线性方法对变换参数进行优化。
所述目标物与行驶车辆的相对位置(Dx,Dy)满足:
其中,(Xwt,Ywt)为目标物接地点在相对二维坐标系下的坐标,(XC,YC)为行驶车辆上的监控设备在地面上的投影点在相对二维坐标系下的坐标,Δy为调整距离。
所述调整距离包括行驶车辆上的监控设备与行驶车辆前保险杠之间的距离和目标物接地点与目标物后保险杠之间的距离。
所述目标物的行驶速度Vall具体为:
其中,(Xwt1,Ywt1)和(Xwt2,Ywt2)分别为目标物在t1和t2时刻在二维坐标系下的坐标,Δt为t1和t2两个时刻的差值,Vr为t1和t2中间时刻的行驶车辆的速度,Vx为目标物在行驶车辆横向方向上的速度,Vy为目标物在行驶车辆纵向方向上的速度,a为目标物的减速度。
与现有技术相比,本发明具有以下有益效果:
(1)去除了视频图像的畸变,与无畸变去除的方法相比,减轻了对前方目标物的位置、速度信息的判定难度,提高了对目标物速度的计算准确性。
(2)在无法得到拍摄视频图像的监控设备的参数时,无法通过坐标变换对图像进行畸变的去除,此时通过图像矫正工具对视频图像进行矫正,解决了无法获取原有视频图像在图像物理坐标系下的坐标的问题。
(3)构建相对二维坐标系,将目标物与行驶车辆之间的相对位置转换为相对二维坐标系下点与点之间的二维关系,与传统的速度计算方法相比,无需知道目标物的轴距、车长等几何参数信息,实用性能更强。
(4)由于对于速度的求取是基于点与点之间的二维关系来计算的,同时矫正了视频图像的畸变,因此在目标物与视频画面存在较大角度时,对于速度的求取影响较小,使得求得的速度误差较小,提高了计算的准确度。
(5)在变换参数的求取过程中进行了归一化,减轻了由于参数的数量级相差较大而导致的计算复杂程度。
(6)在变换参数的求取过程中,对于求得的变换参数进行了非线性优化,进一步提高了变换参数的精度,从而提升了对于车辆速度计算的精度。
(7)在计算目标物与行驶车辆的相对位置时,考虑了监控设备与行驶车辆前保险杠之间的距离和目标物接地点与目标物后保险杠之间的距离,提升了车辆之间相对位置的准确度,从而提升了对于车辆速度计算的精度。
附图说明
图1为本发明的方法流程图;
图2为标定的示意图,其中(2a)为标定网格示意图,(2b)为导入标定模块的示意图;
图3为径向畸变示意图;
图4为去除畸变的示意图,其中(4a)为去除前的图像,(4b)为去除后的图像;
图5为图像像素坐标系的示意图;
图6为某次计算时非线性优化前后的8个参数的值;
图7为行驶车辆与目标物相对位置的计算界面;
图8为某次冲突事件的行驶车辆速度曲线;
图9为对图片进行去除畸变的前后对比图,其中(9a)为未去除畸变的图像,(9b)为去除畸变后的图像;
图10为相对二维坐标系下单目视觉传感器成像的几何模型;
图11为归一化后相对二维坐标系下单目视觉传感器成像的几何模型;
图12为基于车道消失点车道测量示意图;
图13为补充数据的标定界面。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
如图1所示,本实施例的目的是提供一种基于监控设备的目标物速度计算方法,包括以下步骤:
1)在已知原有视频图像在图像物理坐标系下的坐标的情况下,去除视频图像的畸变,得到矫正后的视频图像;
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数;
3)根据步骤2)得到的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置;
4)根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度。
下面对于上述的每一个步骤进行具体解释:
1)去除视频图像的畸变,得到矫正后的视频图像:
本实施例中安装于行驶车辆上的监控设备为单目视觉传感器,由于每个单目视觉传感器的制造和组装都存在误差,所以每个单目视觉传感器的非线性参数都不相同,所以需要对所有单目视觉传感器进行非线性参数标定。本实施例中采用Matlab软件中Calibration-Toolbox模块对单目视觉传感器非线性参数进行标定。具体步骤如下:
11)将标定网格打印出来,并紧贴某一个平面,本实施例中所画的每个网格为边长25mm的黑色正方形小方格,如图(2a)所示;
12)令行车记录仪的单目视觉传感器对该平面多次记录可视化数据,不断变换单目视觉传感器的拍摄角度,从而得到该平面不同角度的图像,另外需要注意的是在拍摄过程中,应当使整个网格在图像的中心位置附近,选取清晰的图像导入到该标定模块当中如图(2b)所示;
13)选取各个图像中的黑色小网格的四个角点;
14)用该标定模块自带的计算模块求出初步的结果,并对结果进行多次迭代、调整得到最终结果,其具体的计算方法为:
为了得到较为准确的成像模型,还应当建立矫正后的视频图像与原有视频图像在图像物理坐标系下的坐标关系:
其中,(Xd,Yd)是根据上述线性模型得到的理想的图像物理坐标,(X,Y)表示的是真实的图像物理坐标,δX(X,Y)和δY(X,Y)表示的是畸变值。非线性畸变值主要由三部分构成:径向畸变、离心畸变、薄棱镜畸变;
如图3所示,径向畸变主要是指图像点沿着图像径向外伸(虚线b)或内收(虚线a),其计算公式如下:
由于单目视觉传感器的成像系统的光学中心相对于理想的成像系统有一定离心,就造成了离心畸变,其计算公式如下:
在单目视觉传感器的生产过程中会产生装配缺陷,这种缺陷将导致薄棱镜畸变,其计算公式如下:
完整的畸变校正模型可用以下式表达,一般情况下,径向畸变和离心畸变已经足够描述单目视觉传感器的畸变,因此,本实施例中只考虑下式的前面两项,因为这些畸变参数与单目视觉传感器在环境中的位置无关,所以也归为内部参数:
利用Matlab的标定工具箱求出该行车记录仪单目视觉传感器的非线性参数,然后利用该工具箱对线性参数标定场景图像(图4a所示场景)去除畸变。图4为去除畸变前后的图像。可以看出,去除畸变后,图像的边缘处已经没有较大的变形。
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数:
进行步骤2)的主要目的是求出图像中地面上的点的像素坐标与世界坐标之间的对应关系。所以,世界坐标系可以从三维简化成二维,即Zw=0。在对行驶车辆前方道路的二维场景进行重建时,以参考场景中的一个地面特征点为坐标原点OC,车辆行驶方向的反方向为Yw轴,车辆行驶方向的垂直方向为Xw轴,在地面上建立二维坐标系,如图(4b)所示。当试验车辆移动时,该二维坐标系也移动,其相对于试验车辆静止,称为相对二维坐标系。利用三维激光坐标扫描仪求得单目视觉传感器在地面上的投影点在该相对二维坐标系中的坐标。当行驶车辆前方道路上的某一点在相对二维坐标系中的坐标已知,也就可以求得其与单目视觉传感器在地面上的投影点的几何关系。
若要求得相对二维坐标系与图像像素坐标系之间的变换参数,首先要求得世界坐标系与图像物理坐标系之间的变换关系,具体为:
其中f为单目视觉传感器焦距,(x,y)为空间某一点在图像上的矫正坐标,(X,Y,Z)为空间某一点在世界坐标系下的坐标;
求得世界坐标系与图像物理坐标系之间的变换关系后,进一步求取图像物理坐标系与图像像素坐标系之间的变换关系,如图5所示,具体为:
其中,dx和dy的含义为单位像素的物理尺寸,点(U0,V0)为图像物理坐标系的原点Of在像素坐标系中对应的坐标。令将上式改写成齐次坐标形式为:
对上述三个方程联立,可得下式,其中矩阵A称作内参矩阵,即单目视觉传感器的内部参数,矩阵[R T]称作外参矩阵,即外部参数:
将上式改写可得:
通过化简可得:
由于Zw为0,因此对上式进一步化简得到:
求相对二维坐标系与图像像素坐标系之间的关系的过程也就是求m′11、m′12、m′14、m′21、m'22、m'24、m'31和m'32这8个未知数的过程。利用三维激光扫描仪测得标定场景中的其他特征点在相对二维坐标系中的坐标(Xwi,Ywi)。另外,这些特征点在视频图像中的像素坐标(去除畸变后)(Ui,Vi)也可以直接获得。从上式中可以看出:一个地面特征点产生2个方程,那么只需要4个地面特征点的相对二维坐标和像素坐标,即可求出上述8个未知数。为了减小计算以及测量误差,选取了39个点,可得到如下超静定方程:
由于上述方程组中已知参数的数量级相差较大,所以需要分别对特征点的相对二维坐标和图像像素坐标进行归一化处理。采用等放性处理,即将两坐标轴上的数据按照相同比例缩放,使各坐标对原点的距离平均值为对相对二维坐标的具体处理过程如下:
首先进行图像质心的计算,即求各个特征点的坐标在Xw、Yw两轴上的平均值:
继而计算各个点与图像质心之间的相对量(将质心取代原点):
接着求变换后各坐标到新的原点距离的平均值:
根据计算得到的新的原点距离平均值对Xw和Yw的缩放因子计算:
则变换后的坐标为:
同理,也可求得归一化后的图像像素坐标(U',V')。坐标归一化处理后,则可根据下式求解8个未知数:
根据上述求得的参数,可以得到相对二维坐标系与图像像素坐标系之间的对应关系。但因上述参数是一个粗糙的解,还需求得一个较为精确的解。所以将上述求得的参数设为初值,再利用Matlab自带的非线性优化工具包函数lsqnonlin基于Levenberg-Marquardt非线性方法对求出的解优化,其目标函数为:
其中,Mi和分别为实际归一化处理后的图像坐标和由初值计算出来的归一化的图像像素坐标。图6为某次计算时非线性优化前后的8个参数的值,可以看出非线性优化前后有很大的差异。
通过非线性优化,最终得到如下8个参数:m″′11、m″′12、m″′14、m″′21、m″′22、m″′24、m″′31和m″′32。设地面上某一点的图像像素坐标为(Ut,Vt),对其进行归一化后变为(Ut',Vt')。则可求得归一化处理后的该特征点的相对二维坐标(X'wt,Y′wt),对其进行反归一化处理,可得该点的相对二维坐标(Xwt,Ywt)。
设(XC,YC)为单目视觉传感器在地面上的投影点在该相对二维坐标系中的坐标,则该点相对于单目视觉传感器在地面上的投影点的坐标为(Xwt-XC,Ywt-YC)。
通过三维扫描仪测得试验车辆前方道路上的一些点相对于单目视觉传感器中心在地面上的投影点的相对二维坐标,再基于上述方法计算出这些点的坐标,对比结果如表1所示。可以看出,车辆前方道路上的点与单目视觉传感器的纵向距离在25m以内,该方法的误差小于5%。
表1对自然驾驶试验的车辆前方道路二维场景重建验证结果
3)根据步骤2)得到的归一化和非线性优化后的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置:
设某一时刻,目标物的接地点(如车辆的后轮接地点、行人的脚等)在建立的相对二维坐标系中的坐标为(Xwt,Ywt),则通过下式求得本车与目标物的相对位置。其中,Dx为在本车横向方向上目标物的接地点与单目视觉传感器的距离,Dy为在本车纵向方向上目标物与本车的距离(如果是另一参与方是车,则该距离为前车的后保险杠与本车的后保险杠之间的距离),(XC,YC)为单目视觉传感器在相对二维坐标系中的坐标,Δy为调整距离,为了调整行车记录仪的单目视觉传感器与本车前保险杠的距离、目标物接地点与其实际的靠后点(车辆的后轮接地点与后保险杠之间的距离)之间的差值:
图7为行驶车辆与目标物相对位置的计算界面,将去除畸变后的图像导入到编写的界面中,选取图片中两轮车后轮的接地点,从而计算出两轮车与本车的相对位置的变化情况。当两轮车在较远位置时,看不清其后轮的接地点时,如图所示利用放大图片功能选取其后轮接地点。
4)根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度:
虽然lukas行车记录仪通过OBD采集车速信号的频率为4HZ。但视频中的车速变化的频率为0.3s/次,为参数保持一致性,选用视频图像采集车速作为行驶车辆车速,也就是每隔9帧图片选取一次车速。图8为某次冲突事件的行驶车辆速度曲线。
根据目标物的接地点在相对二维坐标系中的坐标随着时间的变化关系,求出其相对于本车的速度,再叠加上本车的速度即为该参与方的速度。设该目标物不同时刻的接地点的坐标为(Xwt1,Ywt1)和(Xwt2,Ywt2),两个时刻相差Δt,在这两个时刻的中间时刻本车车速为Vr,则得到下述公式,Vx为目标物在本车横向方向上的车速,Vy为目标物在本车纵向方向上的车速,目标物的减速度通过对Vall求导即可得到:
应用上述参数除了可求得目标物的速度以外,还可以求得预计碰撞时间TTC,即两个参与方保持目前的状态行驶,还有多长时间发生碰撞,其计算公式如下:
其中,Dy为目标物与行驶车辆的相对位置的纵坐标,Δt为t1和t2时刻的差值,Ywt2和Ywt1分别为目标物在t1和t2时刻在二维坐标系下的纵坐标。
实施例2
如图1所示,本实施例的目的是提供一种基于监控设备的目标物速度计算方法,包括以下步骤:
1)在未知原有视频图像在图像物理坐标系下的坐标的情况下,去除视频图像的畸变,得到矫正后的视频图像;
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数;
3)根据步骤2)得到的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置;
4)根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度。
下面对于上述的每一个步骤进行具体解释:
1)去除视频图像的畸变,得到矫正后的视频图像:
本实施例中由于无法得到拍摄该视频的单目视觉传感器,所以无法通过事前内参标定得到非线性模型参数和车辆前方道路上的点与单目视觉传感器在地面上的投影点之间的几何关系,也就意味着无法利用传统的方法去重建二维场景。下面是本实施例的处理方法:
Photoshop中的“滤镜”中的镜头校正和自适应广角工具不但可以较为准确地去除畸变,而且可以对图像进行批量处理,所以选取Photoshop作为该类视频的去除畸变工具。图(9a)为未去除畸变的图像,图(9b)为去除畸变后的图片,可以看出图片边角处的畸变都已消除。
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数:
进行步骤2)的主要目的是求出图像中地面上的点的像素坐标与世界坐标之间的对应关系。所以,世界坐标系可以从三维简化成二维,即Zw=0。在对行驶车辆前方道路的二维场景进行重建时,以参考场景中的一个地面特征点为坐标原点OC,车辆行驶方向的反方向为Yw轴,车辆行驶方向的垂直方向为Xw轴,在地面上建立二维坐标系,如图(4b)所示。当试验车辆移动时,该二维坐标系也移动,其相对于试验车辆静止,称为相对二维坐标系。利用三维激光坐标扫描仪求得单目视觉传感器在地面上的投影点在该相对二维坐标系中的坐标。当行驶车辆前方道路上的某一点在相对二维坐标系中的坐标已知,也就可以求得其与单目视觉传感器在地面上的投影点的几何关系。
若要求得相对二维坐标系与图像像素坐标系之间的变换参数,首先要求得世界坐标系与图像物理坐标系之间的变换关系,具体为:
其中f为单目视觉传感器焦距,(x,y)为空间某一点在图像上的矫正坐标,(X,Y,Z)为空间某一点在世界坐标系下的坐标;
求得世界坐标系与图像物理坐标系之间的变换关系后,进一步求取图像物理坐标系与图像像素坐标系之间的变换关系,如图5所示,具体为:
其中,dx和dy的含义为单位像素的物理尺寸,点(U0,V0)为图像物理坐标系的原点Of在像素坐标系中对应的坐标。令将上式改写成齐次坐标形式为:
对上述三个方程联立,可得下式,其中矩阵A称作内参矩阵,即单目视觉传感器的内部参数,矩阵[R T]称作外参矩阵,即外部参数:
将上式改写可得:
通过化简可得:
由于Zw为0,因此对上式进一步化简得到:
求相对二维坐标系与图像像素坐标系之间的关系的过程也就是求m′11、m′12、m′14、m'21、m'22、m'24、m'31和m'32这8个未知数的过程。在对相对二维坐标系的参数进行标定时,是根据法规GB 5768.1-2009,可以得到标定场景中的各个特征点在相对二维坐标系中的坐标。例如法规规定:人行横道线的最小宽度为3m,并可根据行人数量以1m为一级加宽。人行横道线的线宽为40cm或45cm,线间隔一般为60cm。在图9中可以看出,尚酷比人行横道线略长,大致可以判断人行横道线的长度为4m。综上所述,对这类视频进行线性模型参数标定时,首先在视频中选取一个类似图9所示的有标准地面特征点的场景作为标定场景,再根据GB5768.1-2009得出地面上各个标准地面特征点之间的二维关系,建立相对二维坐标系并确立这些点的图像像素坐标。最后,经过化简、归一化处理、非线性优化处理后可以得到m″′11、m″′12、m″′14、m″′21、m″′22、m″′24、m″′31和m″′32这8个参数。但通过这8个参数只能求得车辆前方道路上各个点在相对二维坐标系中的坐标,而不能求得这些点与单目视觉传感器在地面上投影点之间的几何关系。
3)根据步骤2)得到的归一化和非线性优化后的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置:
如图10所示,平面ABN代表道路平面,ABCD为单目视觉传感器拍摄到的道路平面上的梯形区域,O为单目视觉传感器光心,OI垂直于路面于点I,单目视觉传感器光轴OG与路面相交于点G,点P为地面上的特征点,点Q障碍物的接地点。G、P、Q、A、B、C、D各点在图像平面内的对应点如图11所示,a、b、c、d为像平面矩形的4个端点。显然,在线NE上的所有的点对应的像素横坐标相等(去除畸变后)。坐标系OC-Xw-Yw为在前文建立的相对二维坐标系。
为了求单目视觉传感器光心的地面投影点I与车辆前方道路上的点Q在Yw轴方向上的距离Dy=Ywt-YC-Δy=|YwQ-YwI-Δy|以及在Xw方向上的距离Dx=Xwt-XC=|XwQ-XwI|。YwQ、XwQ可以通过前文算出,下面介绍YwI和XwI的计算方法。根据点G、P、I共线,可得以下公式:
其中,dGI和dGP分别为点G与点I、点P之间的距离。dGP可通过前文中的对应关系计算(XwG,YwG)和(XwP,YwP)之间的距离求得,下面介绍dGI的计算方法。
利用单目视觉传感器内部参数的标定结果和针孔模型下的成像几何关系,结合车道线消失点和近视场特征点的位置推导出新的车距测量公式,避免了对单目视觉传感器高度和俯仰角等外部参数的测量。如图12所示,点O、I、G、P、g、p与图10中的点意义相同。点V对应的是世界坐标系中无穷远的点(车道消失点),其在图像平面中对应的点是点v。
在图12中,Og=f,即单目视觉传感器的焦距,可以得到如下公式:
其中,Vg,Vp,Vv分别为点g、点p、点v的图像像素纵坐标,这些纵坐标都是在去除畸变后的图像上获得。另外,所以可得ay=ffv sinθ。一般来说,ay可以通过标定单目视觉传感器内参得到,但由于该类视频是网上下载视频,不能直接获得单目视觉传感器。利用迭代法,求出ay的最优解来替代标定的结果。
令ay等于从1到3000的所有整数值,代入上式中,计算∠VOG。Yni表示为在前文计算线性模型参数时,第i个地面参考点在OI方向与点G的距离。所以下式的含义是:当利用不同的ay值所求出来的地面参考点在OI方向与点G的距离与真实值的差的和。使该式最小的ay值为合理值,再利用非线性优化,得出最优值。
将最优ay值代入下式中,即可求出dGI。
图13为补充数据(即网上下载的视频资料数据)的标定界面,只要输入特征点的相对二维坐标,并在图像上选取相应的特征点、车道消失点,即可求出拍摄该图像的单目视觉传感器的线性模型参数。假设Lukas行车记录仪拍摄的图像是补充数据中的图像,分别利用三维扫描仪和上述方法分别测得一些地面特征点与行车记录仪单目视觉传感器光心在二维相对坐标系中的相对距离,其结果如下表所示。可以看出当纵向距离小于25m时,横向距离及纵向距离的误差都小于5%。
表2试验验证距离误差
在得到目标物与行驶车辆的相对位置后,即可用与实施例1相同的方法求解目标物的速度,然而由于本实施例中的视频资料是从网上下载下来的,无法得知行驶车辆的车速,因此可以利用视频中地面同一特征点在不同时刻的位置关系对行驶车辆的速度进行计算,继而得到目标物的速度和预计碰撞时间TTC。
Claims (9)
1.一种基于监控设备的目标物速度计算方法,用于根据安装于行驶车辆上的监控设备所拍摄的视频图像计算目标物的速度,其特征在于,所述方法包括下列步骤:
1)判断原有视频图像在图像物理坐标系下的坐标是否已知,若是则通过坐标变换去除视频图像的畸变,若否则通过图像矫正工具去除视频图像的畸变,得到矫正后的视频图像;
2)建立相对二维坐标系,计算得到相对二维坐标系与图像像素坐标系之间的变换参数;
3)根据步骤2)得到的变换参数计算目标物接地点在相对二维坐标系下的坐标,得到目标物与行驶车辆的相对位置;
4)根据目标物与行驶车辆的相对位置的变化情况,计算得到目标物的行驶速度。
2.根据权利要求1所述的基于监控设备的目标物速度计算方法,其特征在于,所述通过坐标变换去除视频图像的畸变具体为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>X</mi>
<mi>d</mi>
</msub>
<mo>=</mo>
<mi>X</mi>
<mo>+</mo>
<msub>
<mi>&delta;</mi>
<mi>X</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>Y</mi>
<mi>d</mi>
</msub>
<mo>=</mo>
<mi>Y</mi>
<mo>+</mo>
<msub>
<mi>&delta;</mi>
<mi>Y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,(Xd,Yd)是矫正后的视频图像在图像物理坐标系下的坐标,(X,Y)是原有视频图像在图像物理坐标系下的坐标,δX(X,Y)和δY(X,Y)分别是横坐标和纵坐标的畸变值。
3.根据权利要求2所述的基于监控设备的目标物速度计算方法,其特征在于,所述δX(X,Y)和δY(X,Y)具体为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&delta;</mi>
<mi>X</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>X</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>k</mi>
<mn>1</mn>
</msub>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>k</mi>
<mn>2</mn>
</msub>
<msup>
<mi>r</mi>
<mn>4</mn>
</msup>
<mo>+</mo>
<msub>
<mi>k</mi>
<mn>3</mn>
</msub>
<msup>
<mi>r</mi>
<mn>6</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>P</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mrow>
<mn>2</mn>
<msup>
<mi>X</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>P</mi>
<mn>2</mn>
</msub>
<mi>X</mi>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>S</mi>
<mn>1</mn>
</msub>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&delta;</mi>
<mi>Y</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>X</mi>
<mo>,</mo>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>Y</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>k</mi>
<mn>1</mn>
</msub>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>k</mi>
<mn>2</mn>
</msub>
<msup>
<mi>r</mi>
<mn>4</mn>
</msup>
<mo>+</mo>
<msub>
<mi>k</mi>
<mn>3</mn>
</msub>
<msup>
<mi>r</mi>
<mn>6</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>P</mi>
<mn>2</mn>
</msub>
<mo>(</mo>
<mrow>
<mn>2</mn>
<msup>
<mi>X</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>+</mo>
<mn>2</mn>
<msub>
<mi>P</mi>
<mn>1</mn>
</msub>
<mi>X</mi>
<mi>Y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>S</mi>
<mn>2</mn>
</msub>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>r</mi>
<mn>2</mn>
</msup>
<mo>=</mo>
<msup>
<mi>X</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>Y</mi>
<mn>2</mn>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,k1、k2和k3均为径向畸变系数,P1和P2均为离心畸变系数,S1和S2均为薄棱镜畸变系数。
4.根据权利要求1所述的基于监控设备的目标物速度计算方法,其特征在于,所述建立相对二维坐标系具体为:以视频图像中的一个地面特征点为原点,行驶车辆的行驶方向为纵轴,行驶车辆的行驶方向的垂直方向为横轴建立直角坐标系,所述相对二维坐标系与行驶车辆相对静止。
5.根据权利要求1所述的基于监控设备的目标物速度计算方法,其特征在于,所述步骤2)具体为:
21)对相对二维坐标系进行归一化,得到归一化后的坐标(X'w,Yw'),所述(X'w,Yw')满足关系:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msubsup>
<mi>X</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
</mtd>
</mtr>
<mtr>
<mtd>
<msubsup>
<mi>Y</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>s</mi>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>sm</mi>
<msub>
<mi>X</mi>
<mi>w</mi>
</msub>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>s</mi>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<msub>
<mi>sm</mi>
<msub>
<mi>Y</mi>
<mi>w</mi>
</msub>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>X</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>Y</mi>
<mi>w</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,s为Xw和Yw的缩放因子,和分别为Xw和Yw的均值;
22)用与步骤21)相同的方法对图像像素坐标系进行归一化,得到归一化后的坐标(U',V');
23)根据下述变换关系计算归一化后的变换参数m″11、m″12、m″14、m″21、m″22、m″24、m″31和m″32,所述变换关系为:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>m</mi>
<mn>11</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msubsup>
<mi>X</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>m</mi>
<mn>12</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msubsup>
<mi>Y</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>m</mi>
<mn>14</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>U</mi>
<mo>&prime;</mo>
</msup>
<msubsup>
<mi>X</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<msubsup>
<mi>m</mi>
<mn>31</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>U</mi>
<mo>&prime;</mo>
</msup>
<msubsup>
<mi>Y</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<msubsup>
<mi>m</mi>
<mn>32</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>=</mo>
<msup>
<mi>U</mi>
<mo>&prime;</mo>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>m</mi>
<mn>21</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msubsup>
<mi>X</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>m</mi>
<mn>22</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<msubsup>
<mi>Y</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>m</mi>
<mn>24</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>V</mi>
<mo>&prime;</mo>
</msup>
<msubsup>
<mi>X</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<msubsup>
<mi>m</mi>
<mn>31</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msup>
<mi>V</mi>
<mo>&prime;</mo>
</msup>
<msubsup>
<mi>Y</mi>
<mi>w</mi>
<mo>&prime;</mo>
</msubsup>
<msubsup>
<mi>m</mi>
<mn>32</mn>
<mrow>
<mo>&prime;</mo>
<mo>&prime;</mo>
</mrow>
</msubsup>
<mo>=</mo>
<msup>
<mi>V</mi>
<mo>&prime;</mo>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
24)对步骤23)得到的变换参数进行非线性优化。
6.根据权利要求5所述的基于监控设备的目标物速度计算方法,其特征在于,所述非线性优化包括基于Levenberg-Marquardt非线性方法对变换参数进行优化。
7.根据权利要求1所述的基于监控设备的目标物速度计算方法,其特征在于,所述目标物与行驶车辆的相对位置(Dx,Dy)满足:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<msub>
<mi>X</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mi>C</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<msub>
<mi>Y</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mi>C</mi>
</msub>
<mo>-</mo>
<mi>&Delta;</mi>
<mi>y</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,(Xwt,Ywt)为目标物接地点在相对二维坐标系下的坐标,(XC,YC)为行驶车辆上的监控设备在地面上的投影点在相对二维坐标系下的坐标,Δy为调整距离。
8.根据权利要求7所述的基于监控设备的目标物速度计算方法,其特征在于,所述调整距离包括行驶车辆上的监控设备与行驶车辆前保险杠之间的距离和目标物接地点与目标物后保险杠之间的距离。
9.根据权利要求1所述的基于监控设备的目标物速度计算方法,其特征在于,所述目标物的行驶速度Vall具体为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>V</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>X</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
<mn>2</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>V</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<msub>
<mi>V</mi>
<mi>r</mi>
</msub>
<mo>+</mo>
<mfrac>
<mrow>
<msub>
<mi>Y</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
<mn>2</mn>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mrow>
<mi>w</mi>
<mi>t</mi>
<mn>1</mn>
</mrow>
</msub>
</mrow>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>V</mi>
<mrow>
<mi>a</mi>
<mi>l</mi>
<mi>l</mi>
</mrow>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<msubsup>
<mi>V</mi>
<mi>x</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>V</mi>
<mi>y</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>a</mi>
<mo>=</mo>
<msubsup>
<mi>V</mi>
<mrow>
<mi>a</mi>
<mi>l</mi>
<mi>l</mi>
</mrow>
<mo>&prime;</mo>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,(Xwt1,Ywt1)和(Xwt2,Ywt2)分别为目标物在t1和t2时刻在二维坐标系下的坐标,Δt为t1和t2两个时刻的差值,Vr为t1和t2中间时刻的行驶车辆的速度,Vx为目标物在行驶车辆横向方向上的速度,Vy为目标物在行驶车辆纵向方向上的速度,a为目标物的减速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611078538.XA CN108121941A (zh) | 2016-11-30 | 2016-11-30 | 一种基于监控设备的目标物速度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611078538.XA CN108121941A (zh) | 2016-11-30 | 2016-11-30 | 一种基于监控设备的目标物速度计算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108121941A true CN108121941A (zh) | 2018-06-05 |
Family
ID=62227019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611078538.XA Pending CN108121941A (zh) | 2016-11-30 | 2016-11-30 | 一种基于监控设备的目标物速度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108121941A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109085376A (zh) * | 2018-08-20 | 2018-12-25 | 合肥优控科技有限公司 | 一种目标速度自适应估计方法 |
CN109580979A (zh) * | 2018-06-12 | 2019-04-05 | 苏州市职业大学 | 基于视频处理的车速实时测量方法 |
CN111462249A (zh) * | 2020-04-02 | 2020-07-28 | 北京迈格威科技有限公司 | 一种交通摄像头的标定数据获取方法、标定方法及装置 |
CN111965383A (zh) * | 2020-07-28 | 2020-11-20 | 禾多科技(北京)有限公司 | 车速信息生成方法、装置、电子设备和计算可读介质 |
CN112017236A (zh) * | 2020-07-13 | 2020-12-01 | 魔门塔(苏州)科技有限公司 | 一种基于单目相机计算目标物位置的方法及装置 |
CN112422910A (zh) * | 2020-11-10 | 2021-02-26 | 张庆华 | 一种通过监控画面判断人员方向运动速度的方法 |
CN113223300A (zh) * | 2021-04-13 | 2021-08-06 | 河北科技大学 | 一种基于车载视频图像的交通事故车速测量方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102110300A (zh) * | 2009-12-25 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 模拟镜头畸变的三维模型投影方法及装置 |
CN102254318A (zh) * | 2011-04-08 | 2011-11-23 | 上海交通大学 | 基于图像透视投影变换的车辆道路交通视频测速方法 |
CN102306284A (zh) * | 2011-08-12 | 2012-01-04 | 上海交通大学 | 基于监控录像的交通事故现场数字化重构方法 |
US8194912B2 (en) * | 2005-11-28 | 2012-06-05 | Fujitsu Limited | Method and apparatus for analyzing image, and computer product |
CN105654732A (zh) * | 2016-03-03 | 2016-06-08 | 上海图甲信息科技有限公司 | 一种基于深度图像的道路监控系统及方法 |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
-
2016
- 2016-11-30 CN CN201611078538.XA patent/CN108121941A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8194912B2 (en) * | 2005-11-28 | 2012-06-05 | Fujitsu Limited | Method and apparatus for analyzing image, and computer product |
CN102110300A (zh) * | 2009-12-25 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 模拟镜头畸变的三维模型投影方法及装置 |
CN102254318A (zh) * | 2011-04-08 | 2011-11-23 | 上海交通大学 | 基于图像透视投影变换的车辆道路交通视频测速方法 |
CN102306284A (zh) * | 2011-08-12 | 2012-01-04 | 上海交通大学 | 基于监控录像的交通事故现场数字化重构方法 |
CN105654732A (zh) * | 2016-03-03 | 2016-06-08 | 上海图甲信息科技有限公司 | 一种基于深度图像的道路监控系统及方法 |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
Non-Patent Citations (1)
Title |
---|
陈伟 等: "基于行车记录仪视频的事故场景的车速计算", 《PROCEEDING OF THE 12TH INTERNATIONAL FORUM OF AUTOMOTIVE TRAFFIC SAFETY》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109580979A (zh) * | 2018-06-12 | 2019-04-05 | 苏州市职业大学 | 基于视频处理的车速实时测量方法 |
CN109580979B (zh) * | 2018-06-12 | 2021-02-09 | 苏州市职业大学 | 基于视频处理的车速实时测量方法 |
CN109085376A (zh) * | 2018-08-20 | 2018-12-25 | 合肥优控科技有限公司 | 一种目标速度自适应估计方法 |
CN109085376B (zh) * | 2018-08-20 | 2020-09-18 | 东阳市维创工业产品设计有限公司 | 一种目标速度自适应估计方法 |
CN111462249A (zh) * | 2020-04-02 | 2020-07-28 | 北京迈格威科技有限公司 | 一种交通摄像头的标定数据获取方法、标定方法及装置 |
CN112017236A (zh) * | 2020-07-13 | 2020-12-01 | 魔门塔(苏州)科技有限公司 | 一种基于单目相机计算目标物位置的方法及装置 |
CN112017236B (zh) * | 2020-07-13 | 2023-10-31 | 魔门塔(苏州)科技有限公司 | 一种基于单目相机计算目标物位置的方法及装置 |
CN111965383A (zh) * | 2020-07-28 | 2020-11-20 | 禾多科技(北京)有限公司 | 车速信息生成方法、装置、电子设备和计算可读介质 |
CN112422910A (zh) * | 2020-11-10 | 2021-02-26 | 张庆华 | 一种通过监控画面判断人员方向运动速度的方法 |
CN113223300A (zh) * | 2021-04-13 | 2021-08-06 | 河北科技大学 | 一种基于车载视频图像的交通事故车速测量方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108121941A (zh) | 一种基于监控设备的目标物速度计算方法 | |
WO2021004548A1 (zh) | 一种基于双目立体视觉系统的车辆智能测速方法 | |
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN110148169B (zh) | 一种基于ptz云台相机的车辆目标三维信息获取方法 | |
CN101776438B (zh) | 道路标线测量装置及其测量方法 | |
CN102915532B (zh) | 确定车辆视觉系统外部参数的方法以及车辆视觉系统 | |
WO2019137065A1 (zh) | 图像处理方法、装置、车载抬头显示系统及车辆 | |
CN110207650A (zh) | 基于双目视觉的车用公路限高架高度测量方法及装置 | |
CN103731652B (zh) | 移动面分界线认知装置和方法、以及移动体设备控制系统 | |
CN110031829B (zh) | 一种基于单目视觉的目标精准测距方法 | |
CN106558080A (zh) | 一种单目相机外参在线标定系统及方法 | |
CN112166059A (zh) | 车辆的位置估计装置、车辆的位置估计方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质 | |
WO2018042954A1 (ja) | 車載カメラ、車載カメラの調整方法、車載カメラシステム | |
CN107688174A (zh) | 一种图像测距方法、系统、存储介质和车载视觉感知设备 | |
CN107796373A (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN107492123A (zh) | 一种利用路面信息的道路监控摄像机自标定方法 | |
CN112348752B (zh) | 一种基于平行约束的车道线消失点补偿方法及装置 | |
CN112902874A (zh) | 图像采集装置及方法、图像处理方法及装置、图像处理系统 | |
CN111476798B (zh) | 一种基于轮廓约束的车辆空间形态识别方法及系统 | |
CN107101612A (zh) | 一种目标距离测量方法及系统 | |
CN109345591A (zh) | 一种车辆自身姿态检测方法和装置 | |
CN115641385A (zh) | 车载环视相机标定方法、装置、设备及介质 | |
CN116358486A (zh) | 基于单目相机的目标测距方法、装置及介质 | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
CN116543032B (zh) | 冲击物测距方法、装置、测距设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180605 |