CN108846322A - 快速高精度的车辆碰撞检测方法 - Google Patents

快速高精度的车辆碰撞检测方法 Download PDF

Info

Publication number
CN108846322A
CN108846322A CN201810515476.7A CN201810515476A CN108846322A CN 108846322 A CN108846322 A CN 108846322A CN 201810515476 A CN201810515476 A CN 201810515476A CN 108846322 A CN108846322 A CN 108846322A
Authority
CN
China
Prior art keywords
coherent
vehicle collision
collision detection
obtains
picture frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810515476.7A
Other languages
English (en)
Inventor
刘丹平
胡小波
毛莞丁
党普泽
王懿泽
龚清峰
张超
刘夺
薛尚哲
梁真文
林萌
陈林峰
胡学斌
谭晓衡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN201810515476.7A priority Critical patent/CN108846322A/zh
Publication of CN108846322A publication Critical patent/CN108846322A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种快速高精度的车辆碰撞检测方法,用于解决道路旁边的固定摄像头对路面的车辆碰撞事故的检测问题。该方法主要是:对于输入视频,首先利用快速复原算法来提高图像质量,其次通过基于多项式的密集光流法得到图像帧的运动速度和方向等信息。再次利用图像帧的运动信息选取合适的核函数。然后,通过叠加为每个光流产生的核函数来构建出每个运动场景的相干运动场。从相干运动场中可以得到场景中目标对象的相互作用状态,例如相互作用的程度,相互作用的方向等。最后,对获取的相干运动场进行阈值去噪,计算去噪后的相干运动场所有像素值的相干运动场总能量,在通过与设定的阈值进行比较,检测车辆碰撞事故的发生。

Description

快速高精度的车辆碰撞检测方法
技术领域
本发明属于智能交通领域,涉及快速高精度的车辆碰撞检测方法,特别适用于实时、全天候的道路车辆碰撞的检测。
背景技术
国内外许多研究小组尝试通过计算机视觉和模式识别技术来研究车辆碰撞事故的自动检测方法。Siyu Xia[1]等提出一种基于低秩矩阵近似的方法来快速有效地自动检测视频中的交通事故。其首先将每个帧划分为与不同权重相关联的非重叠块,然后提取视频分段的运动矩阵,在使用低秩矩阵近似来将正常交通场景与一组运动子空间相关联之后,识别在近似误差增加时的交通事故。Yu Chen[2]等提出了一种基于分类器的监测方法,通过观察机动车碰撞前的最后一秒视频作为检测目标。其首先利用OF-SIFT算法从时域中提取局部运动信息特征以用于运动检测,然后用极端学习机分类器作为基本分类器对交通事故进行分类。李月娥[3]等通过提取交通监控视频中的烟雾、碎片和运动目标速度的变化等参数,结合麦夸特法进行公式拟合得到交通事故发生概率公式,并计算出事故发生概率,依据概率大小判断车辆是否发生碰撞。拜佩[4]等分析车辆在视频中的一些具体状态(如大小、位置等),根据这些判断两个目标是否有重合区域,从而判断车辆是否碰撞。刘纬琪[5]等利用OBB算法计算车辆的包围盒,将包围盒的地面平面投影得到车辆矩形二维包围盒,然后检测这些矩形在同一平面上是否相交来判断车辆是否发生碰撞。尹春娥[6]等提出一种基于小波方程的自适应阈值高速公路交通事故检测方法,基于交通运行状态的改变来动态自适应地调整阈值,以此提高事故检测正确率。尹宏鹏[7]等利用智能分析技术,先使用背景差分法检测运动车辆,然后利用均值漂移算法跟踪运动车辆,通过得到的车辆位置、速度和运动方向等参数进行加权融合,以此来检测车辆的碰撞。
这些算法由于需要跟踪环节,存在着检测算法计算复杂度高和精度不高的问题。Yun K,Jeong H,Yi KM等人[8]采用光流法来实现车辆碰撞检测,但需要对相干运动场的正区域和负区域的对称性利用Hu矩来分析,算法计算复杂度很大,不适合实时系统。
发明内容
本专利引入超分辨率算法,提出了一种快速高精度的车辆碰撞检测方法:首先通过快速复原算法来提高图像质量,然后利用光流信息生成核函数构建相干运动场,从而检测车辆碰撞的发生。该方法具有较强的抗干扰能力,碰撞检测的精度高,能实现全天候、快速、高精度的车辆碰撞交通事故检测。
一种快速高精度的车辆碰撞检测方法:
S1,获取视频的图像帧;
S2,采用快速复原算法复原图像;
S21,获取成像系统的点扩散函数;
S22,采用超拉普拉斯正则化快速复原算法复原图像;
S3,获取相干运动场;
S31,采用Gunnar Farneback的算法计算光流;
S32,获取相干运动场;
S4,车辆碰撞检测。
进一步限定,所述S1中获取视频的图像帧具体包括:
S1,获取视频的图像帧:从道路旁边的固定摄像头中采集所需视频,并对视频进行处理,获取其图像帧。
进一步限定,所述S21具体包括:
从现场的靶标图P获取成像系统的点扩散函数h(x,y)。
进一步限定,所述S22具体包括:
根据S21获取的PSF,采用超拉普拉斯正则化快速复原算法复原图像。
进一步限定,所述S31具体包括:
根据基于多项式展开的密集光流算法,得到图像帧的运动信息(主要为速度和方向)。
进一步限定,所述S32具体包括:
根据所述S31中得到的运动信息选取高斯函数作为核函数,通过叠加为每一个光流产生的核函数来构建运动场景的相干运动场:
进一步限定,所述S4具体包括:
对所述S32中获取的相干运动场进行阈值去噪:其算法是求F(x,y)绝对值最大值像素值T1,从而得到阈值为αT1,最后将F的绝对值小于阈值的像素值置零,得到新的相干场F1(x,y)。
对F1(x,y)的所有像素值求和得到相干场总能量sum;
利用sum判断车辆是否发生碰撞:研究分析表明,正常帧的相干场sum<T2,而碰撞帧的相干场sum大于T2。因此得到碰撞检测算法:如果sum大于T2,有碰撞事故发生,否则没有碰撞事故发生。
本发明的有益效果为:首先通过快速复原算法来提高图像质量,然后利用光流信息生成核函数构建相干运动场,从而检测车辆碰撞的发生。
具体实施方式
附图说明:
图1为本发明的流程示意图。
图2为获取点扩散函数选取的靶标图(a)、边缘区域(b)和得到的点扩散函数(c)。
图3为车辆正常行驶状况。
图4为正常行驶状况下相干运动场。
图5为车辆碰撞检测过程。
如图1所示,一种快速高精度的车辆碰撞检测方法,包括如下步骤:
S1,获取视频的图像帧:从道路旁边的固定摄像头中采集所需视频,并对视频进行处理,获取其图像帧;
S2,采用快速复原算法复原图像;
S21,获取成像系统的点扩散函数:从现场的靶标图P获取成像系统的点扩散函数h(x,y);
S22,采用超拉普拉斯正则化快速复原算法复原图像;
S3,获取相干运动场:;
S31,采用Gunnar Farneback的算法计算光流:根据基于多项式展开的密集光流算法,得到图像帧的运动信息(主要为速度和方向);
S32,获取相干运动场:根据所述S31中得到的运动信息选取高斯函数作为核函数,通过叠加为每一个光流产生的核函数来构建运动场景的相干运动场:
S4,车辆碰撞检测:
对所述S32中获取的相干运动场进行阈值去噪:其算法是求F(x,y)绝对值最大值像素值T1,从而得到阈值为αT1,最后将F的绝对值小于阈值的像素值置零,得到新的相干场F1(x,y)。
对F1(x,y)的所有像素值求和得到相干场总能量sum;
利用sum判断车辆是否发生碰撞:研究分析表明,正常帧的相干场sum<T2,而碰撞帧的相干场sum大于T2。因此得到碰撞检测算法:如果sum大于T2,有碰撞事故发生,否则没有碰撞事故发生。
具体原理如下:
本专利提出的车辆碰撞检测方法,首先利用快速复原算法来提高图像质量,然后利用光流法信息构造相干运动场来检测车辆碰撞。该方法采用以下三个步骤来完成:
1、图像快速复原
一般来说,受成像设备分辨率、成像条件限制,低分辨率图像g(x,y)可表示为:
其中,f(x,y)是高分辨率图像,h(x,y)为成像系统点扩散函数,n(x,y)是噪声。
要从g(x,y)中复原f(x,y)是一个病态问题,采用基于超分辨率技术的视频增强算法,提供了一个逼近真实解的思路。该算法包含以下步骤:
(1)从现场的靶标图P获取成像系统的点扩散函数h(x,y);
(2)对现场采集的低分辨率图像G,利用h(x,y)和超拉普拉斯正则化快速复原算法进行去噪和图像复原得到清晰的图像f。
2、利用基于多项式展开的密集光流算法构造相干运动场
密集光流是一种针对图像进行逐点匹配的图像配准方法,不同于稀疏光流只针对图像上若干个特征点,密集光流计算图像上所有的点的偏移量,从而形成一个密集的光流场。通过这个密集的光流场,可以进行像素级别的图像配准,所以其配准后的效果也明显优于稀疏光流配准的效果。
通常使用稀疏光流的时候,稀疏的光流场很难精确地提取运动目标的信息。为了准确获得交通监控视频图像帧每个像素运动信息,本文采用基于多项式展开的密集光流算法计算每一个像素的光流信息,从而得到每个像素运动的位移,速度和方向等信息。而基于多项式展开的密集光流算法基本思想是利用多项式来近似每个像素的邻域。
含有n个变量的二次函数
称为二次多项式。
取aij=aji,则2aijxixj=aijxixj+ajixjxi,将式(2)写成矩阵形式,则如式(3)所示。
bT=(b1 b2 ... bn).
因此二次多项式的模型如式(4)所示:
f(x)~xTAx+bTx+c (4)
其中f(x)为图像信号,A是对称矩阵,b是向量,c是标量。
对于视频流中的图像信号,设有图像帧Ⅰ,其在空间上逐点进行多项式展开,得到的表达式如式(5)所示。
I1(x)=xTA1x+b1 Tx+c1 (5)
如果图像帧Ⅰ产生理想的位移d,得到新的图像帧Ⅱ,可以得到图像帧Ⅱ的光流矢量,如式(6)。
根据光流法,假设在整个图像上光流的变化是光滑的,即物体运动矢量是平滑的或只是缓慢变化的,对刚体来说,其各相邻像素点间的速度相同。因此,式(4)式和(7)式的二次多项式中的系数对应关系如下:
A2=A1, (7)
b2=b1-2A1d, (8)
如果A1是非奇异的,通过方程(8)式,我们可以求解出理想的平移d,求解过程如式(10)和式(11)所示。
2A1d=-(b2-b1), (10)
上述图像帧的平移d的求解是在理想情况下的推导,即假定图像帧产生的是理想的位移,但是在实际情况中存在着误差。理想条件下,根据等式(7)得出A2=A1,但是在实际情况中图像并不总是满足理想的位移,因此只需要满足下式(12)的近似情况即可。
然后采用式(13)获得主要约束方程,主要约束方程如式(14)所示。
A(x)d(x)=Δb(x) (14)
其中d(x)表示具有空间变化的位移场,替代了等式(10)中的全局位移。
为了提高光流的鲁棒性,对光流法的每一个像素点附加权重,最后建立求解光流的目标函数:
其中,ω(Δx)表示像素点在邻域内的权重系数,表示邻域上各个像素点对约束产生的影响的大小分配。最后,使用最小二乘法求解光流,如(16)式所示。
d(x)=(∑ωATA)-1∑ωATΔb (16)
根据基于多项式的密集光流算法,得到图像帧的运动信息(主要为速度和方向)。图像帧的运动信息用于为运动场景生成相干运动场。利用运动信息选取合适的核函数,通过叠加为每一个光流产生的核函数来构建运动场景的相干运动场。在这里,不能仅仅对移动的车辆对象生成核函数,而是需要对每个光流生成一个核函数,这是因为在拥挤的场景中要分割出每一个移动车辆对象来建模,并不总是可行的,而且需要许多额外的计算。相干运动场描绘了场景内移动对象之间的交互的总体情况。从相干运动场中,可以很容易地掌握场景中的移动对象相互作用的状态,例如相互作用的程度,相互作用的方向等。
设X是Rn中的一个非空子集,H是Hilbert空间,Φ为X到Hilbert空间H的映射。对于定义在X×X的函数K,如果存在一个从X到Hilbert空间H的映射Φ:
Φ:x→Φ(x)∈H (17)
使得对任意的x,z∈X,都有
K(x,z)=(Φ(x)·Φ(z)) (18)
成立。则称K为核函数。其中(·)表示Hilbert空间H中的内积。
设K为一个核函数,若对及x1,x2,...,xn∈X,由Kij=K(xi,xj)组成的矩阵K=(Kij)m×m称为Gram阵。如果Gram阵K是对称正定矩阵,则称K为正定核。
在实际应用时,X可以仅为一个非空集合,其上没有任何拓扑结构和代数结构,如X可以是图片、文本,可以用核函数来刻画X上元素的某种相似性。核函数需要用来表示由移动物体中的光流产生的相互作用的强度。函数值应该与物体的速度成比例,因为具有高速的物体具有比低速物体更大的相互作用力。
但是只有速度还是不能提供在不同情况下异常交通的完整信息,还需要考虑物体运动的方向对相互作用的影响。也就是说,核函数模型应设计成使得在相向方向上移动的两个物体之间的相互作用强度变得大于在相同方向上移动的两个物体之间的相互作用强度。
经过选择,使用具有方向与速度等参数信息的高斯差函数作为描述相干运动场的核函数。
利用图像中像素点i的位置(xi,yi)和其对应的速度确定两个不同中心位置的高斯核函数。其中,前向中心位置为后向中心位置为
最终的核函数K(x,y;xi,yi)通过具有不同中心位置的两个高斯函数相减来计算,计算公式如下式(19)所示。
上式中k(x,y;xc,yc)如式(20)所示,k(x,y;xc,yc)为一般的二维高斯分布,中心是(xc,yc)。
选取合适的核函数后,通过叠加为每一个光流产生的核函数来构建运动场景的运动场。由于具有高速的物体具有比低速物体更大的相互作用力,因此,所有的像素点中,高速移动的像素点应该具有比较大的权重。
将核函数应用于所有移动像素,则得到一帧图像的相干运动场,表示为F(x,y),如式(21)所示。
其中,wi为每个像素点的权重,其与像素点的速度成正比。
3、车辆碰撞检测
对(21)得到的相干运动场进行阈值去噪:其算法是求F(x,y)绝对值最大值像素值T1,从而得到阈值为αT1,
将F(x,y)的绝对值小于阈值的像素值置零,得到新的相干场F1(x,y)。
对F1(x,y)的所有像素值求和得到相干场总能量sum:
利用sum判断车辆是否发生碰撞:
研究分析表明,正常帧的相干场sum<T2,而碰撞帧的相干场sum大于T2。因此得到碰撞检测算法:如果sum大于T2,有碰撞事故发生,否则没有碰撞事故发生。
具体实施步骤:
第一步,输入视频,对视频进行处理,获得一帧一帧的图像。
第二步,根据公式(1)建模,采用刀口法求解成像系统的点扩散函数h(x,y),然后利用h(x,y)和超拉普拉斯正则化快速复原算法进行去噪和图像复原得到清晰的图像。
第三步,根据基于多项式展开的密集光流算法,得到图像帧的运动信息(主要为速度和方向)。
第四步,利用运动信息选取合适的核函数k(x,y;xc,yc),通过叠加为每一个光流产生的核函数来构建运动场景的相干运动场F(x,y)。
第五步,对相干运动场进行阈值去噪,利用公式(23),得到新的相干场F1(x,y)。
第六步,利用公式(24)对F1(x,y)的所有像素值求和得到相干场总能量sum。
第七步,车辆碰撞检测,如果sum大于T2,有碰撞事故发生,否则没有碰撞事故发生。
对于侦查人员来说,不需要理解快速复原算法和基于多项式展开的密集光流算法原理,只需要把从道路旁固定摄像头中采集的所需视频输入车辆碰撞检测系统,就可检测出车辆是否碰撞。
如图2(a)所示为道路上的距离CCD成像设备(像元为6μm)约10m的限速标志。采用限速标志图像作为测量点扩散函数的靶标,所选取的边缘区域(大小为64*64pixels,对比度大于20%)如图2(b),采用刀口法得到点扩散函数h(x,y)如图2(c)。
将实验验证分成车辆间正常行驶和车辆碰撞两个部分:场景一为车辆间无干扰正常行驶过程,视频场景二为十字路口两辆车发生碰撞事故。实验中高斯核使用参数σx=σy=10,T1=134,α=0.4,T2=20000。
场景一
车辆正常行驶状况如图3所示。图3(a)和图3(b)分别为视频中第32帧、第142帧的车辆行驶情况。
车辆正常行驶状况下的相干运动场如图4所示,检测得到sum=1500。
场景二
车辆碰撞检测过程如图5所示。如图5(a)是视频中第158帧的车辆行驶情况。在第158帧中,一辆横向行驶的小轿车与一辆前向行驶的小轿车发生碰撞。
对碰撞帧,计算的光流如图5(b),得到的相干运动场如图5(c),碰撞的两辆车区间明显不对称,而没有碰撞的两车区域具有一定的对称性。因此采用碰撞检测方法通过对计算相干运动场求和可以滤掉对称区域。实验检测得到sum=28000,sum>T2,判断为发生碰撞。

Claims (5)

1.一种快速高精度的车辆碰撞检测方法,其特征在于:
S1,获取视频的图像帧;
S2,采用快速复原算法复原图像;
S21,获取成像系统的点扩散函数;
S22,采用超拉普拉斯正则化快速复原算法复原图像;
S3,获取相干运动场;
S31,采用基于多项式展开的密集光流算法计算光流信息;
S32,获取相干运动场;
S4,车辆碰撞检测。
2.根据权利要求1所述的一种快速高精度的车辆碰撞检测方法,其特征在于:
所述S1中获取视频的图像帧具体包括:
S1,获取视频的图像帧:从道路旁边的固定摄像头中采集所需视频,并对视频进行处理,获取其图像帧。
3.根据权利要求2所述的一种快速高精度的车辆碰撞检测方法,其特征在于:
所述S21具体包括:
从现场的靶标图P获取成像系统的点扩散函数h(x,y);
所述S22具体包括:
根据S21获取的PSF,采用超拉普拉斯正则化快速复原算法复原图像。
4.根据权利要求3所述的一种快速高精度的车辆碰撞检测方法,其特征在于:
所述S31具体包括:
根据基于多项式展开的密集光流算法,得到图像帧的运动信息(主要为速度和方向);
所述S32具体包括:
根据所述S31中得到的运动信息选取高斯函数作为核函数,通过叠加为每一个光流产生的核函数来构建运动场景的相干运动场:
5.根据权利要求4所述的一种快速高精度的车辆碰撞检测方法,其特征在于:
所述S4具体包括:
对所述S32中获取的相干运动场进行阈值去噪:其算法是求F(x,y)绝对值最大值像素值T1,从而得到阈值为αT1,最后将F的绝对值小于阈值的像素值置零,得到新的相干场F1(x,y)。
对F1(x,y)的所有像素值求和得到相干场总能量sum;
利用sum判断车辆是否发生碰撞:研究分析表明,正常帧的相干场sum<T2,而碰撞帧的相干场sum大于T2。因此得到碰撞检测算法:如果sum大于T2,有碰撞事故发生,否则没有碰撞事故发生。
CN201810515476.7A 2018-05-25 2018-05-25 快速高精度的车辆碰撞检测方法 Pending CN108846322A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810515476.7A CN108846322A (zh) 2018-05-25 2018-05-25 快速高精度的车辆碰撞检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810515476.7A CN108846322A (zh) 2018-05-25 2018-05-25 快速高精度的车辆碰撞检测方法

Publications (1)

Publication Number Publication Date
CN108846322A true CN108846322A (zh) 2018-11-20

Family

ID=64213602

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810515476.7A Pending CN108846322A (zh) 2018-05-25 2018-05-25 快速高精度的车辆碰撞检测方法

Country Status (1)

Country Link
CN (1) CN108846322A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766867A (zh) * 2019-01-22 2019-05-17 长沙智能驾驶研究院有限公司 车辆运行状态确定方法、装置、计算机设备和存储介质
CN110097571A (zh) * 2019-04-28 2019-08-06 重庆大学 快速高精度的车辆碰撞预测方法
CN111832495A (zh) * 2020-07-17 2020-10-27 中通服咨询设计研究院有限公司 一种检测视频中车辆事故的方法
CN113870296A (zh) * 2021-12-02 2021-12-31 暨南大学 基于刚体碰撞优化算法的图像边缘检测方法、装置及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309740A (ja) * 2007-06-18 2008-12-25 Mitsubishi Electric Corp 車両衝突検知装置
CN102044090A (zh) * 2010-12-30 2011-05-04 长安大学 车辆连环碰撞事故分析与模拟再现计算机系统
CN102259627A (zh) * 2010-05-12 2011-11-30 Trw汽车美国有限责任公司 用于检测行人车辆碰撞的方法和装置
CN103824273A (zh) * 2014-03-19 2014-05-28 中科院成都信息技术股份有限公司 基于复合运动和自适应非局部先验的超分辨率重建方法
CN105107198A (zh) * 2015-08-28 2015-12-02 电子科技大学 动感赛车游戏碰撞过程的运动模拟实现方法与系统
CN105741610A (zh) * 2014-12-25 2016-07-06 本田技研工业株式会社 避免碰撞辅助装置
CN106558021A (zh) * 2016-11-21 2017-04-05 重庆大学 基于超分辨率技术的视频增强方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309740A (ja) * 2007-06-18 2008-12-25 Mitsubishi Electric Corp 車両衝突検知装置
CN102259627A (zh) * 2010-05-12 2011-11-30 Trw汽车美国有限责任公司 用于检测行人车辆碰撞的方法和装置
CN102044090A (zh) * 2010-12-30 2011-05-04 长安大学 车辆连环碰撞事故分析与模拟再现计算机系统
CN103824273A (zh) * 2014-03-19 2014-05-28 中科院成都信息技术股份有限公司 基于复合运动和自适应非局部先验的超分辨率重建方法
CN105741610A (zh) * 2014-12-25 2016-07-06 本田技研工业株式会社 避免碰撞辅助装置
CN105107198A (zh) * 2015-08-28 2015-12-02 电子科技大学 动感赛车游戏碰撞过程的运动模拟实现方法与系统
CN106558021A (zh) * 2016-11-21 2017-04-05 重庆大学 基于超分辨率技术的视频增强方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MEHMET KILICARSLAN 等: "Direct Vehicle Collision Detection from Motion in Driving Video", 《2017 IEEE INTELLIGENT VEHICLES SYMPOSIUM (IV)》 *
TENG LI 等: "Crowded Scene Analysis: A Survey", 《ARXIV》 *
刘松: "基于视频的车辆碰撞检测方法研究", 《万方数据库》 *
黄金敢 等: "碰撞检测在交通事故模拟中的应用", 《交通与计算机》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766867A (zh) * 2019-01-22 2019-05-17 长沙智能驾驶研究院有限公司 车辆运行状态确定方法、装置、计算机设备和存储介质
CN109766867B (zh) * 2019-01-22 2021-08-20 长沙智能驾驶研究院有限公司 车辆运行状态确定方法、装置、计算机设备和存储介质
CN110097571A (zh) * 2019-04-28 2019-08-06 重庆大学 快速高精度的车辆碰撞预测方法
CN110097571B (zh) * 2019-04-28 2023-06-13 重庆大学 快速高精度的车辆碰撞预测方法
CN111832495A (zh) * 2020-07-17 2020-10-27 中通服咨询设计研究院有限公司 一种检测视频中车辆事故的方法
CN113870296A (zh) * 2021-12-02 2021-12-31 暨南大学 基于刚体碰撞优化算法的图像边缘检测方法、装置及介质

Similar Documents

Publication Publication Date Title
Ge et al. An accurate and robust monitoring method of full‐bridge traffic load distribution based on YOLO‐v3 machine vision
Reiher et al. A sim2real deep learning approach for the transformation of images from multiple vehicle-mounted cameras to a semantically segmented image in bird’s eye view
Atev et al. A vision-based approach to collision prediction at traffic intersections
CN108846322A (zh) 快速高精度的车辆碰撞检测方法
Rathore et al. Smart traffic control: Identifying driving-violations using fog devices with vehicular cameras in smart cities
Goyat et al. Vehicle trajectories evaluation by static video sensors
CN111771207A (zh) 增强的车辆跟踪
Yu et al. Traffic danger recognition with surveillance cameras without training data
Goldhammer et al. Pedestrian's trajectory forecast in public traffic with artificial neural networks
Mitra et al. Towards modeling of perception errors in autonomous vehicles
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
Cordes et al. Roadsaw: A large-scale dataset for camera-based road surface and wetness estimation
Zhu et al. Fine-grained identification of vehicle loads on bridges based on computer vision
KR100962329B1 (ko) 스테레오 카메라 영상으로부터의 지면 추출 방법과 장치 및이와 같은 방법을 구현하는 프로그램이 기록된 기록매체
CN114545434A (zh) 一种路侧视角测速方法、系统、电子设备及存储介质
Gomez-Donoso et al. Three-dimensional reconstruction using SFM for actual pedestrian classification
Kumar et al. Citywide reconstruction of traffic flow using the vehicle-mounted moving camera in the carla driving simulator
Rishika et al. Real-time vehicle detection and tracking using yolo-based deep sort model: a computer vision application for traffic surveillance
EP4250245A1 (en) System and method for determining a viewpoint of a traffic camera
Wang et al. A 3d dynamic scene analysis framework for development of intelligent transportation systems
Loktev et al. Image Blur Simulation for the Estimation of the Behavior of Real Objects by Monitoring Systems.
Lindenmaier et al. Object-Level Data-Driven Sensor Simulation for Automotive Environment Perception
Kadim et al. Real-time vehicle counting in complex scene for traffic flow estimation using multi-level convolutional neural network
Wang et al. Lidar Point Cloud Object Detection and Semantic Segmentation Fusion Based on Bird's-Eye-View
Tousi et al. A new approach to estimate depth of cars using a monocular image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181120

WD01 Invention patent application deemed withdrawn after publication