CN112115819B - 基于目标检测及tet扩展指标的行车危险场景识别方法 - Google Patents
基于目标检测及tet扩展指标的行车危险场景识别方法 Download PDFInfo
- Publication number
- CN112115819B CN112115819B CN202010913412.XA CN202010913412A CN112115819B CN 112115819 B CN112115819 B CN 112115819B CN 202010913412 A CN202010913412 A CN 202010913412A CN 112115819 B CN112115819 B CN 112115819B
- Authority
- CN
- China
- Prior art keywords
- traffic object
- target vehicle
- vehicle
- tet
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明涉及一种基于目标检测及TET扩展指标的行车危险场景识别方法,具体包括以下S1.根据加速度阈值提取潜在危险场景;S2.确定车辆自适应可行驶区域;S3.检测可行驶区域内的最近交通对象;S4.对最近交通对象的像素距离进行去噪;S5.计算安全驾驶衡量指标ETET;S6.根据ETET指标提取危险驾驶场景模型。与现有技术相比,本发明具有准确率高、普适性强、提高对复杂交通环境感知的精准度、降低TET指标的局限性等优点。
Description
技术领域
本发明涉及车辆自动驾驶技术领域,尤其是涉及一种基于目标检测及TET扩展指标的行车危险场景识别方法。
背景技术
使用多模态数据是交通安全性预测的新趋势,因为视频数据和运动学数据都有各自的局限性,以合理的方式融合这两类数据从而提高在场景风险预测的精度是当前研究的热点。目前已有一些关于高风险驾驶场景辨识的研究,但是当前的研究中仍存在一定问题。
现有技术中有采用车辆速度和方向突变并结合视频帧差异来检测危险情况,其中自动编码器比较视频帧差异的方式较适用于拐角危险情况,在一般情况准确率仅为71%,不够理想;现有技术中也有基于运动学数据使用了经典机器学习分类器,包括kNN、随机森林、SVM、决策树、高斯邻域和AdaBoost,但测试结果的精度具有波动性,受到预测范围的影响很大。同时现有技术中有提出基于驾驶前向视频创建Motion图像,通过轨迹进行TTC计算或者其他信息的捕捉来预测风险。该方法对于大量的行车视频,用Motion图像将庞大的视频数据高效压缩,能有效提取运动特征来判断风险。
发明内容
本发明的目的就是为了克服上述现有技术存在的精度不高、受预测范围影响较大的缺陷而提供一种基于目标检测及TET扩展指标的行车危险场景识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于目标检测及TET扩展指标的行车危险场景识别方法,具体包括以下步骤:
S1.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值,通过线性插值法填补过滤后的车辆运动数据的缺失值,同时基于自然驾驶数据获取加速度分布,确定潜在危险驾驶事件的危险加速度阈值,根据所述危险加速度阈值判断提取潜在危险驾驶事件的危险驾驶时间区段;
S2.获取目标车辆的车辆几何参数,根据所述危险驾驶时间区段确认车体坐标系下可行驶区域两侧边界的坐标,根据相机标定参数,获取可行驶区域两侧边界的坐标对应的图像像素坐标,通过RANSAC算法拟合可行驶区域的边界线,并计算可行驶区域的消失点,根据所述可行驶区域的消失点及边界线,确定视频像素坐标下的可行驶区域;
S3.获取目标车辆的驾驶视频,确定所述驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,确定距离目标车辆最近的最近交通对象,根据最近交通对象在驾驶视频的每帧画面中的纵向像素位置,计算最近交通对象与目标车辆的像素距离,并记录最近交通对象的类型,形成最近交通对象的轨迹信息;
S4.根据所述最近交通对象的轨迹信息与距离变化阈值结合,分割最近交通对象,并通过Savitzky-Golay滤波算法对分割后的最近交通对象的像素距离进行平滑;
S5.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC,并根据多个交通对象的TET,同时根据新出现的交通对象的纵向位置来判断其是否属于近距离切入,若是则对目标车辆的TET进行补偿计算,获得目标车辆的ETET;
S6.根据目标车辆急刹车后的低速划分阈值,提取危险驾驶时间区段中目标车辆的平均速度小于所述低速划分阈值的时间区段,同时根据目标车辆刹车后加速时长占比识别平均速度小于所述低速划分阈值的时间区段中的潜在危险时间区段,根据目标车辆的ETET的阈值从所述潜在危险时间区段和危险驾驶时间区段中提取危险驾驶场景模型。
所述步骤S1具体包括以下步骤:
S11.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值;
S12.采用线性插值法填补过滤后的车辆运动数据的缺失值;
S13.提取自然驾驶数据中的车辆加速度数据,绘制分布曲线,确定判断目标车辆减速的加速度阈值;
S14.获取目标车辆的行车时序数据,根据所述判断目标车辆减速的加速度阈值采集紧急刹车时刻及其前后相应时长的时间片段,组成潜在高风险事件片段,将多个所述潜在高风险事件片段组成高风险事件预备集合;
S15.根据前后相应时长的时间片段组成时间窗口,根据所述时间窗口将所述行车时序数据中剩余的时间片段组成正常事件预备集。
进一步地,所述线性插值法的公式具体如下所示:
进一步地,异常值的判断公式如下所示:
|x-μ|>3σ
其中,x为运动学参数,μ为x的平均值,σ为x的标准差。
进一步地,分割相邻紧急刹车时刻的判断公式如下所示:
td[i+1]-td[i]≥|d1+d2|
其中,td为紧急刹车时刻,d1为紧急刹车前时间片段,d2为紧急刹车后时间片段。
所述步骤S2具体包括以下步骤:
S21.采集目标车辆的前轮与车头的距离、车头高度与车宽,在车体坐标系下,确认可行驶区域的前方边界与目标车辆的距离,在轴方向上根据预设间隔等距设置多个坐标点;
S22.根据相机标定参数,将可行驶区域两侧边界的车体坐标系下的坐标转化为视频图像中的像素坐标;
S23.根据左右边界线的像素坐标,通过RANSAC算法计算得到左右边界线对应的直线方程,根据所述左右边界线的直线方程计算得到可行驶区域的消失点;
S24.分别连接所述消失点与左右边界上的坐标点,确定视频像素坐标下的可行驶区域。
进一步地,所述步骤S2中可行驶区域两侧边界的坐标点具体为:
进一步地,所述步骤S22具体包括以下过程:
S221.获取相机的外参矩阵,将目标车辆的车体坐标转化为相机坐标,具体公式如下所示:
其中,[Rt]为相机的外参矩阵,(Xw,Yw,Zw)T为目标车辆的车体坐标,(XC,YC,ZC)T为目标车辆的相机坐标;
S222.根据相机畸变系数对相机坐标进行修正,修正方式具体如下所示:
r2=x2+y2
其中,k1、k2、k3为径向畸变系数,ρ1、ρ2为切向畸变系数,(x,y)为修正前坐标,(xd,yd)为修正后坐标;
S223.获取相机的内参矩阵,将修正后的相机坐标转化为像素坐标,具体公式如下所示:
其中,(XC,YC,ZC)T为修正后的相机坐标,(u,v)T为像素坐标,fx、fx分别为x和y方向上的焦距,cx、cy分别为x和y方向上光心的偏移量。
所述步骤S3具体包括以下步骤:
S31.获取目标车辆的驾驶视频,确定所述驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,采集所述交通对象的基础信息,所述基础信息包括位置、大小、类型和置信度;
S32.计算交通对象的底部中心坐标,根据预设的置信度阈值选择出大于所述置信度阈值且底部中心坐标位于可行驶区域内的预选交通对象;
S33.计算所述预选交通对象与目标车辆的像素距离,将像素距离最小的预选交通对象作为目标车辆的可行驶区域内的最近交通对象。
进一步地,所述底部中心坐标的计算公式如下所示:
x1=xc
其中,(x1,y1)为底部中心坐标,xc,yc,ho分别为交通对象的中心坐标及高度,h为视频画面高度;
进一步地,像素距离的计算公式如下所示:
distance=yobj-ybottom
其中,distance为像素距离,yobj为交通对象的纵向像素坐标,ybottom为目标车辆的车头的纵向像素坐标。
所述步骤S4具体包括以下步骤:
S41.根据所述最近交通对象的底部中心坐标的纵向像素距离,确定最近交通对象的时序相邻两点的距离变化阈值,若最近交通对象的时序相邻两点的距离大于所述距离变化阈值,则将时序相邻两点分割为两个最近交通对象;
S42.通过Savitzky-Golay滤波算法对分割后的最近交通对象的纵向像素距离进行平滑处理。
所述步骤S5具体包括以下步骤:
S51.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC;
S52.根据多个交通对象的TET,取多个交通对象中TET的最大值为目标车辆的TET;
S53.判断处在时序相邻位置的交通对象是否为具有连续稳定数据的交通对象,若是则根据交通对象与目标车辆的最大距离与最大距离阈值,确定是否为近距离切入时间区段,否则作为非连续稳定数据的交通对象进行剔除;
S54.根据所述近距离切入时间区段,对目标车辆的碰TET进行补偿计算,获得目标车辆的ETET指标。
进一步地,TTC为碰撞时间,TET为碰撞时间小于碰撞时间阈值的时间和,ETET为TET的扩展指标,TTC的计算公式如下所示:
其中,dpixel为交通对象与目标车辆的像素距离,vpixel为交通对象的像素变化速度。
进一步地,所述步骤S52中交通对象的TTC阈值包括机动车TTC阈值和非机动车TTC阈值,对应的TET具体如下:
TETC=max(TETMV,YETNMV)
其中,TETMV为机动车的TET,YETNMV为非机动车的TET,TTCMV *为机动车TTC阈值,TTCNMV *为非机动车TTC阈值,TETC为目标车辆的TET。
进一步地,基于交通对象近距离切入时间区段的ETET计算公式如下:
进一步地,所述步骤S6具体包括以下步骤:
S61.根据目标车辆急刹车后的低速划分阈值,提取危险驾驶时间区段中目标车辆的平均速度小于所述低速划分阈值的时间区段;
S62.采集平均速度小于所述低速划分阈值的时间区段中目标车辆的加速时长占比,若根据加速时长占比大于预设的加速时长占比潜在危险阈值,则对应的时间区段判断为安全隐患时间区段;
S63.获取平均速度小于所述低速划分阈值的时间区段中的近距离切入时间区段和安全隐患时间区段,结合目标车辆的ETET指标构建潜在危险时间区段组;
S64.所述潜在危险时间区段组中时间区段的TET与预设的危险驾驶时间区段的TET的判断阈值进行比较,若大于则判断为危险驾驶时间区段并提取相应的危险驾驶场景模型。
与现有技术相比,本发明具有以下有益效果:
本发明结合车辆几何参数和相机标定参数,划分出目标车辆的车辆可行驶区域,然后对距离最近的交通对象进行提取,使用YOLO实时对象检测框架对视频帧进行运动物体检测,记录交通对象与目标车辆的距离,并且对交通对象进行机动车、非机动车的划分,大量减少交通环境中包括路面、路基、路侧树木和电线杆的静态要素的轨迹干扰,提高了对复杂交通环境感知的精准度;同时根据近距离切入的判读对TET指标进行修正,降低了TET指标的局限性,单独对低速事件进行分析,避免ETET指标在低速事件中失效,提高了危险驾驶场景模型的精准度。
附图说明
图1为本发明的流程示意图;
图2为本发明目标车辆可行驶区域的示意图;
图3为本发明最近交通对象的像素纵向距离的轨迹图;
图4为本发明最近交通对象的平滑后的像素纵向距离的轨迹图;
图5为本发明最近交通对象TTC的轨迹图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例一
如图1所示,一种基于目标检测及TET扩展指标的行车危险场景识别方法,具有较高的准确率和普适性,具体包括以下步骤:
S1.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值,通过线性插值法填补过滤后的车辆运动数据的缺失值,同时基于自然驾驶数据获取加速度分布,确定潜在危险驾驶事件的危险加速度阈值,根据危险加速度阈值判断提取潜在危险驾驶事件的危险驾驶时间区段;
S2.获取目标车辆的车辆几何参数,根据危险驾驶时间区段确认车体坐标系下可行驶区域两侧边界的坐标,根据相机标定参数,获取可行驶区域两侧边界的坐标对应的图像像素坐标,通过RANSAC算法拟合可行驶区域的边界线,并计算可行驶区域的消失点,根据可行驶区域的消失点及边界线,确定视频像素坐标下的可行驶区域;
S3.获取目标车辆的驾驶视频,确定驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,确定距离目标车辆最近的最近交通对象,根据最近交通对象在驾驶视频的每帧画面中的纵向像素位置,计算最近交通对象与目标车辆的像素距离,并记录最近交通对象的类型,形成最近交通对象的轨迹信息;
S4.根据最近交通对象的轨迹信息与距离变化阈值结合,分割最近交通对象,并通过Savitzky-Golay滤波算法对分割后的最近交通对象的像素距离进行平滑;
S5.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC,并根据多个交通对象的TET,同时根据新出现的交通对象的纵向位置来判断其是否属于近距离切入,若是则对目标车辆的TET进行补偿计算,获得目标车辆的ETET;
S6.根据目标车辆急刹车后的低速划分阈值,提取危险驾驶时间区段中目标车辆的平均速度小于低速划分阈值的时间区段,同时根据目标车辆刹车后加速时长占比识别平均速度小于低速划分阈值的时间区段中的潜在危险时间区段,根据目标车辆的ETET的阈值从潜在危险时间区段和危险驾驶时间区段中提取危险驾驶场景模型。
步骤S1具体包括以下步骤:
S11.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值;
S12.采用线性插值法填补过滤后的车辆运动数据的缺失值;
S13.提取自然驾驶数据中的车辆加速度数据,绘制分布曲线,确定判断目标车辆减速的加速度阈值,本实施例中,减速的加速度阈值为-0.3g;
S14.获取目标车辆的行车时序数据,根据判断目标车辆减速的加速度阈值采集紧急刹车时刻,取前d1=15到后d2=5秒的时间片段,组成潜在高风险事件片段,将多个潜在高风险事件片段组成高风险事件预备集合;
S15.以|d1+d2|为时间窗口,根据时间窗口将行车时序数据中剩余的时间片段组成正常事件预备集。
线性插值法的公式具体如下所示:
异常值的判断公式如下所示:
|x-μ|>3σ
其中,x为运动学参数,μ为x的平均值,σ为x的标准差。
分割相邻紧急刹车时刻的判断公式如下所示:
td[i+1]-td[i]≥|d1+d2|
其中,td为紧急刹车时刻,d1为紧急刹车前时间片段,d2为紧急刹车后时间片段。
步骤S2具体包括以下步骤:
S21.采集目标车辆的前轮与车头的距离、车头高度与车宽,在车体坐标系下,确认可行驶区域的前方边界与目标车辆的距离,在轴方向上根据预设间隔等距设置多个坐标点,如图2所示;
S22.根据相机标定参数,将可行驶区域两侧边界的车体坐标系下的坐标转化为视频图像中的像素坐标;
S23.根据左右边界线的像素坐标,通过RANSAC算法计算得到左右边界线对应的直线方程,根据左右边界线的直线方程计算得到可行驶区域的消失点;
S24.分别连接消失点与左右边界上的坐标点,确定视频像素坐标下的可行驶区域。
步骤S2中可行驶区域两侧边界的坐标点具体为:
步骤S22具体包括以下过程:
S221.获取相机的外参矩阵,将目标车辆的车体坐标转化为相机坐标,具体公式如下所示:
其中,[Rt]为相机的外参矩阵,(Xw,Yw,Zw)T为目标车辆的车体坐标,(XC,YC,ZC)T为目标车辆的相机坐标;
S222.根据相机畸变系数对相机坐标进行修正,修正方式具体如下所示:
r2=x2+y2
其中,k1、k2、k3为径向畸变系数,ρ1、ρ2为切向畸变系数,(x,y)为修正前坐标,(xd,yd)为修正后坐标;
S223.获取相机的内参矩阵,将修正后的相机坐标转化为像素坐标,具体公式如下所示:
其中,(XC,YC,ZC)T为修正后的相机坐标,(u,v)T为像素坐标,fx、fx分别为x和y方向上的焦距,cx、cy分别为x和y方向上光心的偏移量。
步骤S3具体包括以下步骤:
S31.获取目标车辆的驾驶视频,确定驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,采集交通对象的基础信息,基础信息包括位置、大小、类型和置信度;
S32.计算交通对象的底部中心坐标,根据预设的置信度阈值选择出大于置信度阈值且底部中心坐标位于可行驶区域内的预选交通对象;
S33.计算预选交通对象与目标车辆的像素距离,将像素距离最小的预选交通对象作为目标车辆的可行驶区域内的最近交通对象。
底部中心坐标的计算公式如下所示:
x1=xc
其中,(x1,y1)为底部中心坐标,xc,yc,ho分别为交通对象的中心坐标及高度,h为视频画面高度;
像素距离的计算公式如下所示:
distance=yobj-ybottom
其中,distance为像素距离,yobj为交通对象的纵向像素坐标,ybottom为目标车辆的车头的纵向像素坐标。
步骤S4具体包括以下步骤:
S41.根据最近交通对象的底部中心坐标的纵向像素距离,确定最近交通对象的时序相邻两点的距离变化阈值th1*dmax,其中dmax为可行驶区域的最大像素距离,th1为百分比阈值常量,本实施例中th1为20%,若最近交通对象的时序相邻两点的距离大于距离变化阈值,则将时序相邻两点分割为两个最近交通对象;
S42.通过Savitzky-Golay滤波算法对分割后的最近交通对象的纵向像素距离进行平滑处理,平滑前后的纵向像素距离如图3和图4所示。
步骤S5具体包括以下步骤:
S51.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC,如图5所示;
S52.根据多个交通对象的TET,取多个交通对象中TET的最大值为目标车辆的TET;
S53.判断处在时序相邻位置的交通对象是否为具有连续稳定数据的交通对象,若是则根据交通对象与目标车辆的最大距离与最大距离阈值,确定是否为近距离切入时间区段,否则作为非连续稳定数据的交通对象进行剔除;
S54.根据近距离切入时间区段,对目标车辆的碰TET进行补偿计算,获得目标车辆的ETET指标。
TTC为碰撞时间,TET为碰撞时间小于碰撞时间阈值的时间和,ETET为TET的扩展指标,TTC的计算公式如下所示:
其中,dpixel为交通对象与目标车辆的像素距离,vpixel为交通对象的像素变化速度。
步骤S52中交通对象的TTC阈值包括机动车TTC阈值和非机动车TTC阈值,对应的TET具体如下:
TETC=max(TETMV,TETNMV)
其中,TETMV为机动车的TET,TETNMV为非机动车的TET,TTCMV *为机动车TTC阈值,TTCNMV *为非机动车TTC阈值,TETC为目标车辆的TET,本实施例中TTCMV *为3秒,TETNMV为5秒,T为20秒事件的第12.5到第17.5秒共5秒。
基于交通对象近距离切入时间区段的ETET计算公式如下:
步骤S3中的判定条件具体为:
对于前一交互对象,如果1/3秒内至少有一半时间被检测到存在于可行驶区域内,则该对象判定为连续对象;对于后一交互对象,如果1秒内至少有一半时间被检测到存在于可行驶区域内,则该对象判定为连续对象。
近距离切入时间区段的判定条件具体为:
在可行驶区域内,交通对象与目标车辆的最大的距离为dmax=ycross-ybottom,其中ycross为消失点的纵向像素坐标,当前后两个交通对象均为连续对象时,若同时满足两个交通对象分界点的距离差大于th1*dmax且后一交通对象与本车的距离小于th2*dmax时,判定后一交通对象所在时间片段为近距离切入时间区段,其中th2为百分比阈值常量,本实施例中为25%;当前一交通对象不是连续对象时,后一交通对象满足与目标车辆的距离小于th2*dmax时,判定后一交通对象所在时间片段为近距离切入时间区段。
步骤S6具体包括以下步骤:
S61.根据目标车辆急刹车所在时间片段中最后5秒内的平均速度确定低速划分阈值,本实施例中低速划分阈值THv为10km/h,提取危险驾驶时间区段中目标车辆的平均速度小于低速划分阈值的时间区段;
S62.采集平均速度小于低速划分阈值的时间区段中最后3秒内目标车辆的加速时长占比,若根据加速时长占比大于预设的加速时长占比潜在危险阈值,则对应的时间区段判断为安全隐患时间区段,本实施例中加速时长占比潜在危险阈值THa为0.7;
S63.获取平均速度小于低速划分阈值的时间区段中的近距离切入时间区段和安全隐患时间区段,结合目标车辆的ETET指标构建潜在危险时间区段组;
S64.潜在危险时间区段组中时间区段的TET与预设的危险驾驶时间区段的TET的判断阈值进行比较,若大于则判断为危险驾驶时间区段并提取相应的危险驾驶场景模型,本实施例中危险驾驶时间区段的TET的判断阈值THTET为15%。最后本实施例提取的危险场景准确率为86.4%,漏报率为14.8%。
此外,需要说明的是,本说明书中所描述的具体实施例子,所取名称可以不同,本说明书中所描述的以上内容仅仅是对本发明结构所做的举例说明。凡依据本发明构思的构造、特征及原理所做的等效变化或者简单变化,均包括于本发明的保护范围内。本发明所属技术领域的技术人员可以对所描述的具体实例做各种各样的修改或补充或采用类似的方法,只要不偏离本发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。
Claims (9)
1.一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,具体包括以下步骤:
S1.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值,通过线性插值法填补过滤后的车辆运动数据的缺失值,同时基于自然驾驶数据获取加速度分布,确定潜在危险驾驶事件的危险加速度阈值,根据所述危险加速度阈值判断提取潜在危险驾驶事件的危险驾驶时间区段;
S2.获取目标车辆的车辆几何参数,根据所述危险驾驶时间区段确认车体坐标系下可行驶区域两侧边界的坐标,根据相机标定参数,获取可行驶区域两侧边界的坐标对应的图像像素坐标,通过RANSAC算法拟合可行驶区域的边界线,并计算可行驶区域的消失点,根据所述可行驶区域的消失点及边界线,确定视频像素坐标下的可行驶区域;
S3.获取目标车辆的驾驶视频,确定所述驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,确定距离目标车辆最近的最近交通对象,根据最近交通对象在驾驶视频的每帧画面中的纵向像素位置,计算最近交通对象与目标车辆的像素距离,并记录最近交通对象的类型,形成最近交通对象的轨迹信息;
S4.根据所述最近交通对象的轨迹信息与距离变化阈值结合,分割最近交通对象,并通过Savitzky-Golay滤波算法对分割后的最近交通对象的像素距离进行平滑;
S5.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC,并根据多个交通对象的TET,同时根据新出现的交通对象的纵向位置来判断其是否属于近距离切入,若是则对目标车辆的TET进行补偿计算,获得目标车辆的ETET,ETET为安全驾驶衡量指标,公式如下:
其中,TET为碰撞时间小于碰撞时间阈值的时间和;
S6.根据目标车辆急刹车后的低速划分阈值,提取危险驾驶时间区段中目标车辆的平均速度小于所述低速划分阈值的时间区段,同时根据目标车辆刹车后加速时长占比识别平均速度小于所述低速划分阈值的时间区段中的潜在危险时间区段,根据目标车辆的ETET的阈值从所述潜在危险时间区段和危险驾驶时间区段中提取危险驾驶场景模型;
所述步骤S5具体包括以下步骤:
S51.根据平滑处理后的最近交通对象,通过最近交通对象的纵向像素距离除以纵向像素距离变化速度计算出最近交通对象的TTC;
S52.根据多个交通对象的TET,取多个交通对象中TET的最大值为目标车辆的TET;
S53.判断处在时序相邻位置的交通对象是否为具有连续稳定数据的交通对象,若是则根据交通对象与目标车辆的最大距离与最大距离阈值,确定是否为近距离切入时间区段,否则作为非连续稳定数据的交通对象进行剔除;
S54.根据所述近距离切入时间区段,对目标车辆的TET进行补偿计算,获得目标车辆的ETET指标。
2.根据权利要求1所述的一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,所述步骤S1具体包括以下步骤:
S11.获取目标车辆的车辆运动数据,根据正态分布的3σ原则检测和过滤车辆运动数据的异常值;
S12.采用线性插值法填补过滤后的车辆运动数据的缺失值;
S13.提取自然驾驶数据中的车辆加速度数据,绘制分布曲线,确定判断目标车辆减速的加速度阈值;
S14.获取目标车辆的行车时序数据,根据所述判断目标车辆减速的加速度阈值采集紧急刹车时刻及其前后相应时长的时间片段,组成潜在高风险事件片段,将多个所述潜在高风险事件片段组成高风险事件预备集合;
S15.根据前后相应时长的时间片段组成时间窗口,根据所述时间窗口将所述行车时序数据中剩余的时间片段组成正常事件预备集。
4.根据权利要求1所述的一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,所述步骤S2具体包括以下步骤:
S21.采集目标车辆的前轮与车头的距离、车头高度与车宽,在车体坐标系下,确认可行驶区域的前方边界与目标车辆的距离,在轴方向上根据预设间隔等距设置多个坐标点;
S22.根据相机标定参数,将可行驶区域两侧边界的车体坐标系下的坐标转化为视频图像中的像素坐标;
S23.根据左右边界线的像素坐标,通过RANSAC算法计算得到左右边界线对应的直线方程,根据所述左右边界线的直线方程计算得到可行驶区域的消失点;
S24.分别连接所述消失点与左右边界上的坐标点,确定视频像素坐标下的可行驶区域。
6.根据权利要求1所述的一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,所述步骤S3具体包括以下步骤:
S31.获取目标车辆的驾驶视频,确定所述驾驶视频的每帧画面的视频像素坐标下的可行驶区域,通过深度学习实时对象检测框架检测视频像素坐标下的可行驶区域中的交通对象,采集所述交通对象的基础信息,所述基础信息包括位置、大小、类型和置信度;
S32.计算交通对象的底部中心坐标,根据预设的置信度阈值选择出大于所述置信度阈值且底部中心坐标位于可行驶区域内的预选交通对象;
S33.计算所述预选交通对象与目标车辆的像素距离,将像素距离最小的预选交通对象作为目标车辆的可行驶区域内的最近交通对象。
7.根据权利要求1所述的一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,所述步骤S4具体包括以下步骤:
S41.根据所述最近交通对象的底部中心坐标的纵向像素距离,确定最近交通对象的时序相邻两点的距离变化阈值,若最近交通对象的时序相邻两点的距离大于所述距离变化阈值,则将时序相邻两点分割为两个最近交通对象;
S42.通过Savitzky-Golay滤波算法对分割后的最近交通对象的纵向像素距离进行平滑处理。
9.根据权利要求1所述的一种基于目标检测及TET扩展指标的行车危险场景识别方法,其特征在于,所述步骤S6具体包括以下步骤:
S61.根据目标车辆急刹车后的低速划分阈值,提取危险驾驶时间区段中目标车辆的平均速度小于所述低速划分阈值的时间区段;
S62.采集平均速度小于所述低速划分阈值的时间区段中目标车辆的加速时长占比,若根据加速时长占比大于预设的加速时长占比潜在危险阈值,则对应的时间区段判断为安全隐患时间区段;
S63.获取平均速度小于所述低速划分阈值的时间区段中的近距离切入时间区段和安全隐患时间区段,结合目标车辆的ETET指标构建潜在危险时间区段组;
S64.所述潜在危险时间区段组中时间区段的TET与预设的危险驾驶时间区段的TET的判断阈值进行比较,若大于则判断为危险驾驶时间区段并提取相应的危险驾驶场景模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010913412.XA CN112115819B (zh) | 2020-09-03 | 2020-09-03 | 基于目标检测及tet扩展指标的行车危险场景识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010913412.XA CN112115819B (zh) | 2020-09-03 | 2020-09-03 | 基于目标检测及tet扩展指标的行车危险场景识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112115819A CN112115819A (zh) | 2020-12-22 |
CN112115819B true CN112115819B (zh) | 2022-09-20 |
Family
ID=73804866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010913412.XA Active CN112115819B (zh) | 2020-09-03 | 2020-09-03 | 基于目标检测及tet扩展指标的行车危险场景识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115819B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113778108B (zh) * | 2021-10-09 | 2023-07-21 | 招商局检测车辆技术研究院有限公司 | 一种基于路侧感知单元的数据采集系统及数据处理方法 |
CN117593703B (zh) * | 2024-01-19 | 2024-04-16 | 深圳市创达电子有限公司 | 一种停车场道闸的控制管理方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103909863A (zh) * | 2012-12-31 | 2014-07-09 | 现代自动车株式会社 | 追尾碰撞警告告警系统和方法 |
CN109448384A (zh) * | 2018-12-27 | 2019-03-08 | 中交第公路勘察设计研究院有限公司 | 一种高速公路危险交通行为识别方法 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
CN110781578A (zh) * | 2019-09-23 | 2020-02-11 | 同济大学 | 一种基于事故场景的智能网联车算法的测试及评价方法 |
CN111216637A (zh) * | 2020-01-22 | 2020-06-02 | 同济大学 | 一种面向安全辅助功能的车载抬头显示系统 |
CN111242015A (zh) * | 2020-01-10 | 2020-06-05 | 同济大学 | 一种基于运动轮廓语义图预测行车危险场景的方法 |
CN111332298A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 可行驶区域确定方法、装置、设备及存储介质 |
CN111383474A (zh) * | 2018-12-29 | 2020-07-07 | 长城汽车股份有限公司 | 自动驾驶车辆的决策系统及方法 |
CN111401414A (zh) * | 2020-02-29 | 2020-07-10 | 同济大学 | 一种基于自然驾驶数据的危险场景提取及分类方法 |
CN111489588A (zh) * | 2020-03-30 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 车辆驾驶风险预警方法及装置、设备、存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101417447B1 (ko) * | 2012-12-04 | 2014-07-09 | 현대자동차주식회사 | 외장에어백 전개방법 |
KR102310378B1 (ko) * | 2017-04-18 | 2021-10-12 | 현대자동차주식회사 | 차량 주행제어 장치 및 방법 |
-
2020
- 2020-09-03 CN CN202010913412.XA patent/CN112115819B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103909863A (zh) * | 2012-12-31 | 2014-07-09 | 现代自动车株式会社 | 追尾碰撞警告告警系统和方法 |
CN109448384A (zh) * | 2018-12-27 | 2019-03-08 | 中交第公路勘察设计研究院有限公司 | 一种高速公路危险交通行为识别方法 |
CN111383474A (zh) * | 2018-12-29 | 2020-07-07 | 长城汽车股份有限公司 | 自动驾驶车辆的决策系统及方法 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
CN110781578A (zh) * | 2019-09-23 | 2020-02-11 | 同济大学 | 一种基于事故场景的智能网联车算法的测试及评价方法 |
CN111242015A (zh) * | 2020-01-10 | 2020-06-05 | 同济大学 | 一种基于运动轮廓语义图预测行车危险场景的方法 |
CN111216637A (zh) * | 2020-01-22 | 2020-06-02 | 同济大学 | 一种面向安全辅助功能的车载抬头显示系统 |
CN111332298A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 可行驶区域确定方法、装置、设备及存储介质 |
CN111401414A (zh) * | 2020-02-29 | 2020-07-10 | 同济大学 | 一种基于自然驾驶数据的危险场景提取及分类方法 |
CN111489588A (zh) * | 2020-03-30 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 车辆驾驶风险预警方法及装置、设备、存储介质 |
Non-Patent Citations (5)
Title |
---|
Driver Identification Based on Stop-and-Go Events Using Naturalistic Driving Data;Zhen Gao, Longqi Li, Jinsong Feng, Rongjie Yu, Xuesong Wang;《2018 11th International Symposium on Computational Intelligence and Design》;20181209;全文 * |
Integrated Cooperative Adaptive Cruise and Variable Speed Limit Controls for Reducing Rear-End Collision Risks Near Freeway Bottlenecks Based on Micro-Simulations;Ye Li, Chengcheng Xu, Lu Xing, and Wei Wang;《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》;20171130;全文 * |
Research on Automated Modeling Algorithm Using Association Rules for Traffic Accidents;Zhen Gao, Ruifeng Pan, Xuesong Wang, Rongjie Yu;《2018 IEEE International Conference on Big Data and Smart Computing》;20180117;全文 * |
基于DREAM 方法的追尾危险场景诱导因素分析;Yufan ZENG, Xichan ZHU,Zhixiong Ma,Xiaoyu SUN;《15th International Forum of Automotive Traffic Safety》;20181116;全文 * |
基于自然驾驶数据的危险场景测试平台搭建;诸葛洪昶;《中国优秀博硕士学位论文全文数据库(硕士)工程科技Ⅱ辑》;20200815;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112115819A (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115819B (zh) | 基于目标检测及tet扩展指标的行车危险场景识别方法 | |
CN103324930B (zh) | 一种基于灰度直方图二值化的车牌字符分割方法 | |
EP2741256B1 (en) | Moving body detection device and method | |
KR101968349B1 (ko) | 영상 정보를 이용한 차선 경계 검출 방법 | |
KR20210080459A (ko) | 차선 검출방법, 장치, 전자장치 및 가독 저장 매체 | |
KR20210078530A (ko) | 차선 속성 검출방법, 장치, 전자장치 및 가독 저장 매체 | |
CN113744563B (zh) | 一种基于轨迹数据的路-车风险实时估计方法 | |
CN111242015B (zh) | 一种基于运动轮廓语义图预测行车危险场景的方法 | |
CN105005771A (zh) | 一种基于光流点轨迹统计的车道线实线的检测方法 | |
CN108568868B (zh) | 一种自动避障的树障清理空中机器人和避障方法 | |
CN103413325B (zh) | 一种基于车身特征点定位的车速鉴定方法 | |
US20200065981A1 (en) | Moving object detection apparatus and moving object detection method | |
CN104268589B (zh) | 一种前方车辆检测方法 | |
CN105160356A (zh) | 一种车辆主动安全系统传感器数据融合方法及系统 | |
WO2017154389A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
CN108297867A (zh) | 一种基于人工智能的车道偏离预警方法及系统 | |
CN111079675A (zh) | 基于目标检测与目标跟踪的行驶行为分析方法 | |
CN111626170A (zh) | 一种铁路边坡落石侵限检测的图像识别方法 | |
CN116110012B (zh) | 用于智慧工地的危险违规动作识别方法及系统 | |
CN105059184A (zh) | 客运车辆弯道侧翻早期预警与主动防控装置及其判断方法 | |
US20160191886A1 (en) | Data reproducing apparatus | |
CN111985295A (zh) | 一种电动自行车行为识别方法、系统、工控机及摄像头 | |
JP5172422B2 (ja) | 運転支援システム | |
CN114022862A (zh) | 一种交通标牌被遮挡的智能化检测方法及系统 | |
CN112489125A (zh) | 一种堆场行人自动检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |