CN114049610A - 一种高速公路上机动车倒车和逆行违法行为主动发现方法 - Google Patents

一种高速公路上机动车倒车和逆行违法行为主动发现方法 Download PDF

Info

Publication number
CN114049610A
CN114049610A CN202111458903.0A CN202111458903A CN114049610A CN 114049610 A CN114049610 A CN 114049610A CN 202111458903 A CN202111458903 A CN 202111458903A CN 114049610 A CN114049610 A CN 114049610A
Authority
CN
China
Prior art keywords
vehicle
information
identified
frame
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111458903.0A
Other languages
English (en)
Inventor
张森
孔晨晨
张慧辰
冯子建
刘一波
杨鑫
曹鹏
孙瀚
葛广照
邓力恺
郭恩强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Traffic Management Research Institute of Ministry of Public Security
Original Assignee
Traffic Management Research Institute of Ministry of Public Security
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Traffic Management Research Institute of Ministry of Public Security filed Critical Traffic Management Research Institute of Ministry of Public Security
Priority to CN202111458903.0A priority Critical patent/CN114049610A/zh
Publication of CN114049610A publication Critical patent/CN114049610A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种高速公路上机动车倒车和逆行违法行为主动发现方法,其可以实现高速公路上机动车倒车、逆行违法行为的自动检测和主动发现,节省了人力资源。其通过设置场景通行信息,以场景通行信息中点通行信息的通行方向,代表待检测路段上大多数车辆的通行方向,将待识别车辆的通行方向与场景通行信息中不同的点通行信息的通行方向进行比较,确认待识别车辆是否存在逆行或者倒车的问题。

Description

一种高速公路上机动车倒车和逆行违法行为主动发现方法
技术领域
本发明涉及智能交通控制技术领域,具体为一种高速公路上机动车倒车和逆行违法行为主动发现方法。
背景技术
高速公路中存在的机动车违法行为中,其中倒车和逆行是难以通过现有技术自动发现的违法行为。现有技术中,对于道路交通中机动车违法行为的自动检测,通常是先利用视频分析技术实现机动车运行轨迹的分析,再参考机动车与背景信息中的参照物,如:禁止线等道路标记的位置关系,确定车辆是否发生违法行为。但是倒车和逆行这类别的违法行为,只能通过与预设的通行方向比较,才能发现此类违法行为。但是在很多高速路上使用的监控设备是可调整拍摄方向的球机,这种设备不可预设通行方向,因为一旦拍摄场景发生较大变化,其正常的通行方向也会发生变化,会影响设备在其他场景的准确性。所以,对于高速公路上机动车倒车和逆行的违法行为的检查,很多时候需要通过人工观看监控视频而实现的。
发明内容
为了解决现有技术中对于高速公路上机动车倒车和逆行的违法行为自动检测困难的问题,本发明提供一种高速公路上机动车倒车和逆行违法行为主动发现方法,其可以实现高速公路上机动车倒车、逆行违法行为的自动检测和主动发现,节省了人力资源。
本发明的技术方案是这样的:一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于,其包括以下步骤:
S1:采集待检测路段上的监控设备采集的监控视频数据,记做基础视频数据;
S2:将所述基础视频数据逐帧分解为图片后,将所有图片按照视频时间顺序存储,记做基础图片数据;
S3:基于所述基础图片数据识别出图片中包括的车辆,以及每辆车的车辆轨迹集合;
所述轨迹集合包括:按照时间顺序排列的每辆车的轨迹点和所述轨迹点对应的基础图片数据信息;
S4:将所述轨迹集合中每一张所述基础图片数据,记做基础车辆视频帧;
分别计算每一帧所述基础车辆视频帧中所述车辆位置的中心点坐标;
S5:基于所述轨迹集合,使用车辆的所述中心点坐标,计算得出所述基础车辆视频帧中的车辆的通行方向,获得每一帧所述基础车辆视频帧对应的点通行信息;
所述点通行信息包括:中心点坐标、车辆的通行方向;
S6:将所述基础视频数据中识别出来的所有车辆对应的所有所述点通行信息作为一个集合,记做场景通行信息;
S7:循环执行步骤S1~S6,获取新的所述基础视频数据,直至所述场景通信信息中包括的所述点通行信息的个数大于预设的有效基础数据阈值;
S8:基于所述监控设备拍摄的视频,获取待识别车辆对应的连续的待识别视频帧;
同时确保所述待识别视频帧的个数大于等于预设的比较数量阈值;
S9:计算获得所述待识别车辆的在每一帧所述待识别视频帧中对应的所述点通行信息,记做待识别点信息;
S10:按照时间顺序将每一个所述待识别点信息取出,分别在所述场景通行信息中查找到与其所述中心点坐标距离最近的N个所述点通行信息,记做参照对比信息点;
其中,N为预设的参照比对数量阈值;
S11:分别将N个所述参照比对信息点的通行方向与对应的所述待识别点信息的通行方向进行比较;
如果N个所述参照比对信息点的通行方向都与对应的所述待识别点信息的通行方向不同,则对应的所述待识别点信息记做方向异常点;
否则,所述待识别信息点为方向正常点;
S12:当所述待识别车辆对应的所有待识别点信息都参与计算后,确认其对应的所述方向异常点是否同时满足下列条件的;
如果满足,则对应的所述待识别车辆存在通行方向异常,实施步骤S13;否则,所述待识别车辆为正常行驶车辆,结束本次违法行为识别操作;
所述方向异常点个数超过预设的异常判断阈值;
存在时间上连续的所述方向异常点,并且连续的点个数超过预设的异常连续帧数阈值;
S13:将存在通行方向异常的所述待识别视频帧,输入到预先构建并训练好的车头车尾二分类算法分类模型中,根据识别出来的所述待识别车辆的车头和车尾的方向和其通行方向的关系,判断所述待识别车辆的违法行为是倒车驾驶还是逆行驾驶。
其进一步特征在于:
其还包括步骤S14:更新所述场景通行信息的数据;具体更新过程包括以下步骤:
a1:获取所述待识别点信息中包括含的数据的数量;
设所述待识别信息中包括m1个所述点通行信息;
a2:获取所述场景通行信息中包括的所述点通行信息的个数;
设所述场景通行信息中包括m2个所述点通行信息;
a3:确认所述待识别点信息和所述场景通行信息合并后,总的数据量是否大于预设场景通信信息中的点通行数据最大容量M;
如果m1+m2 > M,则实施步骤a4;
否则实施步骤a5;
a4:将所述场景通行信息中,时间最早的m1+m2-M个所述点通行信息删除,然后实施步骤a5;
a5:将所述待识别点信息添加到所述场景通行信息中;
步骤S3中,基于所述基础图片数据识别出图片中包括的车辆,每辆车的车辆轨迹,包括以下步骤:
设:车辆信息v,用来描述车辆在所述基础图片数据中的位置以及车辆类型;
单张基础图片数据识别后可形成图片中多个车辆信息的集合,定义为车辆信息集V,V是同一张图片中若干v的集合;
某一车辆在多帧图片中的车辆信息集合记为车辆跟踪结果r,r是同一辆车,在不同图片中的若干v的集合;
所述基础视频数据中车辆对应的的视频车辆待跟踪结果定义为R,R是r的集合;
所述基础视频数据中车辆对应的视频车辆跟踪完毕结果定义为Y,Y也是r的集合;
R与Y的区别是,R是跟踪过程汇总的中间数据,是正在进行跟踪,且尚未完成跟踪的目标集合,Y是已经确定完成了跟踪的目标集合;
c1:将所述基础视频数据逐帧转换为所述基础图片数据,并且按照时间顺序排列;
设j为所述基础图片数据对应的图片帧序号;
j初始为1,对应时间最早的所述基础视频数据;
R初始化为空;
c2:取出第j张所述基础图片数据,识别后得到对应的Vj
c3:判断所述视频车辆跟踪结果R是否为空;
若R为空,则将每一个v作为一个跟踪结果r,写入R;
j = j+1,进入c2;
若R不为空,进入c4;
c4:从集合R中取出一个车辆信息集合r,r中最后一个车辆信息为vr,为r构建一个候选列表集合L,初始化L为空;
c5:从Vj中取出一个车辆信息vk
设Vj中包括Nv个车辆信息,k为车辆信息v在Vj中的序号,k≤Nv;k初始化为1;
c6:比较vk和vr的车辆种类是否相同;
如果二者相同,则执行步骤c7;
否则执行步骤c8;
c7:计算vr的中心点坐标与vk的中心点坐标的距离DH;
比较DH和预设的轨迹距离阈值;
当DH < 所述轨迹距离阈值,则将对应的vk放入到L中,然后执行步骤c8;
否则,执行步骤c8;
c8:循环实施步骤c5~c7,直至集合Vj中所有vk都与vr进行过比较后,执行步骤c9;
c9:确认r对应的候选表集合L是否为空;
如果L为空,r跟踪结束,将r从R中移除,加入集合Y,执行步骤c11;
否则,实施步骤c10;
c10:从L中取出与r中心点坐标距离最小的车辆信息vk,放到车辆跟踪结果r中,作为车辆跟踪结果r的最后一辆车;从Vj中删除vk
c11:循环执行步骤c4~c10;直至R中每一个r都参与过计算;
c12:若Vj中仍然存在vk,则将每一个vk作为一个新的跟踪结果r,写入R;
c13:j =j+1,循环执行步骤c2~c13,直至所述基础视频数据对应的所有的所述基础图片数据都参与过计算;得到了所述基础视频数据中所有车辆对应的视频车辆跟踪完毕结果Y;
c14:确认Y中包括的所有的车辆跟踪结果r中包括的车辆的轨迹点个数;
设每个所述车辆跟踪结果r包括的轨迹点个数为Nr;
找到所有的Nr小于预设的轨迹计算阈值的所述车辆跟踪结果r,从Y中进行删除;
最终得到的视频车辆跟踪完毕结果Y对应的待分类车辆、轨迹点集合和对应的车辆类型,即为基于基础图片数据的车辆轨迹集合;
所述车辆位置,是基于四边形的车辆检测标注框表示车辆在图片中的位置;
所述车辆位置表示为:所述车辆检测标注框的左上角横坐标、纵坐标和横边的边长、纵边的边长;
其中,以基础图片数据的图片左上角为原点,由左至右方向为横坐标递增方向,由上之下为纵坐标递增方向;
车辆所在位置的所述中心点坐标的计算方法:
所述中心点坐标的横坐标 = 车辆检测标注框的左上角横坐标 + 车辆检测标注框的横边边长/2;
所述中心点坐标的纵坐标 = 车辆检测标注框的左上角纵坐标 + 车辆检测标注框的纵边边长/2;
步骤S5中,所述通行方向的计算方法,包括以下步骤:
b1:获取参与计算的指定车辆在车辆轨迹集合中对应的视频帧的数量;
设共有MX帧视频帧,车辆轨迹集合中每一帧对应的车辆的所述中心点坐标为(xi,yi);
其中,i为小于等于MX的正整数;
b2:从第一帧开始取出每一个视频帧;
b3:确认当前帧是否为最后一帧视频帧;
当 i = MX时,实施步骤b5;
否则实施步骤b4;
b4:比较第i帧的车辆信息和第i+1帧的车辆信息的中心点坐标,得到对一个车辆在横坐标和纵坐标方向的行驶方向r和c;
当xi+1 > xi,则r = 1,否则r = 0;
当yi+1> yi,则 c = 1,否则c = 0;
当r = 1的时候,表示车辆在横坐标方向是向递增方向行驶的;r = 0 时,表示车辆在横坐标方向是向递减方向行驶的;
当c = 1的时候,表示车辆在纵坐标方向是向递增方向行驶的;c = 0 时,表示车辆在纵坐标方向是向递减方向行驶的;
b5:第MX帧视频对应的行驶方向r和c,设置为与第MX-1帧相同;
步骤S13中,当所述待识别车辆在对应的待识别视频帧中显示为车头时:
若运动方向在纵坐标方向为递增的时候,所述待识别车辆存在逆行驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,所述待识别车辆存在倒车驾驶违法行为。
当所述待识别车辆在对应的待识别视频帧中显示车尾时:
若运动方向在纵坐标方向为递增的时候,所述待识别车辆存在倒车驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,所述待识别车辆存在逆行驾驶违法行为。
本发明提供的一种高速公路上机动车倒车和逆行违法行为主动发现方法,其通过设置场景通行信息,以场景通行信息中点通行信息的通行方向,代表待检测路段上大多数车辆的通行方向,将待识别车辆的通行方向与场景通行信息中不同的点通行信息的通行方向进行比较,确认待识别车辆是否存在逆行或者倒车的问题;本发明技术方案中,无需对监控相机进行特殊设置,即可实现实现高速公路上机动车倒车、逆行违法行为的主动发现,极大的节省了人力资源。
附图说明
图1为高速公路上机动车倒车和逆行违法行为主动发现方法的流程示意图;
图2为车辆轨迹识别流程示意图。
具体实施方式
如图1所示,本发明一种高速公路上机动车倒车和逆行违法行为主动发现方法,其包括以下步骤。
S1:采集待检测路段上的监控设备采集的监控视频数据,记做基础视频数据。
S2:将基础视频数据逐帧分解为图片后,将所有图片按照视频时间顺序存储,记做基础图片数据。
本实施例中的坐标,基于基础图片数据建立。以基础图片数据的图片左上角为原点,由左至右方向为横坐标递增方向,由上之下为纵坐标递增方向。
S3:基于基础图片数据识别出图片中包括的车辆,以及每辆车的车辆轨迹集合;
轨迹集合包括:按照时间顺序排列的每辆车的轨迹点和轨迹点对应的基础图片数据信息。
因为高速公路为双向严格封闭道路,大部分车辆行驶轨迹是符合高速公路的行驶规则,则,在相同通行区域中,与大部分车辆行驶方向不同的车辆即为存在倒车、逆行嫌疑的车辆。而在高速公路上,监控设备设置在道路一侧,不同监控设备监测的路段不同。同一台监控设备监控的路段是固定的,通过这个路段的车辆会被摄像头采集到影响数据,即基于监控设备采集到的视频数据转换的图片中,同一张图片会包括同时行驶在这个路段中的多台车辆。
本专利技术方案中,基于不同的监控设备,获取不同的历史数据作为基础视频数据,通过计算得到场景通行信息,使用场景通行信息中的点通行方向,代表待检测路段的合法的同行方向,在主动发现的流程中,与待识别待识别车辆的同行方向进行比较,得到待识别方向是否存在逆行、倒车违法行为。通过基础视频数据计算得到的场景通行信息,而不是认为指定待检测路段的同行方向,首先可确保本发明技术方案能够尽量减少对人工的依赖,避免人为设置出错的问题发生;其次,即便道路行驶状态发生变化,也可以通过后续步骤S14,实时更新待检测路段对应的场景通行信息,确保本发明技术方案能够自动适应道路情况发生的变化,确保本发明技术方案更具实用性。
本方法中,图片目标检测要先训练一个目标检测算法,训练数据来源于集待检测路段上的监控视频,将视频按帧转为图片集。视频转图片集是接入相机或平台视频流后,利用已有方法按帧抽取,也可以每隔多帧抽取一张图片,具体根据待检测路段的车辆密集程度和监控设备的位置进行设置。
然后,人工标注图片中的车辆类型,具体类型可以按照待检测路段上通行的车辆特点进行设置,如:小轿车、面包车、中巴车、大客车、小货车、大货车等6类目标。基于监控视频数据分解为图片后,识别出图片中的车辆的过程,基于现有的基于深度学习识别图片中车辆目标的技术实现即可。本实施例中选择基于YOLO模型构建目标检测模型进行后续的车辆目标检测;选用YOLO模型的理由是视频每秒由多帧(一般是25)图片组成,需要选择效率较高的算法以保证实时性。通过训练好的目标检测模型进行目标检测时,将待识别图片输入到目标检测模型中,输出的输出图片中中会带有各目标的车辆类型属性(所属6个车辆类型之一)及通过车辆检测标注框表示的车辆位置的信息。
本发明技术方案中,车辆位置,是基于四边形的车辆检测标注框表示车辆在图片中的位置;
车辆位置表示为:车辆检测标注框的左上角横坐标、纵坐标和横边的边长、纵边的边长。
而后续计算车辆在图片中位置,则通过车辆所在位置的中心点坐标进行计算;车辆所在位置的中心点坐标的计算方法:
中心点坐标的横坐标x = 车辆检测标注框的左上角横坐标 + 车辆检测标注框的横边边长/2;
中心点坐标的纵坐标y = 车辆检测标注框的左上角纵坐标 + 车辆检测标注框的纵边边长/2。
在实际检测过程中,基于监控设备获取的图片中,车辆检测标注框的左上角的点因为是边界点,缺少像素或者位置出现误差的可能性较大,所以本发明的方法中,使用中心点坐标(x,y)代表车辆的在图片中的位置,进而降低在计算通行方向时出错的概率。
因为在监控设备采集的视频数据得到的基础图片数据中,帧与帧之间的时间间隔极小,所以同一辆车在相邻帧中车辆位置的中心点坐标的欧式距离是最短的,即便是同一类型的车辆,在相邻帧之间的距离也不会互相混淆。所以本专利的方法中,计算每辆车的车辆轨迹时,不是基于车牌号码进行计算,而是通过车辆种类区分不同的车,找到每辆车在下一帧中与其距离最短的同类型车辆即认为是其在下一帧中的轨迹。
如图2所示,基于基础图片数据识别出图片中包括的车辆,每辆车的车辆轨迹,具体实现过程包括以下步骤。
根据本发明技术方案中的目标检测模型检测出的车辆目标检测结果中,包括:车辆类型、及通过车辆检测标注框表示的车辆位置的信息。
设,车辆信息v,用来描述车辆在基础图片数据中的位置以及车辆类型;
单张基础图片数据识别后可形成图片中多个车辆信息的集合,定义为车辆信息集V,V是同一张图片中若干v的集合;
某一车辆在多帧图片中的车辆信息集合记为车辆跟踪结果r,r是同一辆车,在不同图片中的若干v的集合;
基础视频数据中车辆对应的的视频车辆跟踪结果定义为R,R是r的集合;
所述基础视频数据中车辆对应的视频车辆待跟踪结果定义为R,R是r的集合;
基础视频数据中车辆对应的视频车辆跟踪完毕结果定义为Y,Y也是r的集合;
R与Y的区别是,R是跟踪过程汇总的中间数据,是正在进行跟踪,且尚未完成跟踪的目标集合,Y是已经确定完成了跟踪的目标集合;
c1:将基础视频数据逐帧转换为基础图片数据,并且按照时间顺序排列;
设j为基础图片数据对应的图片帧序号;
j初始为1,对应时间最早的基础视频数据;
R初始化为空;
c2:取出第j张基础图片数据,识别后得到对应的Vj
c3:判断视频车辆跟踪结果R是否为空;
若R为空,则将每一个v作为一个跟踪结果r,写入R;
j = j+1,进入c2;
若R不为空,进入c4;
c4:从集合R中取出一个车辆信息集合r,r中最后一个车辆信息为vr,为r构建一个候选列表集合L,初始化L为空;
c5:从Vj中取出一个车辆信息vk
设Vj中包括Nv个车辆信息,k为车辆信息v在Vj中的序号,k≤Nv;k初始化为1;
c6:比较vk和vr的车辆种类是否相同;
如果二者相同,则执行步骤c7;
否则执行步骤c8;
c7:计算vr的中心点坐标与vk的中心点坐标的距离DH;
比较DH和预设的轨迹距离阈值;
当DH < 轨迹距离阈值,则将对应的vk放入到L中;
否则,执行步骤c8;
c8:循环实施步骤c5~c7,直至集合Vj中所有vk都与vr进行过比较后,执行步骤c9;
c9:确认r对应的候选表集合L是否为空;
如果L为空,r跟踪结束,将r从R中移除,加入Y,执行步骤c11;
否则,实施步骤c10;
c10:从L中取出与r中心点坐标距离最小的车辆信息vk,放到车辆跟踪结果r中,作为车辆跟踪结果r的最后一辆车;从Vj中删除vk
c11:循环执行步骤c4~c10;直至R中每一个r都参与过计算;
c12:若Vj中仍然存在vk,则将每一个vk作为一个新的跟踪结果r,写入R;
c13:j =j+1,循环执行步骤c2~c13,直至基础视频数据对应的所有的基础图片数据都参与过计算;得到了基础视频数据中所有车辆对应的视频车辆跟踪完毕结果Y;
c14:确认Y中包括的所有的车辆跟踪结果r中包括的车辆的轨迹点个数;
设每个车辆跟踪结果r包括的轨迹点个数为Nr;
找到所有的Nr小于预设的轨迹计算阈值的车辆跟踪结果r,从Y中进行删除;
最终得到的视频车辆跟踪完毕结果Y对应的待分类车辆、轨迹点集合和对应的车辆类型,即为基于基础图片数据的车辆轨迹识别结果。
本发明的方法中,追踪车辆的轨迹无需基于车牌号码对比不同车辆进行区分,也就无需对车牌号码进行识别,同样无需考虑图片中的车牌号码识别纠错过程,极大的简化了对轨迹的计算过程,降低了计算量,提高了方法整体的计算效率,也降低了对硬件性能的要求。尤其适用于本发明技术方案中,需要对场景通行信息实时更新的应用场景。
具体应用的时候,需要设置轨迹距离阈值和轨迹计算阈值,用轨迹距离阈值来定义相邻的两张图片中同一辆车的轨迹点,当超过这个阈值时,即认为轨迹点丢失,因为实际的生产应用中,存在因为意外导致监控装置丢帧等意外情况存在。此时,只要找到的待分类车辆的轨迹点大于等于轨迹计算阈值,就可以判断待分类车辆的行驶方向了,无需更多的轨迹点。如,理想情况下,通过三个轨迹点就能确定车辆的行驶方向,为了更准确的判断,轨迹计算阈值可以设置为大于等于3的数字;而轨迹距离阈值表示同一辆车在相邻辆帧中轨迹点的距离,要根据当前待检测路段的平均车速以及监控设备安装的位置进行设置,不同车速,监控设备距离待检测路段的距离,都会导致轨迹距离阈值发生变化。
S4:将轨迹集合中每一张基础图片数据,记做基础车辆视频帧;
分别计算每一帧基础车辆视频帧中车辆位置的中心点坐标(x,y);
S5:基于轨迹集合,使用车辆的中心点坐标,计算得出基础车辆视频帧中的车辆的通行方向,获得每一帧基础车辆视频帧对应的点通行信息;
点通行信息包括:中心点坐标、车辆的通行方向,即通行信息表示为:(x,y,r,c),
其中x,y表示中心点坐标,r和c分别取值0或1,0代表递减、1代表递增。
通行方向的计算方法,包括以下步骤:
b1:获取参与计算的指定车辆在车辆轨迹集合中对应的视频帧的数量量;
设共有MX帧视频帧,车辆轨迹集合中每一帧对应的车辆的所述中心点坐标为(xi,yi);
其中,i为小于等于MX的正整数;
b2:从第一帧开始取出每一个视频帧;
b3:确认当前帧(第i帧)是否为最后一帧视频帧;
当 i = MX时,实施步骤b5;
否则实施步骤b4;
b4:比较第i帧的车辆信息和第i+1帧的车辆信息的中心点坐标,得到对一个车辆在横坐标和纵坐标方向的行驶方向r和c;
当xi+1 > xi,则r = 1,否则r = 0;
当yi+1> yi,则 c = 1,否则c = 0;
当r = 1的时候,表示车辆在横坐标方向是向递增方向行驶的;r = 0 时,表示车辆在横坐标方向是向递减方向行驶的;
当c = 1的时候,表示车辆在纵坐标方向是向递增方向行驶的;c = 0 时,表示车辆在纵坐标方向是向递减方向行驶的;
b5:第MX帧视频对应的行驶方向r和c,设置为与第MX-1帧相同。
S6:将基础视频数据中识别出来的所有车辆对应的所有点通行信息作为一个集合,记做场景通行信息。
S7:循环执行步骤S1~S6,获取新的基础视频数据,直至场景通信信息中包括的点通行信息的个数大于预设的有效基础数据阈值。通过有效基础数据阈值来控制场景通信信息中包括的点通行信息的最低数量,确保场景通信信息中的点通行信息能够准确地反应待检测路段通行方向。具体取值根据路段的平均车流量密度进行设置。
S8:基于监控设备拍摄的视频,获取待识别车辆对应的连续的待识别视频帧;
同时确保待识别视频帧的个数大于等于预设的比较数量阈值。本实施例中,比较数量阈值大于等于3,确保基于待识别视频帧能够计算出带是被车辆的同行方向。
S9:计算获得待识别车辆的在每一帧待识别视频帧中对应的点通行信息,记做待识别点信息。
S10:按照时间顺序将每一个待识别点信息取出,分别在场景通行信息中查找到与其中心点坐标距离最近的N个点通行信息,记做参照对比信息点;
其中,N为预设的参照比对数量阈值。
本实施例中,N取值为3,因为在正常行驶状态下的待检测路段中,场景通行信息中大部分的点信息的通行方向都是体现了路段的通行方向的,所以取一部分场景通信息中的点信息参与计算即可,但同时因为信息中存在部分逆行的点信息,所以通过参照比对数量阈值N来控制参与计算的点信息的数量,进而控制计算量,同时还能够确保参与计算的电信息能够准确代表路段的通行方向。
S11:分别将N个参照比对信息点的通行方向与对应的待识别点信息的通行方向进行比较;
如果N个参照比对信息点的通行方向都与对应的待识别点信息的通行方向不同,则对应的待识别点信息记做方向异常点;
否则,待识别信息点为方向正常点。
S12:当待识别车辆对应的所有待识别点信息都参与计算后,确认其对应的方向异常点是否同时满足下列条件的;
如果满足,则对应的待识别车辆存在通行方向异常,实施步骤S13;否则,待识别车辆为正常行驶车辆,结束本次违法行为识别操作;
方向异常点个数超过预设的异常判断阈值;
存在时间上连续的方向异常点,并且连续的点个数超过预设的异常连续帧数阈值。
S13:将存在通行方向异常的待识别视频帧,输入到预先构建并训练好的车头车尾二分类算法分类模型中,根据识别出来的待识别车辆的车头和车尾的方向和其通行方向的关系,判断待识别车辆的违法行为是倒车驾驶还是逆行驾驶。
因为待检测路段上的监控设备在实际安装时,通常会位于待检测路段的道路一侧,其监控方向可能偏向于车辆的车头或者车尾。所以在本发明方法具体实施的时候,具体的车头车尾二分类算法基于现有技术中的二分类算法模型如:SVM(Support VectorMachine,支持向量机)、KNN(K-NearestNeighbor,最邻近结点)等等现有分类器构建,然后使用待检测路段上的监控设备采集的历史视频数据逐帧分解得到的图片,做好车头和车尾的标注构建训练集;使用训练集对二分类算法模型进行训练,得到训练好的车头车尾二分类算法模型。
当待识别车辆在对应的待识别视频帧中显示为车头时:
若运动方向在纵坐标方向为递增的时候,待识别车辆存在逆行驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,待识别车辆存在倒车驾驶违法行为。
当待识别车辆在对应的待识别视频帧中显示车尾时:
若运动方向在纵坐标方向为递增的时候,待识别车辆存在倒车驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,待识别车辆存在逆行驾驶违法行为。
S14:更新场景通行信息的数据;具体更新过程包括以下步骤:
a1:获取待识别点信息中包括含的数据的数量;
设待识别信息中包括m1个点通行信息;
a2:获取场景通行信息中包括的点通行信息的个数;
设场景通行信息中包括m2个点通行信息;
a3:确认待识别点信息和场景通行信息合并后,总的数据量是否大于预设场景通信信息中的点通行数据最大容量M;
如果m1+m2 > M,则实施步骤a4;
否则实施步骤a5;
a4:将场景通行信息中,时间最早的m1+m2-M个点通行信息删除,然后实施步骤a5;
a5:将待识别点信息添加到场景通行信息中,确保场景通行信息中的数据是能代表待检测路段最新通行状态的最新数据,进而确保本发明技术方案的识别结果的准确性。
本发明技术方案中,对场景通行信息中的数据实时更新,用以实现对待检测路段通行方向的适应性更新;具体实施时,M设置为正整数,如:50、100,具体数字根据道路上的车流密度进行设置,通过点通行数据最大容量M来限制场景通行信息中的数据量,如果超过的时候,则将时间比较老的数据进行删除,使场景通行信息中的点通行信息的数量保持为小于等于M个,在确保场景通行信息能够准确体现路段的通行方向的基础上,降低计算量。同时本发明的方法中,添加新数据时,不去区分添加的数据点的通行方向,而是将所有的最新数据都添加进去,可以准确的体现路段的车辆行驶方向,也因为无需区分通行方向,而降低了整体的计算量,提高了计算效率。
获取实施例中的待检测路段中的监控视频数据,将基础视频数据逐帧分解为图片后,将所有图片按照视频时间顺序存储,记做基础图片数据。基于基础图片数据识别出图片中包括的车辆,以及每辆车的车辆轨迹集合。
设,某辆车在基础车辆视频帧对应的点通行信息如下所示:
[{K4,100,600,100,100},{K4,103,598,100,100},{K4,106,595,100,100},{K4,110,593,100,100},{K4,114,591,100,100}],
其含义是某小轿车(K4),在视频中有5帧轨迹。
在视频帧中,待识别车辆对应的车辆检测标注框左上角x、左上角y、区域宽度、区域高度分别是:
100,600,100,100、103,598,100,100、106,595,100,100、110,593,100,100、114,591,100,100。
计算每一帧的车辆的中心点坐标:
[{150,650},{153,648},{156,645},{160,643},{164,641}]。
遍历中心点坐标,计算车辆的行驶方向。比较每一帧中心点坐标与下一帧中心点坐标的x,y,填写r,c,对于尾帧,r,c与上一帧相同。仍以上述数据为例,得到的轨迹集合中包括的通行信息为:
[{150,650,1,0},{153,648,1,0},{156,645,1,0},{160,643,1,0},{164,641,1,0}]。
将计算得到的所有轨迹集合进行合并,得到待检测路段的通行场景信息为:
[{150,650,1,0},{153,648,1,0},{156,645,1,0},{160,643,1,0},{164,641,1,0}],[{147,662,1,0},{149,660,1,0},{151,658,1,0},{153,655,1,0},{155,653,1,0}],[{163,688,1,0},{166,686,1,0},{168,684,1,0},{171,682,1,0},{173,680,1,0}],[{174,673,1,0},{177,671,1,0},{180,669,1,0},{182,667,1,0},{185,664,1,0}],
[{153,657,1,0},{155,655,1,0},{158,652,1,0},{161,650,1,0},{162,647,1,0}]
本实施例中,有效基础数据阈值设置为25,即,最低保证通行场景信息中包括25个点通行信息,通过这25个点通行信息表达待检测路段的通行方向。根据r和c的取值可知,上述在这5个点通行信息中,5个点通行信息均为从屏幕偏左下方,向右上方行驶。
设,待识别车辆对应的目标通行信息为:
[{160,630,0,1},{158,633,0,1},{156,637,0,1},{153,640,0,1},{151,643,0,1}]
遍历待识别车辆的每个中心点坐标:
对于第一个中心点坐标{160,630,0,1},场景中与之最近的3个信息点是:{160,643,1,0}、{164,641,1,0}、{162,647,1,0}。
可知,第一个中心点坐标的r,c(0,1)与三个点的r,c(1,0)均不相同,当前帧方向异常。
同理计算,发现后续{158,633,0,1},{156,637,0,1}方向均异常,连续异常数达到3,则可认定待识别车辆通行方向异常。最后结合车头车尾分类判断是倒车还是逆行。

Claims (7)

1.一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于,其包括以下步骤:
S1:采集待检测路段上的监控设备采集的监控视频数据,记做基础视频数据;
S2:将所述基础视频数据逐帧分解为图片后,将所有图片按照视频时间顺序存储,记做基础图片数据;
S3:基于所述基础图片数据识别出图片中包括的车辆,以及每辆车的车辆轨迹集合;
所述轨迹集合包括:按照时间顺序排列的每辆车的轨迹点和所述轨迹点对应的基础图片数据信息;
S4:将所述轨迹集合中每一张所述基础图片数据,记做基础车辆视频帧;
分别计算每一帧所述基础车辆视频帧中车辆位置的中心点坐标;
S5:基于所述轨迹集合,使用车辆的所述中心点坐标,计算得出所述基础车辆视频帧中的车辆的通行方向,获得每一帧所述基础车辆视频帧对应的点通行信息;
所述点通行信息包括:中心点坐标、车辆的通行方向;
S6:将所述基础视频数据中识别出来的所有车辆对应的所有所述点通行信息作为一个集合,记做场景通行信息;
S7:循环执行步骤S1~S6,获取新的所述基础视频数据,直至所述场景通信信息中包括的所述点通行信息的个数大于预设的有效基础数据阈值;
S8:基于所述监控设备拍摄的视频,获取待识别车辆对应的连续的待识别视频帧;
同时确保所述待识别视频帧的个数大于等于预设的比较数量阈值;
S9:计算获得所述待识别车辆的在每一帧所述待识别视频帧中对应的所述点通行信息,记做待识别点信息;
S10:按照时间顺序将每一个所述待识别点信息取出,分别在所述场景通行信息中查找到与其所述中心点坐标距离最近的N个所述点通行信息,记做参照对比信息点;
其中,N为预设的参照比对数量阈值;
S11:分别将N个所述参照比对信息点的通行方向与对应的所述待识别点信息的通行方向进行比较;
如果N个所述参照比对信息点的通行方向都与对应的所述待识别点信息的通行方向不同,则对应的所述待识别点信息记做方向异常点;
否则,所述待识别信息点为方向正常点;
S12:当所述待识别车辆对应的所有待识别点信息都参与计算后,确认其对应的所述方向异常点是否同时满足下列条件的;
如果满足,则对应的所述待识别车辆存在通行方向异常,实施步骤S13;否则,所述待识别车辆为正常行驶车辆,结束本次违法行为识别操作;
所述方向异常点个数超过预设的异常判断阈值;
存在时间上连续的所述方向异常点,并且连续的点个数超过预设的异常连续帧数阈值;
S13:将存在通行方向异常的所述待识别视频帧,输入到预先构建并训练好的车头车尾二分类算法分类模型中,根据识别出来的所述待识别车辆的车头和车尾的方向和其通行方向的关系,判断所述待识别车辆的违法行为是倒车驾驶还是逆行驾驶。
2.根据权利要求1所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:其还包括步骤S14:更新所述场景通行信息的数据;具体更新过程包括以下步骤:
a1:获取所述待识别点信息中包括含的数据的数量;
设所述待识别信息中包括m1个所述点通行信息;
a2:获取所述场景通行信息中包括的所述点通行信息的个数;
设所述场景通行信息中包括m2个所述点通行信息;
a3:确认所述待识别点信息和所述场景通行信息合并后,总的数据量是否大于预设场景通信信息中的点通行数据最大容量M;
如果m1+m2 > M,则实施步骤a4;
否则实施步骤a5;
a4:将所述场景通行信息中,时间最早的m1+m2-M个所述点通行信息删除,然后实施步骤a5;
a5:将所述待识别点信息添加到所述场景通行信息中。
3.根据权利要求1所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:步骤S3中,基于所述基础图片数据识别出图片中包括的车辆,每辆车的车辆轨迹,包括以下步骤:
设:车辆信息v,用来描述车辆在所述基础图片数据中的位置以及车辆类型;
单张基础图片数据识别后可形成图片中多个车辆信息的集合,定义为车辆信息集V,V是同一张图片中若干v的集合;
某一车辆在多帧图片中的车辆信息集合记为车辆跟踪结果r,r是同一辆车,在不同图片中的若干v的集合;
所述基础视频数据中车辆对应的的视频车辆待跟踪结果定义为R,R是r的集合;
所述基础视频数据中车辆对应的视频车辆跟踪完毕结果定义为Y,Y也是r的集合;
R与Y的区别是,R是跟踪过程汇总的中间数据,是正在进行跟踪,且尚未完成跟踪的目标集合,Y是已经确定完成了跟踪的目标集合;
c1:将所述基础视频数据逐帧转换为所述基础图片数据,并且按照时间顺序排列;
设j为所述基础图片数据对应的图片帧序号;
j初始为1,对应时间最早的所述基础视频数据;
R初始化为空;
c2:取出第j张所述基础图片数据,识别后得到对应的Vj
c3:判断所述视频车辆跟踪结果R是否为空;
若R为空,则将每一个v作为一个跟踪结果r,写入R;
j = j+1,进入c2;
若R不为空,进入c4;
c4:从集合R中取出一个车辆信息集合r,r中最后一个车辆信息为vr,为r构建一个候选列表集合L,初始化L为空;
c5:从Vj中取出一个车辆信息vk
设Vj中包括Nv个车辆信息,k为车辆信息v在Vj中的序号,k≤Nv;k初始化为1;
c6:比较vk和vr的车辆种类是否相同;
如果二者相同,则执行步骤c7;
否则执行步骤c8;
c7:计算vr的中心点坐标与vk的中心点坐标的距离DH;
比较DH和预设的轨迹距离阈值;
当DH < 所述轨迹距离阈值,则将对应的vk放入到L中,然后执行步骤c8;
否则,执行步骤c8;
c8:循环实施步骤c5~c7,直至集合Vj中所有vk都与vr进行过比较后,执行步骤c9;
c9:确认r对应的候选表集合L是否为空;
如果L为空,r跟踪结束,将r从R中移除,加入集合Y,执行步骤c11;
否则,实施步骤c10;
c10:从L中取出与r中心点坐标距离最小的车辆信息vk,放到车辆跟踪结果r中,作为车辆跟踪结果r的最后一辆车;从Vj中删除vk
c11:循环执行步骤c4~c10;直至R中每一个r都参与过计算;
c12:若Vj中仍然存在vk,则将每一个vk作为一个新的跟踪结果r,写入R;
c13:j =j+1,循环执行步骤c2~c13,直至所述基础视频数据对应的所有的所述基础图片数据都参与过计算;得到了所述基础视频数据中所有车辆对应的视频车辆跟踪完毕结果Y;
c14:确认Y中包括的所有的车辆跟踪结果r中包括的车辆的轨迹点个数;
设每个所述车辆跟踪结果r包括的轨迹点个数为Nr;
找到所有的Nr小于预设的轨迹计算阈值的所述车辆跟踪结果r,从Y中进行删除;
最终得到的视频车辆跟踪完毕结果Y对应的待分类车辆、轨迹点集合和对应的车辆类型,即为基于基础图片数据的车辆轨迹集合。
4.根据权利要求1所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:所述车辆位置,是基于四边形的车辆检测标注框表示车辆在图片中的位置;
所述车辆位置表示为:所述车辆检测标注框的左上角横坐标、纵坐标和横边的边长、纵边的边长;
其中,以基础图片数据的图片左上角为原点,由左至右方向为横坐标递增方向,由上之下为纵坐标递增方向。
5.根据权利要求4所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:车辆位置的所述中心点坐标的计算方法:
所述中心点坐标的横坐标 = 车辆检测标注框的左上角横坐标 + 车辆检测标注框的横边边长/2;
所述中心点坐标的纵坐标 = 车辆检测标注框的左上角纵坐标 + 车辆检测标注框的纵边边长/2。
6.根据权利要求5所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:步骤S5中,所述通行方向的计算方法,包括以下步骤:
b1:获取参与计算的指定车辆在车辆轨迹集合中对应的视频帧的数量;
设共有MX帧视频帧,车辆轨迹集合中每一帧对应的车辆的所述中心点坐标为(xi,yi);
其中,i为小于等于MX的正整数;
b2:从第一帧开始取出每一个视频帧;
b3:确认当前帧是否为最后一帧视频帧;
当 i = MX时,实施步骤b5;
否则实施步骤b4;
b4:比较第i帧的车辆信息和第i+1帧的车辆信息的中心点坐标,得到对一个车辆在横坐标和纵坐标方向的行驶方向r和c;
当xi+1 > xi,则r = 1,否则r = 0;
当yi+1> yi,则 c = 1,否则c = 0;
当r = 1的时候,表示车辆在横坐标方向是向递增方向行驶的;r = 0 时,表示车辆在横坐标方向是向递减方向行驶的;
当c = 1的时候,表示车辆在纵坐标方向是向递增方向行驶的;c = 0 时,表示车辆在纵坐标方向是向递减方向行驶的;
b5:第MX帧视频对应的行驶方向r和c,设置为与第MX-1帧相同。
7.根据权利要求1所述一种高速公路上机动车倒车和逆行违法行为主动发现方法,其特征在于:步骤S13中,当所述待识别车辆在对应的待识别视频帧中显示为车头时:
若运动方向在纵坐标方向为递增的时候,所述待识别车辆存在逆行驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,所述待识别车辆存在倒车驾驶违法行为;
当所述待识别车辆在对应的待识别视频帧中显示车尾时:
若运动方向在纵坐标方向为递增的时候,所述待识别车辆存在倒车驾驶违法行为;
若运动方向在纵坐标方向为递减的时候,所述待识别车辆存在逆行驾驶违法行为。
CN202111458903.0A 2021-12-02 2021-12-02 一种高速公路上机动车倒车和逆行违法行为主动发现方法 Pending CN114049610A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111458903.0A CN114049610A (zh) 2021-12-02 2021-12-02 一种高速公路上机动车倒车和逆行违法行为主动发现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111458903.0A CN114049610A (zh) 2021-12-02 2021-12-02 一种高速公路上机动车倒车和逆行违法行为主动发现方法

Publications (1)

Publication Number Publication Date
CN114049610A true CN114049610A (zh) 2022-02-15

Family

ID=80212069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111458903.0A Pending CN114049610A (zh) 2021-12-02 2021-12-02 一种高速公路上机动车倒车和逆行违法行为主动发现方法

Country Status (1)

Country Link
CN (1) CN114049610A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114944083A (zh) * 2022-05-13 2022-08-26 公安部交通管理科学研究所 一种高速公路上行驶车辆与前车距离的判断方法
WO2024098992A1 (zh) * 2022-11-11 2024-05-16 京东方科技集团股份有限公司 倒车检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120287278A1 (en) * 2011-05-15 2012-11-15 Robert Danis Traffic Violation Photo Enforcement System
CN111310583A (zh) * 2020-01-19 2020-06-19 中国科学院重庆绿色智能技术研究院 一种基于改进的长短期记忆网络的车辆异常行为识别方法
CN111507237A (zh) * 2020-04-13 2020-08-07 北京巨视科技有限公司 一种应用在高速公路上基于视频的异常事件检测方法与装置
CN112364794A (zh) * 2020-11-18 2021-02-12 合肥湛达智能科技有限公司 一种基于嵌入式终端的深度学习逆行检测方法
CN113420748A (zh) * 2021-08-25 2021-09-21 深圳市城市交通规划设计研究中心股份有限公司 车辆违规行驶的检测方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120287278A1 (en) * 2011-05-15 2012-11-15 Robert Danis Traffic Violation Photo Enforcement System
CN111310583A (zh) * 2020-01-19 2020-06-19 中国科学院重庆绿色智能技术研究院 一种基于改进的长短期记忆网络的车辆异常行为识别方法
CN111507237A (zh) * 2020-04-13 2020-08-07 北京巨视科技有限公司 一种应用在高速公路上基于视频的异常事件检测方法与装置
CN112364794A (zh) * 2020-11-18 2021-02-12 合肥湛达智能科技有限公司 一种基于嵌入式终端的深度学习逆行检测方法
CN113420748A (zh) * 2021-08-25 2021-09-21 深圳市城市交通规划设计研究中心股份有限公司 车辆违规行驶的检测方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHIVA ASADIANFAM: "Big data platform of traffic violation detection system: identifying the risky behaviors of vehicle drivers", 《 MULTIMEDIA TOOLS AND APPLICATIONS 》, 23 June 2020 (2020-06-23), pages 24645, XP037224744, DOI: 10.1007/s11042-020-09099-8 *
郜义浩: "基于YOLOV3和KCF的高速公路监控视频交通事件检测", 《中国交通信息化》, 15 June 2019 (2019-06-15), pages 197 - 201 *
黄鑫;肖世德;宋波;: "监控视频中的车辆异常行为检测", 计算机系统应用, no. 02, 15 February 2018 (2018-02-15) *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114944083A (zh) * 2022-05-13 2022-08-26 公安部交通管理科学研究所 一种高速公路上行驶车辆与前车距离的判断方法
CN114944083B (zh) * 2022-05-13 2023-03-24 公安部交通管理科学研究所 一种高速公路上行驶车辆与前车距离的判断方法
WO2024098992A1 (zh) * 2022-11-11 2024-05-16 京东方科技集团股份有限公司 倒车检测方法及装置

Similar Documents

Publication Publication Date Title
CN109948582B (zh) 一种基于跟踪轨迹分析的车辆逆行智能检测方法
JP6570731B2 (ja) 乗客の混雑度の算出方法及びそのシステム
CN111652912B (zh) 车辆计数方法和系统、数据处理设备及智能拍摄设备
CN112750150B (zh) 基于车辆检测和多目标跟踪的车流量统计方法
CN104239867B (zh) 车牌定位方法及系统
CN109241938B (zh) 道路拥堵检测方法及终端
CN114049610A (zh) 一种高速公路上机动车倒车和逆行违法行为主动发现方法
CN104599502A (zh) 一种基于视频监控的车流量统计方法
CN103903019A (zh) 一种多车道车辆轨迹时空图的自动生成方法
CN102073851A (zh) 一种城市交通事故自动识别方法和系统
CN110348332B (zh) 一种交通视频场景下机非人多目标实时轨迹提取方法
CN111667512A (zh) 基于改进卡尔曼滤波的多目标车辆轨迹预测方法
CN104463903A (zh) 一种基于目标行为分析的行人图像实时检测方法
CN111597905B (zh) 一种基于视频技术的公路隧道停车检测方法
Chang et al. Video analytics in smart transportation for the AIC'18 challenge
CN107730889B (zh) 一种基于交通视频的目标车辆检索方法
CN110827540B (zh) 一种多模态数据融合的机动车移动模式识别方法及系统
US20220237919A1 (en) Method, Apparatus, and Computing Device for Lane Recognition
CN103985257A (zh) 一种智能交通视频分析方法
CN114170580A (zh) 一种面向高速公路的异常事件检测方法
CN114255428A (zh) 一种基于边缘智能和路边高位监控视频的车辆停车识别方法
CN115909224A (zh) 轨迹检测方法及轨迹检测系统
Gad et al. Real-time lane instance segmentation using segnet and image processing
Huang Real-time multi-vehicle detection and sub-feature based tracking for traffic surveillance systems
CN112447060A (zh) 识别车道的方法、装置及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination