CN109887281A - 一种监控交通事件的方法及系统 - Google Patents
一种监控交通事件的方法及系统 Download PDFInfo
- Publication number
- CN109887281A CN109887281A CN201910157386.XA CN201910157386A CN109887281A CN 109887281 A CN109887281 A CN 109887281A CN 201910157386 A CN201910157386 A CN 201910157386A CN 109887281 A CN109887281 A CN 109887281A
- Authority
- CN
- China
- Prior art keywords
- target
- traffic events
- frame
- state
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种监控交通事件的方法及系统,包括:对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;利用目标跟踪算法对目标区域中的目标进行目标跟踪;根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。本发明基于深度学习框架和目标跟踪技术,能够高效地识别车辆和行人并进行跟踪,能够直接与高速公路管理系统进行对接,实现自动分析高速公路视频数据,并输出交通事件信息;能够高效的利用道路摄像机,扩大高速公路采集交通事件的覆盖率;不需要采购专有的视频车检器设备,节约了成本。
Description
技术领域
本发明涉及交通信息服务技术领域,并且更具体地,涉及一种监控交通事件的方法及系统。
背景技术
目前的全程监控系统已经实现了高速公路全路线视频监控覆盖,主要包括固定摄像机和云台摄像机,其中云台摄像机可以操作改变监视角度,是主要的视频监测设备。高速公路检测交通事件的主要方式是通过视频车检器,此类设备为固定高清摄像机,通过设置,可以检测可视范围内容的交通事件(停车、行人、逆行)。
传统视频车检器检测交通事件主要原理如图1所示。整个检测过程分为以下几个步骤:1、由高清摄像抓拍主机获取实时的视频流;2、利用背景差分算法检测运动前景。首先通过初始多帧视频图像的自学习建立一个背景模型,然后对当前帧图像与背景模型进行差分运算,消除背景的影响,从而获取运动目标的前景区域;3、根据背景差分运算中运动目标检测的结果,有选择性地更新背景模型,并保存背景模型;过滤噪声,并获取准确的车辆位置;运用时空信息、匹配和预测等算法,对车辆进行准确的跟踪,得到车辆对象的运动轨迹,并保存车辆对象的轨迹信息;判断车辆是否到达触发线位置,如果没有到达,则进行下一帧的检测,如果到达则发出触发信号。
存在以下缺点:
1.设备成本高。由于视频车检器,主要由设备本身完成车辆识别与检测,设备采购维护成本较高。
2、覆盖范围小。此类设备必须采用固定角度安装,由于成本原因,高速公路主要采用云台摄像机居多,所以此类设备基本只有桥下等重点路段布设,以北京为例,一条50公里左右高速公路布设数量为1-4个,采集范围很小。
3、事件检测率低。由于采用传统图像背景差分分析等技术,对于行人事件的检测率偏低。
因此,需要一种能够高效地、准确地识别并监控交通事件的方法。
发明内容
本发明提出一种监控交通事件的方法及系统,以解决如何高效地、准确地识别并监控交通事件的问题。
为了解决上述问题,根据本发明的一个方面,提供了一种监控交通事件的方法,其特征在于,所述方法包括:
对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;
利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;
利用目标跟踪算法对目标区域中的目标进行目标跟踪;
根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
优选地,其中所述根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态,包括:
当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;
按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控;
根据监控结果更新目标的交通事件的状态。
优选地,其中所述根据根据监控结果更新目标的交通事件的状态,包括:
当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:
当f1和f0的差值大于第一预设阈值时,
若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;
若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;
若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;
其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
优选地,其中所述方法还包括:
若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;
若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;
若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
优选地,其中所述方法还包括:
当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述方法还包括:
当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述交通事件包括:行人事件、停车事件和逆行事件。
根据本发明的另一个方面,提供了一种监控交通事件的系统,其特征在于,所述系统包括:
抽帧处理单元,用于对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;
目标区域确定单元,用于利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;
目标跟踪单元,用于利用目标跟踪算法对目标区域中的目标进行目标跟踪;
监控单元,用于根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
优选地,其中所述监控单元,根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态,包括:
初始化模块,用于当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;
监控模块,用于按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控;
状态更新模块,用于根据监控结果更新目标的交通事件的状态。
优选地,其中所述状态更新模块,用于根据监控结果更新目标的交通事件的状态,包括:
当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:
当f1和f0的差值大于第一预设阈值时,
若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;
若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;
若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;
其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
优选地,其中所述系统还包括:
交通事件确定单元,用于若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;
若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;
若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
优选地,其中所述监控模块还包括:
当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述监控模块还包括:
当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述交通事件包括:行人事件、停车事件和逆行事件。
本发明提供了一种监控交通事件的方法及系统,包括:对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;利用目标跟踪算法对目标区域中的目标进行目标跟踪;根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。本发明基于深度学习框架和目标跟踪技术,实现了一套分析高速公路视频的交通事件的分析引擎,能够高效地识别车辆和行人并进行跟踪,能够直接与高速公路管理系统进行对接,实现自动分析高速公路视频数据,并输出交通事件信息;能够高效的利用道路摄像机,扩大高速公路采集交通事件的覆盖率;不需要采购专有的视频车检器设备,节约了成本。
附图说明
通过参考下面的附图,可以更为完整地理解本发明的示例性实施方式:
图1为现有的视频车检器设备检测交通事件的主要原理图;
图2为根据本发明实施方式的监控交通事件的方法200的流程图;
图3为根据本发明实施方式的监控交通事件的原理图;以及
图4为根据本发明实施方式的监控交通事件的系统400的结构示意图。
具体实施方式
现在参考附图介绍本发明的示例性实施方式,然而,本发明可以用许多不同的形式来实施,并且不局限于此处描述的实施例,提供这些实施例是为了详尽地且完全地公开本发明,并且向所属技术领域的技术人员充分传达本发明的范围。对于表示在附图中的示例性实施方式中的术语并不是对本发明的限定。在附图中,相同的单元/元件使用相同的附图标记。
除非另有说明,此处使用的术语(包括科技术语)对所属技术领域的技术人员具有通常的理解含义。另外,可以理解的是,以通常使用的词典限定的术语,应当被理解为与其相关领域的语境具有一致的含义,而不应该被理解为理想化的或过于正式的意义。
图2为根据本发明实施方式的监控交通事件的方法200的流程图。如图2所示,本发明的实施方式提供的监控交通事件的方法基于深度学习框架和目标跟踪技术,实现了一套分析高速公路视频的交通事件的分析引擎,能够高效地识别车辆和行人并进行跟踪,能够直接与高速公路管理系统进行对接,实现自动分析高速公路视频数据,并输出交通事件信息;能够高效的利用道路摄像机,扩大高速公路采集交通事件的覆盖率;不需要采购专有的视频车检器设备,节约了成本。本发明的实施方式提供的监控交通事件的方法100从步骤201处开始,在步骤201对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据。
在步骤202,利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域。
其中,确定的目标区域包括:行人区域和车辆区域。
在步骤203,利用目标跟踪算法对目标区域中的目标进行目标跟踪。
在本发明的实施方式中,利用深度学习框架YOLOv3进行目标检测;利用KCF目标跟踪算法进行目标跟踪。
YOLOv3是速度和精度非常均衡的目标检测网络。通过多种先进方法的融合,将YOLO系列的短板(速度很快,不擅长检测小物体等)全部补齐,达到了令人惊艳的效果和拔群的速度。
KCF跟踪算法的核心思想是利用循环矩阵乘以图片,使图像产生位移,从而得到大量样本。把位移的样本存在一个矩阵中会组成一个循环矩阵。根据一系列推导,将样本空间变换到DFT空间内,可以实现大量样本的快速训练和学习。循环卷积在DFT变换后变成了矩阵元素的点积,这样就将算法的时间复杂度从O(n^3)减少到O(n*log(n)),跟踪不仅速度快、效果好。
本发明实施方式深度学习框架和目标跟踪方法包括但不限于YOLOv3和KCF,例如:能够实现实现深度学习算法识别目标(车辆、行人)的软件框架,包括:R-CNN、SPP-NET、FastR-CNN、Faster R-CNN、YOLOv1、YOLOv2、YOLOv3;以及能够实现跟踪视频中的目标(车辆、行人)的技术,包括:BOOSTING、MIL、KCF、CSRT、MedianFlow、TLD、MOSSE、GOTURN等。
在步骤204,根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
优选地,其中所述根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态,包括:
当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;
按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控;
根据监控结果更新目标的交通事件的状态。
优选地,其中所述根据根据监控结果更新目标的交通事件的状态,包括:
当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:
当f1和f0的差值大于第一预设阈值时,
若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;
若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;
若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;
其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
优选地,其中所述方法还包括:
若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;
若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;
若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
优选地,其中所述方法还包括:
当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述方法还包括:
当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述交通事件包括:行人事件、停车事件和逆行事件。
图3为根据本发明实施方式的监控交通事件的原理图。如图3所示,在本发明的实施方式的实现主要涉及目标检测、目标跟踪以及逻辑判断,包括:对监控视频进行抽帧处理,以获取图片数据;利用获取的图片数据进行目标检测,确定车辆区域或行人区域;当为行人区域时,根据行人事件的事件规则判定是否出现行人事件;当为车辆区域时,进行目标跟踪,确定为车辆是处于停驶状态还是逆行状态,并根据相应的事件规则判定该停车区域是否发生了停车事件或逆行事件。
以下具体举例说明行人事件、停车事件和逆行事件的监控方法。其中,涉及到的数值均可进行自定义,包括但不限于以下实施例中的数值。
行人事件
其中,设置第一预设时间段为2秒;设置第一预设帧数阈值为25;设置第一预设阈值为78;第二预设阈值为3000,第六预设阈值为156。
在进行行人检测时,初始化一个行人事件列表[frame0,frame1,frame2],记为"event_Pedestrian",其中frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;列表初始取值为[-1,-1,-1];同时初始化一个行人事件状态列表[state,frame],记为"event_state_Pedestrian",其中state取值包括"None"、"Start"、"Continue"和"Stop",分别代表无事件、事件开始、事件持续与事件结束,frame表示当前帧数,列表初始取值为[“None”,-1]。
接下来对每秒产生的25帧图片每隔2秒检测一次,当第f0帧图片出现行人时,将上述行人事件列表更新为[f0,f0,f0],在后续的检测中,持续更新该列表。
例如在第f2帧,发现上一次出现行人的帧数为f1(f0≤f1≤f2),则上述行人事件列表更新为[f0,f1,f2]。
当行人事件列表的前两个值(f0,f1)非负时,进行如下判断:
当(f1-f0)>Pedestrian_start_frame_gap(即第一预设阈值78)时:
若行人事件状态列表"event_state_Pedestrian"的状态为"None",则将列表更新为["Start",frame],表示行人事件开始;
若行人事件状态列表"event_state_Pedestrian"的状态为"Start",则将列表更新为["Continue",frame],表示该次行人事件延续;
若行人事件状态列表"event_state_Pedestrian"的状态为"Continue",且(f2-f1)>Pedestrian_stop_frame_gap(即第二预设阈值3000)时,则将列表更新为["Stop",frame],表示该次行人事件结束;
若行人事件状态列表"event_state_Pedestrian"的状态为"Stop",则将行人事件列表"event_Pedestrian"初始化为[-1,-1,frame],行人事件状态列表"event_state_Pedestrian"初始化为["None",frame],用来进行之后的行人事件检测。
当(f1-f0)≤Pedestrian_start_frame_gap(即第一预设阈值78)且(f2-f1)>Pedestrian_delete_frame_gap(即第六预设阈值156)时,表明算法在较短的时间检测到了行人,但后续一段时间未检测到行人,可能发生了误检测,故将行人事件列表"event_Pedestrian"初始化为[-1,-1,frame],用于之后的行人检测。
当行人事件状态列表为["Start",frame]时,将行人事件写入数据库,表明行人事件开始;当行人事件状态列表为["Stop",frame]时,更新数据库中的该事件,表明行人事件结束;当行人事件状态列表为["Continue",frame]时,每隔一定时间更新数据库中的该事件,主要更新行人事件的结束时间。
2.停车事件
其中,设置第一预设时间段为2秒;设置第一预设帧数阈值为25;设置第一预设阈值为375;第二预设阈值为1500,第三预设阈值为13;第四预设阈值为2;第六预设阈值为400。
在进行停车事件检测时,首先利用YOLOv3算法检测画面中的车辆,并记录车辆的初始中心点坐标,之后对每辆车启用KCF目标跟踪算法,实时跟踪车辆,并更新车辆最新坐标,当跟踪的帧数大于第三预设阈值(track_count,这里取13)时,计算当前车辆中心点坐标与其初始坐标产生的位移(x方向位移的绝对值加y方向位移的绝对值),若位移超过第四预设阈值(car_stop_path_len_thresh,这里取2),则记录该帧出现停车事件。
当检测到某帧出现停车时,初始化一个停车事件列表[frame0,frame1,frame2],记为"event_Car_stop",其中frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;列表初始取值为[-1,-1,-1];同时初始化一个停车事件状态列表[state,frame],记为"event_state_Car_stop",其中state取值包括"None"、"Start"、"Continue"和"Stop",分别代表无事件、事件开始、事件持续与事件结束,frame表示当前帧数,列表初始取值为[“None”,-1]。
接下来对每秒产生的25帧图片每隔2秒检测一次,当第f0帧图片出现停车时,将上述停车事件列表更新为[f0,f0,f0],在后续的检测中,持续更新该列表。
例如在第f2帧,发现上一次出现停车的帧数为f1(f0≤f1≤f2),则上述停车事件列表更新为[f0,f1,f2]。
当停车事件列表的前两个值(f0,f1)非负时,进行如下判断:
当(f1-f0)>Car_stop_start_frame_gap(即第一预设阈值375)时:
若停车事件状态列表"event_state_Car_stop"的状态为"None",则将列表更新为["Start",frame],表示停车事件开始;
若停车事件状态列表"event_state_Car_stop"的状态为"Start",则将列表更新为["Continue",frame],表示该次停车事件延续;
若停车事件状态列表"event_state_Car_stop"的状态为"Continue",且(f2-f1)>Car_stop_stop_frame_gap(即第二预设阈值1500)时,则将列表更新为["Stop",frame],表示该次停车事件结束;
若停车事件状态列表"event_state_Car_stop"的状态为"Stop",则将停车事件列表"event_Car_stop"初始化为[-1,-1,frame],停车事件状态列表"event_state_Car_stop"初始化为["None",frame],用来进行之后的停车事件检测。
当(f1-f0)≤Car_stop_start_frame_gap(即第一预设阈值375)且(f2-f1)>Car_stop_delete_frame_gap(即第六预设阈值400)时,表明算法在较短的时间检测到了停车,但后续一段时间未检测到停车,可能发生了误检测,故将停车事件列表"event_Car_stop"初始化为[-1,-1,frame],用于之后的停车检测。
当停车事件状态列表为["Start",frame]时,将停车事件写入数据库,表明停车事件开始;当停车事件状态列表为["Stop",frame]时,更新数据库中的该事件,表明停车事件结束;当停车事件状态列表为["Continue",frame]时,每隔一定时间更新数据库中的该事件,主要更新停车事件的结束时间。
3.逆行事件
其中,设置第一预设时间段为2秒;设置第一预设帧数阈值为25;设置第一预设阈值为68;第二预设阈值为500,第三预设阈值为13;第四预设阈值为-32;第六预设阈值为156。
在进行逆行事件检测时,首先利用YOLOv3算法检测画面中的车辆,并记录车辆的初始中心点坐标,之后对每辆车启用KCF目标跟踪算法,实时跟踪车辆,并更新车辆最新坐标,当跟踪的帧数大于第三预设阈值(track_count,这里取13)时,计算当前车辆中心点坐标y与其初始坐标y产生的位移,若相对于正常方向产生负位移且该负位移超过第四预设阈值(car_inv_path_len_thresh,这里取-32),则记录该帧出现逆行事件。
当检测到某帧出现逆行时,初始化一个逆行事件列表[frame0,frame1,frame2],记为"event_Car_inv",其中frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;列表初始取值为[-1,-1,-1];同时初始化一个逆行事件状态列表[state,frame],记为"event_state_Car_inv",其中state取值包括"None"、"Start"、"Continue"和"Inv",分别代表无事件、事件开始、事件持续与事件结束,frame表示当前帧数,列表初始取值为[“None”,-1]。
接下来对每秒产生的25帧图片每隔2秒检测一次,当第f0帧图片出现逆行时,将上述逆行事件列表更新为[f0,f0,f0],在后续的检测中,持续更新该列表。
例如在第f2帧,发现上一次出现逆行的帧数为f1(f0≤f1≤f2),则上述逆行事件列表更新为[f0,f1,f2]。
当逆行事件列表的前两个值(f0,f1)非负时,进行如下判断:
当(f1-f0)>Car_inv_start_frame_gap(即第一预设阈值68)时:
若逆行事件状态列表"event_state_Car_inv"的状态为"None",则将列表更新为["Start",frame],表示逆行事件开始;
若逆行事件状态列表"event_state_Car_inv"的状态为"Start",则将列表更新为["Continue",frame],表示该次逆行事件延续;
若逆行事件状态列表"event_state_Car_inv"的状态为"Continue",且(f2-f1)>Car_inv_stop_frame_gap(即第二预设阈值500)时,则将列表更新为["Inv",frame],表示该次逆行事件结束;
若逆行事件状态列表"event_state_Car_inv"的状态为"Inv",则将逆行事件列表"event_Car_inv"初始化为[-1,-1,frame],逆行事件状态列表"event_state_Car_inv"初始化为["None",frame],用来进行之后的逆行事件检测。
当(f1-f0)≤Car_inv_start_frame_gap(即第一预设阈值68)且(f2-f1)>Car_inv_delete_frame_gap(即第六预设阈值156)时,表明算法在较短的时间检测到了逆行,但后续一段时间未检测到逆行,可能发生了误检测,故将逆行事件列表"event_Car_inv"初始化为[-1,-1,frame],用于之后的逆行检测。
当逆行事件状态列表为["Start",frame]时,将逆行事件写入数据库,表明逆行事件开始;当逆行事件状态列表为["Inv",frame]时,更新数据库中的该事件,表明逆行事件结束;当逆行事件状态列表为["Continue",frame]时,每隔一定时间更新数据库中的该事件,主要更新逆行事件的结束时间。
本发明的实施方式实现一套基于深度学习框架YOLOv3的高速公路视频数据分析引擎,本引擎能够输入视频或者图片数据,识别车辆和行人;实现基于KCF跟踪算法识别的车辆和行人,分析车辆行为和行人行为,输出交通事件数据;能够对接现有视频监控系统,建立高速公路事件识别模式,增加不固定摄像机检测交通事件的功能,并且可以检测多个角度。
图4为根据本发明实施方式的监控交通事件的系统400的结构示意图。如图4所示,本发明的实施方式提供的监控交通事件的系统,其特征在于,所述系统包括:抽帧处理单元401、目标区域确定单元402、目标跟踪单元403和监控单元404。
优选地,所述抽帧处理单元401,用于对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据。
优选地,所述目标区域确定单元402,用于利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域。
优选地,所述目标跟踪单元403,用于利用目标跟踪算法对目标区域中的目标进行目标跟踪。
优选地,所述监控单元404,用于根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
优选地,其中所述监控单元404,包括:初始化模块4041、监控模块4042和状态更新模块4043。
优选地,所述初始化模块4041,用于当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数。
优选地,所述监控模块4042,用于按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控。
优选地,所述状态更新模块4043,用于根据监控结果更新目标的交通事件的状态。
优选地,其中所述状态更新模块,根据监控结果更新目标的交通事件的状态,包括:当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:当f1和f0的差值大于第一预设阈值时,若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
优选地,其中所述系统还包括:交通事件确定单元,用于若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
优选地,其中所述监控模块还包括:当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述监控模块还包括:当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
优选地,其中所述优选地,其中所述交通事件包括:行人事件、停车事件和逆行事件。
本发明的实施例的监控交通事件的系统400与本发明的另一个实施例的监控交通事件的方法200相对应,在此不再赘述。
已经通过参考少量实施方式描述了本发明。然而,本领域技术人员所公知的,正如附带的专利权利要求所限定的,除了本发明以上公开的其他的实施例等同地落在本发明的范围内。
通常地,在权利要求中使用的所有术语都根据他们在技术领域的通常含义被解释,除非在其中被另外明确地定义。所有的参考“一个/所述/该[装置、组件等]”都被开放地解释为所述装置、组件等中的至少一个实例,除非另外明确地说明。这里公开的任何方法的步骤都没必要以公开的准确的顺序运行,除非明确地说明。
Claims (14)
1.一种监控交通事件的方法,其特征在于,所述方法包括:
对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;
利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;
利用目标跟踪算法对目标区域中的目标进行目标跟踪;
根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
2.根据权利要求1所述的方法,其特征在于,所述根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态,包括:
当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;
按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控;
根据监控结果更新目标的交通事件的状态。
3.根据权利要求2所述的方法,其特征在于,所述根据根据监控结果更新目标的交通事件的状态,包括:
当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:
当f1和f0的差值大于第一预设阈值时,
若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;
若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;
若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;
其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;
若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;
若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
6.根据权利要求3所述的方法,其特征在于,所述方法还包括:
当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述交通事件包括:行人事件、停车事件和逆行事件。
8.一种监控交通事件的系统,其特征在于,所述系统包括:
抽帧处理单元,用于对实时获取的交通监控视频进行抽帧处理,以获取多个实时的帧图像数据;
目标区域确定单元,用于利用深度学习框架对所述多个实时的帧图像数据进行目标检测,以确定目标区域;
目标跟踪单元,用于利用目标跟踪算法对目标区域中的目标进行目标跟踪;
监控单元,用于根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态。
9.根据权利要求8所述的系统,其特征在于,所述监控单元,根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控,并根据监控结果更新目标的交通事件的状态,包括:
初始化模块,用于当检测到目标时,将目标的交通事件列表[frame0,frame1,frame2]和目标的交通事件状态列表[state,frame]分别进行初始化;其中,frame0为第一次检测到目标的帧数;frame1为最近一次检测到目标的帧数;frame2为当前帧数;state为目标事件状态;frame为当前帧数;
监控模块,用于按照第一预设时间段间隔分别对每秒产生的第一预设帧数阈值的帧图像数据进行检测,并根据不同的目标对应的交通事件判定规则对目标的交通事件进行监控;
状态更新模块,用于根据监控结果更新目标的交通事件的状态。
10.根据权利要求9所述的系统,其特征在于,所述状态更新模块,用于根据监控结果更新目标的交通事件的状态,包括:
当最新的目标的交通事件列表[f0,f1,f2]中的f0和f1不为初始值时,进行如下判断:
当f1和f0的差值大于第一预设阈值时,
若目标的交通事件状态列表中的状态为"None",则将目标的交通事件状态列表更新为["Start",frame],表示目标的交通事件的开始;
若目标的交通事件状态列表中的状态为"Start",则将目标的交通事件状态列表更新为["Continue",frame],表示该当前目标的交通事件的延续;
若目标的交通事件状态列表中的状态为"Continue",并且f2和f1的差值大于第二预设阈值,则将目标的交通事件状态列表更新为["Stop",frame],表示当前目标的交通事件的结束;
其中,不同的交通事件对应不同的第一预设阈值和第二预设阈值。
11.根据权利要求10所述的系统,其特征在于,所述系统还包括:
交通事件确定单元,用于若检测到的目标为车辆,当跟踪目标的帧数大于第三预设阈值时,利用第一次检测到所述车辆时所述车辆的初始中心点坐标和当前中心点坐标计算所述车辆产生的位移;
若所述位移小于等于第四预设阈值,则确定该帧出现的目标的交通事件为停车事件;
若所述位移为相对于正常方向上产生的负位移,并且所述位移大于第五预设阈值,则确定该帧出现的目标的交通事件为逆行事件。
12.根据权利要求10所述的系统,其特征在于,所述监控模块还包括:
当检测到交通事件时,若满足f1与f0的差值小于等于第一预设阈值,并且f2和f1的差值大于第六预设阈值,则表示发生了误检测,对目标的交通事件列表进行初始化处理,用于之后的交通事件的检测。
13.根据权利要求10所述的系统,其特征在于,所述监控模块还包括:
当目标的交通事件状态列表中的状态为"Stop"时,分别对将目标的交通事件列表和目标的交通事件状态列表进行初始化处理,用于之后的交通事件的检测。
14.根据权利要求8-13中任一项所述的系统,其特征在于,所述交通事件包括:行人事件、停车事件和逆行事件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157386.XA CN109887281B (zh) | 2019-03-01 | 2019-03-01 | 一种监控交通事件的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910157386.XA CN109887281B (zh) | 2019-03-01 | 2019-03-01 | 一种监控交通事件的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109887281A true CN109887281A (zh) | 2019-06-14 |
CN109887281B CN109887281B (zh) | 2021-03-26 |
Family
ID=66930353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910157386.XA Active CN109887281B (zh) | 2019-03-01 | 2019-03-01 | 一种监控交通事件的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109887281B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110517506A (zh) * | 2019-08-26 | 2019-11-29 | 重庆同济同枥信息技术有限公司 | 基于交通视频图像检测停车事件的方法、装置及存储介质 |
CN110738686A (zh) * | 2019-10-12 | 2020-01-31 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN111079675A (zh) * | 2019-12-23 | 2020-04-28 | 武汉唯理科技有限公司 | 基于目标检测与目标跟踪的行驶行为分析方法 |
CN111126171A (zh) * | 2019-12-04 | 2020-05-08 | 江西洪都航空工业集团有限责任公司 | 一种车辆逆行检测方法及系统 |
CN111127877A (zh) * | 2019-11-19 | 2020-05-08 | 华为技术有限公司 | 一种路况信息的监测方法及装置 |
CN111145378A (zh) * | 2019-12-30 | 2020-05-12 | 中设设计集团股份有限公司 | 一种公路交通事件自动化视频巡查系统及方法 |
CN111209880A (zh) * | 2020-01-13 | 2020-05-29 | 南京新一代人工智能研究院有限公司 | 车辆行为识别方法、装置 |
CN111259760A (zh) * | 2020-01-13 | 2020-06-09 | 南京新一代人工智能研究院有限公司 | 动态目标行为识别方法、装置 |
CN111833598A (zh) * | 2020-05-14 | 2020-10-27 | 山东科技大学 | 一种高速公路无人机交通事件自动监测方法及系统 |
CN111862593A (zh) * | 2020-06-03 | 2020-10-30 | 北京百度网讯科技有限公司 | 交通类事件的上报方法、装置、电子设备及存储介质 |
CN112153329A (zh) * | 2020-08-17 | 2020-12-29 | 浙江大华技术股份有限公司 | 事件监测的配置方法、系统、计算机设备和存储介质 |
CN112487920A (zh) * | 2020-11-25 | 2021-03-12 | 电子科技大学 | 一种基于卷积神经网络的翻越行为识别方法 |
CN112947446A (zh) * | 2021-02-07 | 2021-06-11 | 启迪云控(上海)汽车科技有限公司 | 一种基于全知视角和特征提取的智能网联应用场景自动辨识方法、装置、介质及设备 |
CN113556506A (zh) * | 2020-04-24 | 2021-10-26 | 英研智能移动股份有限公司 | 基于图像的物体追踪方法 |
CN114004886A (zh) * | 2021-10-29 | 2022-02-01 | 中远海运科技股份有限公司 | 一种分析图像高频稳定点的相机移位判别方法及系统 |
CN115472014A (zh) * | 2022-09-16 | 2022-12-13 | 苏州映赛智能科技有限公司 | 一种交通追溯方法、系统、服务器及计算机存储介质 |
CN115797883A (zh) * | 2023-02-06 | 2023-03-14 | 以萨技术股份有限公司 | 一种确定异常事件的数据处理系统 |
CN117475646A (zh) * | 2023-10-06 | 2024-01-30 | 纬创软件(武汉)有限公司 | 基于人工智能的行人检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106874863A (zh) * | 2017-01-24 | 2017-06-20 | 南京大学 | 基于深度卷积神经网络的车辆违停逆行检测方法 |
CN107590834A (zh) * | 2017-08-10 | 2018-01-16 | 北京博思廷科技有限公司 | 一种道路交通事件视频检测方法及系统 |
CN108345894A (zh) * | 2017-01-22 | 2018-07-31 | 北京同方软件股份有限公司 | 一种基于深度学习和熵模型的交通事件检测方法 |
CN109190523A (zh) * | 2018-08-17 | 2019-01-11 | 武汉大学 | 一种基于视觉的车辆检测跟踪预警方法 |
CN109285341A (zh) * | 2018-10-31 | 2019-01-29 | 中电科新型智慧城市研究院有限公司 | 一种基于实时视频的城市道路车辆异常停驶检测方法 |
CN109326124A (zh) * | 2018-10-17 | 2019-02-12 | 江西洪都航空工业集团有限责任公司 | 一种基于机器视觉的城市环境停放车辆行为识别系统 |
-
2019
- 2019-03-01 CN CN201910157386.XA patent/CN109887281B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108345894A (zh) * | 2017-01-22 | 2018-07-31 | 北京同方软件股份有限公司 | 一种基于深度学习和熵模型的交通事件检测方法 |
CN106874863A (zh) * | 2017-01-24 | 2017-06-20 | 南京大学 | 基于深度卷积神经网络的车辆违停逆行检测方法 |
CN107590834A (zh) * | 2017-08-10 | 2018-01-16 | 北京博思廷科技有限公司 | 一种道路交通事件视频检测方法及系统 |
CN109190523A (zh) * | 2018-08-17 | 2019-01-11 | 武汉大学 | 一种基于视觉的车辆检测跟踪预警方法 |
CN109326124A (zh) * | 2018-10-17 | 2019-02-12 | 江西洪都航空工业集团有限责任公司 | 一种基于机器视觉的城市环境停放车辆行为识别系统 |
CN109285341A (zh) * | 2018-10-31 | 2019-01-29 | 中电科新型智慧城市研究院有限公司 | 一种基于实时视频的城市道路车辆异常停驶检测方法 |
Non-Patent Citations (2)
Title |
---|
张向清: "高速公路场景下基于深度学习的车辆目标检测与应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王俊健 等: "云台场景下高速公路异常事件自动检测系统", 《中国交通信息化》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110517506A (zh) * | 2019-08-26 | 2019-11-29 | 重庆同济同枥信息技术有限公司 | 基于交通视频图像检测停车事件的方法、装置及存储介质 |
CN110738686A (zh) * | 2019-10-12 | 2020-01-31 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN110738686B (zh) * | 2019-10-12 | 2022-12-02 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN111127877A (zh) * | 2019-11-19 | 2020-05-08 | 华为技术有限公司 | 一种路况信息的监测方法及装置 |
CN111126171A (zh) * | 2019-12-04 | 2020-05-08 | 江西洪都航空工业集团有限责任公司 | 一种车辆逆行检测方法及系统 |
CN111079675A (zh) * | 2019-12-23 | 2020-04-28 | 武汉唯理科技有限公司 | 基于目标检测与目标跟踪的行驶行为分析方法 |
CN111145378B (zh) * | 2019-12-30 | 2021-06-25 | 华设设计集团股份有限公司 | 一种公路交通事件自动化视频巡查系统及方法 |
CN111145378A (zh) * | 2019-12-30 | 2020-05-12 | 中设设计集团股份有限公司 | 一种公路交通事件自动化视频巡查系统及方法 |
CN111259760A (zh) * | 2020-01-13 | 2020-06-09 | 南京新一代人工智能研究院有限公司 | 动态目标行为识别方法、装置 |
CN111209880A (zh) * | 2020-01-13 | 2020-05-29 | 南京新一代人工智能研究院有限公司 | 车辆行为识别方法、装置 |
CN113556506A (zh) * | 2020-04-24 | 2021-10-26 | 英研智能移动股份有限公司 | 基于图像的物体追踪方法 |
CN111833598A (zh) * | 2020-05-14 | 2020-10-27 | 山东科技大学 | 一种高速公路无人机交通事件自动监测方法及系统 |
US11308798B2 (en) * | 2020-06-03 | 2022-04-19 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method for reporting traffic event, electronic device and storage medium |
KR102540045B1 (ko) * | 2020-06-03 | 2023-06-05 | 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. | 교통 이벤트의 보고 방법, 장치, 전자 기기 및 저장 매체 |
JP2021131904A (ja) * | 2020-06-03 | 2021-09-09 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 交通事象の報知方法及びその装置、電子機器並びに記憶媒体 |
CN111862593A (zh) * | 2020-06-03 | 2020-10-30 | 北京百度网讯科技有限公司 | 交通类事件的上报方法、装置、电子设备及存储介质 |
KR20210072740A (ko) * | 2020-06-03 | 2021-06-17 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 교통 이벤트의 보고 방법, 장치, 전자 기기 및 저장 매체 |
JP7223059B2 (ja) | 2020-06-03 | 2023-02-15 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 交通事象の報知方法及びその装置、電子機器並びに記憶媒体 |
CN112153329A (zh) * | 2020-08-17 | 2020-12-29 | 浙江大华技术股份有限公司 | 事件监测的配置方法、系统、计算机设备和存储介质 |
CN112487920A (zh) * | 2020-11-25 | 2021-03-12 | 电子科技大学 | 一种基于卷积神经网络的翻越行为识别方法 |
CN112487920B (zh) * | 2020-11-25 | 2022-03-15 | 电子科技大学 | 一种基于卷积神经网络的翻越行为识别方法 |
CN112947446A (zh) * | 2021-02-07 | 2021-06-11 | 启迪云控(上海)汽车科技有限公司 | 一种基于全知视角和特征提取的智能网联应用场景自动辨识方法、装置、介质及设备 |
CN114004886A (zh) * | 2021-10-29 | 2022-02-01 | 中远海运科技股份有限公司 | 一种分析图像高频稳定点的相机移位判别方法及系统 |
CN114004886B (zh) * | 2021-10-29 | 2024-04-09 | 中远海运科技股份有限公司 | 一种分析图像高频稳定点的相机移位判别方法及系统 |
CN115472014A (zh) * | 2022-09-16 | 2022-12-13 | 苏州映赛智能科技有限公司 | 一种交通追溯方法、系统、服务器及计算机存储介质 |
CN115472014B (zh) * | 2022-09-16 | 2023-10-10 | 苏州映赛智能科技有限公司 | 一种交通追溯方法、系统、服务器及计算机存储介质 |
CN115797883A (zh) * | 2023-02-06 | 2023-03-14 | 以萨技术股份有限公司 | 一种确定异常事件的数据处理系统 |
CN117475646A (zh) * | 2023-10-06 | 2024-01-30 | 纬创软件(武汉)有限公司 | 基于人工智能的行人检测方法 |
CN117475646B (zh) * | 2023-10-06 | 2024-03-29 | 纬创软件(武汉)有限公司 | 基于人工智能的行人检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109887281B (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887281A (zh) | 一种监控交通事件的方法及系统 | |
JP4881766B2 (ja) | カメラ間連結関係情報生成装置 | |
CN105227907B (zh) | 基于视频的无监督异常事件实时检测方法 | |
KR102195706B1 (ko) | 침입 탐지방법 및 그 장치 | |
CN105844659B (zh) | 运动部件的跟踪方法和装置 | |
CN103873825A (zh) | 一种atm智能监控系统及方法 | |
CN105069408A (zh) | 一种复杂场景下基于人脸识别的视频人像跟踪方法 | |
US20060056702A1 (en) | Image processing apparatus and image processing method | |
WO2013160688A1 (en) | Abnormal object track determination using a gaussian processes based variational bayes expectation maximisation | |
KR101863727B1 (ko) | 영상으로부터 다중 조건에 따른 객체 검색을 가능하게 하는 cctv 시스템 및 그 객체 검색방법 | |
KR101472674B1 (ko) | 군중 궤적 추출을 이용한 비정상 행동 검출에 기초한 영상 감시 방법 및 영상 감시 장치 | |
CN112365522A (zh) | 园区内人员跨境追踪的方法 | |
CN111325048A (zh) | 一种人员聚集检测方法和装置 | |
CN112560641A (zh) | 基于视频的双向客流通道中的单向客流信息检测方法 | |
KR20160044757A (ko) | 교통상황 분석 방법 및 장치 | |
JP2001357402A (ja) | 車両検出方法及び車両検出装置 | |
CN110633681A (zh) | 一种基于视频的离床检测方法 | |
CN109977796A (zh) | 尾随通行检测方法及装置 | |
KR101124560B1 (ko) | 동영상 내의 자동 객체화 방법 및 객체 서비스 저작 장치 | |
US11363241B2 (en) | Surveillance apparatus, surveillance method, and storage medium | |
CN113014870B (zh) | 一种基于乘客姿态快速估计的地铁闸机通行逃票识别方法 | |
CN110346767A (zh) | 一种针对汽车变道辅助功能的测试方法和装置 | |
JPH0460880A (ja) | 動体識別解析管理システム | |
CN109815861A (zh) | 一种基于人脸识别的用户行为信息统计方法 | |
CN115272967A (zh) | 一种跨摄像机行人实时跟踪识别方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |