CN113076821A - 一种事件的检测方法及装置 - Google Patents

一种事件的检测方法及装置 Download PDF

Info

Publication number
CN113076821A
CN113076821A CN202110289584.9A CN202110289584A CN113076821A CN 113076821 A CN113076821 A CN 113076821A CN 202110289584 A CN202110289584 A CN 202110289584A CN 113076821 A CN113076821 A CN 113076821A
Authority
CN
China
Prior art keywords
event
traffic
video stream
expressway
incident
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110289584.9A
Other languages
English (en)
Inventor
钟由彬
谭志标
李瑞生
郑燕彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiyun Rongju Guangzhou Technology Co ltd
Original Assignee
Shiyun Rongju Guangzhou Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiyun Rongju Guangzhou Technology Co ltd filed Critical Shiyun Rongju Guangzhou Technology Co ltd
Priority to CN202110289584.9A priority Critical patent/CN113076821A/zh
Publication of CN113076821A publication Critical patent/CN113076821A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种事件的检测方法及装置,涉及智能监测技术领域。事件的检测方法,包括:获取监控装置采集到的视频流;所述监控装置安装在高速道路上;根据所述视频流判断所述高速道路上是否发生交通事件;若确定所述高速道路上发生交通事件,获取所述交通事件对应的事件信息;根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理;根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件;若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警。该方法用以提高事件检测结果的准确性。

Description

一种事件的检测方法及装置
技术领域
本申请涉及智能监测技术领域,具体而言,涉及一种事件的检测方法及装置。
背景技术
高速公路的智能视频分析中的事件检测是一项重要的检测技术手段,市场上也有很多关于高速事件检测的解决方案,其实现方式主要通过分析实时视频流,如果发现有异常事件发生则会产生告警,提示用户尽快处理。
但是,提示完成后没有进行进一步的确认和处置,而现场环境的球机或者云台监控距离都比较远,监控范围比较广,所以首次检测的结果很可能是在目标较远的画面检测所得,无法确保检测结果的准确性,比如:错报或者漏掉事件关键信息。
因此,现有的事件检测技术的检测结果的准确性较差。
发明内容
本申请实施例的目的在于提供一种事件的检测方法及装置,用以提高事件检测结果的准确性。
第一方面,本申请实施例提供一种事件的检测方法,包括:获取监控装置采集到的视频流;所述监控装置安装在高速道路上;根据所述视频流判断所述高速道路上是否发生交通事件;若确定所述高速道路上发生交通事件,获取所述交通事件对应的事件信息;根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理;根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件;若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警。
在本申请实施例中,先通过视频流初步判断高速道路上是否发生交通事件;如果初步判断高速道路上发生交通事件,则通过交通事件对应的事件信息和监控装置的参数信息对视频流进行放大处理,再依据放大处理的视频流对是否发生交通事件进行二次判断;如果二次判断的结果仍然为发生交通事件,则对交通事件进行告警。通过对事件进行二次确认,提高事件检测结果的准确性,避免错误告警等现象的发生。
作为一种可能的实现方式,所述根据所述视频流判断所述高速道路上是否发生交通事件,包括:根据所述视频流生成多张视频图像;根据所述多张视频图像和预先训练好的检测模型判断所述高速道路上是否发生交通事件。
在本申请实施例中,通过多张视频图像,和预先训练好的检测模型,可以有效地对高速道路上是否发生交通事件进行初步判断。
作为一种可能的实现方式,所述获取所述交通事件对应的事件信息,包括:根据所述检测模型输出的检测结果确定所述交通事件对应的事件信息。
在本申请实施例中,通过预先训练好的检测模型所输出的检测结果,可以有效且准确地确定交通事件对应的事件信息。
作为一种可能的实现方式,所述根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理,包括:根据所述事件信息确定所述交通事件对应的位置信息;所述位置信息代表所述交通事件在所述视频流中的发生位置相对于所述监控装置的屏幕的位置;根据所述位置信息确定所述交通事件的实际发生位置与所述监控装置之间的距离;根据所述参数信息和所述距离确定所述视频流的放大倍数;根据所述放大倍数对所述视频流进行放大处理。
在本申请实施例中,通过事件信息确定交通事件在视频流中的发生位置相对于监控装置的屏幕的位置;基于该位置,确定交通事件的实际发生位置与监控装置之间的距离,然后基于该距离和参数信息确定视频流的放大倍数,有效地实现视频流的放大处理。
作为一种可能的实现方式,所述根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件,包括:展示所述放大处理的视频流;接收用户输入的判断结果;根据所述判断结果确定所述高速道路上是否发生所述交通事件。
在本申请实施例中,在进行事件的二次判断时,可以将放大处理的视频流进行展示,由用户基于该放大处理的视频流对事件进行二次判断,提高事件的二次判断的准确性,进而提高最终的事件检测结果的准确性。
作为一种可能的实现方式,在所述若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警后,所述检测方法还包括:通过预设的人员识别算法和所述视频流对所述交通事件中涉及的人员进行识别,获得人员分析结果;通过预设的车辆识别算法和所述视频流对所述交通事件中涉及的车辆进行识别,获得车辆分析结果;反馈所述人员分析结果和所述车辆分析结果。
在本申请实施例中,通过预设的人员识别算法,实现对交通事件中涉及的人员的识别;通过预设的车辆识别算法,实现对交通事件中涉及的车辆的识别;将两种识别结果进行反馈,以便于相关人员在得到这些信息之后,可以做出更精准的判断以及决策。
作为一种可能的实现方式,所述交通事件包括:车辆超速、车辆低速、违法停车、车辆逆行、压黄线行驶、行人、抛撒物、火焰、烟雾、交通拥堵。
在本申请实施例中,可以实现对多种交通事件的有效且准确地检测。
第二方面,本申请实施例提供一种事件的检测装置,包括:用于实现第一方面以及第一方面的任意一种可能的实现方式中所述的事件的检测方法的各个功能模块。
第三方面,本申请实施例提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被计算机运行时执行如第一方面的以及第一方面的任意可能的实现方式中所述的方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的事件的检测系统的示意图;
图2为本申请实施例提供的事件的检测方法的流程图;
图3为本申请实施例提供的事件的检测方法的应用实例流程图;
图4为本申请实施例提供的事件的检测装置的结构框图。
图标:100-事件的检测系统;110-监控装置;120-检测设备;400-事件的检测装置;410-接入模块;420-事件检测模块;430-事件定位模块;440-事件二次确认模块;450-告警模块。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
请参照图1,为本申请实施例提供的事件的检测系统100的结构示意图,事件的检测系统100包括:监控装置110和检测设备120,监控装置110和检测设备120通信连接。
该事件的检测系统100应用于高速道路(公路)的事件检测,因此,监控装置110设置在高速道路上。由于高速道路的覆盖范围非常广,因此,在该检测系统实际应用时,监控装置110和检测设备120的设置方式可以进行灵活配置。
比如,高速道路的每个收费站,或者每个休息区,均设置检测设备120,该检测设备120与收费站或者休息区的预设范围内的监控装置110通信连接,监控装置110实时地将采集到的视频流数据传输给该检测设备120,检测设备120对视频流数据进行分析,实现在预设范围内的事件的检测。即,采用多个检测设备120+多个监控装置110的设置方式,且一个检测设备120连接多个监控装置110,一个监控装置110连接一个指定的检测设备120。当然,这只是一种可选的设置方式,在实际应用时,可以根据高速道路的条件等信息进行合理设置,在本申请实施例中不作限定。
为了便于理解,在后续介绍检测设备120和监控装置110的实施方式时,针对一个检测设备120对一个监控装置110的视频流的处理进行介绍,但不应理解为检测设备120仅处理一个监控装置110的视频流,而是针对每一个监控装置110的视频流都按照相同的处理方式进行处理。
在本申请实施例中,监控装置110可以是云台、球机等,云台或者球机均采用适应于高速道路的云台或者球机。
在本申请实施例中,检测设备120可以是计算机、服务器等具备数据处理功能的设备。对于检测设备120来说,可以直接作为监测人员所在的用户端;也可以与监测人员所在的用户端通信连接;以实现检测结果的反馈。
基于上述应用场景的介绍,接下来请参照图2,为本申请实施例提供的事件的检测方法的流程图,该检测方法应用于检测设备120,包括:
步骤210:获取监控装置110采集到的视频流。
步骤220:根据视频流判断高速道路上是否发生交通事件。
步骤230:若确定高速道路上发生交通事件,获取交通事件对应的事件信息。
步骤240:根据事件信息和监控装置110的参数信息对视频流进行放大处理。
步骤250:根据放大处理的视频流再次判断高速道路上是否发生交通事件。
步骤260:若再次确定高速道路上发生交通事件,对交通事件进行告警。
在本申请实施例中,先通过视频流初步判断高速道路上是否发生交通事件;如果初步判断高速道路上发生交通事件,则通过交通事件对应的事件信息和监控装置110的参数信息对视频流进行放大处理,再依据放大处理的视频流对是否发生交通事件进行二次判断;如果二次判断的结果仍然为发生交通事件,则对交通事件进行告警。通过对事件进行二次确认,提高事件检测结果的准确性,避免错误告警等现象的发生。
接下来对步骤210-步骤260的详细实施方式进行介绍。
在步骤210中,监控装置110将采集到的视频流实时传输给检测设备120,检测设备120可以采用实时的获取方式,也可以采用非实时的获取方式,比如:待接收到多帧视频流之后,再针对多帧视频流进行一并处理。
在步骤220中,监控装置110根据视频流对高速道路上是否发生交通事件进行初步判断。作为一种可选的实施方式,步骤220包括:根据视频流生成多张视频图像;根据多张视频图像和预先训练好的检测模型判断高速道路上是否发生交通事件。
在这种实施方式中,监控装置110传输的视频流也是由图像帧组成的视频流数据,因此,对视频流进行解码,便可以获取到该视频流对应的多张视频(帧)图像,这多张视频图像对应不同的时间戳。
在本申请实施例中,可以采用深度学习的技术实现事件的初步判断。具体地,预先可以通过训练数据集对深度学习网络模型进行训练,以获得训练好的检测模型。其中,训练数据集包括多张视频图像以及视频图像对应的标签,该标签用于表征着多张视频图像是否对应有交通事件,如果对应有交通事件,还包括交通事件的信息,比如:交通事件的类型、交通事件的发生时间和发生地点(在视频流中的发生地点)等。在对检测模型进行训练的过程中,还可以对检测模型的精度进行测试,然后根据测试结果对检测模型进行优化,以及再次训练等,以提高最终训练好的检测模型的准确度。
在本申请实施例中,交通事件包括但不限于:车辆超速、车辆低速、违法停车、车辆逆行、压黄线行驶、行人、抛撒物、火焰、烟雾、交通拥堵等。
基于此,在获得多张视频图像之后,将视频图像输入到检测模型中,检测模型便能够实现事件的判断和分析。检测模型所输出的检测结果包括:是否发生交通事件;发生交通事件的情况下,还包括交通事件的相关信息。
在本申请实施例中,通过多张视频图像,和预先训练好的检测模型,可以有效地对高速道路上是否发生交通事件进行初步判断。
在实际应用时,也可以采用其他可实施的技术实现事件的初步分析与判断。
接下来,对基于神经网络模型(检测模型)的交通人工智能分析的对应的实施方式进行详细介绍。
在获得视频图像之后,先对视频图像进行一系列的图像预处理,获得视频背景,以便于检测模型实现更准确的输出。作为一种可选的实施方式,图像的预处理包括:图像灰度化、图像去噪、背景提取与构建。
对于图像灰度化,原视频图像为RGB(Red/Green/Blue)三通道图像,存在许多噪声和多余的颜色空间信息,因此,先对图像进行颜色空间转换,转换之后获得视频图像对应的视频灰度图像。
对于图像去噪,图像处理之后的灰度图像对于后续的背景提取与运动车辆检测来说,依旧存在许多噪声,因此需要对灰度图像进行去噪操作。作为一种可选的实施方式,采用中值滤波器对图像进行去噪,中值滤波是一种非线性平滑滤波,原理是将每个像素点的像素值设置为滤波器所经过灰度图区域的像素值的中值,具体公式可以为:
Figure DEST_PATH_IMAGE001
,其中,
Figure 886364DEST_PATH_IMAGE002
是中值滤波之后的灰度值,f(x,y)是滤波器所滑过原始灰度图像区域的像素点,M为滤波器滑过灰度图像的区域。经过中值滤波器对图像进行处理之后,能够去除灰度图像中斑点噪声和椒盐噪声,使图像变得比较平滑,以便后续处理。
对于背景提取与构建,可以通过对视频的前N帧进行区间统计来得到背景图像,具体公式可以为:
Figure DEST_PATH_IMAGE003
,其中,
Figure 131401DEST_PATH_IMAGE004
表示第N帧灰度图像的像素点的值,表示得到的背景图像中的像素点的灰度值。
此外,虽然监控装置110的监控角度不变,视频中的视角的也是不变的,但是由于外部环境因素,如天气影响、光照条件变化、路面上杂物等影响,导致监控视频中的背景图可能会不断。如果一直采用一个背景图,会导致由于视频背景不断变化而降低运动物体检测的正确率。因此,还可以对背景图进行不断更新,具体的更新方式为:
Figure DEST_PATH_IMAGE005
,其中,
Figure 237371DEST_PATH_IMAGE006
表示更新背景图,
Figure DEST_PATH_IMAGE008A
表示原始背景图,
Figure DEST_PATH_IMAGE010A
表示新的视频图像帧,通过α来设置背景图像的更新速率,α的值一般通过实验来确定,可以取0.99。
进一步地,基于预处理之后的图像,可以进行运动物体的检测。运动物体的检测包括:背景差分、二值图像去噪、二值图像膨胀、边缘检测、车辆提取等流程。
对于背景差分,通过获得的背景图像,利用公式:
Figure DEST_PATH_IMAGE011
获得差异图。基于差异图,采用二值图像去噪、二值图像膨胀的方式,获得更为清晰的车辆轮廓形状。
对于隧道视频场景,可以通过调节二值化图像函数的阈值来降低光照条件对差异图像效果图的影响。在调高二值化图像函数的阈值后,能够降低视频帧序列与背景图的差异图对光照条件的敏感度,以便获得更加清晰的车辆轮廓。
在得到比较清晰的车辆轮廓信息之后,可以对其进行轮廓检测,Open CV中有比较成熟的函数可以调用,通过调用的函数可以获取二值图像中的轮廓位置。
进一步地,基于检测结果,可以进行车辆类型识别,在本申请实施例中,采用卷积神经网络算法实现。卷积神经网络模型实现图像分类的优势是无需人工选择图像特征提取,神经网络通过模拟动物大脑对外界视觉的响应来对图像进行学习,并提取最适用于分类图像场景的特征用于后续分类。
作为一种可选的实施方式,可以采用残差网络模型(ResNet)来对图像进行特征提取与分类。该网络模型由卷积层、一系列残差块、全连接层、池化层组成,最后连接一个Softmax分类器,其中的残差块由:卷积层、归一化层、ReLu组成。对于输入的图像数据,该网络模型对其进行一系列卷积、池化、采样、连接操作,不断提取图像的特征信息,由最基础的边缘信息开始,并在高层进行连接组合形成高层图像特征,逐渐形成图像类别映射。图像在残差网络模型处理过程中的中间信息。最后经过全连接层和分类器输出各个类别的概率分布图。
车辆类型识别包括两个部分:模型训练和图像分类。
对于模型训练,对车辆图像进行分类识别前,需要通过数据对ResNet模型来进行训练,训练出一个模型,通过该模型来确定该提取图像哪些特征以及后续的分类。本申请实施例中将车辆类型分为五类:小轿车、大巴、SUV(sport utility vehicle,多用途汽车)、小型客车和卡车。
首先准备训练数据集,训练数据集分为三个部分: train、val、test。其中train用 于模型训练; val用于模型验:验证训练出来的模型在该视觉场景下是否有效;test用于测 试训练出来的模型在该视觉场景下图像分类的正确率。具体地,不同的车辆类型对应的训 练样本图像数量如表1所示。这些数据集一共包含了40个视频,对20个不同的高速公路场景 视频进行车辆图像提取,一共提取约14万图片用于模型训练。
车辆类型 图片数量
Bus 6000
Car 18000
Microbus 5000
SUV 7000
Truck 11000
表1
对于图像分类,模型训练完成后,使用该模型对从视频图像中提取出来的车辆图像进行分类。首先利用已经训练好的残差网络模型对输入的图像进行特征提取,利用这些特征输入分类器中,分类器对输入的特征向量进行分类之后将结果返回客户端界面进行显示,同时将车辆的识别信息保存到数据库中。
进一步地,依据检测模型输出的检测结果,如果确定高速道路上发生交通事件,则在步骤230中,获取交通事件对应的事件信息。
结合步骤220的实施方式,作为一种可选的实施方式,步骤230包括:根据检测模型输出的检测结果确定交通事件对应的事件信息。
其中,检测结果中包括:交通事件类型、发生时间和发生地点;对应的,事件信息包括:交通事件类型、发生时间和发生地点。对于交通事件类型,比如:为前述实施例中介绍过的车辆超速事件。对于发生时间,可以理解为监控装置110第一次监控到该事件的时间。对于发生地点,可以理解为交通事件在视频流中的发生位置,比如:在视频流的左下方位置的车辆超速。
在本申请实施例中,通过预先训练好的检测模型所输出的检测结果,可以有效且准确地确定交通事件对应的事件信息。
具体地,可实现的交通事件检测包括:
停车检测:自动检测监控区域内的滞留停车车辆,通过现有的路侧及卡口监控摄像机,自动检测监控区域内的违停车辆并抓拍告警。
路面拥堵:对入出口的车流量实时数据统计,计算入出口流量对流情况,推算车流量密度是否高于设定阈值,识别到车辆拥堵时系统实时自动发出报警事件。
区域滞留:对视频图像进行动态物体的提取与识别,当识别到有车辆或人员进入隧道后发生滞留行为时,系统实时自动发出报警事件。
车牌识别:自动检测车辆抓拍,自动识别车辆车牌号、颜色,通过重点车辆库自动分析比对,识别到目标车辆时系统实时自动发出报警事件。
车辆逆行:对视频图像的车辆运动特征进行提取与识别,检测分析划定区域的通道区域是否有逆行车辆,识别到逆行车辆时系统实时自动发出报警事件。
区域闯入:实时检测分析出区域内是否有行人、动物等非机动车闯入通行车道,识别到动态物体时系统实时自动发出报警事件。
流量管理: 实时监控重点区域(隧道)内车流量变化情况,并以可视化AR标签进行展示。
多预置位管理:支持同一摄像机多预置位的切换管理,多预置位的场景配置以及相关算法的管理等。
隧道一车一档管理:通过对隧道出入口的车辆特征分析,为每一台车进行独立档案管理,精确计算车辆在隧道内停留时间等,可第一时间发现隧道内异常事件。
货物抛撒:实时检测车道通行情况,自动检测高速公路路面遗留物、路面抛洒物等静态目标,识别到抛撒物时系统实时自动发出报警事件。
车速检测:自动检测车辆运动目标,识别提取车辆目标速度,通过设定预设阈值对车辆进行管控,超出设定值时系统实时自动发出报警事件。
在步骤240中,根据事件信息和监控装置110的参数信息对视频流进行放大处理。作为一种可选的实施方式,步骤240包括:根据事件信息确定交通事件对应的位置信息;位置信息代表交通事件在视频流中的发生位置相对于监控装置110的屏幕的位置;根据位置信息确定交通事件的实际发生位置与监控装置110之间的距离;根据参数信息和距离确定视频流的放大倍数;根据放大倍数对视频流进行放大处理。
在这种实施方式中,根据事件信息中的发生地点信息可以确定交通事件在视频流中的发生位置相对于监控装置110的屏幕的位置。
比如:交通事件在视频流中的发生位置为视频流的左下角,则位置信息可以对应的为:视频流的左下角在监控装置110的屏幕上的坐标。即,将交通事件的发生地点信息转换为交通事件的发生位置的屏幕坐标信息。
其中,以球机为例,参数信息包括:当前球机的倍率、事件点在屏幕中的位置、当前球机的高度和视场角。
对于距离的计算,可以通过经纬度计算。在经纬网图上,可以根据经纬度量算两点之间的距离。全球各地纬度1°的间隔长度都相等(因为所有经线的长度都相等),大约是111km/1°。赤道上经度1°对应在地面上的弧长大约也是111km。
由于各纬线从赤道向两极递减,60°纬线上的长度为赤道上的一半,所以在各纬线上经度差1°的弧长就不相等。在同一条纬线上(假设此纬线的纬度为α)经度1°对应的实际弧长大约为111cosαkm。
因此,只要知道了任意两个位置之间的纬度差,或者是赤道上任何两个位置的经度差,就可以计算它们之间的实际距离。
对于两地间最近距离的判断:若两地经度差等于180o,则过两地的大圆为经线圈,两地最近距离为大圆中过两极点的劣弧;若两地经度差不等于180o,则过两地的大圆不是经线圈,而与经线圈斜交,两地最近距离不过极点,而是过两极地区。
在确定该位置信息后,检测设备120将该位置信息发送给监控装置110上设置的空间测距模块,空间测距模块基于该位置信息实现交通事件的实际发生位置的定位,并测量实际发生位置与监控装置110之间的距离,然后将测量得到的距离发生给检测设备120,检测设备120实现距离的确定。
其中,空间测距模块包括但不限于:激光测距模块、红外测距模块等。对于空间测距模块来说,当交通事件的发生位置的屏幕坐标信息确定之后,空间测距模块可以根据监控装置110的参数对实际发生位置进行定位。
进一步地,在确定交通事件的实际发生位置与监控装置110之间的距离之后,检测设备120根据参数信息和距离确定视频流的放大倍数。对于该放大倍数,可以理解为对监控装置110采集到的视频画面的进行放大的倍数。为了实现准确地放大,可以预先设定放大条件,比如:放大条件可以是将交通事件的发生位置移动到监控装置110采集到的视频画面的中心位置;还可以是先经交通事件的发生位置移动到监控装置110采集到的视频画面的中心位置,然后再进行画面的放大等。
对于检测设备120来说,在监控装置110的参数已知、距离已知的情况下,结合放大条件,能够计算出对应的放大倍数。
此外,检测设备120所计算出的放大倍数可以是一个放大倍数的具体值,比如2倍,也可以是一个放大倍数的范围,比如2-4倍。
进一步地,基于放大倍数,检测设备120可以对视频流进行放大处理。在进行放大处理时,在放大倍数已知的情况下,采用本领域成熟的视频处理技术实现放大即可,在本申请实施例中不对放大处理的详细流程进行介绍。
在本申请实施例中,通过事件信息确定交通事件在视频流中的发生位置相对于监控装置110的屏幕的位置;基于该位置,确定交通事件的实际发生位置与监控装置110之间的距离,然后基于该距离和参数信息确定视频流的放大倍数,有效地实现视频流的放大处理。
在步骤240中完成放大处理之后,在步骤250中,检测设备120根据放大处理的视频流再次判断高速道路上是否发生交通事件。作为一种可选的实施方式,该判断过程包括:展示放大处理的视频流;接收用户输入的判断结果;根据判断结果确定高速道路上是否发生交通事件。
在这种实施方式中,适用于检测设备120直接作为用户端的情况。当检测设备120直接作为用户端时,可以展示放大处理的视频流,然后用户(监测人员)依据放大处理的视频流对是否发生事件进行判断,并输入相应的判断结果。比如:确定发生交通事件;确定没有发生交通事件,为交通事件的误判。
在上述实施例方式中,如果检测设备120没有直接作为用户端,则检测设备120将放大处理的视频流发送给对应的用户端,然后接收用户端反馈的判断结果。
在检测设备120接收到判断结果之后,如果判断结果为确定发生交通事件,则再次确定高速道路上发生交通事件;如果判断结果为确定没有发生交通事件,为交通事件的误判,则确定高速道路上没有发生交通事件。
在本申请实施例中,在进行事件的二次判断时,可以将放大处理的视频流进行展示,由用户基于该放大处理的视频流对事件进行二次判断,提高事件的二次判断的准确性,进而提高最终的事件检测结果的准确性。
进一步地,如果在步骤250中再次确定高速道路上发生交通事件,则在步骤260中,对交通事件进行告警。在对交通事件进行告警时,可以采用多种实施方式,比如:生成告警信息,将告警信息发送给负责对应区域的交通管理员端,然后由交通管理员对该交通事件进行及时地处理。再比如:采用声、光等形式进行直接告警。
在本申请实施例中,如果在步骤220中,第一次的判断结果为,没有发生交通事件,此时就不会获得对应的事件信息,在这种情况下,也可以进行二次判断。作为一种可选的实施方式,检测设备120根据预设的放大规则对视频流进行放大,然后同样基于放大处理的视频流进行再次判断。其中,放大规则可以是:将视频流中的不同位置作为中心放大点,然后得到多个不同角度或者不同位置的放大视频流。或者,将视频流中包含最多对象的区域进行放大,比如:车流量最密集的区域,人流量最密集的区域等。
在本申请实施例中,在步骤260中再次确定发生交通事件之后,该方法还包括:通过预设的人员识别算法和视频流对交通事件中涉及的人员进行识别,获得人员分析结果;通过预设的车辆识别算法和视频流对交通事件中涉及的车辆进行识别,获得车辆分析结果;反馈人员分析结果和车辆分析结果。
其中,人员识别算法包括但不限于:人数统计算法、人员结构化分析和人脸识别等算法;通过这些算法,可以获取到交通事件中涉及的人员数量、人员的聚集位置、人员的男女特征等。预设的车辆识别算法包括但不限于:车辆特征识别算法、车型识别算法和车牌识别算法等;通过这些算法,可以获取到交通事件中涉及到车辆的特征、车型和车牌。
基于人员识别的结果,可以获得对应的人员分析结果,人员分析结果中包括但不限于:涉及的人员数量、人员聚集的位置是否安全、人员的男女特征等信息。其中,人员聚集的位置是否安全,可以根据人员聚集的位置与交通事件的中心点之间的距离确定,比如:当距离小于预设值(比如1m),可确定为不安全;当距离大于预设值(比如2m),可确定为安全。人员的男女特征可以结合人脸识别的结果直接确定。
基于车辆识别的结果,可以获得车辆分析结果,车辆分析结果包括但不限于:涉事车辆的特征、车型和车牌等。
进一步地,检测设备120可以将车辆分析结果和人员分析结果进行反馈,以便于监测人员基于这两个分析结果作进一步的处理。如果检测设备120直接作为监测人员端,则检测设备120通过展示车辆分析结果和人员分析结果的方式实现反馈。如果检测设备120不是监测人员端,则检测设备120通过将车辆分析结果和人员分析结果发送给监测人员端的方式实现反馈。
对于监测人员来说,在获取到车辆分析结果和人员分析结果之后,可以将车辆分析结果和人员分析结果输入到相应的应急处理系统,然后获取应急处理系统反馈的应急处理策略,进而,监测人员可以根据应急处理策略对当前的交通事件进行应急处理。
在本申请实施例中,通过预设的人员识别算法,实现对交通事件中涉及的人员的识别;通过预设的车辆识别算法,实现对交通事件中涉及的车辆的识别;将两种识别结果进行反馈,以便于相关人员在得到这些信息之后,可以做出更精准的判断以及决策。
具体地,对于人员结构化,在视频中除了实现人员的面部精确定位、面部特征提取、面部特征比对,人员的性别、年龄等特征范围外,还可对人的衣着、运动方向、是否戴帽子、是否戴眼镜、是否背包、拎包、打伞、是否骑车等信息进行结构化描述。
对于车辆结构化,随着智能交通高清电警、卡口、虚拟卡口、停车场的广泛建设和应用、借助智能识别算法将电警、卡口、停车场出入口等场所的车辆相关结构化信息存入车辆主题库,包括车牌、车型、车牌颜色、车辆品牌、车辆类型、车身颜色、车标及遮阳板、是否系安全带、打电话、车辆年检标、摆件挂件、司乘人员的人脸等。
基于这些车辆关键特征信息,形成上亿条过车记录数据,基于这些数据,可以实现隐匿车辆挖掘、套牌车辆筛选、初次入城、一车多牌、一牌多车、频繁过车、相似车辆串并、高危车辆积分模型、车辆行驶轨迹分析、时空碰撞等应用。在此基础上对车辆特征数据进行大数据搜索,即可迅速找到所有符合条件的车辆信息,包括行驶时间与方向、行驶速度、车标、车牌、年款等。还可结合以图搜图的检索方法,调取相关视频和图像文件,快速查询到有关嫌疑车辆信息,还原车辆行驶的轨迹历史信息,实现嫌疑车辆在整个城市的全程运行轨迹查询或结合视频监控信息,实现车辆全程化的可视化轨迹回放,以及对涉事车辆的精准布控和查询,也可以联合管理机构的车辆管理信息库,实现车人关联。
对于行为结构化,在人员结构化基础上进行检索查询,包含人体行为如越界、区域、徘徊、遗留、聚集等多种行为特征描述。它可以实现快速目标查找问题,如将特定人员的截图输入至侦查系统中,利用人形检索的功能,系统会根据特定人员的衣着、颜色分布、体态特征快速地在案发点附近的多路摄像头中进行全局搜索,查找出相似的目标,并将结果以快照的形式输出,结合GIS(Geographic Information System,地理信息系统)地图进行时空研判分析,刻画出特定人员的行动轨迹。
结合前述实施例的介绍,请参照图3,为本申请实施例提供的事件的检测方法在实际应用时检测设备120上执行的流程示意图,图3中,监控装置110为球机。在整个流程中,球机视频流接入,检测设备120进行事件检测分析,检测是否发生异常,如果发生异常,则进行事件定位,基于事件定位结果,进行球机聚焦放大,然后进行事件二次确认。在事件二次确认后,分别识别车辆和人员的相关信息,以实现最终的精准指挥。
可以看出,采用本申请实施例的技术方案,集成事件检测算法、视频结构化算法和空间定位装置于一体,实现软硬件一体化。通过空间定位与坐标转换实现定位,并实现自动放大球机,进行二次事件确认和衍生事件分析。不但可以确保事件的正确性,提高事件检测的准确度,而且可以提取涉事人员和涉事车辆的详细信息,为后续的事件处置提供更为详细的事实依据。
请参照图4,为本申请实施例提供的事件的检测装置400的示意图,包括:接入模块410、事件检测模块420、事件定位模块430、事件二次确定模块440和告警模块450。
接入模块410,用于获取监控装置110采集到的视频流;监控装置110安装在高速道路上;事件检测模块420,用于根据所述视频流判断所述高速道路上是否发生交通事件;事件定位模块430,用于若确定所述高速道路上发生交通事件,获取所述交通事件对应的事件信息;根据所述事件信息和所述监控装置110的参数信息对所述视频流进行放大处理;事件二次确认模块440,用于根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件;告警模块450,用于若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警。
在本申请实施例中,事件检测模块420具体用于:根据所述视频流生成多张视频图像;根据所述多张视频图像和预先训练好的检测模型判断所述高速道路上是否发生交通事件。
在本申请实施例中,事件定位模块430具体用于根据所述检测模型输出的检测结果确定所述交通事件对应的事件信息。
在本申请实施例中,事件定位模块30具体还用于:根据所述事件信息确定所述交通事件对应的位置信息;所述位置信息代表所述交通事件在所述视频流中的发生位置相对于监控装置110的屏幕的位置;根据所述位置信息确定所述交通事件的实际发生位置与监控装置110之间的距离;根据所述参数信息和所述距离确定所述视频流的放大倍数;根据所述放大倍数对所述视频流进行放大处理。
在本申请实施例中,事件二次确认模块440具体用于展示所述放大处理的视频流;接收用户输入的判断结果;根据所述判断结果确定所述高速道路上是否发生所述交通事件。
在本申请实施例中,事件的检测装置400还包括衍生事件分析模块,用于:通过预设的人员识别算法和所述视频流对所述交通事件中涉及的人员进行识别,获得人员分析结果;通过预设的车辆识别算法和所述视频流对所述交通事件中涉及的车辆进行识别,获得车辆分析结果;反馈所述人员分析结果和所述车辆分析结果。
事件的检测装置400与前述实施例中的事件的检测方法对应,因此,事件的检测装置400的各个功能模块的实施方式参照前述实施例中事件的检测方法的各个步骤的实施方式,为了说明书的简洁,在此不进行赘述。
基于同一发明构思,本申请实施例还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被计算机运行时执行前述实施例中所述的事件的检测方法。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种事件的检测方法,其特征在于,包括:
获取监控装置采集到的视频流;所述监控装置安装在高速道路上;
根据所述视频流判断所述高速道路上是否发生交通事件;
若确定所述高速道路上发生交通事件,获取所述交通事件对应的事件信息;
根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理;
根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件;
若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警。
2.根据权利要求1所述的检测方法,其特征在于,所述根据所述视频流判断所述高速道路上是否发生交通事件,包括:
根据所述视频流生成多张视频图像;
根据所述多张视频图像和预先训练好的检测模型判断所述高速道路上是否发生交通事件。
3.根据权利要求2所述的检测方法,其特征在于,所述获取所述交通事件对应的事件信息,包括:
根据所述检测模型输出的检测结果确定所述交通事件对应的事件信息。
4.根据权利要求1所述的检测方法,其特征在于,所述根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理,包括:
根据所述事件信息确定所述交通事件对应的位置信息;所述位置信息代表所述交通事件在所述视频流中的发生位置相对于所述监控装置的屏幕的位置;
根据所述位置信息确定所述交通事件的实际发生位置与所述监控装置之间的距离;
根据所述参数信息和所述距离确定所述视频流的放大倍数;
根据所述放大倍数对所述视频流进行放大处理。
5.根据权利要求1所述的检测方法,其特征在于,所述根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件,包括:
展示所述放大处理的视频流;
接收用户输入的判断结果;
根据所述判断结果确定所述高速道路上是否发生所述交通事件。
6.根据权利要求1所述的检测方法,其特征在于,在所述若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警后,所述检测方法还包括:
通过预设的人员识别算法和所述视频流对所述交通事件中涉及的人员进行识别,获得人员分析结果;
通过预设的车辆识别算法和所述视频流对所述交通事件中涉及的车辆进行识别,获得车辆分析结果;
反馈所述人员分析结果和所述车辆分析结果。
7.根据权利要求1-6任一项所述的检测方法,其特征在于,所述交通事件包括:车辆超速、车辆低速、违法停车、车辆逆行、压黄线行驶、行人、抛撒物、火焰、烟雾、交通拥堵。
8.一种事件的检测装置,其特征在于,包括:
接入模块,用于获取监控装置采集到的视频流;所述监控装置安装在高速道路上;
事件检测模块,用于根据所述视频流判断所述高速道路上是否发生交通事件;
事件定位模块,用于若确定所述高速道路上发生交通事件,获取所述交通事件对应的事件信息;根据所述事件信息和所述监控装置的参数信息对所述视频流进行放大处理;
事件二次确认模块,用于根据放大处理的视频流再次判断所述高速道路上是否发生所述交通事件;
告警模块,用于若再次确定所述高速道路上发生所述交通事件,对所述交通事件进行告警。
9.根据权利要求8所述的检测装置,其特征在于,所述事件定位模块,具体用于:
根据所述事件信息确定所述交通事件对应的位置信息;所述位置信息代表所述交通事件在所述视频流中的发生位置相对于所述监控装置的屏幕的位置;
根据所述位置信息确定所述交通事件的实际位置与所述监控装置之间的距离;
根据所述参数信息和所述距离确定所述视频流的放大倍数;
根据所述放大倍数对所述视频流进行放大处理。
10.根据权利要求9所述的检测装置,其特征在于,所述检测装置还包括:
衍生事件分析模块,用于:通过预设的人员识别算法和所述视频流对所述交通事件中涉及的人员进行识别,获得人员分析结果;通过预设的车辆识别算法和所述视频流对所述交通事件中涉及的车辆进行识别,获得车辆分析结果;反馈所述人员分析结果和所述车辆分析结果。
CN202110289584.9A 2021-03-18 2021-03-18 一种事件的检测方法及装置 Pending CN113076821A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110289584.9A CN113076821A (zh) 2021-03-18 2021-03-18 一种事件的检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110289584.9A CN113076821A (zh) 2021-03-18 2021-03-18 一种事件的检测方法及装置

Publications (1)

Publication Number Publication Date
CN113076821A true CN113076821A (zh) 2021-07-06

Family

ID=76613851

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110289584.9A Pending CN113076821A (zh) 2021-03-18 2021-03-18 一种事件的检测方法及装置

Country Status (1)

Country Link
CN (1) CN113076821A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554881A (zh) * 2021-07-20 2021-10-26 周刚 人工智能的道路事件监控方法、装置、系统及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945603A (zh) * 2012-10-26 2013-02-27 青岛海信网络科技股份有限公司 检测交通事件的方法及电子警察装置
CN107705574A (zh) * 2017-10-09 2018-02-16 荆门程远电子科技有限公司 一种精准快速的道路违章停车全自动抓拍系统
CN108428341A (zh) * 2018-05-14 2018-08-21 齐鲁交通发展集团有限公司青临分公司 一种基于人机融合的交通应急管理调度方法及系统
CN110267017A (zh) * 2019-07-22 2019-09-20 视云融聚(广州)科技有限公司 一种管理及展现摄像机视频的系统及方法
CN111385467A (zh) * 2019-10-25 2020-07-07 视云融聚(广州)科技有限公司 一种计算摄像机视频画面任意位置经纬度的系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102945603A (zh) * 2012-10-26 2013-02-27 青岛海信网络科技股份有限公司 检测交通事件的方法及电子警察装置
CN107705574A (zh) * 2017-10-09 2018-02-16 荆门程远电子科技有限公司 一种精准快速的道路违章停车全自动抓拍系统
CN108428341A (zh) * 2018-05-14 2018-08-21 齐鲁交通发展集团有限公司青临分公司 一种基于人机融合的交通应急管理调度方法及系统
CN110267017A (zh) * 2019-07-22 2019-09-20 视云融聚(广州)科技有限公司 一种管理及展现摄像机视频的系统及方法
CN111385467A (zh) * 2019-10-25 2020-07-07 视云融聚(广州)科技有限公司 一种计算摄像机视频画面任意位置经纬度的系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
隋亚刚 等: "《智能交通应用与发展 第九届多国城市交通学术会议论文集》", 成都:西南交通大学出版社, pages: 201 - 209 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113554881A (zh) * 2021-07-20 2021-10-26 周刚 人工智能的道路事件监控方法、装置、系统及存储介质

Similar Documents

Publication Publication Date Title
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN102724482B (zh) 基于gps和gis的智能视觉传感网络运动目标接力跟踪系统
KR102122859B1 (ko) 교통 영상감시시스템의 멀티 표적 추적 방법
KR101833359B1 (ko) 차량의 외부 영상 빅데이터를 이용한 교통 정보 수집 방법 및 장치
CN104378582B (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN103400111B (zh) 基于视频检测技术的高速公路隧道火灾事件检测方法
CN113676702B (zh) 基于视频流的目标追踪监测方法、系统、装置及存储介质
US11256926B2 (en) Method and system for analyzing the movement of bodies in a traffic system
KR102282800B1 (ko) 라이다와 영상카메라를 이용한 멀티 표적 추적 방법
CN109948455B (zh) 一种遗留物体检测方法及装置
KR102122850B1 (ko) 딥 러닝 기반의 교통분석 및 차량번호 인식 솔루션
CN110222596B (zh) 一种基于视觉的驾驶员行为分析防作弊方法
CN112434566B (zh) 客流统计方法、装置、电子设备及存储介质
CN111046797A (zh) 一种基于人员和车辆行为分析的输油管线警戒方法
CN112084892B (zh) 一种道路异常事件检测管理装置及其方法
CN115083088A (zh) 铁路周界入侵预警方法
Sharif Laser-based algorithms meeting privacy in surveillance: A survey
Zheng Developing a traffic safety diagnostics system for unmanned aerial vehicles usingdeep learning algorithms
Tran et al. UIT-ADrone: A novel drone dataset for traffic anomaly detection
CN113076821A (zh) 一种事件的检测方法及装置
CN104408942A (zh) 车辆智能测速装置与方法
ElHakim et al. Traffisense: A smart integrated visual sensing system for traffic monitoring
CN112633163A (zh) 一种基于机器学习算法实现非法运营车辆检测的检测方法
CN113850112A (zh) 基于孪生神经网络的路况识别方法和系统
Klammsteiner et al. Vision Based Stationary Railway Track Monitoring System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210706