CN111899515B - 一种基于智慧道路边缘计算网关的车辆检测系统 - Google Patents
一种基于智慧道路边缘计算网关的车辆检测系统 Download PDFInfo
- Publication number
- CN111899515B CN111899515B CN202011052204.1A CN202011052204A CN111899515B CN 111899515 B CN111899515 B CN 111899515B CN 202011052204 A CN202011052204 A CN 202011052204A CN 111899515 B CN111899515 B CN 111899515B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- line segment
- virtual
- lane
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请属于智慧道路物联网技术领域,尤其涉及一种基于智慧道路边缘计算网关的车辆检测系统,包括:远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理;车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断;信息发布单元,用于将实时检测的各种车辆信息进行结构化设计和安全加密处理,并将数据安全上传至云平台。
Description
技术领域
本申请属于智慧道路物联网技术领域,尤其涉及一种基于智慧道路边缘计算网关的车辆检测系统。
背景技术
随着新基建的兴起,智慧道路的建设已经提上日程,目前在智慧道路上采用各种技术进行车辆检测和车流量计数已经成为普遍现象,但是在现有的技术中,存在检测精度不高,不能精确判断行驶车道和行驶方向,而且由于远程设备的原因,也导致车辆检测系统无法远程操控,系统操作不便,与云平台交互效率低下和信息不安全等问题,存在极大的弊端。
发明内容
有鉴于此,本申请实施例提供了一种基于智慧道路边缘计算网关的车辆检测系统,以解决现有的车辆检测系统检测精度不高,不能精确判断行驶车道和行驶方向,无法远程操控,系统操作不便,与云平台交互效率低下和信息不安全等问题。
本申请实施例的第一方面提供了一种基于智慧道路边缘计算网关的车辆检测系统,可以包括:
远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;
视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理,实现车辆属性信息的获取和车辆跟踪;
车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断,并进行车辆分类、分车道、分方向的计数;
信息发布单元,用于将实时检测的各种车辆信息进行JSON数据结构化设计和SM2数据安全加密处理,并通过MQTT即时通讯的方式将数据安全上传至云平台。
在一种具体实现中,所述车辆检测单元具体用于:
从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段;
根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出两个虚拟区域;
根据车辆的坐标信息确定车辆的行驶车道;
根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向。
进一步地,所述根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出两个虚拟区域,包括:
将检测线段沿预设的正方向平移检测阈值宽度,得到第一虚拟线段;
将检测线段与第一虚拟线段之间的区域确定为第一虚拟区域;
将检测线段沿预设的反方向平移检测阈值宽度,得到第二虚拟线段;
将检测线段与第二虚拟线段之间的区域确定为第二虚拟区域。
进一步地,所述根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的反方向标志位等于车辆的唯一标识;
若检测到车辆的中心点坐标位于第二虚拟区域,且车辆的反方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为反方向。
进一步地,所述根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第二虚拟区域,则令车辆的正方向标志位等于车辆的唯一标识;
若检测到车辆的中心点坐标位于第一虚拟区域,且车辆的正方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为正方向。
在另一种具体实现中,所述车辆检测单元具体用于:
从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段;
根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出三个虚拟区域;
根据车辆的坐标信息确定车辆的行驶车道;
根据车辆进入各个虚拟区域的情况确定车辆的行驶方向。
进一步地,所述根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出三个虚拟区域,包括:
将检测线段沿预设的正方向平移检测阈值宽度的两倍,得到第一虚拟线段;
将检测线段沿正方向平移检测阈值宽度,得到第二虚拟线段;
将检测线段沿预设的反方向平移检测阈值宽度,得到第三虚拟线段;
将检测线段沿反方向平移检测阈值宽度的两倍,得到第四虚拟线段;
将第一虚拟线段与第二虚拟线段之间的区域确定为第一虚拟区域;
将第二虚拟线段与第三虚拟线段之间的区域确定为第二虚拟区域;
将第三虚拟线段与第四虚拟线段之间的区域确定为第三虚拟区域。
进一步地,所述根据车辆进入各个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的第一标志位等于第一数值;
若检测到车辆的中心点坐标位于第二虚拟区域,则连续记录车辆行驶的二维坐标点,并计入预设的数组集合中;
若检测到车辆的中心点坐标位于第三虚拟区域,则令车辆的第二标志位等于第一数值;
若第一标志位和第二标志位均为第一数值,则根据数组集合中的第一个坐标点和最后一个坐标点确定车辆的行驶方向。
进一步地,所述车辆检测单元还用于:
根据数组集合中的各个坐标点拟合出一条直线,并确定直线的斜率;
根据直线的斜率确定车辆的转向情况。
进一步地,所述根据直线的斜率确定车辆的转向情况,包括:
若直线的斜率大于-1且小于0,则确定车辆右转;
若直线的斜率大于0且小于1,则确定车辆左转。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例提出了一种基于智慧道路边缘计算网关的车辆检测系统,包括:远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理,实现车辆属性信息的获取和车辆跟踪;车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断,并进行车辆分类、分车道、分方向的计数;信息发布单元,用于将实时检测的各种车辆信息进行JSON数据结构化设计和SM2数据安全加密处理,并通过MQTT即时通讯的方式将数据安全上传至云平台。通过本申请实施例,提高了车辆检测系统的检测精度,并能精确判断行驶车道和行驶方向,还可以实现远程操控,系统操作更加便捷,提高了与云平台的交互效率且保证了信息安全。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种基于智慧道路边缘计算网关的车辆检测系统的一个实施例示意图;
图2为远程管控单元整体的信息交互流程示意图;
图3为视频处理单元的处理流程的示意图;
图4为基于唯一ID和虚拟线段的车辆分车道分方向判断方法的示意图;
图5为基于虚拟线段的车辆分车道分方向判断方法的示意图;
图6为信息发布单元的处理流程的示意图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参阅图1,本申请实施例中一种基于智慧道路边缘计算网关的车辆检测系统的一个实施例可以包括:
远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;
视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理,实现车辆属性信息的获取和车辆跟踪;
车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断,并进行车辆分类、分车道、分方向的计数;
信息发布单元,用于将实时检测的各种车辆信息进行JSON数据结构化设计和SM2数据安全加密处理,并通过MQTT即时通讯的方式将数据安全上传至云平台。
车辆检测系统的处理流程包括:
首先,由远程管控单元在web网页上配置设备参数和进行画线操作:用户可以通过远程管控单元在web网页上进行边缘计算网关节点设备的设备参数的配置,包括边缘计算网关节点设备IP、摄像头IP和摄像头RTSP地址等信息。再通过画线操作进行车辆检测区域的划分,包括检测区域划分和车道划分。最后解析网页中的配置信息和画线参数,并将参数存储进入边缘计算网关节点设备的配置文件中;
接着由视频处理单元进行视频结构化处理:软件接入本地摄像头的实时数据流后,采用视频结构化处理流程、预训练的神经网络车辆模型和优化的目标跟踪方法对视频进行图像处理,对视频范围内的车辆进行检测、分类和跟踪,获取目标车辆的属性信息和进行车辆跟踪。
然后,车辆检测单元对过往车辆进行分车道的方向判断和计数:自动读取配置文件中的画线参数,进行区域分车道后,对车辆进行车道判断、方向判断和流量计数;
最后,信息发布单元对所有检测数据进行结构化处理后,使用SM2加密和MQTT通信方式,将数据发布到平台。
以下对各个处理单元进行详细叙述:
一、远程管控单元
在本申请实施例中,可以预先开发web后台,将之运行在嵌入式LINUX系统的边缘计算网关节点设备上。用户通过浏览器登录web网页后,可以在线进行设备参数配置、设备在线监测和画线操作功能。接着远程管控单元会自动提取解析网页上的数据,并存储到本地网关节点设备的文件系统中,可以对网关的运行参数和方式进行调控。
与其它web系统不同的是,本申请实施例中的远程管控单元是采用一种基于配置文件的方法,来实现web网页与边缘计算网关节点设备的交互。边缘计算网关节点设备根据配置文件中的参数来选择运行的方式,所以远程管控单元在此还提供了一种配置文件的构建方法,特别是提供一种画线参数的存储设计方法,具体步骤如下:
1、设备参数配置和程序运行方式设置
Web网页可对各种设备参数和程序运行参数进行配置,其中包括了边缘计算网关节点设备的IP、摄像头IP和摄像头RTSP数据流地址。
2、画线操作
提供用户在线画线,包括:标记、撤回、清空、上传和回放视频功能,具体用来监控视频、划分车辆检测区域和划分车道。
3、系统配置文件
管控单元设计是以配置文件的形式作为web网页与设备交互的媒介,将网页中所设置的参数提取解析后写入配置文件。在此提供了一种配置文件的构建方法,并提供了一种画线参数的设计方法,从而实现在线画线划分检测区域和分车道的功能,极大提高了操作效率。其配置文件构建方法如下:
(1)IP配置文件的构建示例:
[InitFlag]
Flag=1
[IpConfig]
SubnetMask=255.255.0.0
Gateway=10.10.248.1
DNS1=114.114.114.114
DNS2=114.114.114.114
KernelIp=10.10.151.95
CameraIp=10.10.101.50
MiniCameraIp=10.10.150.50
RadioIp=10.10.71.50
...
文件内容:网关节点设备和连接的各种终端设备的IP配置信息
文件参数分为:
关键头:如IP设置内容的关键头[IpConfig];
关键字段:如默认网关的关键字“Gateway”;
隔离符号:“=”;
关键内容:“=”右侧的实际数据;
(2)画线配置文件
[AI]
Rtsp=xxx
Line=6
[1]
Start_x=0
Start_y=800
End_x=800
End_y=800
[2]
Start_x=800
Start_y=800
End_x=1600
End_y=800
...
文件内容:画线功能的参数设置,将画线的坐标点信息写入文件(其中的坐标点决定了划分的区域和车道)
文件参数分为:
关键头:画线功能模块的关键头[AI]、坐标点集合的关键头[1]、[2]......;
关键字段:“Rtsp”为视频流RTSP地址;
“Line”为画线的线段数目;
“Start_x”和“Start_y”分别为线段的头节点的横坐标和纵坐标;
“End_x”和“End_y”分别为线段的尾节点的横坐标和纵坐标;
隔离符号:“=”;
关键内容:“=”右侧的实际数据;
4、读取配置文件中的参数运行
整体的信息交互流程如图2所示,依次为:web网页在线操作、设备参数和程序运行方式设置、画线操作、解析网页数据写入配置文件、读取配置文件数据参数、软件执行。
二、视频处理单元
如图3所示,视频图像的处理可以具体包括如下流程:
1、视频流输入
视频流采用RTSP的方式,实时接入摄像头视频流,对视频进行处理。
2、视频解码
将原始视频解码成统一RGB格式的单帧图片。
3、视频预处理
预处理包括图像颜色空间的转换和图像滤波去噪处理,从而达到改善图片的目的,方便后续的操作。
4、目标检测
基于YOLOv3目标检测算法和Caffe框架,对大量的数据集进行训练处理,得到目标检测的车辆神经网络模型,最后使用TensorRT对神经网络模型进行加速处理。
对于每帧输入的图片都要经过车辆神经网络模型进行目标检测推理,对图片中的车辆进行识别、定位和分类,给出车辆在原图片中的大概位置坐标(一个矩形区域),以(left, top, width, height)的形式给出,left, top, width, height分别为矩形区域的左侧坐标、顶部坐标、宽度及高度;并且进行二次推理,获取更加具体的车辆属性,对车辆进行分类(大车、小车、货车、轿车...),对颜色进行分类(红、绿、蓝...)。
在进行YOLOv3目标检测时,首先将输入图片缩放到416×416,通过特征提取网络Darknet-53进行5次下采样,还使用残差网络,目的是使网络在深层能够很快的收敛继续训练下去,然后通过yolo层对输入图像提取特征得到大小一定(13×13)的特征图,输出的特征图经过DBL后的13×13的特征图上采样后与倒数第二次下采样的结果相加,二者都为26×26,然后再进行后续操作。接着是26×26的特征图上采样后与倒数第三次下采样的特征图相加,即还为26×26,再进行后续操作。最后会输出三个不同尺度的特征图(即多尺度预测),每个尺度的特征图用来预测不同大小的目标,比如小尺度13×13可以预测大目标,中尺度26×26预测中目标,大尺度52×52预测小目标,不同尺寸特征图对应不同大小的先验框。
Caffe框架流程具体包括如下步骤:
(1)数据集准备;
(2)选用Caffe框架;
(3)CaffeNet网络参数设置;
(4)图像标注:将标注好的图像转化为Caffe目标分类所需要的形式;
(5)生成LMDB数据库:借助Caffe中的图像集转化工具“convert_imageset”,可将数据集转化为227×227大小的图像并存储到LMDB数据库中;
(6)计算图像均值:为提高训练速度和精度,图像需减去均值后再进行训练,借助Caffe中的计算均值工具“compute_image_mean”,计算出用于训练的图像的均值;
(7)编写网络配置文件:使用了Caffe提供的bvlc_reference_caffenet 网络,参考其配置文件修改部分参数后进行训练;
(8)训练测试模型:借助Caffe中的训练工具“caffe”,进行网络的训练和测试;
(9)推理加速:使用TensorRT优化模型。
需要注意的是,除了Caffe框架之外,也可以根据实际情况选择tensorflow或keras框架等其它框架。
5、目标跟踪
在目标跟踪过程中,可以结合背景削弱和特征增强的方法与KLT算法对车辆进行跟踪和唯一标识(ID)的标记。
KLT算法受限于3个条件:亮度恒定;时间连续或者运动位移小;空间一致性,邻近点有相似运动,保持相邻。因此在开发过程中,针对不同的场景,采用KLT算法进行目标跟踪面临很大的挑战,如外观变形、亮度变化、运动模糊、背景复杂、遮挡等情况,都会导致目标跟踪失败。而在车辆跟踪的场景中,白天阳光强烈、夜间灯光变化、道路背景纹理复杂等情况,会导致车辆本身的特征不够突出,从而出现跟踪丢失,唯一ID不断跳变的情况。
因此,针对KLT算法的缺陷,本申请实施例引入背景信息和目标特征的方法对目标跟踪算法进行优化,基本思路为:完全去除或者削弱亮度和背景纹理特征的影响,增强车辆的边缘轮廓特征,再使用KLT算法进行目标跟踪,从而显著提高车辆跟踪的效果,具体方法如下:
(1)背景建模
为了削弱跟踪车辆的道路背景纹理影响,进行背景建模获得道路背景信息,在算法运行的起始阶段,获取连续N帧(N>=500)图像序列进行背景模型训练。把这N帧图像序列中对应位置的像素点灰度值按从小到大排列,然后取中间值作为背景图像中对应像素点的灰度值。
(2)背景更新
采用自适应学习因子进行背景更新,计算如下式:
Bk+1=(1-α)×Bk+α×Ik
其中:Bk、Ik分别表示k时刻背景图像和实时路况边缘图像的灰度值,Bk+1表示k+1时刻背景边缘图像的灰度值,α是学习因子,Ik表示实时路况图像和背景边缘图像的灰度差值。当实时路况图像与背景边缘图像差距越大,学习因子越小,背景边缘更新越慢;相反,当实时路况图像与背景边缘图像的差距越小,学习因子越大,背景边缘更新越快。
(3)边缘特征提取
车辆跟踪受亮度因素影响较大,而视频图像的边缘信息对环境光线的变化具有较
强的鲁棒性,因此提取视频图像的边缘信息进行处理,这里边缘提取使用的是Sobel算子,
该算子包含两组3×3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横
向及纵向的亮度差分近似值。如果以A代表原始图像,及分别代表经横向及纵向边缘检
测的图像,其公式如下:
图像的每一个像素的横向及纵向梯度近似值可用以下的公式结合,来计算梯度的大小:
(4)差分计算
利用边缘特征提取的方法,对背景建模获得的背景和输入的每帧实时图像进行边缘特征提取处理,然后进行差分运算,去除或者削弱亮度和背景纹理特征的影响,达到增强车辆的边缘轮廓特征的效果,最终获得前景边缘图像。
(5)目标跟踪
使用KLT算法对经过背景削弱和特征增强的前景边缘图像进行车辆跟踪处理,KLT算法选择一些特征不变的角点,对角点进行跟踪。
角点根据G矩阵的两个特征值来选择的,一方面两个特征值不能太小,排除噪声影响,另一方面两个特征值不能差别太大,当两个特征值均大于一定阈值时,选择这个点作为角点。
KLT算法定义同一目标出现在两帧图像I、J中,如果图像中两点匹配,那么以这两点为中心,W为窗口存在极小的灰度平方差,当解得的残差e足够小(小于设定的阈值),即可认为是跟踪到的角点,从而获得位移向量D。
(6)唯一ID标记
对跟踪到的车辆使用序列号对车辆进行唯一ID的标记。
6、视频编码混成及可视化
对经过处理之后的视频进行混合叠加,最终达到在视频中显示车辆属性(比如加入方框和一些文字的效果)。
三、车辆检测单元
在车辆检测单元中,可以根据视频处理单元获取得到目标的矩形二维坐标和唯一ID信息,并结合远程管理单元的画线操作划分区域和分车道后,使用以下的两种基于“虚拟线段”的分车道判断车辆方向和计数的方法,对车辆进行车道判断、方向判断和流量计数。
算法1:基于唯一ID和虚拟线段的车辆分车道分方向判断方法
1、从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段。
2、根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出两个虚拟区域。
具体地,将检测线段沿预设的正方向平移检测阈值宽度,得到第一虚拟线段;将检测线段与第一虚拟线段之间的区域确定为第一虚拟区域;将检测线段沿预设的反方向平移检测阈值宽度,得到第二虚拟线段;将检测线段与第二虚拟线段之间的区域确定为第二虚拟区域。
3、根据车辆的坐标信息确定车辆的行驶车道。
4、根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向。
具体地,若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的反方向标志位等于车辆的唯一标识;若检测到车辆的中心点坐标位于第二虚拟区域,且车辆的反方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为反方向。
若检测到车辆的中心点坐标位于第二虚拟区域,则令车辆的正方向标志位等于车辆的唯一标识;若检测到车辆的中心点坐标位于第一虚拟区域,且车辆的正方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为正方向。
以图4所示的单车道平面图为例,对使用到的参数说明如下:
x:为检测目标所在视频画面中的二维坐标系的横坐标;
y:为检测目标所在视频画面中的二维坐标系的纵坐标;
car:为检测车辆矩形框,其左上角二维坐标点为(x_left, y_top),矩形宽为width,高为height;
y_line:为车辆检测线段的y坐标;
T:虚拟线段和实际的检测线段的检测阈值宽度;
方向:车辆沿着y轴的正方向行驶即为正方向,车辆沿着y轴的负方向即为反方向,当然在实际检测中,方向也可以根据实际情况定义。
具体计算步骤如下所示:
第1步:读取配置文件中的画线参数,也即线段坐标点的集合:
xy[n][2]={{start_x0,start_y0},{start_x1,start_y1}...{{start_x(n-1),start_y(n-1)}}},坐标点总数为n,根据这些坐标点即可确定出各个车道的检测线段。
第2步:设定虚拟线段和实际检测线段的检测阈值大小T。
第3步:输入视频流第K帧图片中的检测车辆的目标属性,其中车辆唯一ID为ID(K),令i = 0。
第4步:计算第K帧图片中的车辆中心点坐标(mod_x (K),mod_y (K)):
mod_x (K) = x_left (K) +width/2;
mod_y (K) = y_top (K)+height/2。
第5步:分车道,车道数目为M=n/2,i<n/2,令j = i + 1。
第6步:判断该车辆属于第j车道。
如果xy[2*i][0] < mod_x (K) < xy[2*i + 1][0],则进入第7步,否则回到第5步,同时令i = i + 1。
第7步:计算第j车道检测线段的平均纵坐标y_line(j):
y_line(j) = (xy[2*i][1] + xy[2*i + 1][1])/2。
第8步:判断车辆在第j车道上是否是反方向。
判断车辆是否进入第j车道虚拟线段和实际检测线段之间的区域,如果y_line(j)< mod_y (K) < (y_line(j) + T),则令反方向标志位flag_F(j)等于车辆的唯一ID(K),即:flag_F(j) = ID(K);否则,再判断如果mod_y (K) < y_line(j),则判断反方向标志位flag_F(j)是否等于车辆的唯一ID(K)。若等于,则判断该车辆的车道为第j车道,方向为反方向,记录该车辆的车道、车辆类型、车身颜色和正方向行驶数据,并进行第j车道的反方向车流量计数car_F_count(j)++,再令flag_F(j)=0;否则,进入第9步。
第9步:判断车辆在第j车道上是否是正方向。
判断车辆是否进入第j车道虚拟线段和实际检测线段之间的区域,如果(y_line(j) - T) < mod_y (K) < y_line(j),则令正方向标志位flag_Z(j)等于车辆的唯一ID(K),即:flag_Z(j) = ID(K)。否则,再判断如果mod_y (K) > y_line(j),则判断正方向标志位flag_Z(j)是否等于车辆的唯一ID(K),若等于,则判断该车辆的车道为第j车道,方向为正方向,记录该车辆的车道、车辆类型、车身颜色和正方向行驶数据,并进行第j车道的正方向车流量计数car_Z_count(j)++,再令flag_Z(j)=0;否则进入第10步,处理下一帧图片。
第10步:处理下一帧图片,令K=K+1,跳转到第3步。
算法2:基于虚拟线段的车辆分车道分方向判断方法
1、从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段。
2、根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出三个虚拟区域。
具体地,将检测线段沿预设的正方向平移检测阈值宽度的两倍,得到第一虚拟线段;将检测线段沿正方向平移检测阈值宽度,得到第二虚拟线段;将检测线段沿预设的反方向平移检测阈值宽度,得到第三虚拟线段;将检测线段沿反方向平移检测阈值宽度的两倍,得到第四虚拟线段;将第一虚拟线段与第二虚拟线段之间的区域确定为第一虚拟区域;将第二虚拟线段与第三虚拟线段之间的区域确定为第二虚拟区域;将第三虚拟线段与第四虚拟线段之间的区域确定为第三虚拟区域。
3、根据车辆的坐标信息确定车辆的行驶车道。
4、根据车辆进入各个虚拟区域的情况确定车辆的行驶方向。
具体地,若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的第一标志位等于第一数值;若检测到车辆的中心点坐标位于第二虚拟区域,则连续记录车辆行驶的二维坐标点,并计入预设的数组集合中;若检测到车辆的中心点坐标位于第三虚拟区域,则令车辆的第二标志位等于第一数值;若第一标志位和第二标志位均为第一数值,则根据数组集合中的第一个坐标点和最后一个坐标点确定车辆的行驶方向。
进一步地,还可以根据数组集合中的各个坐标点拟合出一条直线,并确定直线的斜率;根据直线的斜率则可以确定车辆的转向情况:若直线的斜率大于-1且小于0,则确定车辆右转;若直线的斜率大于0且小于1,则确定车辆左转。
以图5所示的单车道平面图为例,其使用到的参数与图4中的类似,具体可参见前述内容,此处不再赘述。
具体计算步骤如下所示:
第1步:读取配置文件中的画线参数,也即线段坐标点的集合:
xy[n][2]={{start_x0,start_y0},{start_x1,start_y1}...{{start_x(n-1),start_y(n-1)}}},坐标点总数为n,根据这些坐标点即可确定出各个车道的检测线段。
第2步:设定虚拟线段和实际检测线段的检测阈值大小T,并设定数组:
count[MAX]={0};
array_mod_xy[MAX][2][MAX]={0};
其中:
array_mod_xy[MAX][0][MAX]代表第j车道x坐标点集合;
array_mod_xy[MAX][1][MAX]代表第j车道y坐标点集合。
count[MAX]最大值为max_value,为最大存储的坐标点集合数目;
MAX为最大分车道数量;
第3步:输入视频流第K帧图片中的检测车辆的目标属性,其中车辆唯一ID为ID(K),令i = 0。
第4步:计算第K帧图片中的车辆中心点坐标(mod_x (K),mod_y (K)):
mod_x (K) = x_left (K) +width/2;
mod_y (K) = y_top (K)+height/2。
第5步:分车道,车道数目为M=n/2,i<n/2,令j = i + 1。
第6步:判断该车辆属于第j车道。
如果xy[2*i][0] < mod_x (K) < xy[2*i + 1][0],则进入第7步,否则回到第5步,同时令i = i + 1。
第7步:计算第j车道检测线段的平均纵坐标y_line(j):
y_line(j) = (xy[2*i][1] + xy[2*i + 1][1])/2。
第8步:如果车辆进入第一虚拟区域,即:(y_line + T) < mod_y (K) < (y_line+ 2*T),则令flag1[j]=1;跳转到第11步。
第9步:如果车辆进入第二虚拟区域,即:(y_line - T) < mod_y (K) < (y_line+ T),则将车辆坐标点存储入三维数组。
如果count[j] < max_value(防止存储数据过大),则:
array_mod_xy[j][0][count[j]]= mod_x (K);
array_mod_xy[j][1][count[j]] = mod_y (K);
count[j]++;
否则,令count[j]=0,清空第j车道的坐标点集合,令array_mod_xy[j]={0};
最后跳转到第11步。
第10步:如果车辆进入第三虚拟区域,即:(y_line - 2*T) < mod_y (K) < (y_line - T),则令flag2[j]=1;跳转到第11步。
第11步:如果flag1[j]==1且 flag2[j]==1,则判断:
如果array_mod_xy[j][1][count[j]-1] > array_mod_xy[j][1][0],则为正方向;
如果array_mod_xy[j][1][count[j]-1] < array_mod_xy[j][1][0],则为反方向;
否则跳转到第13步。
第12步:判断车辆转向:
根据array_mod_xy数组坐标点集合,利用最小二乘法计算拟合直线斜率L。
如果-1 < L <0,则判断该车辆右转;
如果0< L <1,则判断车辆为左转;
清空第j车道记录的数据:
令flag1[j]=0,flag2[j]=0,count[j]=0,array_mod_xy[j]={0};
跳转到第13步,处理下一帧图片。
第13步:处理下一帧图片,令K=K+1,跳转到第3步。
算法1的优点在于算法简单,在视频较为清晰的情况下,较为准确;缺点是需要进行目标跟踪,对视频清晰程度较为依赖;而且测试发现,增加目标跟踪环节,无疑会增加计算分析的CPU负荷,所以会增加视频卡顿。
算法2的优点在于对视频要求不高,不需要对目标进行锁定跟踪,可以减少目标捡漏带来的误差,同时可以减少目标跟踪环节,从而降低计算分析的CPU负荷;缺点在于需要依赖于对阈值的调控(不能大于车身长度)和车道的明确划分,才能精确计数。倘若线段两侧阈值范围内同时出现多车辆,则会导致重复计数,所以需要划分明确的分车道界线。
在本申请实施例中,可以根据实际情况选取其中任意一种算法,优选地,车辆检测单元经过画线划分明确的车道,并设定合理的阈值T之后,可以将两种算法结合使用,每次运算取结果中的较大值,可以极大的提高车辆计数的精度。
四、信息发布单元
图6所示为信息发布单元处理流程的示意图,具体可以包括如下所示的过程:
JSON数据结构化设计:信息发布单元将车辆检测数据按照预设的车辆检测数据包进行JSON结构化处理;
SM2数据安全加密:使用国密SM2算法对数据进行加解密处理,其中密钥分别分配给边缘计算网关和平台,并且不定期进行密钥更新;
MQTT即时通讯:MQTT为一种即时通讯方式,需要MQTT服务器作为中间代理,从而实现边缘计算网关和平台之间的通信,将车辆检测数据发送给平台。
具体地,车辆检测数据包设计如下:
{
"ID": "10000001", //灯杆id
"type": "6",//参考数据类型
"data": {
"event_cate": "traffic", //事件大类,车辆检测属于traffic
"event_refid": "0kz5jlizotnlov2amct7fd4jl3s4kqz",//事件的全局唯一refid,32位uuid
"event_type": "vehicle",//事件类型
"event_dt": "2020-02-15 09:55:36", //日期时间型
"camera_id": "10.10.101.45", //摄像头标识(直接采用摄像头IP)
"event_data": {
"vehicle_info": [{
"vehicle_type": "03",//#参照‘数据字典-车辆类型’
"lane": "1",//车道
"velocity": "0",//车速
"license_plate": "粤B-F9999",//车牌号
"license_plate_type": "01",//参照‘数据字典-车牌类型
"vehicle_color": "A",//参照‘数据字典颜色
"vehicle_direction": "01"//参照‘数据字典-车辆行驶方向’
}]
},
"source_id": "4", //视频来源,预留
"server_id": "1" //分析主机的ID,预留
}
}
参数说明:
event_cate:固定为“traffic”,即交通大类;
event_refid:事件的全局唯一refid,32位uuid
event_type:固定为“vehicle”,即车辆;
event_dt:日期时间型,如:2020-02-15 09:55:36;
camera_id:摄像头IP;
vehicle_type:车辆类型,参照“数据字典”;
lane:车道,参照“数据字典”;
velocity:车速(km/h);
license_plate:车牌号,参照“数据字典”;
license_plate_type:车牌类型,参照“数据字典”;
vehicle_color: 颜色,参照“数据字典”;
vehicle_direction: 方向,参照“数据字典”;
source_id: 视频来源,预留;
server_id:分析主机的ID,预留。
数据字典具体如下:
(1)颜色
(2)camera_id生成规则
carmera_id=摄像头IP。如摄像头IP地址为10.10.101.45,则生成的carmera_id为10.10.101.45。
(3)车辆行驶方向
(4)车辆类型
前两位代表车辆大小,后两位代表车辆类型(若未识别,则传车辆大小即可)
(5)车牌类型
在以上的数据字典中,code为参数的取值,name为与code对应的具体含义。
综上所述,本申请实施例提出了一种基于智慧道路边缘计算网关的车辆检测系统,包括:远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理,实现车辆属性信息的获取和车辆跟踪;车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断,并进行车辆分类、分车道、分方向的计数;信息发布单元,用于将实时检测的各种车辆信息进行JSON数据结构化设计和SM2数据安全加密处理,并通过MQTT即时通讯的方式将数据安全上传至云平台。通过本申请实施例,提高了车辆检测系统的检测精度,并能精确判断行驶车道和行驶方向,还可以实现远程操控,系统操作更加便捷,提高了与云平台的交互效率且保证了信息安全。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的各个单元模块和方法,可以通过其它的方式实现。例如,以上所描述的各个单元模块实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于智慧道路边缘计算网关的车辆检测系统,其特征在于,包括:
远程管控单元,用于远程配置边缘计算网关节点设备的设备参数和控制设备运行方式,为车辆检测系统提供画线分区域和分车道操作,并解析网页上的配置信息和画线参数,写入边缘计算网关节点设备的配置文件中;
视频处理单元,用于实时接入和存储本地视频流数据,采用视频结构化处理流程、预训练的神经网络模型和优化的目标跟踪方法对视频进行图像处理,实现车辆属性信息的获取和车辆跟踪;
车辆检测单元,用于按照预设的车辆分车道分方向的算法,实现对车辆分车道和分方向的判断,并进行车辆分类、分车道、分方向的计数;
信息发布单元,用于将实时检测的各种车辆信息进行JSON数据结构化设计和SM2数据安全加密处理,并通过MQTT即时通讯的方式将数据安全上传至云平台。
2.根据权利要求1所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述车辆检测单元具体用于:
从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段;
根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出两个虚拟区域;
根据车辆的坐标信息确定车辆的行驶车道;
根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向。
3.根据权利要求2所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出两个虚拟区域,包括:
将检测线段沿预设的正方向平移检测阈值宽度,得到第一虚拟线段;
将检测线段与第一虚拟线段之间的区域确定为第一虚拟区域;
将检测线段沿预设的反方向平移检测阈值宽度,得到第二虚拟线段;
将检测线段与第二虚拟线段之间的区域确定为第二虚拟区域。
4.根据权利要求3所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的反方向标志位等于车辆的唯一标识;
若检测到车辆的中心点坐标位于第二虚拟区域,且车辆的反方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为反方向。
5.根据权利要求3所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据车辆从行驶车道的一个虚拟区域进入另一个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第二虚拟区域,则令车辆的正方向标志位等于车辆的唯一标识;
若检测到车辆的中心点坐标位于第一虚拟区域,且车辆的正方向标志位等于车辆的唯一标识,则确定车辆的行驶方向为正方向。
6.根据权利要求1所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述车辆检测单元具体用于:
从配置文件中读取画线参数,并根据读取的画线参数确定各个车道的检测线段;
根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出三个虚拟区域;
根据车辆的坐标信息确定车辆的行驶车道;
根据车辆进入各个虚拟区域的情况确定车辆的行驶方向。
7.根据权利要求6所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据各个车道的检测线段和预设的检测阈值宽度在各个车道中分别划分出三个虚拟区域,包括:
将检测线段沿预设的正方向平移检测阈值宽度的两倍,得到第一虚拟线段;
将检测线段沿正方向平移检测阈值宽度,得到第二虚拟线段;
将检测线段沿预设的反方向平移检测阈值宽度,得到第三虚拟线段;
将检测线段沿反方向平移检测阈值宽度的两倍,得到第四虚拟线段;
将第一虚拟线段与第二虚拟线段之间的区域确定为第一虚拟区域;
将第二虚拟线段与第三虚拟线段之间的区域确定为第二虚拟区域;
将第三虚拟线段与第四虚拟线段之间的区域确定为第三虚拟区域。
8.根据权利要求7所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据车辆进入各个虚拟区域的情况确定车辆的行驶方向,包括:
若检测到车辆的中心点坐标位于第一虚拟区域,则令车辆的第一标志位等于第一数值;所述第一标志位用于指示车辆是否进入过第一虚拟区域,当所述第一标志位等于第一数值时,表示车辆已进入过第一虚拟区域;
若检测到车辆的中心点坐标位于第二虚拟区域,则连续记录车辆行驶的二维坐标点,并计入预设的数组集合中;
若检测到车辆的中心点坐标位于第三虚拟区域,则令车辆的第二标志位等于第一数值;所述第二标志位用于指示车辆是否进入过第三虚拟区域,当所述第二标志位等于第一数值时,表示车辆已进入过第三虚拟区域;
若第一标志位和第二标志位均为第一数值,则根据数组集合中的第一个坐标点和最后一个坐标点确定车辆的行驶方向。
9.根据权利要求8所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,还包括:
根据数组集合中的各个坐标点拟合出一条直线,并确定直线在检测目标所在视频画面中的二维坐标系下的斜率;
根据直线的斜率确定车辆的转向情况。
10.根据权利要求9所述的基于智慧道路边缘计算网关的车辆检测系统,其特征在于,所述根据直线的斜率确定车辆的转向情况,包括:
若直线的斜率大于-1且小于0,则确定车辆右转;
若直线的斜率大于0且小于1,则确定车辆左转。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011052204.1A CN111899515B (zh) | 2020-09-29 | 2020-09-29 | 一种基于智慧道路边缘计算网关的车辆检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011052204.1A CN111899515B (zh) | 2020-09-29 | 2020-09-29 | 一种基于智慧道路边缘计算网关的车辆检测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111899515A CN111899515A (zh) | 2020-11-06 |
CN111899515B true CN111899515B (zh) | 2021-01-19 |
Family
ID=73223997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011052204.1A Active CN111899515B (zh) | 2020-09-29 | 2020-09-29 | 一种基于智慧道路边缘计算网关的车辆检测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111899515B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113034497A (zh) * | 2021-04-26 | 2021-06-25 | 博科视(苏州)技术有限公司 | 一种基于视觉的保温杯焊缝定位检测方法及系统 |
CN113311809A (zh) * | 2021-05-28 | 2021-08-27 | 苗叶 | 一种基于工业控制系统的安全运维指令阻断装置和方法 |
CN113420748B (zh) * | 2021-08-25 | 2022-02-01 | 深圳市城市交通规划设计研究中心股份有限公司 | 车辆违规行驶的检测方法、装置、电子设备及存储介质 |
CN114285890B (zh) * | 2021-12-10 | 2024-03-15 | 西安广和通无线通信有限公司 | 云平台连接方法、装置、设备及存储介质 |
CN115083208B (zh) * | 2022-07-20 | 2023-02-03 | 深圳市城市交通规划设计研究中心股份有限公司 | 人车冲突预警方法、预警分析方法、电子设备及存储介质 |
CN115240429B (zh) * | 2022-08-11 | 2023-02-14 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种人车流量统计方法、电子设备及存储介质 |
CN116645810B (zh) * | 2023-05-22 | 2024-06-07 | 南京理工大学 | 基于视频识别的移动式交通感知边缘计算装置、交通流量统计系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2619724C2 (ru) * | 2012-02-23 | 2017-05-17 | Ниссан Мотор Ко., Лтд. | Устройство обнаружения трехмерных объектов |
US10424196B1 (en) * | 2018-06-25 | 2019-09-24 | At&T Intellectual Property I, L.P. | Dynamic edge network management of vehicular traffic |
KR102073929B1 (ko) * | 2018-08-02 | 2020-02-05 | (주)유비벨록스모바일 | 블록체인망을 이용한 차량의 비상 상황 로그 시스템 |
CN110867077B (zh) * | 2018-12-03 | 2022-06-21 | 江苏智运科技发展有限公司 | 一种基于交通视频结构化数据质量控制的道路优化方法 |
CN111260924B (zh) * | 2020-02-10 | 2021-01-26 | 北京中交国通智能交通系统技术有限公司 | 适应边缘计算的交通智能管控与服务发布策略方法 |
CN111554088B (zh) * | 2020-04-13 | 2022-03-22 | 重庆邮电大学 | 一种多功能v2x智能路侧基站系统 |
-
2020
- 2020-09-29 CN CN202011052204.1A patent/CN111899515B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111899515A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111899515B (zh) | 一种基于智慧道路边缘计算网关的车辆检测系统 | |
WO2020173056A1 (zh) | 交通图像识别方法、装置、计算机设备和介质 | |
Serna et al. | Detection, segmentation and classification of 3D urban objects using mathematical morphology and supervised learning | |
CN106599792B (zh) | 一种手部驾驶违规行为的检测方法 | |
CN112347993B (zh) | 一种基于车辆-无人机协同的高速公路车辆行为和轨迹预测方法 | |
JP2019061658A (ja) | 領域判別器訓練方法、領域判別装置、領域判別器訓練装置及びプログラム | |
CN106326858A (zh) | 一种基于深度学习的公路交通标志自动识别与管理系统 | |
CN106326893A (zh) | 一种基于区域辨别的车辆颜色识别方法 | |
KR20210078530A (ko) | 차선 속성 검출방법, 장치, 전자장치 및 가독 저장 매체 | |
CN113343461A (zh) | 自动驾驶车辆的仿真方法、装置、电子设备及存储介质 | |
CN113160575A (zh) | 一种非机动车辆及驾驶人的交通违法行为检测方法及系统 | |
CN111931683B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN112766206B (zh) | 一种高位视频车辆检测方法、装置、电子设备和存储介质 | |
CN113887418A (zh) | 车辆违规行驶的检测方法、装置、电子设备及存储介质 | |
CN112016545A (zh) | 一种包含文本的图像生成方法及装置 | |
CN103198300A (zh) | 基于双层背景的停车事件检测方法 | |
Sun et al. | IRDCLNet: Instance segmentation of ship images based on interference reduction and dynamic contour learning in foggy scenes | |
CN115588188A (zh) | 一种机车、车载终端和驾驶员行为识别方法 | |
CN117671616A (zh) | 一种目标识别方法、装置、设备和存储介质 | |
CN111160206A (zh) | 一种交通环境元素视觉感知方法及装置 | |
CN113449629B (zh) | 基于行车视频的车道线虚实识别装置、方法、设备及介质 | |
CN115393379A (zh) | 一种数据标注方法及相关产品 | |
CN114820931A (zh) | 基于虚拟现实的智慧城市cim可视化实时成像方法 | |
Sankaranarayanan et al. | Improved Vehicle Detection Accuracy and Processing Time for Video Based ITS Applications | |
CN109657628A (zh) | 一种用于确定车辆的可行驶区域的方法与设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |