CN115331147A - 一种基于机器视觉的道路抛洒物检测方法与系统 - Google Patents

一种基于机器视觉的道路抛洒物检测方法与系统 Download PDF

Info

Publication number
CN115331147A
CN115331147A CN202210976689.6A CN202210976689A CN115331147A CN 115331147 A CN115331147 A CN 115331147A CN 202210976689 A CN202210976689 A CN 202210976689A CN 115331147 A CN115331147 A CN 115331147A
Authority
CN
China
Prior art keywords
road
detection
subsystem
image
communication terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210976689.6A
Other languages
English (en)
Inventor
呼鑫宇
郭唐仪
练智超
杜鹏桢
蒋磊
陈知渊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202210976689.6A priority Critical patent/CN115331147A/zh
Publication of CN115331147A publication Critical patent/CN115331147A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提出了一种基于机器学习的道路抛洒物检测方法与系统,所述系统包括:采集子系统获取视频流数据,按帧读取图像;定位子系统实时获取定位坐标信息;将获取的图像、定位信息通过通信子系统传输到通信终端;通信终端实时预览图像,并将图像传输到检测子系统;检测子系统接收图像,利用内置改进的YOLOv5对关键帧图像进行分类检测,将检测结果回传通信终端;通信终端将事件检测图片信息、定位信息上传到云端服务器;路政管理人员通过查看云端服务器的事件数据安排道路养护计划。本发明可以简单、方便的集成在道路巡检车辆上,提高道路巡检人员的巡检效率,降低道路巡检成本,实现道路抛洒物的快速、及时的检测识别。

Description

一种基于机器视觉的道路抛洒物检测方法与系统
技术领域
本发明涉及智能交通技术领域,具体为一种基于机器视觉的道路抛洒物检测方法与系统。
背景技术
目前,随着城市道路里程的不断延长以及车流量的逐年增长,因道路抛洒物引发的交通事故数量与日俱增,此外道路抛洒物不仅存在安全隐患,还对城市道路的美观造成了一定程度的负面影响。这些抛洒物大多数为行车人员丢弃的行车垃圾,诸如塑料瓶等危害程度较低但影响城市道路美观的抛洒物,又或者是货车上由于货物捆绑不严实而掉落的货物或者汽车故障而遗落的零部件等对道路行车人员安全带来极大危险的抛洒物。
传统道路巡检主要依靠道路养护人员人工进行道路巡检、排查道路抛洒物隐患,时间成本较高、巡检效率低下且检测覆盖率低,此外目前绝大部分的抛洒物检测都是基于固定摄像头或道路监控摄像头的图像进行检测,此类摄像头所采集的图像所覆盖的道路范围有很大局限性且准确度不高。
发明内容
本发明提出了一种基于机器视觉的道路抛洒物检测方法。
实现本发明的技术解决方案为:一种基于机器视觉的道路抛洒物检测方法,包括下述步骤:
S1:采用摄像机采集巡检道路上的视频图像,并从视频图像中获取含抛洒物的图像;
S2:对含抛洒物的图像进行相应的预处理及标注后构建道路抛洒物数据集;
S3:基于抛洒物采集方式和抛洒物数据集搭建神经网络模型;
S4:将道路抛洒物数据集输入神经网络模型中进行训练,并根据训练结果对模型进行优化,得到抛洒物检测模型的训练权重和分类结果;
S5:利用训练好的深度学习网络进行抛洒物检测。
优选地,对含抛洒物的图像进行相应的预处理具体为:对获取的含抛洒物的图像拼接、翻转、裁剪、对比度变换、添加高斯噪声处理,以进行图像的增强与扩充。
优选地,标注的内容包括待检测目标的种类和目标矩形框的位置。
优选地,搭建神经网络模型采用YOLOv5模型,所述YOLOv5模型包括backbone部分、Neck部分以及Head部分,其中backbone部分主干网络替换为MobileNet v3;Neck部分采用CSP-PAN结构;Head部分采用三个特征层进行边界框的预测,三个特征层的分别用于预测三个尺度的目标图像,最终获得检测框的精确位置。
优选地,神经网络模型的训练过程为:
S41:将道路抛洒物数据集输入到神经网络模型中中,通过主干网络MobileNetv3,经过普通卷积、多个逆残差结构中的卷积升维、DW卷积、卷积降维提取图像纹理、梯度图像特征,并输出不同尺度的特征图;
S42:将不同的的特征图通过CSP-PAN网络结构,分别经过上采样,输出相同尺度的特征图在深度方向进行concat拼接,连接后的特征图依次通过CSP结构、卷积,得到用于检测较小目标的特征图输出,通过两次深度方向上的concat拼接,依次得到用于检测中等、较大目标的特征图输出;
S43:将用于预测三个尺度的特征图输入分类器,得到网络模型训练后的权重文件。
优选地,所述神经网络模型采用SIoU损失函数,所述SIoU损失函数包括角度损失、距离损失、以及形状损失。
本发明还提出了一种基于机器视觉的高速公路抛洒物检测系统,包括图像视频采集子系统、通信子系统、定位子系统、通信终端、检测子系统、云端服务器,其中,所述图像视频采集子系统,包括安装在道路巡检车顶部的摄像机,用于采集道路上的视频图像,并将视频图像通过通信子系统传输到通信终端;所述通信子系统,采用路由器进行组网,实现各子系统之间的信息通讯,所述定位子系统用于将所获取的原始GPS数据经过通信子系统的数据提取与格式转换后将经纬度数据信息通过UDP通信传输到通信终端;所述通信终端包括平板电脑、工控机或者其他计算机终端,用于道路巡检人员对道路车辆道路信息进行实时预览,并接受采集子系统传输的视频图像以及定位子系统传输的GPS数据,将图像以定位信息一一对应并标签,将其存储到通信终端上;所述检测子系统用于神经网络模型,用于检测识别道路上的抛洒物,并将检测结果通过通信子系统回传到通信终端;所述云端服务器部署在路政管理部门的巡检系统网站,通信终端通过4G/5G的形式将抛洒物检测结果以及图像传输到云端服务器。
本发明与现有技术相比,其显著优点为:
1、本发明基于机器视觉的检测手段进行道路抛洒物的检测与识别,降低了人工成本,提高了巡查效率;
2、本发明基于YOLOv5网络模型进行轻量化改进,采用MobileNet v3作为主干网络,大大减少了模型的参数,使得模型更方便移植到其他通讯终端,降低模型模型的部署需求;此外改用SIoU作为损失函数,提高了模型的推理速度并且提高了抛洒物检测的均值平均精度(mAP)。
附图说明
图1为本发明基于机器视觉的道路抛洒物检测方法流程图。
图2为本发明的轻量化YOLOv5网络结构示意图
图3为本发明的改进的轻量化YOLOv5检测流程图。
图4为本发明的抛洒物检测效果图
图5为本发明基于机器视觉的道路抛洒物检测系统布置原理图。
图6为本发明基于机器视觉的道路抛洒物检测系统流程图
具体实施方式
下面结合附图对本发明进行说明。
本发明涉及一种基于机器视觉的道路抛洒物检测方法,其流程图如图1所示,包括:
步骤1:采集图像视频,采用安装在巡检车顶的摄像机来采集道路上的视频图像,安装方式包括但不限于将摄像头固定在车顶行李架上、采用磁吸式底座进行摄像头的固定等。
进一步的,图像采集包括自动获取和巡检人员手动获取两种方式;自动获取通过将摄像头的视频流以H.265的编解码格式进行传输到通信终端,通过通信终端的程序逐帧或隔帧进行道路图像存储。手动获取则是通过巡检人员通过通信终端的预览画面进行截取图像。
步骤2:构建数据集,将从车载摄像机中通过自动方式和手动方式获取的包含道路抛洒物的RGB格式的彩色图片保存为JPG格式。所获取抛洒物的场景包括真实道路抛洒物场景,也包括实验过程中人为设置的抛洒物。其次,在原有数据的基础上,采用图像拼接、翻转、裁剪、对比度变换、添加高斯噪声等方式对数据集进行图像的增强与扩充。对比度变换是在原图像的HSV颜色空间,改变饱和度S和亮度V分量,保持色调H不变,对每个像素的S和V分量进行指数运算(指数因子在0.24到4之间),增加光照变化。
为尽可能体现道路现场各种状况,样本应尽可能包含各种天气情况的图片。并按照0.8:0.2的比例划分训练集和验证集,其描述如下:
D=T(n)+V(m)
其中D表示抛洒物数据集,T(n)表示用于模型训练的道路抛洒物训练集图片,n表示用于训练的道路抛洒物图片数量。V(m)表示用于模型验证的道路抛洒物验证集图片,m表示用于验证的道路抛洒物图片数量。且n:m=8:2。
进一步的,将划分好的训练集样本和验证集样本进行标注,标注包括待检测目标的种类和目标矩形框的位置。使用标注工具“LabelImg”进行样本图片的标注,采用矩形标注工具进行框选,并添加相应种类的标签,标注格式为YOLO格式的txt文件,用于后续训练过程中读取标签信息。其txt文件输出格式如下:
Figure BDA0003798741750000041
其中,e表示一个包含抛洒物的样本图片,R(e)表示标注后的txt文本格式,右边的矩阵中,cn表示图片e中第n个目标的类别,xminn和yminn分别表示第n个目标标注矩形框的左上角的横坐标和纵坐标,xmaxn和yamxn表示第n个目标标注矩形框的右下角的横坐标和纵坐标。
步骤3:构建深度学习网络,一种改进的轻量化YOLOv5深度学习检测算法,主要包含以下几个部分,网络结构示意图如图2所示。
1、backbone部分,主干网络替换为MobileNet v3,其主要结构如下:
1)深度可分卷积(Depthwise Separable Convolution),其分为DW卷积和PW卷积两部分,其中深度卷积(DW)将聚集拆分成单通道的形式,在不改变输入特征图像深度的情况下,对每一通道进行卷积操作,这样就得到了和输入特征图通道数一直的输出特征图。逐点卷积(PW)则是对特征图进行升维和降维,最终得到和普通卷积一样的输出特征图。
2)逆残差结构(Inverted residuals),由于深度卷积本身没有改变通道的能力,输入多少通道输出就是多少通道,如果输入通道很少的话,DW深度卷积只能在低维度上工作,造成的效果并不会很好。逆残差结构通过1x1卷积升维→3x3DW卷积→1x1卷积降维。原因是因为高维信息通过ReLU激活函数后丢失的信息更少。
3)SE通道注意力,在MobileNet v3中,采用SE组件,通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去提升有用的特征并抑制对当前任务用处不大的特征。
4)h-swish激活函数,在MobileNet v3中,激活函数除ReLU6激活函数,绝大部分都使用h-swish激活函数,其公式如下所示:
Figure BDA0003798741750000051
Figure BDA0003798741750000052
ReLU6=min(max(x,0),6)
2、Neck部分采用CSP-PAN结构,其中PAN(Path Aggregation Network)结构式在FPN(从顶到底信息融合)的基础上加上了从底到顶的信息融合,其融合方式通过在通道上方向Concat拼接的方式进行融合的。其次在PAN结构的基础上引入CSP结构,减少网络的计算量以及对显存的占用,同时保证网络的能力不变或者略微的提升。
3、Head部分采用三个特征层进行边界框的预测,三个特征层的分别用于预测大、中、小三个尺度的目标图像,最终获得检测框的精确位置。
YOLOv5原始的主干网络采用的DarkNet53神经网络,但是相应的模型参数较多,应用于车载系统所占内存较大。本发明的改进之处在于将DarkNet53神经网络用MobileNetv3神经网络进行替换,在保证检测精度的基础上,显著的减少了网络的模型参数,使得网络模型更加轻量化,更适用于搭载在巡检车系统上。其次将损失函数CIoU改为SIoU损失函数,加快模型收敛,提高了模型的推理速度与mAP。其中SIoU由角度损失(angle_cost)、距离损失(distance_cost)、以及形状损失(shape_cost)构成。
S4:将道路抛洒物数据集输入神经网络模型中进行训练,并根据训练结果对模型进行优化,得到抛洒物检测模型的训练权重和分类结果;具体步骤为:
神经网络模型的训练过程为:
S41:将道路抛洒物数据集输入到神经网络模型中中,通过主干网络MobileNetv3,经过普通卷积、多个逆残差结构中的卷积升维、DW卷积、卷积降维提取图像纹理、梯度图像特征,并输出不同尺度的特征图;
S42:将不同的的特征图通过CSP-PAN网络结构,分别经过上采样,输出相同尺度的特征图在深度方向进行concat拼接,连接后的特征图依次通过CSP结构、卷积,得到用于检测较小目标的特征图输出,通过两次深度方向上的concat拼接,依次得到用于检测中等、较大目标的特征图输出;
S43:将用于预测三个尺度的特征图输入分类器,得到网络模型训练后的权重文件。
S5:利用训练好的深度学习网络进行抛洒物检测。本发明是基于迁移学习采用官方提供的预训练权重文件,在此基础上使用道路抛洒物数据集训练网络。之后利用YOLOv5配置文件、python调用接口和训练生成的检测权重文件,输入待检测的图片,即可进行目标检测,得到每张图片中的抛洒物的类别、矩形框、置信度等信息,具体的检测步骤如图3所示:
摄像机采用手动方式或自动方式隔帧或逐帧截取图片,作为整个网络的输入。
基于训练后的权重文件,将新输入的图像和视频进行目标种类的分类和目标边框的精准绘制,获取抛洒物在图像视频中的位置,其中实验分类主要分为纸箱、瓶子、木枝、车辆货物等抛洒物,实验检测图如图4所示。
最后进行网络模型部署,将步骤4中的轻量化YOLOv5神经网络部署在Jetson-nano检测板上作为系统中的检测子系统,当检测后的图像中包含抛洒物时,将检测结果回传到通信终端。
本发明还涉及一种基于机器视觉的高速公路抛洒物检测系统,该系统与上述基于机器视觉的道路抛洒物检测方法相对应,包括图像视频采集子系统、通信子系统、定位子系统、通信终端、检测子系统、云端服务器。如图5所示布置原理图,包括位于车顶的图像采集子系统、通信子系统、定位子系统,以及位于车内的检测子系统以及通信终端。
所述图像视频采集子系统,包括安装在道路巡检车顶部的摄像机,用于采集道路上的视频图像,并将视频图像通过通信子系统传输到通信终端;所述通信子系统,采用路由器进行组网,实现各子系统之间的信息通讯。所述定位子系统,采用ATGM336H 51单片机进行开发,获取格式为GNRMC,将所获取的原始GPS数据经过通信子系统的数据提取与格式转换后将经纬度数据信息通过UDP通信传输到通信终端;所述通信终端可以包括平板电脑、工控机或者其他计算机终端,用于道路巡检人员对道路车辆道路信息进行实时预览,并接受采集子系统传输的视频图像以及定位子系统传输的GPS数据,将图像以定位信息一一对应并标签,将其存储到通信终端上;所述检测子系统用于部署改进的轻量化YOLOv5检测算法,用于检测识别道路上的抛洒物,并将检测结果通过通信子系统回传到通信终端。所述云端服务器部署在路政管理部门的巡检系统网站,通信终端通过4G/5G的形式将抛洒物检测结果以及图像传输到云端服务器,供道路管养部门参考,提高道路巡检的效率,本发明的抛洒物检测系统流程图如图6所示。
进一步地,检测子系统所搭载的检测算法为改进的轻量化YOLOv5网络模型,采用MobileNet v3作为主干网络,大大减少了模型的参数,使得模型更方便移植到其他通讯终端,降低模型模型的部署需求;此外改用SIoU作为损失函数,提高了模型的推理速度并且提高了抛洒物检测的均值平均精度(mAP)。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明创造,但不以任何方式限制本发明创造。因此,尽管本说明书参照附图和实施例对本发明创造已进行了详细的说明,但是,本领域技术人员应当理解,仍然可以对本发明创造进行修改或者等同替换,总之,一切不脱离本发明创造的精神和范围的技术方案及其改进,其均应涵盖在本发明创造专利的保护范围当中。

Claims (7)

1.一种基于机器视觉的道路抛洒物检测方法,其特征在于,包括下述步骤:
S1:采用摄像机采集巡检道路上的视频图像,并从视频图像中获取含抛洒物的图像;
S2:对含抛洒物的图像进行相应的预处理及标注后构建道路抛洒物数据集;
S3:基于抛洒物采集方式和抛洒物数据集搭建神经网络模型;
S4:将道路抛洒物数据集输入神经网络模型中进行训练,并根据训练结果对模型进行优化,得到抛洒物检测模型的训练权重和分类结果;
S5:利用训练好的深度学习网络进行抛洒物检测。
2.根据权利要求1所述的基于机器视觉的道路抛洒物检测方法,其特征在于,对含抛洒物的图像进行相应的预处理具体为:对获取的含抛洒物的图像拼接、翻转、裁剪、对比度变换、添加高斯噪声处理,以进行图像的增强与扩充。
3.根据权利要求1所述的基于机器视觉的道路抛洒物检测方法,其特征在于,标注的内容包括待检测目标的种类和目标矩形框的位置。
4.根据权利要求1所述的基于机器视觉的道路抛洒物检测方法,其特征在于,搭建神经网络模型采用YOLOv5模型,所述YOLOv5模型包括backbone部分、Neck部分以及Head部分,其中backbone部分主干网络替换为MobileNet v3;Neck部分采用CSP-PAN结构;Head部分采用三个特征层进行边界框的预测,三个特征层的分别用于预测三个尺度的目标图像,最终获得检测框的精确位置。
5.根据权利要求1所述的基于机器视觉的道路抛洒物检测方法,其特征在于,神经网络模型的训练过程为:
S41:将道路抛洒物数据集输入到神经网络模型中中,通过主干网络MobileNetv3,经过普通卷积、多个逆残差结构中的卷积升维、DW卷积、卷积降维提取图像纹理、梯度图像特征,并输出不同尺度的特征图;
S42:将不同的的特征图通过CSP-PAN网络结构,分别经过上采样,输出相同尺度的特征图在深度方向进行concat拼接,连接后的特征图依次通过CSP结构、卷积,得到用于检测较小目标的特征图输出,通过两次深度方向上的concat拼接,依次得到用于检测中等、较大目标的特征图输出;
S43:将用于预测三个尺度的特征图输入分类器,得到网络模型训练后的权重文件。
6.根据权利要求1所述的基于机器视觉的道路抛洒物检测方法,其特征在于,所述神经网络模型采用SIoU损失函数,所述SIoU损失函数包括角度损失、距离损失、以及形状损失。
7.一种基于机器视觉的高速公路抛洒物检测系统,其特征在于,包括图像视频采集子系统、通信子系统、定位子系统、通信终端、检测子系统、云端服务器,其中,所述图像视频采集子系统,包括安装在道路巡检车顶部的摄像机,用于采集道路上的视频图像,并将视频图像通过通信子系统传输到通信终端;所述通信子系统,采用路由器进行组网,实现各子系统之间的信息通讯,所述定位子系统用于将所获取的原始GPS数据经过通信子系统的数据提取与格式转换后将经纬度数据信息通过UDP通信传输到通信终端;所述通信终端包括平板电脑、工控机或者其他计算机终端,用于道路巡检人员对道路车辆道路信息进行实时预览,并接受采集子系统传输的视频图像以及定位子系统传输的GPS数据,将图像以定位信息一一对应并标签,将其存储到通信终端上;所述检测子系统用于神经网络模型,用于检测识别道路上的抛洒物,并将检测结果通过通信子系统回传到通信终端;所述云端服务器部署在路政管理部门的巡检系统网站,通信终端通过4G/5G的形式将抛洒物检测结果以及图像传输到云端服务器。
CN202210976689.6A 2022-08-15 2022-08-15 一种基于机器视觉的道路抛洒物检测方法与系统 Pending CN115331147A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210976689.6A CN115331147A (zh) 2022-08-15 2022-08-15 一种基于机器视觉的道路抛洒物检测方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210976689.6A CN115331147A (zh) 2022-08-15 2022-08-15 一种基于机器视觉的道路抛洒物检测方法与系统

Publications (1)

Publication Number Publication Date
CN115331147A true CN115331147A (zh) 2022-11-11

Family

ID=83924002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210976689.6A Pending CN115331147A (zh) 2022-08-15 2022-08-15 一种基于机器视觉的道路抛洒物检测方法与系统

Country Status (1)

Country Link
CN (1) CN115331147A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503779A (zh) * 2023-04-26 2023-07-28 中国公路工程咨询集团有限公司 一种路面抛洒物识别系统及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503779A (zh) * 2023-04-26 2023-07-28 中国公路工程咨询集团有限公司 一种路面抛洒物识别系统及方法

Similar Documents

Publication Publication Date Title
AU2019101142A4 (en) A pedestrian detection method with lightweight backbone based on yolov3 network
CN112233097B (zh) 基于空时域多维融合的道路场景他车检测系统和方法
CN106127107A (zh) 基于车牌信息和车辆轮廓的多路视频信息融合的车型识别方法
CN109389046B (zh) 用于自动驾驶的全天候物体识别与车道线检测方法
CN109948416A (zh) 一种基于深度学习的违法占用公交车道自动审核方法
CN103093249B (zh) 一种基于高清视频的出租车识别方法及系统
CN110415544B (zh) 一种灾害天气预警方法及汽车ar-hud系统
CN105844257A (zh) 基于机器视觉雾天行车错失道路标志牌的预警系统及方法
CN114898296B (zh) 基于毫米波雷达与视觉融合的公交车道占用检测方法
CN109993138A (zh) 一种车牌检测与识别方法及装置
CN110717387A (zh) 一种基于无人机平台的实时车辆检测方法
CN102867417A (zh) 一种出租车防伪系统及方法
CN112201051A (zh) 一种无人机端路面车辆违停检测及取证系统和方法
CN111723706A (zh) 基于树莓派的厢式货车厢门开度监控装置及系统
JP7468254B2 (ja) 位置姿勢算出方法および位置姿勢算出プログラム
CN111723705A (zh) 基于树莓派的厢式货车运输管理控制方法
CN115331147A (zh) 一种基于机器视觉的道路抛洒物检测方法与系统
Yamazaki et al. Vehicle extraction and speed detection from digital aerial images
CN106845458A (zh) 一种基于核超限学习机的快速交通标识检测方法
CN111881984A (zh) 一种基于深度学习的目标检测方法和装置
KR20210117673A (ko) 차량번호 인식 기반 교통정보 지원시스템
Matsuda et al. A system for real-time on-street parking detection and visualization on an edge device
CN109325911B (zh) 一种基于注意力增强机制的空基铁轨检测方法
CN107016364A (zh) 一种基于图像识别的快递位置获取方法
Matsuda et al. A Method for Detecting Street Parking Using Dashboard Camera Videos.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination