CN116363426A - 公路防眩板健康状态自动检测方法 - Google Patents
公路防眩板健康状态自动检测方法 Download PDFInfo
- Publication number
- CN116363426A CN116363426A CN202310309939.5A CN202310309939A CN116363426A CN 116363426 A CN116363426 A CN 116363426A CN 202310309939 A CN202310309939 A CN 202310309939A CN 116363426 A CN116363426 A CN 116363426A
- Authority
- CN
- China
- Prior art keywords
- dazzle
- antiglare shield
- detection
- board
- antiglare
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 128
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000007689 inspection Methods 0.000 claims abstract description 10
- 238000004364 calculation method Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 18
- 230000007547 defect Effects 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 9
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 210000000988 bone and bone Anatomy 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000011161 development Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000003862 health status Effects 0.000 claims 1
- 238000013135 deep learning Methods 0.000 description 5
- 230000002950 deficient Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
本发明提出公路防眩板健康状态自动检测方法,包括以下步骤:步骤S1:利用双目立体道路智能巡检系统采集防眩板图像;步骤S2:训练基于YOLOv5的防眩板检测模型;步骤S3:基于步骤S2训练的检测模型对防眩板图像识别,以获取防眩板检测框在防眩板图像内的坐标信息数据;步骤S4:根据先验知识,将检测框内的防眩板进行目标分类,分成缺失防眩板、破损防眩板、倾斜防眩板和完好防眩板四类;步骤S5:基于步骤S4的预分类结果,利用步骤S3中的坐标信息数据,计算防眩板预测框的高度值、防眩板预测框之间的前后间距、防眩板预测框的长宽比信息,以计算结果来判定防眩板的健康状态;本发明能基于防眩板位置及几何信息的破损对公路防眩板状态进行自动检测。
Description
技术领域
本发明涉及道路巡检的图像识别技术领域,尤其是公路防眩板健康状态自动检测方法。
背景技术
目前在日常道路巡检工作中,防眩板破损检测主要是以人工检测为主。然而,由于高速公路里程长、行驶车速快,因此,该方法都存在着检测速度慢、检测精度不高、检测效率低的问题。
在相关研究领域,国内外对防眩板的研究基本集中在防眩板尺寸设计、防眩板安装优化设计以及防眩板性能检测等方面,对防眩板破损检测的研究较少。近年来,深度学习技术得到了快速发展,从最初的两阶段模型R-CNN、Faster-RCNN到如今的单阶段模型CenterNet、YOLO系列等,在目标检测领域得到了广泛应用。然而,深度学习的检测精度极大依赖于样本的数量和质量,由于缺损防眩板的数据较少,且缺损形式多样,仅用深度学习的方法难以实现较高精度的防眩板健康状态检测。
针对以上问题,本发明提出了基于防眩板位置及几何信息的破损自动检测方法。
发明内容
本发明提出公路防眩板健康状态自动检测方法,能基于防眩板位置及几何信息的破损对公路防眩板状态进行自动检测。
本发明采用以下技术方案。
公路防眩板健康状态自动检测方法,所述检测方法包括以下步骤:
步骤S1:利用双目立体道路智能巡检系统采集防眩板图像;
步骤S2:训练基于YOLOv5的防眩板检测模型;
步骤S3:基于步骤S2训练的检测模型对防眩板图像识别,以获取防眩板检测框在防眩板图像内的坐标信息数据;
步骤S4:根据先验知识,将检测框内的防眩板进行目标分类,分成缺失防眩板、破损防眩板、倾斜防眩板和完好防眩板四类;
步骤S5:基于步骤S4的预分类结果,利用步骤S3中的坐标信息数据,计算防眩板预测框的高度值、防眩板预测框之间的前后间距、防眩板预测框的长宽比信息,以计算结果来判定防眩板本体或防眩板分布的健康状态。
所述步骤S3中获取防眩板检测框的坐标信息,其具体方法为:利用训练获得的防眩板识别模型,识别防眩板图像内的防眩板,以提取防眩板在防眩板图像内的检测区域,即防眩板对应的检测框。
所述步骤S4中的分类,其缺失防眩板的判断依据为在两个防眩板之间存在空缺;破损防眩板的判断依据为防眩板存在断裂破损;倾斜防眩板的判断依据为防眩板存在歪曲倾斜。
所述步骤S4中的先验知识为防眩板健康状态、非健康状态的坐标信息特征,具体为;
特征A、健康状态的防眩板,其防眩板对应的检测框的间距在防眩板图像中逐渐递减,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的间距明显大于防眩板图像后几个防眩板对应的检测框之间的间距;
特征B、当防眩板存在破损时,其对应的检测框的高度值在防眩板图像中变低,健康状态的各个防眩板对应的检测框的高度在防眩板图像中是逐渐递减的,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的高度差明显大于防眩板图像后几个防眩板对应的检测框之间的高度差;
特征C、倾斜防眩板对应的检测框的长宽比与其它类型防眩板对应的检测框,其之间的长宽比有较大差别。
所述步骤S5具体包括以下步骤;
步骤S51、根据特征A判定是否存在缺失防眩板现象,具体方法为:判断第一个和第二个防眩板之间存在缺失,公式为
X2(min)-X1(max)>2*(X3(min)-X2(max)) 公式一;
判断第n个与第n-1个防眩板之间是否存在缺失,公式为
Xn(min)-Xn-1(max)>K*(Xn-1(min)-Xn-2(max)) 公式二;
式中,Xn-1(max)表示第n-1个防眩板检测框的横坐标最大值;Xn-1(min)表示第n-1个防眩板检测框的横坐标最小值,K为与本步骤检测效果相关的待定系数;
步骤S52、根据特征B判定是否存在防眩板破损现象,具体方法为:根据提取的防眩板检测框坐标信息,判断第一个防眩板是否存在破损,公式为
Y1(max)-Y1(min)<0.7*(Y2(max)-Y2(min)) 公式三;
判断第n个防眩板是否存在破损,公式为
Yn(max)-Yn(min)<K1*(Yn-1(max)-Yn-1(min)) 公式四;
式中,Yn(max)表示第n个防眩板检测框的纵坐标最大值;Yn(min)表示第n个防眩板检测框的纵坐标最小值,K1为与本步骤检测效果相关的待定系数;
步骤S53、根据特征C判定是否存在防眩板倾斜现象,公式为:
Yn(max)-Yn(min)*K2<(Xn(max)-Xn(min)) 公式五;
式中,K2为与本步骤检测效果相关的待定系数;
步骤S54:不满足步骤S51、步骤S52、步骤S53判定条件的防眩板,即判定为处于健康状态的完好防眩板。
步骤S51中,K取1.1时检测效果最好;步骤S52中,K1取0.6时检测效果最佳;步骤S53中,K2取0.42时检测效果最佳。
所述双目立体道路智能巡检系统包括双目道路智能感知系统,双目道路智能感知系统包括双目相机、GPS、惯性测量单元IMU、人工智能开发板;双目道路智能感知系统通过强力吸盘安装于车顶或车窗,通过GPS和IMU获得定位信息并解析数据,以固定距离触发双目相机实现图像采集。
步骤S1中,采用双目道路智能感知系统采集高速公路和城市道路的相关图像,经过初步数据筛选去除无效图像数据后形成数据集,通过LabelImg数据标注软件人工标注数据样本,生成防眩板标签信息,构建用于训练基于YOLOv5的防眩板检测模型的防眩板识别数据库。
所述步骤S2中,YOLOv5模型由四个部分构成,分别是输入端、Backbone、Neck和Prediction;
输入端用于输入原始图片数据,运用Mosaic数据增强方法,通过随机缩放、随机裁剪操作对随机选取的4张图片进行拼接以丰富数据集并提高防眩板检测模型的泛化性;
Backbone层由Focus结构与CSP结构组成,用于提取图像特征的卷积神经网络;
Neck层以路径聚合网络PANet作为架构以实现特征融合;
Prediction层用于输出类别和边界框的回归;
在训练防眩板检测模型时,先将防眩板识别数据库按照5:1的比例分为训练集和验证集两类;再将训练集导入YOLOv5网络进行模型训练,利用验证集实现模型的输出验证,设置训练轮数为300,batch-size为16,训练图片大小为640。
本发明通过结合双目道路智能感知系统,提出了一种高效、准确检测缺损防眩板的方法,该方法可以自动识别缺损防眩板,并可代替人工对防眩板进行巡检。并且,本实例充分考虑到实际道路环境复杂对模型鲁棒性影响的情况,针对性的建立了不同复杂道路场景下的防眩板训练数据库,数据库的多样性使得防眩板模型的泛化能力较强。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
附图1是本发明的流程示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式;如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图所示,公路防眩板健康状态自动检测方法,所述检测方法包括以下步骤:
步骤S1:利用双目立体道路智能巡检系统采集防眩板图像;
步骤S2:训练基于YOLOv5的防眩板检测模型;
步骤S3:基于步骤S2训练的检测模型对防眩板图像识别,以获取防眩板检测框在防眩板图像内的坐标信息数据;
步骤S4:根据先验知识,将检测框内的防眩板进行目标分类,分成缺失防眩板、破损防眩板、倾斜防眩板和完好防眩板四类;
步骤S5:基于步骤S4的预分类结果,利用步骤S3中的坐标信息数据,计算防眩板预测框的高度值、防眩板预测框之间的前后间距、防眩板预测框的长宽比信息,以计算结果来判定防眩板本体或防眩板分布的健康状态。
所述步骤S3中获取防眩板检测框的坐标信息,其具体方法为:利用训练获得的防眩板识别模型,识别防眩板图像内的防眩板,以提取防眩板在防眩板图像内的检测区域,即防眩板对应的检测框。
所述步骤S4中的分类,其缺失防眩板的判断依据为在两个防眩板之间存在空缺;破损防眩板的判断依据为防眩板存在断裂破损;倾斜防眩板的判断依据为防眩板存在歪曲倾斜。
所述步骤S4中的先验知识为防眩板健康状态、非健康状态的坐标信息特征,具体为;
特征A、健康状态的防眩板,其防眩板对应的检测框的间距在防眩板图像中逐渐递减,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的间距明显大于防眩板图像后几个防眩板对应的检测框之间的间距;
特征B、当防眩板存在破损时,其对应的检测框的高度值在防眩板图像中变低,健康状态的各个防眩板对应的检测框的高度在防眩板图像中是逐渐递减的,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的高度差明显大于防眩板图像后几个防眩板对应的检测框之间的高度差;
特征C、倾斜防眩板对应的检测框的长宽比与其它类型防眩板对应的检测框,其之间的长宽比有较大差别。
所述步骤S5具体包括以下步骤;
步骤S51、根据特征A判定是否存在缺失防眩板现象,具体方法为:判断第一个和第二个防眩板之间存在缺失,公式为
X2(min)-X1(max)>2*(X3(min)-X2(max)) 公式一;
判断第n个与第n-1个防眩板之间是否存在缺失,公式为
Xn(min)-Xn-1(max)>K*(Xn-1(min)-Xn-2(max)) 公式二;
式中,Xn-1(max)表示第n-1个防眩板检测框的横坐标最大值;Xn-1(min)表示第n-1个防眩板检测框的横坐标最小值,K为与本步骤检测效果相关的待定系数;
步骤S52、根据特征B判定是否存在防眩板破损现象,具体方法为:根据提取的防眩板检测框坐标信息,判断第一个防眩板是否存在破损,公式为
Y1(max)-Y1(min)<0.7*(Y2(max)-Y2(min)) 公式三;
判断第n个防眩板是否存在破损,公式为
Yn(max)-Yn(min)<K1*(Yn-1(max)-Yn-1(min)) 公式四;
式中,Yn(max)表示第n个防眩板检测框的纵坐标最大值;Yn(min)表示第n个防眩板检测框的纵坐标最小值,K1为与本步骤检测效果相关的待定系数;
步骤S53、根据特征C判定是否存在防眩板倾斜现象,公式为:
Yn(max)-Yn(min)*K2<(Xn(max)-Xn(min)) 公式五;
式中,K2为与本步骤检测效果相关的待定系数;
步骤S54:不满足步骤S51、步骤S52、步骤S53判定条件的防眩板,即判定为处于健康状态的完好防眩板。
步骤S51中,K取1.1时检测效果最好;步骤S52中,K1取0.6时检测效果最佳;步骤S53中,K2取0.42时检测效果最佳。
所述双目立体道路智能巡检系统包括双目道路智能感知系统,双目道路智能感知系统包括双目相机、GPS、惯性测量单元IMU、人工智能开发板;双目道路智能感知系统通过强力吸盘安装于车顶或车窗,通过GPS和IMU获得定位信息并解析数据,以固定距离触发双目相机实现图像采集。
步骤S1中,采用双目道路智能感知系统采集高速公路和城市道路的相关图像,经过初步数据筛选去除无效图像数据后形成数据集,通过LabelImg数据标注软件人工标注数据样本,生成防眩板标签信息,构建用于训练基于YOLOv5的防眩板检测模型的防眩板识别数据库。
所述步骤S2中,YOLOv5模型由四个部分构成,分别是输入端、Backbone、Neck和Prediction;
输入端用于输入原始图片数据,运用Mosaic数据增强方法,通过随机缩放、随机裁剪操作对随机选取的4张图片进行拼接以丰富数据集并提高防眩板检测模型的泛化性;
Backbone层由Focus结构与CSP结构组成,用于提取图像特征的卷积神经网络;
Neck层以路径聚合网络PANet作为架构以实现特征融合;
Prediction层用于输出类别和边界框的回归;
在训练防眩板检测模型时,先将防眩板识别数据库按照5:1的比例分为训练集和验证集两类;再将训练集导入YOLOv5网络进行模型训练,利用验证集实现模型的输出验证,设置训练轮数为300,batch-size为16,训练图片大小为640。
本例在构建防眩板训练库时,本实例利用实验室自主研发的双目道路智能感知系统采集高速公路和城市道路图像100000张。经过初步数据筛选,去除无效图像数据,数据集共包含有效图像2300张,图像分辨率为2208×1242;并通过LabelImg数据标注软件人工标注数据样本,生成防眩板标签信息,构建防眩板识别数据库。
较佳的,本实例结合双目道路智能感知系统,提出了一种高效、准确检测缺损防眩板的方法。该方法可以自动识别缺损防眩板,并可代替人工对防眩板进行巡检。并且,本实例充分考虑到实际道路环境复杂对模型鲁棒性影响的情况,针对性的建立了不同复杂道路场景下的防眩板训练数据库,数据库的多样性使得防眩板模型的泛化能力较强。
特别的,本实例针对缺损防眩板数据少且缺损形式多样,较难准确检测并识别出防眩板的实情,提出一种结合YOLOv5与位置信息的缺损防眩板检测方法,具体方法如下:利用实验室自主研发的双目道路智能感知系统采集防眩板图像,构建防眩板训练库;采用YOLOv5深度学习算法训练防眩板目标识别模型;根据先验知识,将防眩板分为缺失防眩板、破损防眩板、倾斜防眩板和完好防眩板四类;基于深度学习识别结果,利用防眩板检测框的坐标信息,通过计算间距、高度、长宽比等信息检测防眩板是否发生缺损,最终实现防眩板健康状态的自动检测。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。
Claims (9)
1.公路防眩板健康状态自动检测方法,其特征在于:所述检测方法包括以下步骤:
步骤S1:利用双目立体道路智能巡检系统采集防眩板图像;
步骤S2:训练基于YOLOv5的防眩板检测模型;
步骤S3:基于步骤S2训练的检测模型对防眩板图像识别,以获取防眩板检测框在防眩板图像内的坐标信息数据;
步骤S4:根据先验知识,将检测框内的防眩板进行目标分类,分成缺失防眩板、破损防眩板、倾斜防眩板和完好防眩板四类;
步骤S5:基于步骤S4的预分类结果,利用步骤S3中的坐标信息数据,计算防眩板预测框的高度值、防眩板预测框之间的前后间距、防眩板预测框的长宽比信息,以计算结果来判定防眩板本体或防眩板分布的健康状态。
2.根据权利要求1所述的公路防眩板健康状态自动检测方法,其特征在于:所述步骤S3中获取防眩板检测框的坐标信息,其具体方法为:利用训练获得的防眩板识别模型,识别防眩板图像内的防眩板,以提取防眩板在防眩板图像内的检测区域,即防眩板对应的检测框。
3.根据权利要求1所述的公路防眩板健康状态自动检测方法,其特征在于:所述步骤S4中的分类,其缺失防眩板的判断依据为在两个防眩板之间存在空缺;破损防眩板的判断依据为防眩板存在断裂破损;倾斜防眩板的判断依据为防眩板存在歪曲倾斜。
4.根据权利要求3所述的公路防眩板健康状态自动检测方法,其特征在于:所述步骤S4中的先验知识为防眩板健康状态、非健康状态的坐标信息特征,具体为;
特征A、健康状态的防眩板,其防眩板对应的检测框的间距在防眩板图像中逐渐递减,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的间距明显大于防眩板图像后几个防眩板对应的检测框之间的间距;
特征B、当防眩板存在破损时,其对应的检测框的高度值在防眩板图像中变低,健康状态的各个防眩板对应的检测框的高度在防眩板图像中是逐渐递减的,且第一个防眩板对应的检测框与第二个防眩板对应的检测框之间的高度差明显大于防眩板图像后几个防眩板对应的检测框之间的高度差;
特征C、倾斜防眩板对应的检测框的长宽比与其它类型防眩板对应的检测框,其之间的长宽比有较大差别。
5.根据权利要求4所述的公路防眩板健康状态自动检测方法,其特征在于:所述步骤S5具体包括以下步骤;
步骤S51、根据特征A判定是否存在缺失防眩板现象,具体方法为:判断第一个和第二个防眩板之间存在缺失,公式为
X2(min)-X1(max)>2*(X3(min)-X2(max)) 公式一;
判断第n个与第n-1个防眩板之间是否存在缺失,公式为
Xn(min)-Xn-1(max)>K*(Xn-1(min)-Xn-2(max)) 公式二;
式中,Xn-1(max)表示第n-1个防眩板检测框的横坐标最大值;Xn-1(min)表示第n-1个防眩板检测框的横坐标最小值,K为与本步骤检测效果相关的待定系数;
步骤S52、根据特征B判定是否存在防眩板破损现象,具体方法为:根据提取的防眩板检测框坐标信息,判断第一个防眩板是否存在破损,公式为
Y1(max)-Y1(min)<0.7*(Y2(max)-Y2(min) 公式三;
判断第n个防眩板是否存在破损,公式为
Yn(max)-Yn(min)<K1*(Yn-1(max)-Yn-1(min)) 公式四;
式中,Yn(max)表示第n个防眩板检测框的纵坐标最大值;Yn(min)表示第n个防眩板检测框的纵坐标最小值,K1为与本步骤检测效果相关的待定系数;
步骤S53、根据特征C判定是否存在防眩板倾斜现象,公式为:
Yn(max)-Yn(min)*K2<(Xn(max)-Xn(min)) 公式五;
式中,K2为与本步骤检测效果相关的待定系数;
步骤S54:不满足步骤S51、步骤S52、步骤S53判定条件的防眩板,即判定为处于健康状态的完好防眩板。
6.根据权利要求5所述的公路防眩板健康状态自动检测方法,其特征在于:步骤S51中,K取1.1时检测效果最好;步骤S52中,K1取0.6时检测效果最佳;步骤S53中,K2取0.42时检测效果最佳。
7.根据权利要求1所述的公路防眩板健康状态自动检测方法,其特征在于:所述双目立体道路智能巡检系统包括双目道路智能感知系统,双目道路智能感知系统包括双目相机、GPS、惯性测量单元IMU、人工智能开发板;双目道路智能感知系统通过强力吸盘安装于车顶或车窗,通过GPS和IMU获得定位信息并解析数据,以固定距离触发双目相机实现图像采集。
8.根据权利要求7所述的公路防眩板健康状态自动检测方法,其特征在于:步骤S1中,采用双目道路智能感知系统采集高速公路和城市道路的相关图像,经过初步数据筛选去除无效图像数据后形成数据集,通过LabelImg数据标注软件人工标注数据样本,生成防眩板标签信息,构建用于训练基于YOLOv5的防眩板检测模型的防眩板识别数据库。
9.根据权利要求8所述的公路防眩板健康状态自动检测方法,其特征在于:所述步骤S2中,YOLOv5模型由四个部分构成,分别是输入端、Backbone、Neck和Prediction;
输入端用于输入原始图片数据,运用Mosaic数据增强方法,通过随机缩放、随机裁剪操作对随机选取的4张图片进行拼接以丰富数据集并提高防眩板检测模型的泛化性;
Backbone层由Focus结构与CSP结构组成,用于提取图像特征的卷积神经网络;Neck层以路径聚合网络PANet作为架构以实现特征融合;
Prediction层用于输出类别和边界框的回归;
在训练防眩板检测模型时,先将防眩板识别数据库按照5:1的比例分为训练集和验证集两类;再将训练集导入YOLOv5网络进行模型训练,利用验证集实现模型的输出验证,设置训练轮数为300,batch-size为16,训练图片大小为640。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310309939.5A CN116363426A (zh) | 2023-03-28 | 2023-03-28 | 公路防眩板健康状态自动检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310309939.5A CN116363426A (zh) | 2023-03-28 | 2023-03-28 | 公路防眩板健康状态自动检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116363426A true CN116363426A (zh) | 2023-06-30 |
Family
ID=86914008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310309939.5A Pending CN116363426A (zh) | 2023-03-28 | 2023-03-28 | 公路防眩板健康状态自动检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116363426A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994215A (zh) * | 2023-09-26 | 2023-11-03 | 上海闪马智能科技有限公司 | 一种道路设施异常判定方法及装置 |
-
2023
- 2023-03-28 CN CN202310309939.5A patent/CN116363426A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116994215A (zh) * | 2023-09-26 | 2023-11-03 | 上海闪马智能科技有限公司 | 一种道路设施异常判定方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109239102B (zh) | 一种基于cnn的柔性电路板外观缺陷检测方法 | |
CN105160309B (zh) | 基于图像形态学分割及区域生长的三车道检测方法 | |
CN108509954A (zh) | 一种实时交通场景的多车牌动态识别方法 | |
CN110866430B (zh) | 一种车牌识别方法及装置 | |
CN106971185B (zh) | 一种基于全卷积网络的车牌定位方法及装置 | |
CN112232371B (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN116310785B (zh) | 基于YOLO v4的无人机影像路面病害检测方法 | |
CN112287896A (zh) | 一种基于深度学习的无人机航拍图像目标检测方法及系统 | |
CN114170580A (zh) | 一种面向高速公路的异常事件检测方法 | |
CN111967313A (zh) | 一种深度学习目标检测算法辅助的无人机图像标注方法 | |
CN113205107A (zh) | 一种基于改进高效率网络的车型识别方法 | |
CN116363426A (zh) | 公路防眩板健康状态自动检测方法 | |
CN103679214A (zh) | 基于在线面积估计和多特征决策融合的车辆检测方法 | |
CN111523419A (zh) | 一种机动车尾气排放视频检测方法和装置 | |
CN115984543A (zh) | 一种基于红外与可见光图像的目标检测算法 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN116824399A (zh) | 基于改进YOLOv5神经网络的路面裂缝识别方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN117576073A (zh) | 一种基于改进YOLOv8模型的道路缺陷检测方法、装置和介质 | |
CN117197085A (zh) | 基于改进YOLOv8网络的公路快检图像路面病害检测方法 | |
CN116958052A (zh) | 一种基于yolo和注意力机制的印刷电路板缺陷检测方法 | |
CN110765900A (zh) | 一种基于dssd的自动检测违章建筑方法及系统 | |
CN116129327A (zh) | 一种基于改进YOLOv7算法的红外车辆检测方法 | |
CN110163081A (zh) | 基于ssd的实时区域入侵检测方法、系统及存储介质 | |
CN116259032A (zh) | 基于改进YOLOv5的道路交通标志检测与识别算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |