CN117058069A - 一种全景影像中路面表观病害自动检测方法 - Google Patents
一种全景影像中路面表观病害自动检测方法 Download PDFInfo
- Publication number
- CN117058069A CN117058069A CN202310766314.1A CN202310766314A CN117058069A CN 117058069 A CN117058069 A CN 117058069A CN 202310766314 A CN202310766314 A CN 202310766314A CN 117058069 A CN117058069 A CN 117058069A
- Authority
- CN
- China
- Prior art keywords
- image
- marking
- road
- center
- cracks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 201000010099 disease Diseases 0.000 title claims abstract description 118
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 title claims abstract description 118
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000002372 labelling Methods 0.000 claims abstract description 12
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 238000012795 verification Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 230000003778 catagen phase Effects 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000010485 coping Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004901 spalling Methods 0.000 description 4
- 238000001308 synthesis method Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000000137 annealing Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000010355 oscillation Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010252 digital analysis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种全景影像中路面表观病害自动检测方法,属于道路病害检测领域,包括:从道路真实场景获得路面图像;挑选出含有病害的数据,使用标注软件LabelImg进行标注,形成道路病害数据集;将数据集进行数据增强,并划分道路病害数据集,将数据集划分为训练集、验证集、测试集,将划分好的数据集导入改进的YOLOv5网络模型进行训练;训练结束后保留最好模型,用于预测路面数据,输出道路病害数据并统计病害信息。本发明通过新的标注准则和基于anchor‑free的方法,实现了路面表观病害的准确检测,该方法具有应对路面病害尺寸不规则性和形状随机性的优势,可以应用于城市道路、高速公路以及国省道的路面表观病害检测。
Description
技术领域
本发明涉及一种全景影像中路面表观病害自动检测方法,属于道路病害检测技术领域。
背景技术
公路在现代交通运输中起着重要作用,但公路路面病害是一个普遍存在的问题,影响交通安全和舒适性,增加了维护和修复成本。目前,公路表观病害的巡检主要依靠人工巡检和激光雷达专用监测车两种方式。然而,这些方式都存在一些局限性,如纯人工上报耗时耗力且存在安全隐患,激光雷达专用监测车造价昂贵,需要专业人员操作,低速行驶状态下影响日常交通。
随着相机、智能手机的普及,基于图像的方法被广泛运用,但路面与病害之间对比度较低、病害大小不规则和形状随机、图像中存在阴影,因此开发一种高效的基于视觉的路面病害自动检测方法一直具有挑战性。
目前基于图像的路面病害检测方法可分为手动特征提取和自动特征提取方法。手动特征提取的方法主要包括阈值分割、边缘检测、区域生长算法,在病害图像局部信息的检测中,通常会使用各种滤波器,如形态学滤波、统计滤波、中值滤波等。手动特征提取的方法需要人为选定阈值,模型泛化能力差,难以实现自动化检测。近年来随着机器学习的发展,采用人工智能技术对路面病害进行高效、自动化特征提取和数字化分析成为道路养护新趋势。
发明内容
为了解决现有技术的不足,本发明提供一种基于深度学习的全景影像中路面表观病害自动检测方法,通过新的标注准则和基于anchor-free的方法,实现了路面表观病害的准确检测,该方法具有应对路面病害尺寸不规则性和形状随机性的优势,可以应用于城市道路、高速公路以及国省道的路面表观病害检测。
本发明采用以下技术方案:
一种全景影像中路面表观病害自动检测方法,包括如下步骤:
S1:从道路真实场景获得路面图像;
S2:筛选步骤S1获得的影像,挑选出含有病害的数据,使用专业标注软件LabelImg进行标注,形成道路病害数据集;
S3:将数据集进行数据增强,并划分道路病害数据集,将数据集划分为训练集、验证集、测试集,划分比例为8:1:1,将划分好的数据集导入改进的YOLOv5网络模型进行训练;
S4:训练结束后保留最好模型,用于预测路面数据,输出道路病害数据并统计病害信息。
优选的,步骤S1的具体步骤如下:
使用移动测量设备采集不同天气、不同时间、不同交通状况下的道路全景影像,并对获取的全景图像进行裁剪,只保留路面部分。
优选的,步骤S2的具体步骤如下:
S21:挑选步骤S11得到的图像构建含有道路病害的数据集;
S22:将所得道路真实图像使用专业标注工具LabelImg进行逐张标注,标注完每张图像对应一个xml文件,使用LabelImg分别在道路病害在对应病害位置进行标注,主要标注4种病害分别为:裂缝(Crack)、坑槽(Pit)、龟裂(Chap)、剥落(Spalling);
S23:使用正交骨架线法统计裂缝、龟裂平均像素宽度作为数据集所用的裂缝平均宽度,将一条裂缝分成多个对象实例进行标注,要求每个标注框的中心点与裂缝的距离不超过5个裂缝平均宽度(以标注框中心点作为圆心,5个平均裂缝宽度作为半径进行做圆,圆内存在裂缝,则说明标注框的中心点与裂缝的距离不超过5个平均裂缝宽度),对标注框的大小和长宽比进行限制,要求长宽比不大于4且最长边不大于四分之一图像大小。
优选的,步骤S23中,统计裂缝、龟裂平均像素宽度的具体步骤为:
首先,随机挑选含有道路病害的数据集的1/10,使用labelme标注软件对裂缝、龟裂进行像素级别的标注,标注为json格式,并将图像二值化处理,转为黑白二值图像,用0像素值代表背景,用255像素值代表裂缝,将裂缝、龟裂区域和背景区域分开;
然后,对每个二值化的图像应用正交骨架线法,得到裂缝、龟裂区域的拓扑骨架;对每条骨架线,计算其与其两侧边缘的最短距离,作为该骨架线上每个像素点的宽度;
接着,对每张图像,计算所有骨架线上所有像素点的宽度之和,并除以像素点的个数,得到该图像的平均像素宽度;
最后,对所有图像,计算所有图像的平均像素宽度之和,并除以图像的个数,得到数据集所用的裂缝平均宽度。
优选的,步骤S23中,判断每个标注框的中心点与裂缝的距离是否超过5个裂缝平均宽度的过程为:
首先,计算标注框的中心点,即标注框的左上角和右下角的坐标的平均值;
然后,以标注框中心点为圆心,5个裂缝平均宽度为半径,画一个圆,检查圆内是否有裂缝区域,如果有,则说明标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,否则,说明标注框的中心点与裂缝的距离超过了5个裂缝平均宽度。
本发明对裂缝进行了更细致的标注,要求每个标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,并对标注框的大小和长宽比进行了限制,从而提高了裂缝检测的准确性和一致性。
优选的,步骤S3的具体步骤如下:
S31:对标注后的图像进行数据增强,包括对图像进行亮度变换、色彩空间调整、Mosaic增强、自适应锚框计算、图像缩放等处理手段;
不同的数据增强方法可能会对不同的目标检测模型产生不同的影响,因此需要根据具体的任务和模型来选择合适的数据增强方法。本发明的数据增强:病害区域裁剪与融合,与现有的目标合成方法不同的是,本发明只裁剪和融合病害区域,而不是整个目标,这样可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
病害区域裁剪与融合:对图像进行病害区域的裁剪与融合,即从一个图像中随机地裁剪出一个或多个病害区域,然后将其随机地放置到另一个图像中,从而生成新的图像,可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
实现步骤如下:
首先,对每张病害图像进行像素级别标注并生成病害二值图,将病害区域和背景区域分开;
然后,对每个二值化图像应用连通域分析,得到每个病害区域的位置和大小;
接着,从每个二值化图像中随机地选择一个或多个病害区域,根据其位置和大小,在原图像中裁剪出相应的病害区域,并保存其标注框的信息;
然后,从另一个二值化图像中随机地选择一个或多个位置,根据其大小,在原图像中融合相应的病害区域,并更新其标注框的信息;
最后,将融合后的图像和标注框的信息保存为新的数据样本。
S32:通过随机调整亮度至原亮度的0.35-1.2倍,随机平移(最大平移量至标注框边界处)、随机旋转(旋转角度范围为-15°至+15°)、水平镜像翻转并矫正标注框坐标的方式对得到的已标注后的所有样本图像进行增广;
S33:添加图像总数的四分之一到五分之一的含有阴影、车辆等复杂场景下的无病害图像作为负样本,负样本要求是在识别过程中易错识别的影像和背景影像,提高了模型对复杂背景下病害检测的鲁棒性;
S34:改进的YOLOv5网络模型由四部分组成:输入端、主干网络Backbone、颈部网络Neck和头部结构Head,将改进的YOLOv5网络模型的回归阶段(回归阶段是指模型在特征图上的每个位置预测目标的边界框的过程,通常使用回归损失函数来衡量预测边框与真实框之间的差异;回归阶段与分类阶段相对应,分类阶段是指模型在特征图上的每个位置预测目标的类别概率的过程,通常使用分类损失函数来衡量预测类别与真实类别之间的差异)修改为anchor-free结构,新的头部结构Head共有三个输出分支:类别输出分支Classification、回归输出分支Regression、中心点输出分支Center-ness,其中类别输出分支Classification在对输入图像进行卷积、采样计算处理后的输出图,即特征图上的每个位置都会进行一次类别预测,即判断该位置是否存在裂缝;回归输出分支Regression在特征图上的每个位置都会进行四个距离参数的预测,即预测该位置与标注框中心点远近程度,四个距离参数是指l*、t*、r*、b*,l*、t*、r*、b*分别指映射坐标到与其相关联真实框的左边、上边、右边、下边四条边的距离,映射坐标是指特征图上的每个位置对应到原始图像上的坐标;中心点输出分支Center-ness在特征图上的每个位置进行一个归一化参数预测,反映了该位置距离目标中心的远近程度,预测值域在[0,1]之间,距离中心越近Center-ness越接近1;Center-ness定义如式(1):
由于特征图的尺寸通常比原始图像小,所以需要进行一个缩放和偏移的操作,才能找到对应的坐标,设特征图Ni上的某一空间位置为A(x,y),其中,x和y是映射坐标,按照当前层级的下采样数si可得其在输入图像上对应感受野区域的中心坐标A`=si/2+xsi,si/2+ysi;如果A`落在了真实标注框G内,则将A看做训练阶段的正样本,反之,则全部视为负样本点;
S35:根据电脑配置设置超参数;超参数是指在模型训练之前需要人为设定的参数,例如学习率、批量大小、优化器等;不同的电脑配置可能会影响超参数的选择,例如内存大小、显存大小、CPU核数等。一般来说,超参数的设置需要根据实验效果进行调整,没有一个固定的标准,但是可以参考一些经验或者使用一些自动化的方法来寻找合适的超参数。下面介绍一些常见的超参数和可能的取值范围:
学习率:控制模型参数更新的速度,过大可能导致震荡或者不收敛,过小可能导致收敛速度慢或者陷入局部最优。一般可以从一个较大的值开始,逐渐减小,或者使用一些自适应的学习率调整策略,例如余弦退火、指数衰减等,常见的取值范围是[1e-5,1e-1]。
批量大小:控制每次输入模型的样本数量,过大可能导致内存不足或者泛化能力下降,过小可能导致梯度方差大或者收敛速度慢。一般可以根据电脑配置选择一个合适的值,或者使用一些自适应的批量大小调整策略,例如渐进式批量大小增加等,常见的取值范围是[16,256]。
优化器:控制模型参数更新的算法,不同的优化器可能有不同的收敛速度和稳定性。一般可以选择一些常用的优化器,例如SGD、Adam、RMSprop等,并根据实验效果进行调整。不同的优化器可能还有一些其他的超参数,例如动量、权重衰减等,也需要根据实验效果进行调整。
S36:模型通过不断迭代计算预测边框与真实框之间的损失,并按照损失值反向传播梯度来更新模型,直至参数减少并收敛至一个取值区间,对应回归阶段的三个损失函数;
预测边框是指模型在特征图上的每个位置输出的四个距离参数,可以用来计算边框的中心点和宽高,真实框是指图像中目标的真实位置和大小,通常由人工标注或者其他方法获取。步骤S2中采用LabelImg标注的标注框就是真实框。模型通过不断迭代计算预测边框与真实框之间的损失,就是要让预测边框尽可能地接近真实框,从而提高检测的准确性。
参数即需要学习的权重和偏置,决定了模型的表达能力和泛化能力,参数通过损失函数的反向传播梯度来更新,目的是要找到一个最优的参数值,使得损失函数达到最小。
回归阶段的三个损失函数由分类损失Lcls、定位损失Lreg、center-ness损失Lcen构成,定义如式(2):
其中,Px,y表示在特征图(x,y)点处预测的每个类别的score,即该位置属于某个类别的概率,它是由模型的分类分支输出的一个向量,长度等于类别数,通过softmax函数归一化得到;tx,y表示在特征图(x,y)点处预测的目标边界框信息;sx,y表示在特征图(x,y)点处预测的center-ness,即该位置距离目标中心的相对距离。它是由模型的center-ness分支输出的一个标量,范围在[0,1]之间,通过sigmoid函数归一化得到;Npos表示正样本的数量,即特征图上所有被匹配为正样本的位置的个数;Lcls表示分类损失,即预测类别与真实类别之间的差异;表示在特征图(x,y)点对应的真实类别标签;/>表示当特征图(x,y)点被匹配为正样本时为1,否则为0;Lreg表示定位损失,即预测边框与真实框之间的差异,使用了IoU Loss函数,可以有效地提高边框的定位精度;/>表示在特征图(x,y)点对应的真实目标边界框信息;Lcen表示center-ness损失,即预测center-ness与真实center-ness之间的差异;/>表示在特征图(x,y)点对应的真实center-ness,表示在特征图(x,y)点对应的真实center-ness,即该位置与其相关联的真实框中心点的相对距离,范围在[0,1]之间,由式(1)计算得到。
S37:采用梯度下降法进行训练,计算网络更新后的参数,即权重值和偏重值,当损失函数中的Loss值不在变化或达到最大迭代次数,停止训练,保存模型参数。
本发明的改进的YOLOv5网络模型的改进点在于,其一,使用了FCOS的回归策略,即不使用锚框,而是直接预测目标与特征图上每个位置的四条边的距离,从而提高了回归精度和效率,其二,创新的数据增强:病害区域裁剪与融合,与现有的目标合成方法不同的是,它只裁剪和融合病害区域,而不是整个目标,这样可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
改进的YOLOv5网络模型的组成以及训练至收敛的过程如下:
模型由三个部分组成:Backbone、Neck和Head。Backbone用于提取图像特征,Neck用于融合不同层次的特征,Head用于输出预测结果。
Head有三个分支:Classification、Regression和Center-ness。Classification分支用于预测每个位置的类别概率,Regression分支用于预测每个位置与真实框的四条边的距离,Center-ness分支用于预测每个位置与目标中心的相对距离。
模型的输入是一张图像,输出是三个分支的预测结果。每个分支的输出是一个列表,包含不同尺度的特征图。
模型的训练过程如下:
首先,将输入图像通过Backbone和Neck得到不同尺度的特征图;
然后,将每个尺度的特征图通过Head得到对应尺度的预测结果;
接着,根据真实标注,对每个尺度的预测结果进行正负样本的匹配,以及真实框和真实center-ness的计算;
然后,根据匹配结果,计算每个尺度的分类损失、回归损失和center-ness损失,并将它们相加得到总损失;
最后,根据总损失,使用梯度下降法更新模型参数,并重复上述过程,直到损失不再变化或达到最大迭代次数为止。
优选的,步骤S4的具体步骤如下:
S41:将所得道路真实图像进行预处理,统一大小为2048*1024;
S42:将步骤S41得到的图像输入改进的YOLOv5网络模型进行预测,输出得到道路病害且附带标签,通过图像的位置信息可准确得到道路位置;图像的位置信息可以通过图像的元数据(metadata)体现出来,例如图像的拍摄时间、地点、方向、经纬度等。
S43:统计各类病害数量。
本发明用于解决路面表观病害检测中尺寸不规则性和形状随机性带来的挑战。首先,提出了新的标注准则,通过控制标注框宽高比和标注框中心距离病害中心点距离,实现了路面表观病害的标注。然后,引入基于anchor-free的方法,替代了YOLOv5网络模型中的anchor选取,解决了YOLOv5网络模型中anchor选取不合理导致的性能衰减问题,提高了检测精度。本发明在城市道路表观病害检测领域具有重要应用价值,可应用于制定合理的养护方案和保障道路安全。
本发明未详尽之处,均可参见现有技术。
本发明的有益效果为:
与现有技术相比,本发明提出了一种新的路面表观病害标注方法,通过在YOLOv5中引入anchor-free机制,解决了现有技术中路面病害尺寸不规则性和形状随机性的问题,从而改善了细长目标和小目标在图像识别中的识别效果。
改进后的YOLOv5网络模型相较于其前身,在保持同样高的检测精度的情况下,检测速度更快,能够在更短的时间内完成目标检测任务。此外,对于道路场景中的小目标检测能力得到了提升,提供了更高的检测精度。
改进后的YOLOv5网络模型具有更好的泛化能力,采用了数据增强方法和网络结构的改进,能够更好地适应不同场景下的目标检测任务。同时,由于网络结构的优化和精简,模型体积也比其前身更小,使得在移动设备上运行时更加轻便。此外,改进后的YOLOv5网络模型还支持多种硬件平台和框架,使得训练和部署更加易于进行,应用范围更广泛。
综上,本发明可以在保持或提高检测精度的同时,降低计算复杂度和内存占用,从而提高检测速度和资源利用率。本发明增加了目标的多样性和背景的复杂性,从而提高模型的泛化能力和鲁棒性,同时,也可以减少数据集的标注成本和时间,从而提高数据集的质量和效率。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明的流程示意图;
图2为裂缝标注示意图;
图3为改进的YOLOv5网络模型图。
具体实施方式
为了使本技术领域的人员更好的理解本说明书中的技术方案,下面结合本说明书实施中的附图,对本发明书实施例中的技术方案进行清楚、完整的描述,但不仅限于此,本发明未详尽说明的,均按本领域常规技术。
实施例1
一种全景影像中路面表观病害自动检测方法,如图1,包括如下步骤:
S1:从道路真实场景获得路面图像;
使用移动测量设备采集不同天气、不同时间、不同交通状况下的道路全景影像,并对获取的全景图像进行裁剪,只保留路面部分。
S2:筛选步骤S1获得的影像,挑选出含有病害的数据,使用专业标注软件LabelImg进行标注,形成道路病害数据集;
具体为:
S21:挑选步骤S11得到的图像构建含有道路病害的数据集;
S22:将所得道路真实图像使用专业标注工具LabelImg进行逐张标注,标注完每张图像对应一个xml文件,使用LabelImg分别在道路病害在对应病害位置进行标注,主要标注4种病害分别为:裂缝(Crack)、坑槽(Pit)、龟裂(Chap)、剥落(Spalling);
S23:使用正交骨架线法统计裂缝、龟裂平均像素宽度作为数据集所用的裂缝平均宽度,将一条裂缝分成多个对象实例进行标注,要求每个标注框的中心点与裂缝的距离不超过5个裂缝平均宽度(以标注框中心点作为圆心,5个平均裂缝宽度作为半径进行做圆,圆内存在裂缝,则说明标注框的中心点与裂缝的距离不超过5个平均裂缝宽度),对标注框的大小和长宽比进行限制,要求长宽比不大于4且最长边不大于四分之一图像大小。
S3:将数据集进行数据增强,并划分道路病害数据集,将数据集划分为训练集、验证集、测试集,划分比例为8:1:1,将划分好的数据集导入改进的YOLOv5网络模型进行训练;
S4:训练结束后保留最好模型,用于预测路面数据,输出道路病害数据并统计病害信息,具体为:
S41:将所得道路真实图像进行预处理,统一大小为2048*1024;
S42:将步骤S41得到的图像输入改进的YOLOv5网络模型进行预测,输出得到道路病害且附带标签,通过图像的位置信息可准确得到道路位置;图像的位置信息可以通过图像的元数据(metadata)体现出来,例如图像的拍摄时间、地点、方向、经纬度等。
S43:统计各类病害数量。
实施例2
一种全景影像中路面表观病害自动检测方法,如实施例1所述,所不同的是,步骤S23中,统计裂缝、龟裂平均像素宽度的具体步骤为:
首先,随机挑选含有道路病害的数据集的1/10,使用labelme标注软件对裂缝、龟裂进行像素级别的标注,标注为json格式,并将图像二值化处理,转为黑白二值图像,用0像素值代表背景,用255像素值代表裂缝,将裂缝、龟裂区域和背景区域分开;
然后,对每个二值化的图像应用正交骨架线法,得到裂缝、龟裂区域的拓扑骨架;对每条骨架线,计算其与其两侧边缘的最短距离,作为该骨架线上每个像素点的宽度;
接着,对每张图像,计算所有骨架线上所有像素点的宽度之和,并除以像素点的个数,得到该图像的平均像素宽度;
最后,对所有图像,计算所有图像的平均像素宽度之和,并除以图像的个数,得到数据集所用的裂缝平均宽度。
步骤S23中,判断每个标注框的中心点与裂缝的距离是否超过5个裂缝平均宽度的过程为:
首先,计算标注框的中心点,即标注框的左上角和右下角的坐标的平均值;
然后,以标注框中心点为圆心,5个裂缝平均宽度为半径,画一个圆,检查圆内是否有裂缝区域,如果有,则说明标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,否则,说明标注框的中心点与裂缝的距离超过了5个裂缝平均宽度,如图2。
本发明对裂缝进行了更细致的标注,要求每个标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,并对标注框的大小和长宽比进行了限制,从而提高了裂缝检测的准确性和一致性。
实施例3
一种全景影像中路面表观病害自动检测方法,如实施例2所述,所不同的是,步骤S3的具体步骤如下:
S31:对标注后的图像进行数据增强,包括对图像进行亮度变换、色彩空间调整、Mosaic增强、自适应锚框计算、图像缩放等处理手段;
不同的数据增强方法可能会对不同的目标检测模型产生不同的影响,因此需要根据具体的任务和模型来选择合适的数据增强方法。本发明的数据增强:病害区域裁剪与融合,与现有的目标合成方法不同的是,本发明只裁剪和融合病害区域,而不是整个目标,这样可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
病害区域裁剪与融合:对图像进行病害区域的裁剪与融合,即从一个图像中随机地裁剪出一个或多个病害区域,然后将其随机地放置到另一个图像中,从而生成新的图像,可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
实现步骤如下:
首先,对每张病害图像进行像素级别标注并生成病害二值图,将病害区域和背景区域分开;
然后,对每个二值化图像应用连通域分析,得到每个病害区域的位置和大小;
接着,从每个二值化图像中随机地选择一个或多个病害区域,根据其位置和大小,在原图像中裁剪出相应的病害区域,并保存其标注框的信息;
然后,从另一个二值化图像中随机地选择一个或多个位置,根据其大小,在原图像中融合相应的病害区域,并更新其标注框的信息;
最后,将融合后的图像和标注框的信息保存为新的数据样本。
S32:通过随机调整亮度至原亮度的0.35-1.2倍,随机平移(最大平移量至标注框边界处)、随机旋转(旋转角度范围为-15°至+15°)、水平镜像翻转并矫正标注框坐标的方式对得到的已标注后的所有样本图像进行增广;
S33:添加图像总数的四分之一到五分之一的含有阴影、车辆等复杂场景下的无病害图像作为负样本,负样本要求是在识别过程中易错识别的影像和背景影像,提高了模型对复杂背景下病害检测的鲁棒性;
S34:如图3所示,改进的YOLOv5网络模型由四部分组成:输入端、主干网络Backbone、颈部网络Neck和头部结构Head,将改进的YOLOv5网络模型的回归阶段(回归阶段是指模型在特征图上的每个位置预测目标的边界框的过程,通常使用回归损失函数来衡量预测边框与真实框之间的差异;回归阶段与分类阶段相对应,分类阶段是指模型在特征图上的每个位置预测目标的类别概率的过程,通常使用分类损失函数来衡量预测类别与真实类别之间的差异)修改为anchor-free结构,新的头部结构Head共有三个输出分支:类别输出分支Classification、回归输出分支Regression、中心点输出分支Center-ness,其中类别输出分支Classification在对输入图像进行卷积、采样计算处理后的输出图,即特征图上的每个位置都会进行一次类别预测,即判断该位置是否存在裂缝;回归输出分支Regression在特征图上的每个位置都会进行四个距离参数的预测,即预测该位置与标注框中心点远近程度,四个距离参数是指l*、t*、r*、b*,l*、t*、r*、b*分别指映射坐标到与其相关联真实框的左边、上边、右边、下边四条边的距离,映射坐标是指特征图上的每个位置对应到原始图像上的坐标;中心点输出分支Center-ness在特征图上的每个位置进行一个归一化参数预测,反映了该位置距离目标中心的远近程度,预测值域在[0,1]之间,距离中心越近Center-ness越接近1;Center-ness定义如式(1):
由于特征图的尺寸通常比原始图像小,所以需要进行一个缩放和偏移的操作,才能找到对应的坐标,设特征图Ni上的某一空间位置为A(x,y),其中,x和y是映射坐标,按照当前层级的下采样数si可得其在输入图像上对应感受野区域的中心坐标A`=si/2+xsi,si/2+ysi;如果A`落在了真实标注框G内,则将A看做训练阶段的正样本,反之,则全部视为负样本点;
S35:根据电脑配置设置超参数;超参数是指在模型训练之前需要人为设定的参数,例如学习率、批量大小、优化器等;不同的电脑配置可能会影响超参数的选择,例如内存大小、显存大小、CPU核数等。一般来说,超参数的设置需要根据实验效果进行调整,没有一个固定的标准,但是可以参考一些经验或者使用一些自动化的方法来寻找合适的超参数。下面介绍一些常见的超参数和可能的取值范围:
学习率:控制模型参数更新的速度,过大可能导致震荡或者不收敛,过小可能导致收敛速度慢或者陷入局部最优。一般可以从一个较大的值开始,逐渐减小,或者使用一些自适应的学习率调整策略,例如余弦退火、指数衰减等,常见的取值范围是[1e-5,1e-1]。
批量大小:控制每次输入模型的样本数量,过大可能导致内存不足或者泛化能力下降,过小可能导致梯度方差大或者收敛速度慢。一般可以根据电脑配置选择一个合适的值,或者使用一些自适应的批量大小调整策略,例如渐进式批量大小增加等,常见的取值范围是[16,256]。
优化器:控制模型参数更新的算法,不同的优化器可能有不同的收敛速度和稳定性。一般可以选择一些常用的优化器,例如SGD、Adam、RMSprop等,并根据实验效果进行调整。不同的优化器可能还有一些其他的超参数,例如动量、权重衰减等,也需要根据实验效果进行调整。
S36:模型通过不断迭代计算预测边框与真实框之间的损失,并按照损失值反向传播梯度来更新模型,直至参数减少并收敛至一个取值区间,对应回归阶段的三个损失函数;
预测边框是指模型在特征图上的每个位置输出的四个距离参数,可以用来计算边框的中心点和宽高,真实框是指图像中目标的真实位置和大小,通常由人工标注或者其他方法获取。步骤S2中采用LabelImg标注的标注框就是真实框。模型通过不断迭代计算预测边框与真实框之间的损失,就是要让预测边框尽可能地接近真实框,从而提高检测的准确性。
参数即需要学习的权重和偏置,决定了模型的表达能力和泛化能力,参数通过损失函数的反向传播梯度来更新,目的是要找到一个最优的参数值,使得损失函数达到最小。
回归阶段的三个损失函数由分类损失Lcls、定位损失Lreg、center-ness损失Lcen构成,定义如式(2):
其中,Px,y表示在特征图(x,y)点处预测的每个类别的score,即该位置属于某个类别的概率,它是由模型的分类分支输出的一个向量,长度等于类别数,通过softmax函数归一化得到;tx,y表示在特征图(x,y)点处预测的目标边界框信息;sx,y表示在特征图(x,y)点处预测的center-ness,即该位置距离目标中心的相对距离。它是由模型的center-ness分支输出的一个标量,范围在[0,1]之间,通过sigmoid函数归一化得到;Npos表示正样本的数量,即特征图上所有被匹配为正样本的位置的个数;Lcls表示分类损失,即预测类别与真实类别之间的差异;表示在特征图(x,y)点对应的真实类别标签;/>表示当特征图(x,y)点被匹配为正样本时为1,否则为0;Lreg表示定位损失,即预测边框与真实框之间的差异,使用了IoU Loss函数,可以有效地提高边框的定位精度;/>表示在特征图(x,y)点对应的真实目标边界框信息;Lcen表示center-ness损失,即预测center-ness与真实center-ness之间的差异;/>表示在特征图(x,y)点对应的真实center-ness,表示在特征图(x,y)点对应的真实center-ness,即该位置与其相关联的真实框中心点的相对距离,范围在[0,1]之间,由式(1)计算得到。
S37:采用梯度下降法进行训练,计算网络更新后的参数,即权重值和偏重值,当损失函数中的Loss值不在变化或达到最大迭代次数,停止训练,保存模型参数。
本发明的改进的YOLOv5网络模型的改进点在于,其一,使用了FCOS的回归策略,即不使用锚框,而是直接预测目标与特征图上每个位置的四条边的距离,从而提高了回归精度和效率,其二,创新的数据增强:病害区域裁剪与融合,与现有的目标合成方法不同的是,它只裁剪和融合病害区域,而不是整个目标,这样可以更好地保留道路的结构和纹理信息,从而提高模型对病害的检测能力。
改进的YOLOv5网络模型的组成以及训练至收敛的过程如下:
模型由三个部分组成:Backbone、Neck和Head。Backbone用于提取图像特征,Neck用于融合不同层次的特征,Head用于输出预测结果。
Head有三个分支:Classification、Regression和Center-ness。Classification分支用于预测每个位置的类别概率,Regression分支用于预测每个位置与真实框的四条边的距离,Center-ness分支用于预测每个位置与目标中心的相对距离。
模型的输入是一张图像,输出是三个分支的预测结果。每个分支的输出是一个列表,包含不同尺度的特征图。
模型的训练过程如下:
首先,将输入图像通过Backbone和Neck得到不同尺度的特征图;
然后,将每个尺度的特征图通过Head得到对应尺度的预测结果;
接着,根据真实标注,对每个尺度的预测结果进行正负样本的匹配,以及真实框和真实center-ness的计算;
然后,根据匹配结果,计算每个尺度的分类损失、回归损失和center-ness损失,并将它们相加得到总损失;
最后,根据总损失,使用梯度下降法更新模型参数,并重复上述过程,直到损失不再变化或达到最大迭代次数为止。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种全景影像中路面表观病害自动检测方法,其特征在于,包括如下步骤:
S1:从道路真实场景获得路面图像;
S2:筛选步骤S1获得的影像,挑选出含有病害的数据,使用专业标注软件LabelImg进行标注,形成道路病害数据集;
S3:将数据集进行数据增强,并划分道路病害数据集,将数据集划分为训练集、验证集、测试集,划分比例为8:1:1,将划分好的数据集导入改进的YOLOv5网络模型进行训练;
S4:训练结束后保留最好模型,用于预测路面数据,输出道路病害数据并统计病害信息。
2.根据权利要求1所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S1的具体步骤如下:
使用移动测量设备采集不同天气、不同时间、不同交通状况下的道路全景影像,并对获取的全景图像进行裁剪,只保留路面部分。
3.根据权利要求1所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S2的具体步骤如下:
S21:挑选步骤S11得到的图像构建含有道路病害的数据集;
S22:将所得道路真实图像使用专业标注工具LabelImg进行逐张标注,标注完每张图像对应一个xml文件,使用LabelImg分别在道路病害在对应病害位置进行标注,标注4种病害分别为:裂缝、坑槽、龟裂、剥落;
S23:使用正交骨架线法统计裂缝、龟裂平均像素宽度作为数据集所用的裂缝平均宽度,将一条裂缝分成多个对象实例进行标注,要求每个标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,对标注框的大小和长宽比进行限制,要求长宽比不大于4且最长边不大于四分之一图像大小。
4.根据权利要求3所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S23中,统计裂缝、龟裂平均像素宽度的具体步骤为:
首先,随机挑选含有道路病害的数据集的1/10,使用labelme标注软件对裂缝、龟裂进行像素级别的标注,标注为json格式,并将图像二值化处理,转为黑白二值图像,用0像素值代表背景,用255像素值代表裂缝,将裂缝、龟裂区域和背景区域分开;
然后,对每个二值化的图像应用正交骨架线法,得到裂缝、龟裂区域的拓扑骨架;对每条骨架线,计算其与其两侧边缘的最短距离,作为该骨架线上每个像素点的宽度;
接着,对每张图像,计算所有骨架线上所有像素点的宽度之和,并除以像素点的个数,得到该图像的平均像素宽度;
最后,对所有图像,计算所有图像的平均像素宽度之和,并除以图像的个数,得到数据集所用的裂缝平均宽度。
5.根据权利要求4所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S23中,判断每个标注框的中心点与裂缝的距离是否超过5个裂缝平均宽度的过程为:
首先,计算标注框的中心点,即标注框的左上角和右下角的坐标的平均值;
然后,以标注框中心点为圆心,5个裂缝平均宽度为半径,画一个圆,检查圆内是否有裂缝区域,如果有,则说明标注框的中心点与裂缝的距离不超过5个裂缝平均宽度,否则,说明标注框的中心点与裂缝的距离超过了5个裂缝平均宽度。
6.根据权利要求5所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S3的具体步骤如下:
S31:对标注后的图像进行数据增强,包括对图像进行亮度变换、色彩空间调整、Mosaic增强、自适应锚框计算、图像缩放;
S32:通过随机调整亮度至原亮度的0.35-1.2倍,随机平移、随机旋转、水平镜像翻转并矫正标注框坐标的方式对得到的已标注后的所有样本图像进行增广;
S33:添加图像总数的四分之一到五分之一的复杂场景下的无病害图像作为负样本,负样本要求是在识别过程中易错识别的影像和背景影像;
S34:改进的YOLOv5网络模型由四部分组成:输入端、主干网络Backbone、颈部网络Neck和头部结构Head,将改进的YOLOv5网络模型的回归阶段修改为anchor-free结构,新的头部结构Head共有三个输出分支:类别输出分支Classification、回归输出分支Regression、中心点输出分支Center-ness,其中类别输出分支Classification在对输入图像进行卷积、采样计算处理后的输出图,即特征图上的每个位置都会进行一次类别预测,即判断该位置是否存在裂缝;回归输出分支Regression在特征图上的每个位置都会进行四个距离参数的预测,即预测该位置与标注框中心点远近程度,四个距离参数是指l*、t*、r*、b*,l*、t*、r*、b*分别指映射坐标到与其相关联真实框的左边、上边、右边、下边四条边的距离,映射坐标是指特征图上的每个位置对应到原始图像上的坐标;中心点输出分支Center-ness在特征图上的每个位置进行一个归一化参数预测,反映了该位置距离目标中心的远近程度,预测值域在[0,1]之间,距离中心越近Center-ness越接近1;Center-ness定义如式(1):
设特征图Ni上的某一空间位置为A(x,y),其中,x和y是映射坐标,按照当前层级的下采样数si可得其在输入图像上对应感受野区域的中心坐标A`=si/2+xsi,si/2+ysi;如果A`落在了真实标注框G内,则将A看做训练阶段的正样本,反之,则全部视为负样本点;
S35:根据电脑配置设置超参数;
S36:模型通过不断迭代计算预测边框与真实框之间的损失,并按照损失值反向传播梯度来更新模型,直至参数减少并收敛至一个取值区间,对应回归阶段的三个损失函数;
回归阶段的三个损失函数由分类损失Lcls、定位损失Lreg、center-ness损失Lcen构成,定义如式(2):
其中,Px,y表示在特征图(x,y)点处预测的每个类别的score;tx,y表示在特征图(x,y)点处预测的目标边界框信息;sx,y表示在特征图(x,y)点处预测的center-ness;Npos表示正样本的数量,即特征图上所有被匹配为正样本的位置的个数;Lcls表示分类损失,即预测类别与真实类别之间的差异;表示在特征图(x,y)点对应的真实类别标签;/>表示当特征图(x,y)点被匹配为正样本时为1,否则为0;Lreg表示定位损失,即预测边框与真实框之间的差异;/>表示在特征图(x,y)点对应的真实目标边界框信息;Lcen表示center-ness损失,即预测center-ness与真实center-ness之间的差异;/>表示在特征图(x,y)点对应的真实center-ness;
S37:采用梯度下降法进行训练,计算网络更新后的参数,即权重值和偏重值,当损失函数中的Loss值不在变化或达到最大迭代次数,停止训练,保存模型参数。
7.根据权利要求6所述的全景影像中路面表观病害自动检测方法,其特征在于,步骤S4的具体步骤如下:
S41:将所得道路真实图像进行预处理,统一大小为2048*1024;
S42:将步骤S41得到的图像输入改进的YOLOv5网络模型进行预测,输出得到道路病害且附带标签,通过图像的位置信息可准确得到道路位置;
S43:统计各类病害数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310766314.1A CN117058069A (zh) | 2023-06-27 | 2023-06-27 | 一种全景影像中路面表观病害自动检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310766314.1A CN117058069A (zh) | 2023-06-27 | 2023-06-27 | 一种全景影像中路面表观病害自动检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117058069A true CN117058069A (zh) | 2023-11-14 |
Family
ID=88665187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310766314.1A Pending CN117058069A (zh) | 2023-06-27 | 2023-06-27 | 一种全景影像中路面表观病害自动检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058069A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636080A (zh) * | 2024-01-26 | 2024-03-01 | 深圳市万物云科技有限公司 | 一种场景分类方法、装置、计算机设备及可读存储介质 |
-
2023
- 2023-06-27 CN CN202310766314.1A patent/CN117058069A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636080A (zh) * | 2024-01-26 | 2024-03-01 | 深圳市万物云科技有限公司 | 一种场景分类方法、装置、计算机设备及可读存储介质 |
CN117636080B (zh) * | 2024-01-26 | 2024-04-09 | 深圳市万物云科技有限公司 | 一种场景分类方法、装置、计算机设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113160192B (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
CN111027511B (zh) | 基于感兴趣区块提取的遥感图像舰船检测方法 | |
CN109389163B (zh) | 一种基于地形图的无人机影像分类系统及方法 | |
CN112464911A (zh) | 基于改进YOLOv3-tiny的交通标志检测与识别方法 | |
CN113177456B (zh) | 基于单阶段全卷积网络和多特征融合的遥感目标检测方法 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN113240623B (zh) | 一种路面病害检测方法及装置 | |
CN109840483A (zh) | 一种滑坡裂缝检测与识别的方法及装置 | |
CN107944403A (zh) | 一种图像中的行人属性检测方法及装置 | |
CN117422699B (zh) | 公路检测方法、装置、计算机设备及存储介质 | |
CN110659601A (zh) | 基于中心点的深度全卷积网络遥感图像密集车辆检测方法 | |
CN113537037A (zh) | 路面病害识别方法、系统、电子设备及存储介质 | |
CN117058069A (zh) | 一种全景影像中路面表观病害自动检测方法 | |
CN113313107A (zh) | 一种斜拉桥缆索表面多类型病害智能检测和识别方法 | |
CN116740758A (zh) | 一种防止误判的鸟类图像识别方法及系统 | |
CN113902792A (zh) | 基于改进RetinaNet网络的建筑物高度检测方法、系统和电子设备 | |
CN115457044A (zh) | 基于类激活映射的路面裂缝分割方法 | |
CN115035193A (zh) | 一种基于双目视觉与图像分割技术的散装粮随机扦样方法 | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
CN116052110B (zh) | 一种路面标线缺损智能定位方法及系统 | |
CN117726957A (zh) | 一种新型路面病害检测方法 | |
CN112785548A (zh) | 一种基于车载激光点云的路面裂缝检测方法 | |
CN115063679B (zh) | 一种基于深度学习的路面质量评估方法 | |
CN116797550A (zh) | 缺陷检测方法、装置、电子设备以及存储介质 | |
CN110889418A (zh) | 一种气体轮廓识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |