CN117037007B - 一种航拍式的道路照明均匀度检查方法及装置 - Google Patents

一种航拍式的道路照明均匀度检查方法及装置 Download PDF

Info

Publication number
CN117037007B
CN117037007B CN202311296345.1A CN202311296345A CN117037007B CN 117037007 B CN117037007 B CN 117037007B CN 202311296345 A CN202311296345 A CN 202311296345A CN 117037007 B CN117037007 B CN 117037007B
Authority
CN
China
Prior art keywords
image
illumination
aerial
road
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311296345.1A
Other languages
English (en)
Other versions
CN117037007A (zh
Inventor
刘友泉
张震鹏
徐诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dayun Iot Technology Co ltd
Original Assignee
Zhejiang Dayun Iot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dayun Iot Technology Co ltd filed Critical Zhejiang Dayun Iot Technology Co ltd
Priority to CN202311296345.1A priority Critical patent/CN117037007B/zh
Publication of CN117037007A publication Critical patent/CN117037007A/zh
Application granted granted Critical
Publication of CN117037007B publication Critical patent/CN117037007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种航拍式的道路照明均匀度检查方法,包括以下步骤:获取航拍数据;根据获取的航拍图像进行图像处理,以生成车道线图像;根据车道线图像和拍摄周期对航拍图像进行划分获得多个检测子图,并以照明均匀度和航拍高度对每个检测子图进行标签标注,将检测子图和标签组成数据集;构建深度学习网络;采用数据集对深度学习网络进行训练,以获得照明度检测模型;将待预测道路的航拍图像与航拍高度输入至照明度检测模型,以输出对应道路照明的三维均匀度分布图像。本发明还提供了一种道路照明均匀度检查装置。本发明提供的方法可提高日常道路照明检测的效率,从而降低了人力和时间成本。

Description

一种航拍式的道路照明均匀度检查方法及装置
技术领域
本发明属于市政管理与智慧交通领域,尤其涉及一种航拍式的道路照明均匀度检查方法及装置。
背景技术
传统照度检测方法主要包括硬件检测和软件检测两种。硬件检测方法主要是利用照度计对环境光强度进行测量,常见的照度计包括分光光度计、光电二极管照度计等。在使用照度计进行测量时,需要考虑环境温度、湿度、气压等因素的影响,以保证测量结果的准确性。软件检测方法则是通过图像处理技术对图像中的照度进行检测。主要包括基于灰度值的方法和基于彩色信息的方法两种。基于灰度值的方法主要是通过对图像进行阈值分割或者滤波操作,获得图像的平均灰度值或者亮度均值,从而估计环境光强度。基于彩色信息的方法则是利用RGB三个通道的亮度值来计算环境光强度。虽然软件检测方法比硬件检测方法更加方便快捷,但由于图像受到多种因素的影响,如阴影、反射、颜色等,因此软件检测方法的精度可能受到较大的影响。此外,软件检测方法对于不同场景、不同光源的适应性也有限制,需要进行适当的参数调整和优化。因此,在实际应用中,应根据具体情况选择合适的照度检测方法。
传统道路照度检测主要以人工测量为主,道路照度检测主要依据GB/T5700-2008进行,国标对测试点的布置在待测路面横向和纵向上均有明确要求。首先对待测路面进行围蔽,然后根据检测要求在路面均匀布点,接着使用照度计测量并读取各点位的照度值,最后将数据录入到电脑端计算测量结果。该方法存在质量风险高、客户体验差、工作效率低等弊端。针对这些弊端,李向丰在其论文中提出了一种移动式道路照度检测系统,以照度检测小车作为载体,搭载GY-30 数字照度传感器与GPS 模块,将其采集到的照度数据与定位信息通过WIFI 发送到服务器中,服务器对数据进行可视化处理,显示在可视化终端上,大大降低了人工成本。同时照度检测小车利用2.4G 遥控器进行控制,通过减速电机控制小车的行驶速度,并利用差速转向控制行驶方向,确保小车可精准执行移动式道路照度检测方法。该方案具有检测效率高、数据量大、精准度高以及能够确保测量人员安全的优势。万泉同样设计了一种基于车载平台的人工辅助型照度检测车,该系统检测流程根据国标制定,能实时准确采集路面水平面照度、移动距离,结合高性能中央处理器,具备传感数据采集、处理、存储、远程传输等功,以此来提高检测效率。
专利文献CN114266775A公开了一种运动物体检测的路灯照明控制方法和系统,该方法为基于现场采集设备实时采集涵盖照明光源照明区域的图像数据;确定至少一个图像为现场采集设备静止状态下的基准图像;将基准图像拼接为涵盖照明光源照明区域的全景图像,并建立照明现场虚拟模型;通过现场采集设备实时获取照明光源的照明区域图像,输入照明现场虚拟模型进行比对,提取图像差别部分轮廓;遍历素材库,判断图像差别部分轮廓相匹配的物体的三维模型,并根据图像差别部分轮廓的实际位置信息,将对应的物体的三维模型映射到照明现场虚拟模型上,根据三维模型所处照明光源的探照范围,控制照明光源照明。该方法需要提前布置监控设备,而采集的图像信息会在晚上因来往车辆的车灯而受到影响。
发明内容
本发明的主要目的在于提供一种航拍式的道路照明均匀度检查方法及装置,该方法可提高日常道路照明检测的效率,从而降低了检测过程中的人力成本和时间成本。
为了实现本发明的第一目的,提供了一种航拍式的道路照明均匀度检查方法,该方法基于无人机航拍图像进行道路照明的均匀度检查,其具体步骤如下:
步骤1、获取航拍数据,其包括航拍图像,拍摄周期以及航拍高度;
步骤2根据获取的航拍图像进行图像处理,以生成与道路相关的车道线图像;
步骤3、根据生成的车道线图像和拍摄周期对航拍图像进行划分,获得多个检测子图,并以照明均匀度和航拍高度对每个检测子图进行标签标注,将检测子图和标签组成数据集;
步骤4、构建基于Encoder-Decoder结构的深度学习网络,所述深度学习网络包括车道划分模块,照明度拟合模块,检测模块以及可视化模块,所述车道划分模块用于对输入的航拍图像进行裁剪,并保留包含车道线的预处理图像,所述照明度拟合模块用于拟合获得所述预处理图像中的照明度特征,所述检测模块根据照明度特征进行分析,以获得照明度信息,所述可视化模块根据航拍高度和照明度信息,以输出道路照明的三维均匀度分布图像;
步骤5、采用数据集对所述深度学习网络进行训练,以获得用于检测道路照明均匀度的照明度检测模型;
步骤6、将待预测道路的航拍图像与航拍高度输入至照明度检测模型,以输出对应道路照明的三维均匀度分布图像。
本发明通过预先设定的航线进行道路照明系统图像的采集,利用本发明提出的基于深度图像处理技术的道路照明均匀度检查方法,从航拍图像中获取道路照明模型,进而经过处理获得均匀度的三维分布图像,从而为路灯灯具的配光性能分析、路灯故障检测等方面提供依据。
具体的,拍摄周期通过相机视野范围与相机移动速度计算获得。
具体的,所述相机视野范围包括水平视野范围和垂直视野范围;
所述水平视野范围=2*h*tan(水平视角/2);
所述垂直视野范围=2*h*tan(垂直视角/2);
式中,h表示拍摄高度。
具体的,所述车道线图像的生成过程如下:
保留航拍图像中包含中间车道线的图像,并对保留的图像沿车道线方向进行对称裁剪以获得由道路路面和中间车道线组成的车道线图像。
具体的,所述道路划分模块包括实例分割网络和二值化分割网络,所述实例分割网络用于根据图像中的车道线对图像进行划分,所述二值化分割网络用于划分获得的图像进行二值化处理,以获得对应的二值化车道线图像作为预处理图像。
具体的,在训练时,采用损失函数对深度学习网络训练以更新网络参数。
具体的,所述损失函数包括由交叉熵损失函与Dice系数组成的第一损失函数,以及二元交叉熵损失函数。
具体的,所述道路照明的三维均匀度分布图像的生成过程如下:
根据航拍高度,采用图像均衡化技术对融合特征图像进行照明度等级的划分,以获得对应融合特征图像的照明度等级;
根据获得照明度等级出现频率进行直方图统计,以获得道路照明的三维均匀度分布图像。
具体的,所述车道划分模块还包括车道信息修正,其具体过程如下:
基于拍摄的位置信息与标准地图数据进行匹配,以获得标准车道图像;
将航拍图像与标准车道图像进行融合修正,以获得修正图像并进行车道线的划分工作。
具体的,所述航拍数据通过预设飞行轨迹和飞行高度的无人机拍摄获得。
为了实现本发明的第二目的,提供了一种道路照明均匀度检查装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其中计算机存储器采用上述的道路照明均匀度检查方法;
所述计算机处理器执行所述计算机程序时实现以下步骤:将待测区域的航拍图像和航拍高度输入至照明度检测模型中,以输出待测区域道路照明的三维均匀度分布图像。
与现有技术相比,本发明的有益效果:
基于航拍图像特征构建对应的图像处理模型,从而提高日常道路照明检测的效率,同时极大降低了检测过程中的人力成本和时间成本,为后续道路照明和故障检测提供了更全面的依据。
附图说明
图1为本实施例提供的一种航拍式的道路照明均匀度检查方法的流程图;
图2为本实施例提供的无人机的巡航示意图;
图3为本实施例提供的车道划分模块的框架示意图;
图4为本实施例提供的照明度拟合模块的框架示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合实施例及附图对本发明作进一步详细的描述。
如图1所示,为本实施例提供的一种航拍式的道路照明均匀度检查方法,其具体过程如下:
步骤1、首先使用无人机CCD相机进行图像的采集,无人机CCD相机使用电荷耦合器件(CCD)来捕捉图像,因其高分辨率、高灵敏度和低噪声等优点,在航拍领域得到了广泛的应用。
如图2所示,设定无人机巡航路线时,通过现场实验及实际环境,得出理想的高度、飞行速度、飞机方向等。为减少视野内采集图像重叠部分,提高采集效率,通过设定的飞行速度及方向,计算出采集图片最佳周期。
其中,本实施例将无人机的飞行速度为30km/h~40 km/h,从而模仿正常巡检车的运动速度,而无人机的飞行高度设置为离地8m~10m,从而符合城市区域的飞行限高。
更具体地,无人机CCD相机图像采集过程中,需选择高分辨率相机,首先根据相机的成像原理和焦距计算相机的视角。相机的视角可以用水平、垂直和对角线三个方向来表示。对于一个给定的焦距(24mm)和传感器尺寸(宽度为35mm,高度为24mm),可以使用以下公式计算相机的视角:
水平视角:72.1=2*arctan (35 /(2 * 24));
垂直视角:53.1=2*arctan (24 /(2 * 24));
对角线视角:82.3= 2*arctan (42/(2 * 24));
其中,对角线长度可以用传感器宽度和高度计算得到,即对角线长度:42 =√(35²+ 24²)。根据相机的视角和安装位置计算相机的视野范围。例如,无人机负载相机位于高度为8m的位置,那么相机的视野范围可以用以下公式计算得到:
水平视野范围:11m= 2*8*tan(72.1/2);
垂直视野范围:7.9m =2*8*tan (53.1/2);
这样,就可以计算出相机在无人机下的视野范围。
再根据无人机的视野范围,通过设定的飞行速度(为了保证无人机巡航时间更长,将速度设定为30km/h,即8.33m/s)及方向,计算出采集图片最佳周期。
即本实施例设定的相机采集周期为1.3s。
步骤2、根据获取的航拍图像进行图像处理,以获取与道路相关的车道线图像,更具体地,将获取的航拍图像进行二值化处理,并进行裁剪以保留包含车道线的灰度图像作为车道线图像。
步骤3、根据获取的车道线图像和拍摄周期对航拍图像进行划分获得多个检测子图,并以照明均匀度和航拍高度对每个检测子图进行标签标注,将检测子图和标签组成数据集。
步骤4、构建基于Encoder-Decoder结构的深度学习网络,深度学习网络包括车道划分模块,照明度拟合模块,检测模块以及可视化模块。
如图3所示,车道划分模块对无人机采集获得的航拍图像进行裁剪,并保留包含车道线的二值化车道线图像。
更具体地,该车道划分模块采用基于深度学习与基于实时定位与地图技术相结合的车道线检测算法,其中深度学习网络采用Encoder-Decoder结构,主要由两个子网络组成:实例分割网络和二值分割网络。实例分割网络用于分割出道路表面和车道线实例,二值分割网络用于将车道线实例二值化并进行像素级别的分类。实例分割网络由一个VGG-16网络和一个分支网络组成,分别用于提取图像特征和分割车道线实例。VGG-16网络用于提取图像的高级语义特征,分支网络则基于全卷积网络结构,对图像进行分割,并将车道线实例分别编码为不同的实例。二值分割网络用于将实例分割网络输出的车道线实例进行像素级别的分类,将车道线像素分类为正样本,非车道线像素分类为负样本。二值分割网络的结构类似于FCN(全卷积网络),使用反卷积层将分辨率上采样,最终输出与原图像大小相同的二值化车道线图像。
如图4所示,照明度拟合模块用于拟合获得上述二值化车道线图像中的照明度特征。
更具体地,本实例中以路灯辐照地面形成的光圈大小作为对应的照明度特征,此外该照明度拟合模块采用基于Unet的自适应照明度拟合模型,UNet的结构基于Encoder-Decoder结构,主要由两部分组成:下采样路径和上采样路径。Encoder部分类似于常见的卷积神经网络结构,包括卷积层、池化层和激活函数等,用于提取图像特征并减小分辨率。而Decoder部分则采用反卷积层对图像进行上采样,同时将Encoder中提取的特征和Decoder中的特征进行拼接,最终得到分割结果。UNet的特点在于引入了跳跃连接的概念,即将Encoder中的特征直接连接到Decoder中对应的层,保留了图像中不同层次的信息,有利于准确地分割出目标物体。
检测模块则根据拟合获得的照明度特征,生成对应的照明度信息。
可视化模块根据航拍高度和照明度信息,以输出道路照明的三维均匀度分布图像。
采用数据集对上述模块中的实例分割网络使用交叉熵损失函数和Dice系数作为损失函数,而二值分割网络则使用二元交叉熵损失函数进行训练。最后,通过GPS、IMU等定位设备,将实时位置信息与地图数据进行匹配,将获得的车道信息与基于深度学习获得的车道信息进行融合修正,从而提高定位的精确度,UNet的训练主要采用像素级别的交叉熵损失函数,其优化目标是最小化预测结果与真实标签之间的距离,其中,真实标签需要光谱测量仪等设备来进行实际测量。
将待预测道路的航拍图像与航拍高度输入至照明度检测模型,以输出对应道路照明的三维均匀度分布图像。
本实施例还提供了一种道路照明均匀度检查装置,通过上述实施例提供的道路照明均匀度检查方法实现,包括包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序。
该计算机处理器执行所述计算机程序时实现以下步骤:将待测区域的航拍图像和航拍高度输入至照明度检测模型中,以输出待测区域道路照明的三维均匀度分布图像。
综上所述,本发明通过无人机预先设定的航线进行道路照明系统图像的采集,并结合基于深度图像处理技术的均匀度检测方法,从航拍图像中获取道路照明模型,进而经过处理获得均匀度的三维分布图像,从而为路灯灯具的配光性能分析、路灯故障检测等方面提供依据。

Claims (9)

1.一种航拍式的道路照明均匀度检查方法,其特征在于,包括以下步骤:
步骤1、获取航拍数据,其包括航拍图像,拍摄周期以及航拍高度;
步骤2、根据获取的航拍图像进行图像处理,以生成与道路相关的车道线图像;
步骤3、根据生成的车道线图像和拍摄周期对航拍图像进行划分获得多个检测子图,并以照明均匀度和航拍高度对每个检测子图进行标签标注,将检测子图和标签组成数据集;
步骤4、构建基于Encoder-Decoder结构的深度学习网络,所述深度学习网络包括车道划分模块,照明度拟合模块,检测模块以及可视化模块,所述车道划分模块包括实例分割网络和二值化分割网络,所述实例分割网络用于根据图像中的车道线对图像进行划分,所述二值化分割网络用于划分获得的图像进行二值化处理,以获得对应的二值化车道线图像作为预处理图像,所述照明度拟合模块用于将输入的预处理图像中路灯辐照地面形成的光圈大小拟合为对应的照明度特征,所述检测模块根据照明度特征进行分析,以获得照明度信息,所述可视化模块根据航拍高度和照明度信息,以输出道路照明的三维均匀度分布图像;
步骤5、采用数据集对所述深度学习网络进行训练,以获得用于检测道路照明均匀度的照明度检测模型;
步骤6、将待预测道路的航拍图像与航拍高度输入至照明度检测模型,以输出对应道路照明的三维均匀度分布图像。
2.根据权利要求1所述的道路照明均匀度检查方法,其特征在于,所述拍摄周期通过相机视野范围与相机移动速度计算获得。
3.根据权利要求2所述的道路照明均匀度检查方法,其特征在于,所述相机视野范围包括水平视野范围和垂直视野范围;
所述水平视野范围=2*h*tan(水平视角/2);
所述垂直视野范围=2*h*tan(垂直视角/2);
式中,h表示拍摄高度。
4.根据权利要求1所述的道路照明均匀度检查方法,其特征在于,在训练时,采用损失函数对深度学习网络训练以更新网络参数。
5.根据权利要求4所述的道路照明均匀度检查方法,其特征在于,所述损失函数包括由交叉熵损失函与Dice系数组成的第一损失函数,以及二元交叉熵损失函数。
6.根据权利要求1所述的道路照明均匀度检查方法,其特征在于,所述道路照明的三维均匀度分布图像的生成过程如下:
根据航拍高度,采用图像均衡化技术对融合特征图像进行照明度等级的划分,以获得对应融合特征图像的照明度等级;
根据获得照明度等级出现频率进行直方图统计,以获得道路照明的三维均匀度分布图像。
7.根据权利要求1所述的道路照明均匀度检查方法,其特征在于,所述车道划分模块还包括车道信息修正,其具体过程如下:
基于拍摄的位置信息与标准地图数据进行匹配,以获得标准车道图像;
将航拍图像与标准车道图像进行融合修正,以获得修正图像并进行车道线的划分工作。
8.根据权利要求1所述的道路照明均匀度检查方法,其特征在于,所述航拍数据通过预设飞行轨迹和飞行高度的无人机拍摄获得。
9.一种道路照明均匀度检查装置,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于,所述计算机存储器中采用权利要求1~8任一项所述的道路照明均匀度检查方法;
所述计算机处理器执行所述计算机程序时实现以下步骤:将待测区域的航拍图像和航拍高度输入至照明度检测模型中,以输出待测区域道路照明的三维均匀度分布图像。
CN202311296345.1A 2023-10-09 2023-10-09 一种航拍式的道路照明均匀度检查方法及装置 Active CN117037007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311296345.1A CN117037007B (zh) 2023-10-09 2023-10-09 一种航拍式的道路照明均匀度检查方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311296345.1A CN117037007B (zh) 2023-10-09 2023-10-09 一种航拍式的道路照明均匀度检查方法及装置

Publications (2)

Publication Number Publication Date
CN117037007A CN117037007A (zh) 2023-11-10
CN117037007B true CN117037007B (zh) 2024-02-20

Family

ID=88641601

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311296345.1A Active CN117037007B (zh) 2023-10-09 2023-10-09 一种航拍式的道路照明均匀度检查方法及装置

Country Status (1)

Country Link
CN (1) CN117037007B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569796A (zh) * 2019-09-09 2019-12-13 南京东控智能交通研究院有限公司 一种车道线动态检测和车道分界线的拟合方法
US10929694B1 (en) * 2020-01-22 2021-02-23 Tsinghua University Lane detection method and system based on vision and lidar multi-level fusion
CN112488046A (zh) * 2020-12-15 2021-03-12 中国科学院地理科学与资源研究所 一种基于无人机高分辨率影像的车道线提取方法
CN112766056A (zh) * 2020-12-30 2021-05-07 厦门大学 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN113158768A (zh) * 2021-03-03 2021-07-23 中山大学 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
CN114298163A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于多源信息融合的在线路况检测系统及方法
CN116030631A (zh) * 2023-01-17 2023-04-28 南京大学 一种基于无人机航拍视频的实时交通拥堵状态评估方法
WO2023101248A1 (ko) * 2021-12-01 2023-06-08 주식회사 엠제이비전테크 Npu 기반 교통정보 분석 시스템 및 방법
CN116434088A (zh) * 2023-04-17 2023-07-14 重庆邮电大学 基于无人机航拍图像的车道线检测及车道辅助保持方法
CN116704355A (zh) * 2023-08-04 2023-09-05 浙江大云物联科技有限公司 一种航拍式道路照明的照度检测方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030457B2 (en) * 2018-12-17 2021-06-08 Here Global B.V. Lane feature detection in aerial images based on road geometry
WO2023133420A1 (en) * 2022-01-04 2023-07-13 Mobileye Vision Technologies Ltd. Traffic light oriented network

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569796A (zh) * 2019-09-09 2019-12-13 南京东控智能交通研究院有限公司 一种车道线动态检测和车道分界线的拟合方法
US10929694B1 (en) * 2020-01-22 2021-02-23 Tsinghua University Lane detection method and system based on vision and lidar multi-level fusion
CN112488046A (zh) * 2020-12-15 2021-03-12 中国科学院地理科学与资源研究所 一种基于无人机高分辨率影像的车道线提取方法
CN112766056A (zh) * 2020-12-30 2021-05-07 厦门大学 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN113158768A (zh) * 2021-03-03 2021-07-23 中山大学 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
WO2023101248A1 (ko) * 2021-12-01 2023-06-08 주식회사 엠제이비전테크 Npu 기반 교통정보 분석 시스템 및 방법
CN114298163A (zh) * 2021-12-09 2022-04-08 连云港杰瑞电子有限公司 一种基于多源信息融合的在线路况检测系统及方法
CN116030631A (zh) * 2023-01-17 2023-04-28 南京大学 一种基于无人机航拍视频的实时交通拥堵状态评估方法
CN116434088A (zh) * 2023-04-17 2023-07-14 重庆邮电大学 基于无人机航拍图像的车道线检测及车道辅助保持方法
CN116704355A (zh) * 2023-08-04 2023-09-05 浙江大云物联科技有限公司 一种航拍式道路照明的照度检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于图像复杂度曲线拟合的快速图像分割方法;王海峰;章怡;蒋益锋;;计算机科学(第02期);137-141 *
基于预测和残差细化网络的道路提取算法研究;熊炜;管来福;王传胜;童磊;李利荣;刘敏;;计算机工程与科学(第04期);116-123 *

Also Published As

Publication number Publication date
CN117037007A (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
TWI703064B (zh) 用於在不良照明狀況下定位運輸工具的系統和方法
US11600075B2 (en) Nighttime sensing
US20200041284A1 (en) Map road marking and road quality collecting apparatus and method based on adas system
WO2020097840A1 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
CN109389046B (zh) 用于自动驾驶的全天候物体识别与车道线检测方法
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
CN106778534A (zh) 一种车辆行驶中周围环境灯光识别方法
KR102267517B1 (ko) 도로 안개감지 장치 및 그 감지 방법
Hautière et al. Estimation of the visibility distance by stereovision: A generic approach
CN106803073B (zh) 基于立体视觉目标的辅助驾驶系统及方法
Wang et al. Lane-line detection algorithm for complex road based on OpenCV
CN116901089B (zh) 一种多角度视距的机器人控制方法及系统
CN112580489A (zh) 交通灯检测方法、装置、电子设备及存储介质
CN113609942A (zh) 一种基于多目多光谱融合的道路智能监控系统
CN117037007B (zh) 一种航拍式的道路照明均匀度检查方法及装置
CN116794650A (zh) 一种毫米波雷达与摄像头数据融合的目标检测方法和装置
Meng et al. Highway visibility detection method based on surveillance video
CN215117795U (zh) 一种低照度条件下能见度确定装置
CN113055600B (zh) 一种图像曝光调整方法、装置、设备和存储介质
JP6901647B1 (ja) 視程推定装置、視程推定方法、および、記録媒体
US20230126833A1 (en) System and method for simultaneous online lidar intensity calibration and road marking change detection
CN117129002A (zh) 一种提高行车安全性的车辆导航系统
CN116878658A (zh) 一种基于透明窗的去散射成像系统
CN118061900A (zh) 车辆灯光的控制方法、装置、电子设备及可读存储介质
CN116188979A (zh) 积雪结雾环境下电力缆线检测方法、检测器、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant