CN114842262A - 融合线路通道正射影像的激光点云地物自动识别方法 - Google Patents

融合线路通道正射影像的激光点云地物自动识别方法 Download PDF

Info

Publication number
CN114842262A
CN114842262A CN202210508286.9A CN202210508286A CN114842262A CN 114842262 A CN114842262 A CN 114842262A CN 202210508286 A CN202210508286 A CN 202210508286A CN 114842262 A CN114842262 A CN 114842262A
Authority
CN
China
Prior art keywords
point cloud
image
classification
data
ortho
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210508286.9A
Other languages
English (en)
Inventor
张兴华
姜诚
黄和燕
王黎伟
张福
罗望春
王鸿涛
梁晖明
莫兵兵
李翔
刘洪驿
石志彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maintenance and Test Center of Extra High Voltage Power Transmission Co
Original Assignee
Maintenance and Test Center of Extra High Voltage Power Transmission Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maintenance and Test Center of Extra High Voltage Power Transmission Co filed Critical Maintenance and Test Center of Extra High Voltage Power Transmission Co
Priority to CN202210508286.9A priority Critical patent/CN114842262A/zh
Publication of CN114842262A publication Critical patent/CN114842262A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合线路通道正射影像的激光点云地物自动识别方法,包括:采集线路通道正射影像数据,并进行预处理;采用随机森林算法对修正后正射影像进行识别分类;采集线路通道激光点云数据和杆塔台账数据,并对激光点云数据进行预处理,提取出地面点云以及杆塔和电力线点云,将剩余激光点云数据作为目标点云;正射影像分类结果作为约束条件对目标点云进行点云分割,采用随机森林算法对所述粗分类结果进行精细分类,获得点云识别结果。基于正射影像的诸多特点,将正射影像的二维优势与激光点云的三维优势相结合,提高点云分类的精度,同时在正射影像分类的基础上加入点云分类并行处理,提高了点云分类处理的效率。

Description

融合线路通道正射影像的激光点云地物自动识别方法
技术领域
本发明涉及超特高压输电线路技术领域,更具体的说是涉及一种融合线路通道正射影像的激光点云地物自动识别方法。
背景技术
依据分类方法的分类策略,现有的点云分类方法可以划分为两类:阶层式分类方法和同时分类方法。阶层式分类方法包括两个步骤,滤波处理和对象分类。在滤波处理阶段,阶层式分类方法采用点云滤波算法将点云数据划分为地面点和非地面点,其中常用的点云滤波算法有数学形态学算法、坡度滤波算法、不规则三角网渐进加密算法、移动曲面拟合算法和迭代线性最小二乘内插法等。在对象分类阶段,阶层式分类方法将非地面点进一步划分为建筑物和植被等多个类别。如采用多向滤波算法移除点云中的地面点,然后采用基于形态的建筑物检测方法,依据建筑物的形态特征移除剩余的非建筑物点,从而将非地面点分为建筑物和非建筑物两类。总之,在使用阶层式分类方法进行点云分类时,通常需要为每个类设置相应的判别方法,从而将点云划分为多个类别。
相比于阶层式分类方法,同时分类方法则依据点的特征将点云直接分类为地面、建筑物和植被等多个类别,并不需要设定太多的假设。依据特征提取的基本单元,可以将现有的点云分类方法划分为两类:基于点的分类和基于分割段的分类。其中,基于点的分类方法通过分析单个点的特征对三维点云数据进行分类。例如,将激光雷达的回波次数作为点的特征来区分相邻目标或是使用JointBoost分类器进行特征选择,选出有效的特征对点云数据进行分类。此外,大多数点云滤波算法都属于基于点的分类。基于分割段的分类,对于由多类对象构成的复杂点云数据,许多方法首先对原始点云进行分割,然后在分割段的基础上对点云数据进行分类。如基于对象分析的点云分类方法,在分类过程中,首先采用区域增长算法将点云分割成不同的点集,然后基于判断规则对不同的点集进行分类,或是采用基于区域增长的平面分割算法对点云数据进行分割,然后计算分割段的特征,最后对点云数据进行分类等。基于分割段的分类效果在很大程度上依赖于其所使用的点云分割算法。
在点云数据的分类阶段,传统的分类方法通过手动定义一系列的判定规则来判定点的类别。例如,我们可以假定在近邻区域内地面点的高度最小,并以此作为判定规则,标记出所有的地面点。然而,在许多情况下,判定规则是难以设定的。为了解决这个问题,机器学习被用于实现点云分类。这类方法的基本思想是利用训练集训练一个分类器,然后使用分类器对点云数据进行分类。常用的分类器有:支持向量机、随机森林、AdaBoost、JointBoost、朴素贝叶斯分类器和最大期望算法等。其中,随机森林分类器由于出色的性能,受到了越来越多的关注。同时,使用随机森林分类器能够分析特征的重要性,移除不相关的特征,提高数据分类的性能及效率。
依照现有的点云分类技术,可按照分类点云分类流程分为两大类,单目标点云分类和多要素点云分类。
(1)单目标点云分类依靠输电线路走廊内地物特征并有针对性地设置约束条件、高程阈值、连通性等分类规则,利用点云的低层次特征将线路点云分为目标类别点云和非目标点云,通过单目标的逐层次提取实现线路的点云分类。然而,由于点特征的数目有限,在对复杂点云数据进行分类时,基于点的分类方法得到的结果不理想。同时,在计算单个点的特征时,需要为每个点定义一个相应的邻域,这大大增加了特征计算的难度。
(2)多要素点云分类中的可大致分为监督分类和非监督分类两大类。其中非监督分类主要采用无目标类别标签的聚类算法实现点云分类,该方法输电线路通道点云分类的效率较高,但分类结果容易受先验参数、点云密度、离群噪声点和场景复杂度等诸多因素的影响,点云分类的精度不高。
(3)监督分类方法,如支持向量机、随机森林等分类器则是通过从训练样本中提取全局和局部代表性的点特征描述符,如密度、平整度、曲率等基于局部邻域点的几何结构信息,通过机器学习分类知识并构建分类模型将激光点云划分为预定义的语义类别实现全要素目标点云分类。但大多数分类器在分类的时候,只考虑局部特征,即样本的特征集,忽略了不同样本之间的拓扑和几何关系。
正射影像作为无人机遥感技术的产物,具有高分辨率、高纹理性、高特征性等特点,更容易分辨出地物类型,且当前市面上的激光雷达产品如大疆的禅思L1便搭载拥有激光雷达和摄像头两种设备,在扫描激光雷达的同时拍摄照片,以此获取的激光点云数据与正射影像数据具有极高的一致性。当前常见的影像分类的方法包括传统的非监督分类、监督分类、决策树分类、面向对象分类、支持向量机分类、最大似然法分类等一些深度学习、机器学习的算法,如神经网络、随机森林等方法在影像分类上都有较好的体现。
现有的影像分类的方法及流程存在以下不足:
(1)传统的非监督分类、监督分类等算法虽然在数据处理效率上占有极大的优势,但是在分类精度上远远不足,尤其是在精度高达厘米级的正射影像上的分类效果不尽人意。而深度学习、机器学习等算法虽然在分类精度上占据优势,但是数据分类处理效率不高。
(2)从当前的影像分类的流程中可以发现,大多数研究集中表现在对数据的分类处理上,而忽略了数据本身的质量,而往往数据质量的好坏直接影响着影像分类的结果。
目前,随着无人机激光雷达技术的不断完善,其应用领域也在不断的扩大,在电力巡检、地形测绘、三维建模等领域都有很好的应用,然而无人机激光雷达获取的点云数据是无序的点云数据,并不能直接从数据中获取地面或特定物体的相关信息,需要进行数据处理才能从点云数据中提取出有效的信息。当前的点云数据自动识别的技术在点云分类精度和点云分类效率上的选择存在一定的不足,如要提高点云分类的精度则会降低点云分类的效率,而若提高点分类的效率则会一定程度地损失点云分类的精度。
因此,如何提高点云分类的精度和效率是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种融合线路通道正射影像的激光点云地物自动识别方法,基于正射影像的诸多特点,将正射影像的二维优势与激光点云的三维优势相结合,提高点云分类的精度,同时在正射影像分类的基础上加入点云分类并行处理,提高了点云分类处理的效率。
为了实现上述目的,本发明采用如下技术方案:
一种融合线路通道正射影像的激光点云地物自动识别方法,包括以下步骤:
步骤1:采集线路通道正射影像数据,并进行预处理,获得修正正射影像;
步骤2:采用随机森林算法对所述修正正射影像进行识别分类,获得正射影像分类结果;
步骤3:采集线路通道激光点云数据和杆塔台账数据,并对所述激光点云数据进行预处理,提取出地面点云以及杆塔和电力线点云,将剔除地面点云、杆塔和电力线点云的所述激光点云数据作为目标点云;
步骤4:将正射影像分类结果作为约束条件对目标点云进行点云分割,获得粗分类结果;采用随机森林算法对所述粗分类结果进行精细分类,获得点云识别结果。
优选,所述步骤1中,对线路通道正射影像数据进行的预处理包括匀光匀色、修正阴影及遮蔽,具体步骤包括:
步骤11:采用自适应全局到局部颜色平衡方法对正射影像数据进行匀光匀色处理;
步骤111:对正射影像数据计算重叠区域色彩信息;
步骤112:根据重叠区域色彩信息构建色彩校正模型;
步骤113:利用色彩校正模型对正射影像数据进行优化,获得全局优化结果;
步骤114:对全局优化结果进行影像检测,确定影像检测窗口大小;
步骤115:进行分块色调信息统计;
步骤116:计算逐像素色调校正参数;
步骤117:进行Gamma变换逐像素色彩调整,获得匀光匀色结果;
步骤12:基于光照函数分析对彩色影像阴影区域信息进行增强;
步骤121:将影像从RGB颜色空间转换到包含亮度信息的HSI颜色空间;
步骤122:对亮度信息值依次进行数学形态学的开运算和闭运算,得到影像亮度低频成分;
步骤123:对影像亮度低频成分作阈值处理和带条件的腐蚀运算,分别获得阴影区域和非阴影区域;
步骤124:在RGB颜色空间中通过亮度信息对阴影区域中的R、G、B分量分别进行调整,实现阴影区域信息增强;
步骤13:采用基于纹理匹配的影像缺损信息补偿方法对增强后的影像进行补偿修正;
步骤131:从整张影像信息缺失部分四周的任意一个像素开始;
步骤132:构建一个邻域区块,以邻域区块为基础模板在整张影像中以设定像素数为边长的正方形窗口进行过滤,搜寻与邻域区块纹理最匹配的对应区域,将对应区域一侧的某个像素的值赋给邻域区块一侧的对应像素;以3×3或5×5或其他像素数为边长的正方形作为窗口进行过滤,直至检测到像素缺失的部位进行像素赋值;
步骤133:选取信息缺失部分四周的下一像素,并返回所述步骤132,且选取的像素由边缘逐渐向内部推进,直至信息缺失部分全部得到补偿,获得修正正射影像。
优选的,所述步骤2中具体实现过程包括:
步骤21:将人工选取和现场采集的分类类型的特征信息数据,以及历史数据集中的分类类型的特征信息数据构成原始训练样本集,从原始训练样本集中利用bootstrap抽样抽取K个样本,抽取的样本必须满足每个样本的样本容量都与原始训练样本集大小一样;
步骤22:根据抽取的K个样本构建K个决策树模型,组成了随机森林分类器;
步骤23:采用随机森林分类器对修正正射影像进行分类,得到K种分类结果,依据K种分类结果对每个记录进行投票表决,获得正射影像分类结果。
优选的,所述步骤3中对激光点云数据预处理包括:
步骤31:按照杆塔给定的杆塔台账数据进行输电线路通道激光点云数据分档裁剪;输电线路中两个杆塔即为一档,分档裁剪是根据杆塔坐标将确定裁剪范围来进行点云的裁剪,将一个或多个点云数据裁剪成若干数据量较小的数据;
步骤32:按照点云滤波的方式采用统计滤波器对分档裁剪的激光点云数据进行去噪处理,剔除明显的离群点;离群点特征在空间中分布稀疏;
步骤321:预设无效密度值,将小于所述无效密度值的点云判定为无效点云,并进行删除;
步骤321:遍历剩余点云,计算每个点与其最近的k个临近点之间的平均距离;
步骤322:计算所有平均距离的均值μ与标准差σ,获得距离阈值dmax,表示为dmax=μ+α×σ,α是一个常数,为比例系数;
步骤323:再次遍历剩余点云,剔除与k个临近点的平均距离大于距离阈值dmax的点云;
步骤33:采用不规则三角网对去噪处理后的激光点云数据进行地面点云提取;
将激光点云数据构成的点云空间划分为规则格网,选择格网中的最低点作为地面点云,并构成三角网;通过判断非地面点云与所述三角网的距离和角度是否同时满足预设的距离阈值和角度阈值来提取并分离地面点云;距离处于距离阈值范围内,同时角度处于角度阈值范围内则满足条件;
步骤34:根据提取出的地面点云,按照点云高度特征及欧式距离聚类法,以及通过RANSAC算法提取分离出电力设施点云,即杆塔和电力线点云,并将剩余激光点云数据作为地物自动识别的目标点云。
优选的,步骤41:将正射影像分类结果作为约束条件对目标点云进行点云分割,形成若干二维特征信息高一致性的点云集合,即通过分类结果将激光点云按照范围分割成分别具有植被、道路、建筑、水体的基础属性的点云集合;将二维的正射影像数据中所展示出的地物特征信息投射到三维的激光点云数据中,将激光点云数据按照地物特征一致性进行点云数据的分割及粗分类;
步骤42:并行处理每个点云集合,采用随机森林算法进行精细化分类,对应获得若干精细分类结果;
步骤43:合并所有精细分类结果,获得点云识别结果。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种融合输电线路通道的正射影像的通道激光点云地物自动识别方法,采用了以多源数据融合处理技术为主要思想的融合输电通道正射影像分类结果的激光点云分类技术及流程,提高了点云分类的精度,且由于融合了正射影像的分类结果,在分类类别上也较现有的点云分类类别多样化;考虑到在数据采集的过程中受到天气、时间、场地、人为因素、设备因素等多种情况的影响对正射影像数据生产结果可能会造成一定程度的影响,加之正射影像的分辨率较高,这种影响在影像上会有较为明显的体现,对之后的数据分类的精度会产生较大的影响,所以正射影像分类的过程中采用了先进行数据预处理后进行数据处理的基本思路,以提高数据分类精度;在正射影像分类的基础之上加入了点云分类并行处理的方法,提高了点云分类处理的效率;传统的影像分类的方法更多的是针对卫星影像数据进行分类,而卫星影像的分辨率低、数据范围广、且卫星采集的数据较为稳定,因此在现有的影像分类的思路中少有提及到数据的匀光匀色、阴影遮蔽修正等的数据预处理,所以本研究中在正射影像分类的过程中采用了先进行数据预处理后进行数据处理的基本思路,提高了数据分类精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明提供的结构融合线路通道正射影像的激光点云地物自动识别方法流程图;
图2附图为本发明提供的正射影像匀光匀色流程图;
图3附图为本发明提供的基于纹理匹配的影像缺损信息补偿原理图;
图4附图为本发明提供的随机森林原理图;
图5附图为本发明提供的各分类方法总体精度比较示意图;
图6附图为本发明提供的各分类方法的各分类类别精度比较示意图;
图7附图为本发明提供的激光点云预处理流程示意图;
图8附图为本发明提供的基于影像分类结果的激光点云地物自动识别流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种融合线路通道正射影像的激光点云地物自动识别方法,流程如图1所示,具体过程包括:
S1:采集线路通道正射影像数据,并进行预处理,获得修正正射影像;
S2:采用随机森林算法对修正正射影像进行识别分类,获得正射影像分类结果;
S3:采集线路通道激光点云数据和杆塔台账数据,并对激光点云数据进行预处理,提取出地面点云以及杆塔和电力线点云,将剔除地面点云、杆塔和电力线点云的激光点云数据作为目标点云;
S4:正射影像分类结果作为约束条件对目标点云进行点云分割,获得粗分类结果;
S5:采用随机森林算法对粗分类结果进行精细分类,获得点云识别结果。
实施例1
S1:受到天气、时间、无人机飞行状况等的影响,无人机正射影像数据的单幅影像内部或是多幅影像之间会出现色彩差异,以及地物阴影或是对正射影像分类产生影响的非必要遮蔽,对于输电线路通道的正射影像中的杆塔及导线在影像上的显示对影像分类会产生巨大的影像,为此需要在分类之前进行包括匀光匀色、修正阴影及遮蔽的影像预处理;包括:
S11:正射影像匀光匀色,流程如图2所示;
在正射影像匀光匀色这一流程中,选择采用一种自适应全局到局部颜色平衡方法,旨在消除相邻光学图像间颜色差异的影响,该方法结合全局和局部优化策略,在不指定参考图像的情况下,自适应地消除不同目标图像之间的颜色差异;全局优化策略以均衡前后图像的颜色信息最小为约束,避免了参考图像的分配,该策略将所有目标图像作为一个整体,同时求解归一化回归模型,将消除色差问题转化为最小二乘优化问题,有效地消除了总色差;局部优化策略是对全局优化策略的一种补充,它侧重于局部信息,利用Gamma变换算法消除目标图像重叠区域的颜色差异,该方法能够根据目标图像的特点从全局和局部优化两个方面选择合适的处理流程;当目标图像的总重叠率较小时,同时采用全局和局部策略;当目标图像的总重叠率较大时,仅采用局部优化策略,即可生成无缝的色彩均衡结果;
S111:输入正射影像数据,计算影像重叠部分的色彩信息;
S112:根据影像重叠部分的色彩信息建立色彩校正模型,将输入的所有正射影像数据作为一个整体,同时求解归一化回归模型,将消除色差问题转化为最小二乘优化问题,有效地消除了总色差,并输出全局优化结果;全局优化结果即为进行全局优化的正射影像数据;
S113:将全局优化结果作为局部优化策略的输入,确定影像检测的窗口大小,根据窗口大小统计分块色调的信息,并对全局优化结果逐像素计算色调校正参数,完成局部优化策略;
S114:基于Gamma变换进行逐像素色彩调整,将色调校正参数作为Gamma变换的约束条件,最终获得匀光匀色结果;
S12:正射影像阴影及遮蔽修正;
对于人脑来说识别影像上的阴影及遮蔽是一件非常容易的事情,数据量较小的情况下使用人工处理可以达到较高的效果,但是你面对海量数据是就需要计算机的帮助,但是从理论上来说要完全剔除阴影及遮蔽是不可能的,所以要尽可能削弱正射影像上的阴影及遮蔽的影响;
在正射影像阴影及遮蔽修正流程中分为两个步骤,一是正射影像阴影修正,二是正射影像遮蔽修正;
正射影像阴影修正采用基于光照函数分析的阴影增强方法,通过无人机正射影像成像的机理可知,当太阳光照射地表物体时,地表物体的反射光线进入相机即可得到一张影像I(x,y);若照射函数用Ii(x,y)表示,反射函数用Ir(x,y)表示,则影像为:I(x,y)=Ii(x,y)×Ir(x,y);通常,构成影像的光照函数和反射函数具有明显不同的频谱特性;对于前者,可以认为整个场景的光照亮度是均匀的或缓慢变化的;而对于后者,它会随着地表景物的细节、边缘和纹理等特征的变化而变化;
对影像上的阴影区域而言,它主要是由于光照不足所引起的,从而导致阴影区域亮度较低、颜色信息缺乏等,因此,只要设法对影像上阴影区域的光照函数进行改正,并顾及颜色信息,就可达到对阴影区域信息进行增强的目的;
基于光照函数分析的彩色影像阴影区域信息增强方法,其算法主要包括下述4个方面内容:①将影像从RGB颜色空间转换到包含亮度信息的HSI颜色空间;②对亮度值I进行数学形态学的开、闭运算,得到影像亮度的低频成分Ilow;③对Ilow作阈值处理和带条件的腐蚀运算,以分离阴影区域和非阴影区域;④在RGB颜色空间中通过亮度信息对阴影区域中的R、G、B分量分别进行调整,以达到阴影区域信息增强的目的;
正射影像遮蔽修正的主要原理既是遮蔽信息补偿,采用一种基于纹理匹配的影像缺损信息补偿,如图3所示,过程为:
从信息缺失部分周边的某一个像素开始,以a点为例在信息缺失部分创建一个邻域区块A,大小为3×3或是5×5或是更多像素组成;以A为基础模板在较大的影像范围内(直至整张影像范围)寻找与A的纹理最匹配的区域,如果找到了某个区域,如图3中的B,就将B区域一侧某个像素的值(如图3中的参考点b)赋给A区域一侧的对应像素(即图中的待修补点a);按上述方法依次对信息缺失部分四周的每一个像素实行同样的信息补偿,然后重复此过程,并逐渐向信息缺失部分的内部推进,直到信息缺损区中的所有像素得到补偿为止。
S2:采用随机森林算法对修正正射影像进行识别分类,获得正射影像分类结果;如图4所示;
采用的随机森林分类算法是一种基于决策树的机器学习算法,以决策树{h(X,Φk);k=1,2,…,n}∈{true,false}作为基本构成单元,通过将多颗决策树组合在一起来提高分类的准确性,由此构建了随机森林分类器;
随机森林算法的基本思想是:首先,从原始训练样本集中利用bootstrap抽样抽取K个样本,抽取的样本必须满足每个样本的样本容量都与原始训练集大小一样;其次,K个决策树模型是由抽取的K个样本所建立的,这K个决策树模型就组成了随机森林分类器;最后,用这K颗决策树对测试样本集进行分类,得到K种分类结果,依据K种分类结果对每个记录进行投票表决,决定其最终分类;
为了验证随机森林算法在正射影像分类的上的精度,选择了传统的监督分类、非监督分类、决策树分类三种方法与本发明中的随机森林算法进行精度比较;
传统的监督分类与监督分类虽然在处理流程及运算效率上存在一定优势,但是在分类精度上仅能达到50%-70%;决策树分类精度较高达到了88.17%,但是在道路、水体的分类上精度较低;而随机森林算法在各类型的精度及总体精度上就有理想的效果;总体精度结果如图5所示,图中横坐标表示分类方法,纵坐标表示精度;各类型精度如图6所示,图中横坐标表示分类类型,纵坐标表示精度,每种分类类型柱状图从左至右依次表示非监督分类各类别精度、监督分类各类别精度、决策树分类各类别精度和随机森林分类各类别精度;且随机森林算法除上述的分类精度高之外还有以下几个优点:①鲁棒性好,无需担心过拟合现象;②数据兼容性好,对离散数据和连续数据都可以进行处理,即使数据缺失了部分特征也不影响分类结果;③抗噪声能力强;④算法容易实现,效率高;⑤可以并行化处理;
S3:采集线路通道激光点云数据和杆塔台账数据,并对激光点云数据进行预处理,提取出地面点云以及杆塔和电力线点云,将剩余激光点云数据作为目标点云;流程如图7所示;
由于输电线路的特殊性,激光点云数据成条带状显示,而通常情况下对与输电线路点云数据的处理需要参照杆塔台账信息进行分档裁剪,而分档裁剪既可以减少同时处理的数据量,也可以将分档裁剪的结果数据进行并行处理提高数据处理效率;将分档裁剪的结果进行点云滤波处理提取分离出地面点,并参照现有的针对输电线路点云分类的算法提取分离出杆塔及电力线的点云数据,剩余部分的点云数据即是本发明中的点云目标对象;
S31:按照杆塔给定的杆塔台账数据进行输电线路通道激光点云数据分档裁剪;
S32:激光点云数据预处理为点云去噪:
选择统计滤波器用于去除明显的离群点,离群点特征在空间中分布稀疏,定义某处点云小于某个密度,既点云无效;计算每个点到其最近的k个点的平均距离,而点云中所有的点的距离应构成高斯分布,根据给定的均值及方差可以剔除方差之外的点。
S321:预设无效密度值,将小于无效密度值的点云判定为无效点云,并进行删除;
S321:遍历剩余点云,计算每个点与其最近的k个临近点之间的平均距离;
S322:计算所有平均距离的均值μ与标准差σ,获得距离阈值dmax,表示为dmax=μ+α×σ,α是一个常数,为比例系数;
S323:再次遍历剩余点云,剔除与k个临近点的平均距离大于距离阈值dmax的点云;
S33:地面点分离;
选择不规则三角网进行地面点云提取,该方法将点云空间划分为规则格网,选择格网中的最低点作为地面点云,并构成三角网,通过判断非地面点云与所在三角形的距离和角度是否满足所设阈值从而提取并分离地面点云;某一点云距离处于距离阈值范围内,同时角度处于角度阈值范围内时,则属于地面点云,将其提取出来;
S34:电力设施分离;根据提取出的地面点云,按照点云高度特征及欧式距离聚类法,以及通过RANSAC算法提取分离出电力设施点云,即杆塔和电力线点云,并将剩余激光点云数据作为地物自动识别的目标点云;
根据输电线路的特性,电力线、金具、绝缘子等均高于地面地物,依照点云高度特征及欧式距离聚类法粗提取分离出电力设施,通过RANSAC算法提取分离出未识别的电力设施(杆塔),从而完全提取分离出电力设施(杆塔、电力线、绝缘子、金具等),剩余点云数据即是本发明中地物自动识别的目标点云;
S4:将影像分类结果作为约束条件进行点云分割形成二维特征信息高一致性的点集,即通过分类结果将激光点云按照范围分割成分别具有植被、道路、建筑、水体的基础属性的点云集合;为提高处理效率,将各个点云集合打包成任务下发给不同的子进程进行并行处理,在每一个子进程中基于随机森林算法进行精细化分类,子进程分类结束后将分类后的结果进行合并,得到最终的激光点云地物识别分类结果,当面对海量数据处理时,可选择分布式计算的方式来提高数据处理效率;流程如图8所示。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (7)

1.一种融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,包括以下步骤:
步骤1:采集线路通道正射影像数据,并进行预处理,获得修正正射影像;
步骤2:采用随机森林算法对所述修正正射影像进行识别分类,获得正射影像分类结果;
步骤3:采集线路通道激光点云数据和杆塔台账数据,并对所述激光点云数据进行预处理,提取出地面点云以及杆塔和电力线点云,将剔除地面点云、杆塔和电力线点云的所述激光点云数据作为目标点云;
步骤4:将正射影像分类结果作为约束条件对目标点云进行点云分割,获得粗分类结果,并采用随机森林算法对所述粗分类结果进行精细分类,获得点云识别结果。
2.根据权利要求1所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,所述步骤1中,对线路通道正射影像数据进行的预处理包括匀光匀色、修正阴影及遮蔽;修正阴影及遮蔽处理包括基于光照函数分析对彩色影像阴影区域信息进行增强,采用基于纹理匹配的影像缺损信息补偿方法对增强后的影像进行补偿修正;
采用自适应全局到局部颜色平衡方法对正射影像数据进行匀光匀色处理过程包括:
步骤111:对正射影像数据计算重叠区域色彩信息;
步骤112:根据重叠区域色彩信息构建色彩校正模型;
步骤113:利用色彩校正模型对正射影像数据进行优化,获得全局优化结果;
步骤114:对全局优化结果进行影像检测,确定影像检测窗口大小;
步骤115:进行分块色调信息统计;
步骤116:计算逐像素色调校正参数;
步骤117:进行Gamma变换逐像素色彩调整,获得匀光匀色结果;
基于光照函数分析对彩色影像阴影区域信息进行增强的具体过程为:
步骤121:将影像从RGB颜色空间转换到包含亮度信息的HSI颜色空间;
步骤122:对亮度信息值依次进行数学形态学的开运算和闭运算,得到影像亮度低频成分;
步骤123:对影像亮度低频成分作阈值处理和带条件的腐蚀运算,分别获得阴影区域和非阴影区域;
步骤124:在RGB颜色空间中通过亮度信息对阴影区域中的R、G、B分量分别进行调整,实现阴影区域信息增强;
采用基于纹理匹配的影像缺损信息补偿方法对增强后的影像进行补偿修正的具体过程为:
步骤131:从整张影像信息缺失部分四周的任意一个像素开始;
步骤132:在像素位置构建一个邻域区块,以邻域区块为基础模板在整张影像中搜寻与邻域区块纹理最匹配的对应区域,将对应区域一侧的某个像素的值赋给邻域区块一侧的对应像素;
步骤133:选取信息缺失部分四周的下一像素,并返回所述步骤32,且选取的像素由边缘逐渐向内部推进,直至信息缺失部分全部得到补偿,获得修正正射影像。
3.根据权利要求1所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,所述步骤2中具体实现过程包括:
步骤21:将人工选取和现场采集的分类类型的特征信息数据,以及历史数据集中的分类类型的特征信息数据构成原始训练样本集,从原始训练样本集中利用bootstrap抽样抽取K个样本;
步骤22:根据抽取的K个样本构建K个决策树模型,组成了随机森林分类器;
步骤23:采用随机森林分类器对修正正射影像进行分类,得到K种分类结果,依据K种分类结果对每个记录进行投票表决,获得正射影像分类结果。
4.根据权利要求1所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,所述步骤3中对激光点云数据预处理包括:
步骤31:按照杆塔给定的杆塔台账数据进行输电线路通道激光点云数据分档裁剪;
步骤32:采用统计滤波器对分档裁剪的激光点云数据进行去噪处理;
步骤33:采用不规则三角网对去噪处理后的激光点云数据进行地面点云提取;
步骤34:根据提取出的地面点云,按照点云高度特征及欧式距离聚类法,以及通过RANSAC算法提取分离出电力设施点云,并将剩余激光点云数据作为地物自动识别的目标点云。
5.根据权利要求4所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,步骤32去噪过程为:
步骤321:预设无效密度值,将小于所述无效密度值的点云判定为无效点云,并进行删除;
步骤321:遍历剩余点云,计算每个点与其最近的k个临近点之间的平均距离;
步骤322:计算所有平均距离的均值μ与标准差σ,获得距离阈值dmax,表示为dmax=μ+α×σ,α是一个常数,为比例系数;
步骤323:再次遍历剩余点云,剔除与k个临近点的平均距离大于距离阈值dmax的点云。
6.根据权利要求4所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,步骤33中将激光点云数据构成的点云空间划分为规则格网,选择格网中的最低点作为地面点云,并构成三角网;通过判断非地面点云与所述三角网的距离和角度是否同时满足预设的距离阈值和角度阈值来提取并分离地面点。
7.根据权利要求1所述的融合线路通道正射影像的激光点云地物自动识别方法,其特征在于,所述步骤4具体包括:
步骤41:将正射影像分类结果作为约束条件对目标点云进行点云分割,形成若干点云集合;
步骤42:并行处理每个点云集合,采用随机森林算法进行精细化分类,对应获得若干精细分类结果;
步骤43:合并所有精细分类结果,获得点云识别结果。
CN202210508286.9A 2022-05-10 2022-05-10 融合线路通道正射影像的激光点云地物自动识别方法 Pending CN114842262A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210508286.9A CN114842262A (zh) 2022-05-10 2022-05-10 融合线路通道正射影像的激光点云地物自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210508286.9A CN114842262A (zh) 2022-05-10 2022-05-10 融合线路通道正射影像的激光点云地物自动识别方法

Publications (1)

Publication Number Publication Date
CN114842262A true CN114842262A (zh) 2022-08-02

Family

ID=82570645

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210508286.9A Pending CN114842262A (zh) 2022-05-10 2022-05-10 融合线路通道正射影像的激光点云地物自动识别方法

Country Status (1)

Country Link
CN (1) CN114842262A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912202A (zh) * 2023-07-13 2023-10-20 中国中医科学院眼科医院 一种医用高值耗材管理方法和系统
CN117541799A (zh) * 2024-01-09 2024-02-09 四川大学 基于在线随机森林模型复用的大规模点云语义分割方法
CN117705067A (zh) * 2023-12-06 2024-03-15 中铁第四勘察设计院集团有限公司 一种基于多源测绘数据的通防管线勘测方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912202A (zh) * 2023-07-13 2023-10-20 中国中医科学院眼科医院 一种医用高值耗材管理方法和系统
CN116912202B (zh) * 2023-07-13 2024-01-30 中国中医科学院眼科医院 一种医用高值耗材管理方法和系统
CN117705067A (zh) * 2023-12-06 2024-03-15 中铁第四勘察设计院集团有限公司 一种基于多源测绘数据的通防管线勘测方法及系统
CN117541799A (zh) * 2024-01-09 2024-02-09 四川大学 基于在线随机森林模型复用的大规模点云语义分割方法
CN117541799B (zh) * 2024-01-09 2024-03-08 四川大学 基于在线随机森林模型复用的大规模点云语义分割方法

Similar Documents

Publication Publication Date Title
CN112489212B (zh) 一种基于多源遥感数据的建筑物智能化三维测图方法
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN109961049B (zh) 一种复杂场景下香烟品牌识别方法
CN107862667B (zh) 一种基于高分辨率遥感影像的城市阴影检测与去除方法
CN114842262A (zh) 融合线路通道正射影像的激光点云地物自动识别方法
Lee et al. Fusion of lidar and imagery for reliable building extraction
CN105718945B (zh) 基于分水岭和神经网络的苹果采摘机器人夜间图像识别方法
CN111027547A (zh) 一种针对二维图像中的多尺度多形态目标的自动检测方法
CN111027446B (zh) 一种高分辨率影像的海岸线自动提取方法
CN108564588B (zh) 一种基于深度特征和图割法的建成区自动提取方法
CN111222511B (zh) 一种红外无人机目标检测方法及系统
US11804025B2 (en) Methods and systems for identifying topographic features
CN112200083B (zh) 一种基于多元高斯混合模型的机载多光谱LiDAR数据分割方法
CN110268442B (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
Zhang et al. Filtering photogrammetric point clouds using standard lidar filters towards dtm generation
CN111931559A (zh) 一种输电线路走廊区域内树种的分类方法
CN115690081A (zh) 一种树木计数方法、系统、存储介质、计算机设备及终端
CN113313107A (zh) 一种斜拉桥缆索表面多类型病害智能检测和识别方法
CN115841633A (zh) 一种电力塔和电力线关联矫正的电力塔和电力线检测方法
CN115019163A (zh) 基于多源大数据的城市要素识别方法
CN114283213A (zh) 联合LiDAR点云与光学图像的房屋自适应矢量化方法
CN113705433A (zh) 一种基于可见光航拍图像的电力线检测方法
CN117152172A (zh) 一种基于点云数据的输电线路杆塔和电力线提取方法
CN116994029A (zh) 一种用于多源数据的融合分类方法及系统
CN115690513A (zh) 一种基于深度学习的城市行道树种类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination