CN113781431B - 基于城市点云数据的绿视率计算方法 - Google Patents

基于城市点云数据的绿视率计算方法 Download PDF

Info

Publication number
CN113781431B
CN113781431B CN202111059263.6A CN202111059263A CN113781431B CN 113781431 B CN113781431 B CN 113781431B CN 202111059263 A CN202111059263 A CN 202111059263A CN 113781431 B CN113781431 B CN 113781431B
Authority
CN
China
Prior art keywords
point
point cloud
green
ground
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111059263.6A
Other languages
English (en)
Other versions
CN113781431A (zh
Inventor
唐丽玉
何建国
彭巍
黄洪宇
陈崇成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202111059263.6A priority Critical patent/CN113781431B/zh
Publication of CN113781431A publication Critical patent/CN113781431A/zh
Application granted granted Critical
Publication of CN113781431B publication Critical patent/CN113781431B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出基于城市点云数据的绿视率计算方法,包括以下步骤;步骤S0:把点云数据分割为地面点云和非地面点云;步骤S1:提取非地面点云每个实体的每层中心位置,判断点云空间关系,进而对点云进行实体分割;步骤S2:对步骤S1的实体分割结果进行分类,提取绿色植物的点云;步骤S3:利用超体素几何特征的分类优化方法,以超体素作为分类基元,以几何特征作为分类特征,对植物中的枝干和其它地物进行进一步的去除;步骤S4:通过分类优化后的绿色植物点云数据来模拟人的视觉感知,得出每个观测点的绿视率;本发明利用点云三维空间特性,可计算任意视角任意角度的绿视率,更客观、灵活表达城市绿色空间的视觉感受,为城市绿化评估提供方法。

Description

基于城市点云数据的绿视率计算方法
技术领域
本发明涉及测绘技术领域,尤其是基于城市点云数据的绿视率计算方法。
背景技术
城市绿地具有生态、文化、社会和审美等多重功能,逐渐受到城市规划者与管理者的关注,园林绿地规划设计方案的生态评估成为必然趋势。三维绿量和绿视率将是评估城市绿化空间的潜在指标,三维绿量侧重于衡量绿地生态功能,绿视率则侧重于衡量城市居住环境感知绿地空间的绿化环境。绿视率被定义为人的视野中绿色所占的百分比,是一种模拟人的视觉来量化人的心理感受的三维绿化指标。确定人眼视野范围是计算绿视率的必要条件。经研究证明,假设头部固定为一个方向,人眼视野范围水平方向为80°-160°,在垂直方向上为130°,水平与垂直方向均以60°为清晰视野范围(肖希等,2018)。
现有的绿视率计算方法主要有基于问卷调查的目视解译评估绿视率的方法、基于图像的RGB图谱信息计算绿视率的方法、基于语义分割神经网络识别绿色植物计算绿视率的方法。1977年,Downs等人通过调查、访谈、审计等研究方法,对居民关于不同城市绿化街道层次的态度、看法等进行统计研究,以此来评估街道的绿化感受,但这样的问卷调查不仅存在着主观感受,而且由于部分居民未处于实地而导致了判断偏差;随后,有学者将评估者迁移至“真实的”位置,并让他们评估所在位置的心理感受,这是一种进行主观评价的较为直接的方法,然而,这种方法虽然有着一定的准确性,但对不同的评价者总是主观的,而且招募和护送评估员至观测地点也是十分耗费时间,甚至难以执行的。Yang等人(2009)通过计算绿视率,利用彩色图片评价城市街道周边绿色植被的可见性来代表行人对街道周边绿化的感觉。他们利用相机在选定的研究区域内每个街道的交叉口分别于四个方向(东、南、西、北)拍摄一张照片。对拍摄的照片进行绿色植被区域的提取,从而进一步利用公式计算出绿视率。近年来,研究人员开始使用街景视图来代替实地收集图像。Li等人(2015)使用谷歌街景视图(GSV)获取街景图像来取代实地图像,在研究中采用了水平方向使用六个方向(0°(北)、60°、120°、180°、240°、300°、360°)以及垂直方向采用三个方向(-45°、0°、45°)的方式来获取一个视点位置的十八个方向的图像,从而保证可以完全覆盖观测者的球面视野,然后利用图像的光谱信息提取出图像的绿色植被区域,最后利用公式计算出绿视率。Yu等人(2018)基于百度街景视图提出了BGVI(Baidu Green View Index),并利用BGVI对泰安地区的街道绿化进行了评价分析。尽管该方法可以快速获取图像,使工作量大量减少、工作效率大大提高,但是由于街景图像拍摄时间并不一致,且还有许多区域无法获取到其街景图像,导致计算出的绿视率针对性较差,还有随机性太大,存在一定的不确定性。张炜等人(2019)指出拍摄的照片依赖于照片的拍摄角度以及拍摄时镜头焦距,拍摄时会存在一定的主观性,从而对拍摄结果产生一定的影响,而全景影像摄影技术可以捕捉相机环绕360°的景象,相比于普通照片,全景拍摄更能客观反映人在空间位置的真实感受,通过全景相机获取球面全景照片,利用基于语义分割神经网络对照片中的植被区域自动识别,最后对全景绿视率进行计算。
移动三维激光扫描技术(MLS)是一种集成了多种传感器的测量系统,其凭借能自动、快速、精确、连续地获取三维结构信息的优势,在三维城市建模、城市林木提取以及城市绿化量测算等方面得到了广泛应用。MLS能够在短时间内自动获取区域内道路两侧的三维结构信息,经过处理后,可以得到道路的任何位置任何角度内的三维信息,可以精确模拟出居民在道路上任何视点任意视角上所看到的景象,这对于计算绿视率有着重要意义。另一方面,随着地理信息的快速发展,二维模型已经无法满足城市规划要求,三维模型已应用于城市规划各个阶段,相比于图像,基于点云计算绿视率更符合城市规划要求。
利用城市点云估算绿视率,需要把植物点云提取出来,涉及点云数据的分割与分类。
发明内容
本发明提出基于城市点云数据的绿视率计算方法,利用点云三维空间特性,可计算任意视角任意角度的绿视率,更客观、灵活表达城市绿色空间的视觉感受,为城市绿化评估提供方法。
本发明采用以下技术方案。
基于城市点云数据的绿视率计算方法,包括以下步骤;
步骤S0:通过变尺度拟合地面三角网提取地面点的算法,把侧视激光点云数据分割为地面点云和非地面点云;
步骤S1:对非地面点云采用基于DBSCAN的分层点云分割算法,以其每个对象在垂直方向上每层点云中心的平面位置分布一致性,使用DBSCAN聚类方法提取每个实体的每层中心位置,然后基于每个实体垂直方向的连续性判断点云空间关系,进而对点云进行实体分割;
步骤S2:利用PointNet++深度学习网络对步骤S1的实体分割结果进行分类,提取绿色植物的点云;
步骤S3:基于植物冠层点云、枝干点云以及人工建筑点云的几何特征差异性,利用超体素几何特征的分类优化方法,以超体素作为分类基元,以几何特征作为分类特征,对植物中的枝干和其它地物进行进一步的去除,优化提取绿色植物点云的精度;
步骤S4:按人眼在观测点处的视角,通过分类优化后的绿色植物点云数据来模拟人的视觉感知,根据人眼视觉范围,从水平和垂直方向将可视域分割成子视角,根据子视角中距离观察点最近的点的地物类型为绿色植物的子视角数与子视角总数的比值,得出每个观测点的绿视率。
所述步骤S0中利用变尺度拟合地面三角网,从而对点云进行地面滤波需要多次迭代滤波,当地面点与非地面点明显分割时,结束迭代。
所述步骤S2中利用PointNet++深度学习网络实现对实体进行分类的具体步骤如下:
步骤S21:对公开的参考点云数据集Sydney、Semantic3d、Paris-Lille-3D进行预处理;
步骤S22:根据步骤S21的预处理结果制作训练集、测试集;从参考点云数据集中获得对象总个数,如果出现建筑物对象数多于植物对象数的情况,为了保证数据的平衡性,训练时选择随机去除部分建筑对象和其它对象,并将所有对象按7:3的比例随机分配至训练集、测试集中;
步骤S23:进行PointNet++模型训练,具体为:首先设置超参数,超参数包括学习率、批次样本大小、权重衰退系数、丢弃法比率。权重衰退系数设为0.0005,丢弃法比率设为0.5;学习率和批次样本大小的设置通过调整参数值,通过多次的训练,以分类结果的准确率、精确率、召回率和F1-score作为评价标准结果,寻找最优的模型参数;
步骤S24:根据最优的模型参数,导入基于DBSCAN分层分割好的点云数据进行推理学习,完成对植物、建筑物和其它地物的分类,从而提取绿色植物点云。
所述步骤S21中,Paris-Lille-3D数据集和Semantic3d数据集预处理的具体步骤如下:
步骤S211:将数据集的所有点云按标签分成建筑物、植物、其它地物三类;
步骤S212:利用基于DBSCAN的分层点云分割算法对每个标签所对应的点云进行分割,进而基于分割结果给点云中每个点赋予对象标识和类别标签。
所述步骤S3的具体实现步骤如下:
步骤S31:点云体素化:即按照预设的体素边长将点云区域分成多个矩形体区域,将每个区域内的所有点作为一个整体的体素;
步骤S32:构建超体素:即利用体素的强度信息、空间特征以及局部几何特征点快速特征直方图构成特征向量的聚类规则,从多个种子点出发,基于体素的邻接性同时向外生长,直到所有体素均分割为超体素,停止生长;
步骤S33:根据点集协方差矩阵的特征值以及特征向量的几何特征差异,提取出线状分布、面状分布以及离散分布的点云数据,从而去除绿色植物点云中部分枝干点云。
所述步骤S33中,点云几何特征差异的提取过程为:计算出某一区域点集协方差矩阵的线状分布、面状分布以及离散分布的特征值为(λ0、λ1、λ2),当λ10较小时,该区域可评估为包括树木枝干或电线杆的线性分布地物,当λ21较小时,该区域可评估为包括建筑物表面或地面的面状分布地物;当需提取出特征明显的绿色植物冠层以及灌木等离散分布地物,设定t10为0.1和t21为0.1作为λ10和λ21的阈值,即线状地物和面状地物的约束参数,当λ10和λ21小于阈值时则认为该区域为线性分布地物以及面状分布地物。
所述步骤S4的具体实现步骤如下:
步骤S41:当人在行走场景中且视野方向无法确定时,将水平方向的视角设置为360°,垂直方向的视角设置为向上30°,向下30°,以及人平均身高和在车辆中的平均高度,将观测点的位置高度设置为1.3m;
步骤S42:以类似中心投影的方式将视角按照预设的角度进行分割;具体为:假设观察点位于O点,则某一点A以其与观察点O的连线OA在xoy平面的投影OA1与x轴正方向的夹角作为A点的水平角θ,以其与观察点O的连线OA在xoz平面的投影OA2与z轴负方向的夹角作为视线的垂直角θ和/>的计算公式为:
设定水平视角为Δθ,垂直视角为水平、垂直角分割角度分别为/> 则可以分割出ViewW×ViewH个子视角,用于对应图像中的一个像素,其中:
将点云中所有点按照公式三判断属于的子视角,并获取每个视角中距离观察点最近的点所属的地物类别为绿色植物的点云,作为可视子视角;
其中,(w、h)为所处子视角的位置,(θi)为第i点的水平角和垂直角,(θmin、/>)为设定的最小水平角以及垂直角,另外(θmax、/>)为最大水平角以及垂直角,当某一点水平角或垂直角不在最小水平角(垂直角)与最大水平角(垂直角)之间,则认为该点不在视野范围内;
步骤S43:获取了所有子视角可以看到的地物后,对所有子视角进行整合,得出该观测点的绿视率,其计算公式为:绿视率=视角内最近点归类为绿色植物的子视角数量/视角内总的子视角数量,某一观测点的绿视率GVI以公式表述为
其中,NGreen为看到绿色植物的子视角数量,即视角内最近点归类为绿色植物的子视角数量。
步骤S0中,所述侧视激光点云数据通过移动激光扫描仪获取,在运行变尺度拟合地面三角网地面滤波算法分割数据时,直到目视地面点分割完整为止。
步骤S1的分层点云分割算法中,根据点云密度特征,设置分层高度为H,其第一次DBSCAN聚类算法的中点邻域半径为Eps2,最少点个数为MinPts2;对每一层中聚类出的簇计算每个簇的中心点,计算方法为:
其中(xcenter,ycenter)为簇C的中心点坐标,(yi,yi)为簇C中第i个点的坐标,NC为簇C中所包含点的个数;
第二次DBSCAN聚类参数设置为Eps2、MinPts2;将每层点云获取的中心点合并在一起,通过DBSCAN对中心点进行聚类,将聚类出的每一簇视为一个实体s,将簇中的每一个中心点center视为一个实体点,将每个实体点对应的簇称为实体簇;
进行实体簇分割,即是将位置簇替代为该主体层缺失点云的位置的簇,其获取步骤为:当第n个主体第l层有缺失时,从第l层同时向上向下搜索,当搜索到某一层时该主体在该层只包含一个主体簇,且主体簇经判定只含有一个物体,则该层的主体簇为合适的位置簇;
遍历每一主体的每一层,判断每一层是否存在主体点;如果主体中存在一个以上的主体点,则将与主体相对应的点加入到该主体簇中;如果某一层不存在主体点,则获取位置簇与该存在缺失的主体层中每个簇分别进行一次AABB包围盒碰撞检测,如果检测与其中某一个簇检测通过,则认为在该簇中包含了该主体所对应的物体,将该主体所对应的物体加入该簇的包含物体队列中,以达到最终每个点归属相应的主体的目的。
本发明所述方法为半自动或者自动执行的处理方法,包括基于DBSCAN的分层点云分割方法(L-DBSCAN):首先采用变尺度拟合地面三角网分离地面点以及非地面点;非地面点分割过程,首先按照一定的高度将点云垂直方向进行分层,然后对每一层在XOY平面上的投影点进行DBSCAN聚类,获取每个聚类的中心点,然后将所有聚类出的中心点投影至XOY平面,利用DBSCAN聚类出每一个物体主体,继而对每个主体每层进行判断其主体点是否存在,并判断每个簇中包含的物体数,最后针对存在多个物体的簇再进行分割处理。
在国内外绿视率的相关研究中,均以二维图像作为数据基础。本发明以三维点云数据作为基础,提取点云数据中的绿色植物,模拟人眼视角,最终以三维空间视角中绿色植物所占的比例作为绿视率。基于点云数据完成绿视率的计算从三维数据出发,契合城市规划要求,为城市规划和绿化发展提供了依据。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
附图1为本发明的观察点处的水平角和垂直角示意图;
附图2为本发明方法具体实施案例的技术流程示意图;
附图3为本发明中地面点云数据与非地面点云数据结果示意图;
附图4为本发明中基于DBSCAN的分层点云分割后的结果示意图;
附图5为本发明中基于PointNet++网络模型分类结果示意图;
附图6为实施例中超体素种子点搜索半径Rseed不同取值下的优化结果;
附图7为实施例中t10不同取值下的优化结果;
附图8为基于超体素分类优化后的结果示意图;
附图9为人眼视角范围下计算绿视率的结果示意图;
附图10为观测点绿视率分布示意图。
具体实施方式
如图所示,基于城市点云数据的绿视率计算方法,包括以下步骤;
步骤S0:通过变尺度拟合地面三角网提取地面点的算法,把侧视激光点云数据分割为地面点云和非地面点云;
步骤S1:对非地面点云采用基于DBSCAN的分层点云分割算法,以其每个对象在垂直方向上每层点云中心的平面位置分布一致性,使用DBSCAN聚类方法提取每个实体的每层中心位置,然后基于每个实体垂直方向的连续性判断点云空间关系,进而对点云进行实体分割;
步骤S2:利用PointNet++深度学习网络对步骤S1的实体分割结果进行分类,提取绿色植物的点云;
步骤S3:基于植物冠层点云、枝干点云以及人工建筑点云的几何特征差异性,利用超体素几何特征的分类优化方法,以超体素作为分类基元,以几何特征作为分类特征,对植物中的枝干和其它地物进行进一步的去除,优化提取绿色植物点云的精度;
步骤S4:按人眼在观测点处的视角,通过分类优化后的绿色植物点云数据来模拟人的视觉感知,根据人眼视觉范围,从水平和垂直方向将可视域分割成子视角,根据子视角中距离观察点最近的点的地物类型为绿色植物的子视角数与子视角总数的比值,得出每个观测点的绿视率。
所述步骤S0中利用变尺度拟合地面三角网,从而对点云进行地面滤波需要多次迭代滤波,当地面点与非地面点明显分割时,结束迭代。
所述步骤S2中利用PointNet++深度学习网络实现对实体进行分类的具体步骤如下:
步骤S21:对公开的参考点云数据集Sydney、Semantic3d、Paris-Lille-3D进行预处理;
步骤S22:根据步骤S21的预处理结果制作训练集、测试集;从参考点云数据集中获得对象总个数,如果出现建筑物对象数多于植物对象数的情况,为了保证数据的平衡性,训练时选择随机去除部分建筑对象和其它对象,并将所有对象按7:3的比例随机分配至训练集、测试集中;
步骤S23:进行PointNet++模型训练,具体为:首先设置超参数,超参数包括学习率、批次样本大小、权重衰退系数、丢弃法比率。权重衰退系数设为0.0005,丢弃法比率设为0.5;学习率和批次样本大小的设置通过调整参数值,通过多次的训练,以分类结果的准确率、精确率、召回率和F1-score作为评价标准结果,寻找最优的模型参数;
步骤S24:根据最优的模型参数,导入基于DBSCAN分层分割好的点云数据进行推理学习,完成对植物、建筑物和其它地物的分类,从而提取绿色植物点云。
所述步骤S21中,Paris-Lille-3D数据集和Semantic3d数据集预处理的具体步骤如下:
步骤S211:将数据集的所有点云按标签分成建筑物、植物、其它地物三类;
步骤S212:利用基于DBSCAN的分层点云分割算法对每个标签所对应的点云进行分割,进而基于分割结果给点云中每个点赋予对象标识和类别标签。
所述步骤S3的具体实现步骤如下:
步骤S31:点云体素化:即按照预设的体素边长将点云区域分成多个矩形体区域,将每个区域内的所有点作为一个整体的体素;
步骤S32:构建超体素:即利用体素的强度信息、空间特征以及局部几何特征点快速特征直方图构成特征向量的聚类规则,从多个种子点出发,基于体素的邻接性同时向外生长,直到所有体素均分割为超体素,停止生长;
步骤S33:根据点集协方差矩阵的特征值以及特征向量的几何特征差异,提取出线状分布、面状分布以及离散分布的点云数据,从而去除绿色植物点云中部分枝干点云。
所述步骤S33中,点云几何特征差异的提取过程为:计算出某一区域点集协方差矩阵的线状分布、面状分布以及离散分布的特征值为(λ0、λ1、λ2),当λ10较小时,该区域可评估为包括树木枝干或电线杆的线性分布地物,当λ21较小时,该区域可评估为包括建筑物表面或地面的面状分布地物;当需提取出特征明显的绿色植物冠层以及灌木等离散分布地物,设定t10为0.1和t21为0.1作为λ10和λ21的阈值,即线状地物和面状地物的约束参数,当λ10和λ21小于阈值时则认为该区域为线性分布地物以及面状分布地物。
所述步骤S4的具体实现步骤如下:
步骤S41:当人在行走场景中且视野方向无法确定时,将水平方向的视角设置为360°,垂直方向的视角设置为向上30°,向下30°,以及人平均身高和在车辆中的平均高度,将观测点的位置高度设置为1.3m;
步骤S42:以类似中心投影的方式将视角按照预设的角度进行分割;具体为:假设观察点位于O点,则某一点A以其与观察点O的连线OA在xoy平面的投影OA1与x轴正方向的夹角作为A点的水平角θ,以其与观察点O的连线OA在xoz平面的投影OA2与z轴负方向的夹角作为视线的垂直角θ和/>的计算公式为:
设定水平视角为Δθ,垂直视角为水平、垂直角分割角度分别为/> 则可以分割出ViewW×ViewH个子视角,用于对应图像中的一个像素,其中:
将点云中所有点按照公式三判断属于的子视角,并获取每个视角中距离观察点最近的点所属的地物类别为绿色植物的点云,作为可视子视角;
其中,(w、h)为所处子视角的位置,(θi)为第i点的水平角和垂直角,(θmin、/>)为设定的最小水平角以及垂直角,另外(θmax、/>)为最大水平角以及垂直角,当某一点水平角或垂直角不在最小水平角(垂直角)与最大水平角(垂直角)之间,则认为该点不在视野范围内;
步骤S43:获取了所有子视角可以看到的地物后,对所有子视角进行整合,得出该观测点的绿视率,其计算公式为:绿视率=视角内最近点归类为绿色植物的子视角数量/视角内总的子视角数量,某一观测点的绿视率GVI以公式表述为
其中,NGreen为看到绿色植物的子视角数量,即视角内最近点归类为绿色植物的子视角数量。
步骤S0中,所述侧视激光点云数据通过移动激光扫描仪获取,在运行变尺度拟合地面三角网地面滤波算法分割数据时,直到目视地面点分割完整为止。
步骤S1的分层点云分割算法中,根据点云密度特征,设置分层高度为H,其第一次DBSCAN聚类算法的中点邻域半径为Eps2,最少点个数为MinPts2;对每一层中聚类出的簇计算每个簇的中心点,计算方法为:
其中(xcenter,ycenter)为簇C的中心点坐标,(yi,yi)为簇C中第i个点的坐标,NC为簇C中所包含点的个数;
第二次DBSCAN聚类参数设置为Eps2、MinPts2;将每层点云获取的中心点合并在一起,通过DBSCAN对中心点进行聚类,将聚类出的每一簇视为一个实体s,将簇中的每一个中心点center视为一个实体点,将每个实体点对应的簇称为实体簇;
进行实体簇分割,即是将位置簇替代为该主体层缺失点云的位置的簇,其获取步骤为:当第n个主体第l层有缺失时,从第l层同时向上向下搜索,当搜索到某一层时该主体在该层只包含一个主体簇,且主体簇经判定只含有一个物体,则该层的主体簇为合适的位置簇;
遍历每一主体的每一层,判断每一层是否存在主体点;如果主体中存在一个以上的主体点,则将与主体相对应的点加入到该主体簇中;如果某一层不存在主体点,则获取位置簇与该存在缺失的主体层中每个簇分别进行一次AABB包围盒碰撞检测,如果检测与其中某一个簇检测通过,则认为在该簇中包含了该主体所对应的物体,将该主体所对应的物体加入该簇的包含物体队列中,以达到最终每个点归属相应的主体的目的。
实施例:
以城市道路场景为例,运用本发明的方法进行基于城市点云绿视率计算的过程如下:
1、点云获取及其预处理
利用移动激光扫描仪获取实验区的侧视点云数据集,在Visual Studio 2013开发工具中运行变尺度拟合地面三角网地面滤波算法,直到目视地面点分割完整为止。算法参数设置为格网大小size=2.0,距离阈值threshold=0.5,迭代次数iteration=2。实验区原始数据和获取的地面滤波结果可视化如图3所示。
2、基于DBSCAN分层分割方法分割点云数据
本实施例根据实验区域点云密度特征,设置分层高度为H,第一次DBSCAN聚类算法中点的邻域半径为Eps2,最少点个数为MinPts2。对每一层中聚类出的簇计算每个簇的中心点,计算方法为:
其中(xcenter,ycenter)为簇C的中心点坐标,(yi,yi)为簇C中第i个点的坐标,NC为簇C中所包含点的个数。
第二次DBSCAN聚类参数设置为Eps2、MinPts2。将每层点云获取的中心点合并在一起,通过DBSCAN对中心点进行聚类,将聚类出的每一簇视为一个实体s,将簇中的每一个中心点center视为一个实体点,将每个实体点对应的簇称为实体簇。
实体簇分割是将位置簇替代为该主体层缺失点云的位置的簇,其获取步骤为:当第n个主体第l层有缺失时,从第l层同时向上向下搜索,当搜索到某一层时该主体在该层只包含一个主体簇,且主体簇经判定只含有一个物体,则该层的主体簇为合适的位置簇。
遍历每一主体的每一层,判断每一层是否存在主体点;如果主体中存在一个以上的主体点,则将与主体相对应的点加入到该主体簇中。如果某一层不存在主体点,则获取位置簇与该存在缺失的主体层中每个簇分别进行一次AABB包围盒碰撞检测,如果检测与其中某一个簇检测通过,则认为在该簇中包含了该主体所对应的物体,将该主体所对应的物体加入该簇的包含物体队列中。最终每个点归属相应的主体,分割后的可视化结果如图4所示。
3、点云分类
通过对PointNet++网络模型的学习率、批次样本大小进行调整,进行相同次数的训练,以模型的准确率、精确率、召回率、F1-score作为评价标准,最后选择表现最好的模型作为最终模型。其中,训练所使用的学习率调整方法为Adam优化器,因此,学习率主要比较的值为0.001、0.005、0.01。另外由于点云数据量太大,批次样本大小无法超过16,因此批次样本大小比较的值为4、8、12。
如表1所示,当学习率为0.001时,批次样本大小为12时,准确率、精确率以及F1-score均达到了最大值,当批次样本大小不变时,学习率越大,准确度、精确度、F1-分数均有着明显的下降,这是因为初始学习率太大,梯度在最小值附近徘徊,难以达到最小值,而在这种情况下,学习率越小越接近最小值。当学习率一定时,批次样本大小的改变没有对精度产生较大的影响,但是当大于12的批次样本大小会导致内存超限,无法训练,另外,当批次样本大小越小时,训练速度会随之增加。最后,以学习率lr=0.001,批次样本大小batch_size=12作为最优参数完成对分割好的点云的分类任务,其分类结果如图5所示。
表1不同参数下模型精度信息表
4、树冠提取
该实例中超体素种子点搜索半径Rseed以及判断几何分布特征的两个阈值t10(t10表示λ10的比值),t21(t21表示λ21的比值),Rseed影响着大部分构建的超体素的大小,Rseed太小会导致构建的超体素太小,获取的几何特征无法表示局部几何分布,Rseed太大则会导致构建的超体素太大,无法达到优化效果,t10、t21两个阈值太小会使得优化效果不够明显,太大则会导致大量冠层也会被去除。
如图6所示,当Rseed为1.5时,可以清晰看出树木的主干和未被冠层遮住的枝干大部分已被提取,且冠层中被误判为枝干的区域较少,而随着Rseed逐渐变小,枝干识别部分越来越少,而冠层中出现被误判的区域,且大部分区域均为小区域,这是因为Rseed太小会导致构建的超体素太小,而导致该区域计算的几何特征出错而导致误判;随着Rseed逐渐变大,尽管冠层中误判区域变少,但是被识别的枝干也越来越少,在图中主要体现在黄色方框中的细小枝干,出现此现象的原因是构建的超体素变大,部分区域同时包含了枝干和冠层,一般此类超体素均被归类于冠层。
基于t10、t21两个阈值是分别对线状地物和面状地物的约束参数,不同t10优化结果如图7所示,其规律相似,t10是去除枝干的关键参数,因此本发明只讨论了t10对优化结果的影响。在实验中,0.1为t10的最佳参数,当t10小于0.1时,约束过度,会将大量枝干视为冠层部分,而当t10大于0.1时,约束太小,则将部分冠层区域分类为枝干,从而被去除,甚至当t10等于0.3时,冠层的大部分均被视为枝干。t21对优化结果的影响与之相似,而其最佳参数为0.1。
综上,在实验数据上表现最好的参数为(Rseed=1.5、t10=0.1、t21=0.1),该参数下的数据优化结果如图8所示。通过分析讨论可以得出,经过基于超体素几何特征的优化,可以将被分类为植物中的枝干或者被误判的其它地物进行一定的纠正,对下一步的绿视率计算有着较大的帮助。
5、基于点云绿视率计算
(1)观测点设置
本实施例以城市交通绿地为例,观测点可以为人行的高度或车行的高度。本实施例的观测点根据侧视激光点云中图片对应的坐标信息提取采集点云的轨迹数据,由于轨迹数据比较密集,需要对点坐标沿着轨迹方向按一定间隔进行下采样选取观测点坐标以及点云样本索引。下采样方法为:将轨迹数据体素化,每个体素内所有点用一个重心点表示。对于所有体素处理后得到过滤后的点云作为观测点。其中,采样间隔设置为50m,即体素大小为50m,即该路段每50m设置一个观察点,计算相应的绿视率;整条路段各点绿视率的平均值作为该路段的绿视率。
(2)建立分块点云与观测点的关系
整个路段采集的点云数据分块(样本)管理,由于整个点云视图场景数据量较大,如果每次计算某一观测点的绿视率都加载整个场景的数据会极大影响计算效率。本发明采用K近邻搜索方法,获取距离观测点最近的k个观测点对应的点云样本合并成一个合适大小的可视场景,以减少内存开销。该实施例中k设置为10。
(3)视角分割
物体在视网膜上的投影方式并非平行投影,更类似于中心投影,将视角按照一定的角度进行分割,以此代替图像中的按一定边长进行分割,更加符合于视觉模拟的要求。
如图1所示,假设观察点位于O点,则某一点A以其与观察点O的连线(OA)在xoy平面的投影(OA1)与x轴正方向的夹角作为A点的水平角(θ),以其与观察点O的连线(OA)在xoz平面的投影(OA2)与z轴负方向的夹角作为视线的垂直角
其中(θ、)的计算公式为:
设定水平视角为Δθ,垂直视角为水平、垂直角分割角度分别为/>则可以分割出ViewW×ViewH个子视角,其中:
将点云中所有点按照公式十一判断属于的子视角,并获取每个视角中距离观察点最近的点所属的地物类别作为该子视角最后看到的地物。
其中,(w h)为所处子视角的位置,(θi )为第i点的水平角和垂直角,(θmin/>)为设定的最小水平角以及垂直角,另外(θmax/>)为最大水平角以及垂直角,当某一点水平角或垂直角不在最小水平角(垂直角)与最大水平角(垂直角)之间,则认为该点不在视野范围内。该实施例中水平视角范围为θ∈[0°,360°],垂直视角范围为/>水平方向分割角度为0.2°,垂直方向分割角度为0.2°。
根据视角分割可将观测点所看到的场景投影为360°全景图像。首先初始化图像将其置为白底;然后计算观测点到可视点云的距离作为每个点的深度值,最大深度阈值设置为500m,并将深度大于500m的点云舍去,在深度阈值范围内计算出满足点云与观测点之间的水平角和垂直角对应图像中的行列号且深度距离最小的像素位置(即距离观测点最近的点);最后,将该像素赋予点云标签所对应的颜色。
(4)绿视率计算
获取了所有子视角(对应图像中的一个像素)可以看到的地物后,对所有子视角进行整合,可以得出该观测点的绿视率,其计算公式为:
其中,NGreen为看到绿色植物的子视角数量,即视角内最近点归类为绿色植物的子视角数量。绿视率计算结果如图9所示,某一观测点的绿视率(GVI)为30.55%。如图10为福建省福州市仓山区部分路段每个观测点的绿视率分布图。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (8)

1.基于城市点云数据的绿视率计算方法,其特征在于:包括以下步骤;
步骤S0:通过变尺度拟合地面三角网提取地面点的算法,把侧视激光点云数据分割为地面点云和非地面点云;
步骤S1:对非地面点云采用基于DBSCAN的分层点云分割算法,以其每个对象在垂直方向上每层点云中心的平面位置分布一致性,使用DBSCAN聚类方法提取每个实体的每层中心位置,然后基于每个实体垂直方向的连续性判断点云空间关系,进而对点云进行实体分割;
步骤S2:利用PointNet++深度学习网络对步骤S1的实体分割结果进行分类,提取绿色植物的点云;
步骤S3:基于植物冠层点云、枝干点云以及人工建筑点云的几何特征差异性,利用超体素几何特征的分类优化方法,以超体素作为分类基元,以几何特征作为分类特征,对植物中的枝干和其它地物进行进一步的去除,优化提取绿色植物点云的精度;
步骤S4:按人眼在观测点处的视角,通过分类优化后的绿色植物点云数据来模拟人的视觉感知,根据人眼视觉范围,从水平和垂直方向将可视域分割成子视角,根据子视角中距离观察点最近的点的地物类型为绿色植物的子视角数与子视角总数的比值,得出每个观测点的绿视率;
所述步骤S4的具体实现步骤如下:
步骤S41:当人在行走场景中且视野方向无法确定时,将水平方向的视角设置为360°,垂直方向的视角设置为向上30°,向下30°,以及人平均身高和在车辆中的平均高度,将观测点的位置高度设置为1.3m;
步骤S42:以类似中心投影的方式将视角按照预设的角度进行分割;具体为:假设观察点位于O点,则某一点A以其与观察点O的连线OA在xoy平面的投影OA1与x轴正方向的夹角作为A点的水平角θ,以其与观察点O的连线OA在xoz平面的投影OA2与z轴负方向的夹角作为视线的垂直角θ和/>的计算公式为:
设定水平视角为Δθ,垂直视角为水平、垂直角分割角度分别为/> 则可以分割出ViewW×ViewH个子视角,用于对应图像中的一个像素,其中:
将点云中所有点按照公式三判断属于的子视角,并获取每个视角中距离观察点最近的点所属的地物类别为绿色植物的点云,作为可视子视角;
其中,(w、h)为所处子视角的位置,为第i点的水平角和垂直角,/>为设定的最小水平角以及垂直角,另外/>为最大水平角以及垂直角,当某一点水平角或垂直角不在最小水平角(垂直角)与最大水平角(垂直角)之间,则认为该点不在视野范围内;
步骤S43:获取了所有子视角可以看到的地物后,对所有子视角进行整合,得出该观测点的绿视率,其计算公式为:绿视率=视角内最近点归类为绿色植物的子视角数量/视角内总的子视角数量,某一观测点的绿视率GVI以公式表述为
N=ViewW×ViewH (公式四)其中,NGreen为看到绿色植物的子视角数量,即视角内最近点归类为绿色植物的子视角数量。
2.根据权利要求1所述的基于城市点云数据的绿视率计算方法,其特征在于:所述步骤S0中利用变尺度拟合地面三角网,从而对点云进行地面滤波需要多次迭代滤波,当地面点与非地面点明显分割时,结束迭代。
3.根据权利要求1所述的基于城市点云数据的绿视率计算方法,其特征在于:所述步骤S2中利用PointNet++深度学习网络实现对实体进行分类的具体步骤如下:
步骤S21:对公开的参考点云数据集Sydney、Semantic3d、Paris-Lille-3D进行预处理;
步骤S22:根据步骤S21的预处理结果制作训练集、测试集;从参考点云数据集中获得对象总个数,如果出现建筑物对象数多于植物对象数的情况,为了保证数据的平衡性,训练时选择随机去除部分建筑对象和其它对象,并将所有对象按7:3的比例随机分配至训练集、测试集中;
步骤S23:进行PointNet++模型训练,具体为:首先设置超参数,超参数包括学习率、批次样本大小、权重衰退系数、丢弃法比率;权重衰退系数设为0.0005,丢弃法比率设为0.5;学习率和批次样本大小的设置通过调整参数值,通过多次的训练,以分类结果的准确率、精确率、召回率和F1-score作为评价标准结果,寻找最优的模型参数;
步骤S24:根据最优的模型参数,导入基于DBSCAN分层分割好的点云数据进行推理学习,完成对植物、建筑物和其它地物的分类,从而提取绿色植物点云。
4.根据权利要求3所述的基于城市点云数据的绿视率计算方法,其特征在于:所述步骤S21中,Paris-Lille-3D数据集和Semantic3d数据集预处理的具体步骤如下:
步骤S211:将数据集的所有点云按标签分成建筑物、植物、其它地物三类;
步骤S212:利用基于DBSCAN的分层点云分割算法对每个标签所对应的点云进行分割,进而基于分割结果给点云中每个点赋予对象标识和类别标签。
5.根据权利要求1所述的基于城市点云数据的绿视率计算方法,其特征在于:所述步骤S3的具体实现步骤如下:
步骤S31:点云体素化:即按照预设的体素边长将点云区域分成多个矩形体区域,将每个区域内的所有点作为一个整体的体素;
步骤S32:构建超体素:即利用体素的强度信息、空间特征以及局部几何特征点快速特征直方图构成特征向量的聚类规则,从多个种子点出发,基于体素的邻接性同时向外生长,直到所有体素均分割为超体素,停止生长;
步骤S33:根据点集协方差矩阵的特征值以及特征向量的几何特征差异,提取出线状分布、面状分布以及离散分布的点云数据,从而去除绿色植物点云中部分枝干点云。
6.根据权利要求5所述的基于城市点云数据的绿视率计算方法,其特征在于:所述步骤S33中,点云几何特征差异的提取过程为:计算出某一区域点集协方差矩阵的线状分布、面状分布以及离散分布的特征值为(λ0、λ1、λ2),当λ10较小时,该区域可评估为包括树木枝干或电线杆的线性分布地物,当λ21较小时,该区域可评估为包括建筑物表面或地面的面状分布地物;当需提取出特征明显的绿色植物冠层以及灌木等离散分布地物,设定t10为0.1和t21为0.1作为λ10和λ21的阈值,即线状地物和面状地物的约束参数,当λ10和λ21小于阈值时则认为该区域为线性分布地物以及面状分布地物。
7.根据权利要求1所述的基于城市点云数据的绿视率计算方法,其特征在于:步骤S0中,所述侧视激光点云数据通过移动激光扫描仪获取,在运行变尺度拟合地面三角网地面滤波算法分割数据时,直到目视地面点分割完整为止。
8.根据权利要求1所述的基于城市点云数据的绿视率计算方法,其特征在于:步骤S1的分层点云分割算法中,根据点云密度特征,设置分层高度为H,其第一次DBSCAN聚类算法的中点邻域半径为Eps2,最少点个数为MinPts2;对每一层中聚类出的簇计算每个簇的中心点,计算方法为:
其中(xcenter,ycenter)为簇C的中心点坐标,(yi,yi)为簇C中第i个点的坐标,NC为簇C中所包含点的个数;
第二次DBSCAN聚类参数设置为Eps2、MinPts2;将每层点云获取的中心点合并在一起,通过DBSCAN对中心点进行聚类,将聚类出的每一簇视为一个实体s,将簇中的每一个中心点center视为一个实体点,将每个实体点对应的簇称为实体簇;
进行实体簇分割,即是将位置簇替代为主体层缺失点云的位置的簇,其获取步骤为:当第n个主体第l层有缺失时,从第l层同时向上向下搜索,当搜索到某一层时该主体在该层只包含一个主体簇,且主体簇经判定只含有一个物体,则该层的主体簇为合适的位置簇;
遍历每一主体的每一层,判断每一层是否存在主体点;如果主体中存在一个以上的主体点,则将与主体相对应的点加入到该主体簇中;如果某一层不存在主体点,则获取位置簇与该存在缺失的主体层中每个簇分别进行一次AABB包围盒碰撞检测,如果检测与其中某一个簇检测通过,则认为在该簇中包含了该主体所对应的物体,将该主体所对应的物体加入该簇的包含物体队列中,以达到最终每个点归属相应的主体的目的。
CN202111059263.6A 2021-09-10 2021-09-10 基于城市点云数据的绿视率计算方法 Active CN113781431B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111059263.6A CN113781431B (zh) 2021-09-10 2021-09-10 基于城市点云数据的绿视率计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111059263.6A CN113781431B (zh) 2021-09-10 2021-09-10 基于城市点云数据的绿视率计算方法

Publications (2)

Publication Number Publication Date
CN113781431A CN113781431A (zh) 2021-12-10
CN113781431B true CN113781431B (zh) 2023-09-29

Family

ID=78842432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111059263.6A Active CN113781431B (zh) 2021-09-10 2021-09-10 基于城市点云数据的绿视率计算方法

Country Status (1)

Country Link
CN (1) CN113781431B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114596003B (zh) * 2022-03-25 2024-07-19 广州山水比德设计股份有限公司 植物景观视觉舒适性的分析方法和装置
CN116309566B (zh) * 2023-05-17 2023-09-12 深圳大学 基于点云的粘连人造杆状物单体化提取方法及相关设备
CN116295262B (zh) * 2023-05-22 2023-10-27 湖南联智科技股份有限公司 一种隧道变形区域自动三维定位方法
CN117994443B (zh) * 2024-04-02 2024-06-07 济南玖通志恒信息技术有限公司 一种基于景观园林模拟的园林设计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010139628A1 (de) * 2009-06-04 2010-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erfassen einer pflanze
CN108020211A (zh) * 2017-12-01 2018-05-11 云南大学 一种无人机航空摄影估测入侵植物生物量的方法
CN109285217A (zh) * 2018-09-10 2019-01-29 中国科学院自动化研究所 基于多视角图像的过程式植物模型重建方法
CN113128405A (zh) * 2021-04-20 2021-07-16 北京航空航天大学 一种结合语义分割与点云处理的植物识别与模型构建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010139628A1 (de) * 2009-06-04 2010-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erfassen einer pflanze
CN108020211A (zh) * 2017-12-01 2018-05-11 云南大学 一种无人机航空摄影估测入侵植物生物量的方法
CN109285217A (zh) * 2018-09-10 2019-01-29 中国科学院自动化研究所 基于多视角图像的过程式植物模型重建方法
CN113128405A (zh) * 2021-04-20 2021-07-16 北京航空航天大学 一种结合语义分割与点云处理的植物识别与模型构建方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JunJie Liu,....Point cloud based iterative segmentation technique for 3D plant phenotyping.2018 IEEE International Conference on Information and Automation.2018,全文. *
基于百度街景图像的行人视角城市街道植被绿化格局分析;冯思远;魏亚楠;王振娟;于新洋;;植物生态学报(第03期);全文 *
基于街景数据的绿视率模型构建及其影响因子研究;孟庆岩;汪雪淼;孙云晓;张佳晖;陈旭;;生态科学(第01期);全文 *

Also Published As

Publication number Publication date
CN113781431A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
CN113781431B (zh) 基于城市点云数据的绿视率计算方法
CN107784283B (zh) 面向对象的无人机高分影像煤火区土地覆被分类方法
CN112819830B (zh) 基于深度学习与机载激光点云的单株树冠分割方法
CN100533486C (zh) 一种数字城市全自动生成的方法
CN110110621B (zh) 基于多特征整合深度学习模型的倾斜摄影点云分类方法
Goodbody et al. Digital aerial photogrammetry for assessing cumulative spruce budworm defoliation and enhancing forest inventories at a landscape-level
CN106529469A (zh) 基于自适应坡度的无人机载LiDAR点云滤波方法
CN113963259A (zh) 基于点云数据的街景地物多维度提取方法和系统
CN107944383A (zh) 基于三维Voronoi图的建筑物屋顶面片分割方法
Xu et al. A new clustering-based framework to the stem estimation and growth fitting of street trees from mobile laser scanning data
CN110674792A (zh) 基于神经网络的施工进度监测装置及方法
CN117876874B (zh) 基于高点监控视频的森林火灾检测和定位方法及系统
CN109766824A (zh) 基于模糊证据理论的主被动遥感数据融合分类方法
CN116645321B (zh) 植被叶倾角演算统计方法、装置、电子设备及存储介质
Tang et al. Assessing the visibility of urban greenery using MLS LiDAR data
Lalonde et al. Automatic three-dimensional point cloud processing for forest inventory
CN116561509A (zh) 顾及植被类型的城市植被地上生物量精确反演方法及系统
Zhang et al. An Approach to Map Visibility in the Built Environment From Airborne LiDAR Point Clouds
CN113033386B (zh) 一种基于高分辨率遥感影像的输电线路通道隐患识别方法及系统
CN117765006A (zh) 基于无人机影像与激光点云的多层次密集树冠分割方法
AU2010200146A1 (en) Extraction processes
CN116309652A (zh) 一种基于伪装迷彩喷绘图谱的分析评估方法及系统
Chen et al. Semantic modeling of outdoor scenes for the creation of virtual environments and simulations
CN115601517A (zh) 岩体结构面信息采集方法、装置、电子设备及存储介质
Vishnyakov et al. Semantic scene understanding for the autonomous platform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant