CN115423972A - 一种基于车载多激光雷达融合的封闭场景三维重建方法 - Google Patents
一种基于车载多激光雷达融合的封闭场景三维重建方法 Download PDFInfo
- Publication number
- CN115423972A CN115423972A CN202211003654.0A CN202211003654A CN115423972A CN 115423972 A CN115423972 A CN 115423972A CN 202211003654 A CN202211003654 A CN 202211003654A CN 115423972 A CN115423972 A CN 115423972A
- Authority
- CN
- China
- Prior art keywords
- point
- point cloud
- points
- radar
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 title claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 4
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于车载多激光雷达融合的封闭场景三维重建方法,包括步骤一、设置三维扫描的车载激光雷达、步骤二、基于激光雷达获取的全局点生成云地图步骤三、基于贪婪投影三角化重建曲面。本发明采用上述方法克服了单激光雷达的垂直扫描角度有限,无法获取到完整的封闭场景空间结构信息;并基于激光SLAM技术生成三维场景的重建,这种方法能够准确和较为快速地利用激光雷达数据在车载场景下构建环境模型,计算压力小、结果准确。
Description
技术领域
本发明属于计算机视觉和三维测绘的应用领域,具体涉及一种基于车载多激光雷达融合的封闭场景三维重建方法。
背景技术
地铁在进站出站过程中的安全有序运行依赖驾驶员和站台之间的指差确认。地铁站台人流量大,驾驶员距离较远,这些环境干扰对驾驶员需要做出标准指差呼唤手势有着更高的要求。目前,对驾驶员指差呼唤行为的确实依赖人的判断,缺少相应的保障手段。
作为最常用的视觉感知机器,摄像头有着能识别颜色、与人眼感知最为接近、价格低廉等优势,因此被广泛应用于监控场景,作为记录人行为的工具。随着计算机视觉技术的发展,对摄像头获取的视频流进行处理,可以直接识别人体姿势,进而与标准指差呼唤行为比较,修正驾驶员的动作。此外,此设备也能用于平时教学场景,辅助驾驶员学习标准动作。
针对以上情况,本发明提出了一种基于机器视觉的地铁驾驶员标准指差呼唤行为识别方法,旨在赋能地铁安全有序运行,辅助驾驶员做出标准指差呼唤动作。
发明内容
本发明正是基于现有技术的上述需求而提出的,本发明要解决的技术问题是:提出一种基于车载多激光雷达融合的封闭场景三维重建方法,实现大规模封闭场景的三维表面重建,生成的三维模型可应用于自动驾驶仿真实验、虚拟现实等不同领域。
为了解决该问题,本发明提供的技术方案包括:
一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,包括:步骤一、设置车载激光雷达;步骤二、基于激光雷达获取的全局点生成云地图,所述步骤二包括,S201地面点云分割及特征提取,根据几何拓扑特征标记地面点和非地面点,并对被标记的非地面点进行点云聚类、滤波,减少环境噪音点和动态物体的干扰,最终保留原始地面点和几何特征明显的静态物体点;然后将单帧点云均分成若干子点云,并在每个子点云中提取平面点和边缘点;S202帧间特征匹配及位姿粗估计,使用点线匹配和点面匹配进行帧间匹配,并使用高斯牛顿法和LM法优化变换矩阵,得到位姿粗估计结果;S203位姿优化与全局点云配准,将当前帧的点云特征集与全局点云地图进行匹配;然后优化位姿变换矩阵得到位姿优化结果,并根据所述位姿优化结果将当前帧的点云增加到全局点云中;步骤三、基于贪婪投影三角化重建曲面,所述步骤三包括,S301对全局点云地图进行体素网格化并进行降采样,并使用统计滤波进行离群点的剔除;S302采用移动最小二乘法对S301步骤处理后的点云数据进行处理,并通过周围数据点之间的高阶多项式插值填补缺失部分;S303选取S302处理后的点云数据中的一个样本三角片作为初始三角形,根据投影点云的连接关系确定各原始三维点间的拓扑连接,不断扩张曲面边界直至形成一张完整的三角网格曲面。
优选地,设置车载激光雷达包括,将一个主雷达布设在车顶位置,一个补盲雷达布设在主雷达正上方以扫描空间上方表面;主雷达和补盲雷达在同一竖直线上,避免扫描遮挡。
优选地,设置车载激光雷达包括,一个主雷达布设在车顶位置,两个补盲雷达布设在车体两侧,呈45°角向外倾斜,扫描空间斜上方表面。
优选地,所述S201包括,首先基于多雷达标定结果,将补盲雷达的点云转换到主雷达坐标系下;在地面点云分割中,根据激光雷达竖直维度的特征标记地面点和非地面点,并对被标记的非地面点进行点云滤波、聚类;在特征提取环节,将单帧点云均分成若干子点云,并在每个子点云中根据曲率值提取预定数量的平面点、边缘点,曲率值由计算,式中表示第k帧第L线的第i个点,S表示附近一系列连续点的集合;选取其中c值最小的点作为特征平面点,选取其中c值最大的点作为特征边缘点;所述S202包括,使用点线匹配和点面匹配进行帧间匹配,针对平面特征点,将其配准到前一帧的对应面上,针对边缘特征点,将其配准到前一帧的对应线上,并使用高斯牛顿法和LM法优化变换矩阵,得到位姿粗估计结果。
优选地,在完成雷达的安装之后,进行雷达相对位置标定;首先,进行主雷达点云和补盲雷达点云的分割,只保留公共扫描区域,将主雷达点云所占的空间划分成指定大小的网格或体素,并计算每个网格的多维正态分布参数的均值qi和协方差矩阵Σi;然后,将补盲雷达的点云通过初始欧式变换矩阵转换到主雷达点云网格中;计算NDT配准得分,可通过对每个网格计算出的转换点概率密度相加得到其中score(p)代表相加结果,x′ i代表第i网格的转换点空间坐标;最后使用高斯牛顿法对目标函数进行优化,迭代收敛。
优选地,所述S301包括,遍历点云,计算每个点与最近k个点之间的平均距离其中,dij为与点i相邻的第j个点之间的距离,n为点的个数;并计算所有平均距离的均值μ与标准差σ,设置距离阈值:dmax=μ+α*σ,其中α为阈值系数;再次遍历点云,剔除与k个最近邻点平均距离大于dmax的点;
所述S302包括,使用移动最小二乘法对全局点云地图中的点进行曲线拟合,拟合函数定义为:其中,xnode为节点的空间坐标,x为节点node附近的某一点位置坐标,aj即为用于定义节点node附近拟合曲线的一组系数,pj(x)是基函数,m为点的数量;通过调整参数aj使得节点node附近采样点取值与拟合函数在采样点取值差的加权平方和最小;经过求解得到所有节点的系数,即可得到全局点云集合上的拟合曲;所述S303包括,首先进行Kd-tree最近邻搜索,给定参考点p,在半径为r的球内搜索该点的k近邻来创建点p的邻域Cr(p);然后使用切平面进行邻域投影,将Cr(p)内的点云通过点p的法向量投影到相同平面上,该平面与领域形成的表面大致相切,基于可见性和距离的标准删除Cr(p)中不可见和不满足预定距离的点;对投影得到的点云作平面内的三角化,形成满足最大角度标准和最小角度标准的三角形,根据平面内三位点的拓扑连接关系获得一个三角网格曲面模型;不断寻找新的参考点,直至遍历全部点云,形成完整的三角网格曲面。
本发明采用上述方法克服了单激光雷达的垂直扫描角度有限,无法获取到完整的封闭场景空间结构信息;并基于激光SLAM技术生成三维场景的重建,这种方法能够准确和较为快速地利用激光雷达数据在车载场景下构建环境模型,计算压力小、结果准确。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为双雷达和三雷达方案布设示意图;
图2为三雷达布设方案示意图;
图3为基于激光SLAM的全局点云地图生成过程示意图;
图4为封闭三维场景表面重建过程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本发明实施例的理解,下面将结合附图以具体实施例做进一步的解释说明,实施例并不构成对本发明实施例的限定。
本具体实施方式公开了一种用于车载多激光雷达融合的封闭场景三维重建方法,所述方法包括如下步骤:
步骤一、多激光雷达的布设及标定
第一步进行多激光雷达的布设,如图1、2所示,最终的效果保证封闭空间下的所有表面能够被均匀扫描到。双激光雷达方案下,一个主雷达布设在车顶位置,一个补盲雷达布设在主雷达正上方,扫描空间上方表面,尽量保证主雷达和补盲雷达在同一竖直线上,避免扫描遮挡;三激光雷达方案下,一个主雷达布设在车顶位置,两个补盲雷达布设在车体两侧,呈45°角向外倾斜,扫描空间斜上方表面。
第二步,在完成雷达的安装之后,进行雷达相对位置标定。首先,进行主雷达点云和补盲雷达点云的分割,尽可能只保留公共扫描区域,将主雷达点云所占的空间划分成指定大小的网格或体素,并计算每个网格的多维正态分布参数:均值qi和协方差矩阵Σi;然后,将补盲雷达的点云通过初始欧式变换矩阵转换到主雷达点云网格中;计算NDT配准得分,可通过对每个网格计算出的转换点概率密度相加得到其中x′i代表第i网格的转换点空间坐标;最后使用高斯牛顿法对目标函数进行优化,迭代收敛。
步骤二、基于激光SLAM的全局点云地图生成
基于激光SLAM的全局点云地图算法流程如图3所示。
第一步,地面点云分割及特征提取。首先基于多雷达标定结果,将补盲雷达的点云转换到主雷达坐标系下;在地面点云分割中,根据激光雷达竖直维度的特征标记地面点和非地面点,并对被标记的非地面点进行点云滤波、聚类。在特征提取环节,将单帧点云均分成若干子点云,并在每个子点云中根据曲率值提取一定数量的平面点、边缘点,曲率值可由计算,式中表示第k帧第L线的第i个点,S表示附近一系列连续点的集合,c值表示平面的光环程度,c值越小越平坦,选取其中c值最小的点作为特征平面点,选取其中c值最大的点作为特征边缘点。
第二步,帧间特征匹配及位姿粗估计。使用点线匹配和点面匹配进行帧间匹配,针对平面特征点,将其配准到前一帧的对应面上,针对边缘特征点,将其配准到前一帧的对应线上,并使用高斯牛顿法和LM法优化变换矩阵,得到位姿粗估计结果。
第三步,位姿优化与全局点云配准。将当前帧点云的特征点与全局点云特征点进行匹配,在粗估计位姿基础上,使用图优化工具进行位姿优化,并根据最终的位姿变换矩阵将当前帧点云添加到全局点云地图中。
步骤三、基于贪婪投影三角化的曲面重建
基于贪婪投影三角化的曲面重建算法流程如图4所示。
第一步,使用统计滤波剔除离群点。首先,遍历点云,计算每个点与最近k个点之间的平均距离:并计算所有平均距离的均值μ与标准差σ,设置距离阈值:dmax=μ+α*σ;再次遍历点云,剔除与k个最近邻点平均距离大于dmax的点。
第二步,使用移动最小二乘法对全局点云地图中的点进行曲线拟合,拟合函数定义为:其中,xnode为节点的空间坐标,x为节点node附近的某一点位置坐标,aj即为用于定义节点node附近拟合曲线的一组系数,pj(x)则是一组基函数;通过调整参数aj,使得节点node附近采样点取值与拟合函数在采样点取值差的加权平方和最小,即最优化模型:其中,w为权函数,该函数用来调节邻域点对于函数J的贡献程度;经过求解得到所有节点的系数,即可得到全局点云集合上的拟合曲线。
第三步,贪婪投影三角化表面重建。首先进行Kd-tree最近邻搜索:给定参考点p,在半径为r的球内搜索该点的k近邻来创建点p的邻域Cr(p);然后使用切平面进行邻域投影,将Cr(p)内的点云通过点p的法向量投影到相同平面上,该平面与领域形成的表面大致相切,基于可见性和距离等标准删除Cr(p)中的某些点;对投影得到的点云作平面内的三角化,形成满足最大角度标准和最小角度标准的三角形,根据平面内三位点的拓扑连接关系获得一个三角网格曲面模型;不断寻找新的参考点,直至遍历全部点云,形成完整的三角网格曲面。
第四步,对曲面模型进行渲染加工及格式转换。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,包括:
步骤一、设置三维扫描的车载激光雷达;
步骤二、基于激光雷达获取的全局点生成云地图,所述步骤二包括,
S201地面点云分割及特征提取,根据几何拓扑特征标记地面点和非地面点,并对被标记的非地面点进行点云聚类、滤波,减少环境噪音点和动态物体的干扰,最终保留原始地面点和几何特征明显的静态物体点;然后将单帧点云均分成若干子点云,并在每个子点云中提取平面点和边缘点;
S202帧间特征匹配及位姿粗估计,使用点线匹配和点面匹配进行帧间匹配,并使用高斯牛顿法和LM法优化变换矩阵,得到位姿粗估计结果;
S203位姿优化与全局点云配准,将当前帧的点云特征集与全局点云地图进行匹配;然后优化位姿变换矩阵得到位姿优化结果,并根据所述位姿优化结果将当前帧的点云增加到全局点云中;
步骤三、基于贪婪投影三角化重建曲面,所述步骤三包括,
S301对全局点云地图进行体素网格化并进行降采样,并使用统计滤波进行离群点的剔除;S302采用移动最小二乘法对S301步骤处理后的点云数据进行处理,并通过周围数据点之间的高阶多项式插值填补缺失部分;S303选取S302处理后的点云数据中的一个样本三角片作为初始三角形,根据投影点云的连接关系确定各原始三维点间的拓扑连接,不断扩张曲面边界直至形成一张完整的三角网格曲面。
2.根据权利要求1所述的一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,设置车载激光雷达包括,将一个主雷达布设在车顶位置,一个补盲雷达布设在主雷达正上方以扫描空间上方表面;主雷达和补盲雷达在同一竖直线上,避免扫描遮挡。
3.根据权利要求1所述的一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,设置车载激光雷达包括,一个主雷达布设在车顶位置,两个补盲雷达布设在车体两侧,呈45°角向外倾斜,扫描空间斜上方表面。
4.根据权利要求1所述的一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,
所述S201包括,首先基于多雷达标定结果,将补盲雷达的点云转换到主雷达坐标系下;在地面点云分割中,根据激光雷达竖直维度的特征标记地面点和非地面点,并对被标记的非地面点进行点云滤波、聚类;在特征提取环节,将单帧点云均分成若干子点云,并在每个子点云中根据曲率值提取预定数量的平面点、边缘点,曲率值由 计算,式中表示第k帧第L线的第i个点,S表示附近一系列连续点的集合;选取其中c值最小的点作为特征平面点,选取其中c值最大的点作为特征边缘点;
所述S202包括,使用点线匹配和点面匹配进行帧间匹配,针对平面特征点,将其配准到前一帧的对应面上,针对边缘特征点,将其配准到前一帧的对应线上,并使用高斯牛顿法和LM法优化变换矩阵,得到位姿粗估计结果。
6.根据权利要求1所述的一种基于车载多激光雷达融合的封闭场景三维重建方法,其特征在于,
所述S301包括,遍历点云,计算每个点与最近k个点之间的平均距离dij为与点i相邻的第j个点之间的距离,n为点的个数,并计算所有平均距离的均值μ与标准差σ,设置距离阈值:dmax=μ+α*σ,其中α为阈值系数;再次遍历点云,剔除与k个最近邻点平均距离大于dmax的点;
所述S302包括,使用移动最小二乘法对全局点云地图中的点进行曲线拟合,拟合函数定义为:其中,xnode为节点的空间坐标,x为节点node附近的某一点位置坐标,aj即为用于定义节点node附近拟合曲线的一组系数,pj(x)是基函数,m为点的数量;通过调整参数aj使得节点node附近采样点取值与拟合函数在采样点取值差的加权平方和最小;经过求解得到所有节点的系数,即可得到全局点云集合上的拟合曲;
所述S303包括,首先进行Kd-tree最近邻搜索,给定参考点p,在半径为r的球内搜索该点的k近邻来创建点p的邻域Cr(p);然后使用切平面进行邻域投影,将Cr(p)内的点云通过点p的法向量投影到相同平面上,该平面与领域形成的表面大致相切,基于可见性和距离的标准删除Cr(p)中不可见和不满足预定距离的点;对投影得到的点云作平面内的三角化,形成满足最大角度标准和最小角度标准的三角形,根据平面内三位点的拓扑连接关系获得一个三角网格曲面模型;不断寻找新的参考点,直至遍历全部点云,形成完整的三角网格曲面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211003654.0A CN115423972A (zh) | 2022-08-20 | 2022-08-20 | 一种基于车载多激光雷达融合的封闭场景三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211003654.0A CN115423972A (zh) | 2022-08-20 | 2022-08-20 | 一种基于车载多激光雷达融合的封闭场景三维重建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115423972A true CN115423972A (zh) | 2022-12-02 |
Family
ID=84197682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211003654.0A Pending CN115423972A (zh) | 2022-08-20 | 2022-08-20 | 一种基于车载多激光雷达融合的封闭场景三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115423972A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116255976A (zh) * | 2023-05-15 | 2023-06-13 | 长沙智能驾驶研究院有限公司 | 地图融合方法、装置、设备及介质 |
CN116452648A (zh) * | 2023-06-15 | 2023-07-18 | 武汉科技大学 | 一种基于法向量约束纠正的点云配准方法及系统 |
CN116843742A (zh) * | 2023-03-13 | 2023-10-03 | 武汉理工大学 | 一种针对装载黑色煤车辆的点云配准后堆料体积的计算方法及系统 |
CN116912427A (zh) * | 2023-09-12 | 2023-10-20 | 武汉工程大学 | 基于标记点三角特征聚类的三维扫描重建方法及系统 |
CN116993915A (zh) * | 2023-08-08 | 2023-11-03 | 北京长木谷医疗科技股份有限公司 | 一种基于贪婪投影的骨关节模型重建方法、装置及设备 |
CN117007061A (zh) * | 2023-08-07 | 2023-11-07 | 重庆大学 | 一种用于无人驾驶平台的基于地标的激光slam方法 |
CN117590371A (zh) * | 2024-01-18 | 2024-02-23 | 上海几何伙伴智能驾驶有限公司 | 基于4d毫米波成像雷达实现全局车位状态检测的方法 |
CN117761717A (zh) * | 2024-02-21 | 2024-03-26 | 天津大学四川创新研究院 | 一种自动回环三维重建系统及运行方法 |
-
2022
- 2022-08-20 CN CN202211003654.0A patent/CN115423972A/zh active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843742B (zh) * | 2023-03-13 | 2024-02-02 | 武汉理工大学 | 一种针对装载黑色煤车辆的点云配准后堆料体积的计算方法及系统 |
CN116843742A (zh) * | 2023-03-13 | 2023-10-03 | 武汉理工大学 | 一种针对装载黑色煤车辆的点云配准后堆料体积的计算方法及系统 |
CN116255976A (zh) * | 2023-05-15 | 2023-06-13 | 长沙智能驾驶研究院有限公司 | 地图融合方法、装置、设备及介质 |
CN116255976B (zh) * | 2023-05-15 | 2023-10-31 | 长沙智能驾驶研究院有限公司 | 地图融合方法、装置、设备及介质 |
CN116452648B (zh) * | 2023-06-15 | 2023-09-22 | 武汉科技大学 | 一种基于法向量约束纠正的点云配准方法及系统 |
CN116452648A (zh) * | 2023-06-15 | 2023-07-18 | 武汉科技大学 | 一种基于法向量约束纠正的点云配准方法及系统 |
CN117007061A (zh) * | 2023-08-07 | 2023-11-07 | 重庆大学 | 一种用于无人驾驶平台的基于地标的激光slam方法 |
CN116993915A (zh) * | 2023-08-08 | 2023-11-03 | 北京长木谷医疗科技股份有限公司 | 一种基于贪婪投影的骨关节模型重建方法、装置及设备 |
CN116912427A (zh) * | 2023-09-12 | 2023-10-20 | 武汉工程大学 | 基于标记点三角特征聚类的三维扫描重建方法及系统 |
CN116912427B (zh) * | 2023-09-12 | 2023-11-24 | 武汉工程大学 | 基于标记点三角特征聚类的三维扫描重建方法及系统 |
CN117590371A (zh) * | 2024-01-18 | 2024-02-23 | 上海几何伙伴智能驾驶有限公司 | 基于4d毫米波成像雷达实现全局车位状态检测的方法 |
CN117590371B (zh) * | 2024-01-18 | 2024-03-29 | 上海几何伙伴智能驾驶有限公司 | 基于4d毫米波成像雷达实现全局车位状态检测的方法 |
CN117761717A (zh) * | 2024-02-21 | 2024-03-26 | 天津大学四川创新研究院 | 一种自动回环三维重建系统及运行方法 |
CN117761717B (zh) * | 2024-02-21 | 2024-05-07 | 天津大学四川创新研究院 | 一种自动回环三维重建系统及运行方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115423972A (zh) | 一种基于车载多激光雷达融合的封闭场景三维重建方法 | |
CN108171780A (zh) | 一种基于激光雷达构建室内真实三维地图的方法 | |
Sohn et al. | An implicit regularization for 3D building rooftop modeling using airborne lidar data | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
CN109074490A (zh) | 通路检测方法、相关装置及计算机可读存储介质 | |
CN114004938B (zh) | 一种基于海量数据的城市场景重建方法及装置 | |
CN112818925A (zh) | 一种城市建筑和树冠识别方法 | |
CN114519819B (zh) | 一种基于全局上下文感知的遥感图像目标检测方法 | |
CN113724387A (zh) | 一种激光与相机融合的地图构建方法 | |
CN112396655A (zh) | 一种基于点云数据的船舶目标6d位姿估计方法 | |
CN115330969A (zh) | 一种用于地面无人车的局部静态环境矢量化描述方法 | |
CN116468870B (zh) | 一种城市道路三维可视化建模方法及系统 | |
Matsumoto et al. | Extraction of guardrails from mms data using convolutional neural network | |
CN108345007B (zh) | 一种障碍物识别方法和装置 | |
Ni et al. | Applications of 3d-edge detection for als point cloud | |
JP2003141567A (ja) | 3次元都市モデル生成装置及び3次元都市モデル生成方法 | |
CN113658195B (zh) | 图像分割方法、装置及电子设备 | |
Zhang et al. | Building façade element extraction based on multidimensional virtual semantic feature map ensemble learning and hierarchical clustering | |
CN111932566B (zh) | 一种模型轮廓图生成方法、装置和系统 | |
Nakagawa et al. | Topological 3D modeling using indoor mobile LiDAR data | |
CN114387293A (zh) | 道路边缘检测方法、装置、电子设备及车辆 | |
CN115729250A (zh) | 一种无人机的飞行控制方法、装置、设备及存储介质 | |
Nakagawa et al. | Panoramic rendering-based polygon extraction from indoor mobile LiDAR data | |
CN115719507A (zh) | 一种图像识别方法、装置及电子设备 | |
Kim et al. | Automatic generation of digital building models for complex structures from LiDAR data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |