CN115100264B - 一种基于三维点云的地形和目标实时检测及定位方法 - Google Patents

一种基于三维点云的地形和目标实时检测及定位方法 Download PDF

Info

Publication number
CN115100264B
CN115100264B CN202210518497.0A CN202210518497A CN115100264B CN 115100264 B CN115100264 B CN 115100264B CN 202210518497 A CN202210518497 A CN 202210518497A CN 115100264 B CN115100264 B CN 115100264B
Authority
CN
China
Prior art keywords
point cloud
module
dimensional
point
terrain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210518497.0A
Other languages
English (en)
Other versions
CN115100264A (zh
Inventor
朱建国
范冬伟
张健
马晓飞
杨伟光
董成国
王鹏飞
于龙海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Control and Electronic Technology
Original Assignee
Beijing Institute of Control and Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Control and Electronic Technology filed Critical Beijing Institute of Control and Electronic Technology
Priority to CN202210518497.0A priority Critical patent/CN115100264B/zh
Publication of CN115100264A publication Critical patent/CN115100264A/zh
Application granted granted Critical
Publication of CN115100264B publication Critical patent/CN115100264B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Abstract

本发明公开了一种基于三维点云的地形和目标实时检测及定位方法,三维成像传感器模块采集环境三维点云信息,姿态测量模块测量空间姿态角,平滑填补模块填补点云缺失信息,体素栅格滤波模块降采样点云,统计滤波模块滤除异常点,坐标转换模块转换点云到地理坐标系下,聚类分割模块提取候选地形和目标的子点云,平面提取模块提取平面,参数确定模块确定平面参数,类型判别模块判别地形和目标的类别,定位确定模块确定地形和目标的形状、位置、距离和方向的信息并提供给载体导航使用。本发明无需提前采集、标注和训练大量地形和目标样本,具有检测类型多、信息丰富、实时性强、准确率高、成本低和适应性强的优点,应用前景十分广阔。

Description

一种基于三维点云的地形和目标实时检测及定位方法
技术领域
本发明涉及一种对地形和目标检测及定位方法,特别是一种基于三维点云的地形和目标实时检测及定位方法。
背景技术
盲人行走、地面机器人移动或无人机贴地飞行时,需要感知设备实时探测载体前方场景的地形和目标,获得地形和目标,包括:坡道、楼梯、台阶、墙、栏杆和平地的类型、形状、位置、距离和方向信息,及时调整载体行走、移动或飞行的导航策略,避免碰撞事故。目前基于三维点云的目标检测方法一般都使用深度学习神经网络,因此需要提前采集和标注大量目标样本并训练识别模型,存在采集和标注的工作量极大和成本高的问题。还有基于三维点云匹配的目标检测方法则需要提前获取目标完整的三维点云模型,存在适应性差和准确率低的问题。基于摄像机二维图像的地形和目标检测方法,则存在缺乏三维位置信息而无法实现三维空间定位、检测目标类型单一和光环境适应性差的问题。
发明内容
本发明目的在于提供一种基于三维点云的地形和目标实时检测及定位方法,解决当前方法存在深度学习需提前采集和标注工作量大和成本高,目标模型匹配适应性差和准确率低,摄像机二维图像缺乏三维位置信息、检测目标类型单一和光环境适应性差的问题。
一种基于三维点云的地形和目标实时检测及定位方法的具体步骤为:
第一步构建地形和目标实时检测和定位系统
地形和目标实时检测和定位系统,包括:三维成像传感器模块、姿态测量模块、平滑填补模块、体素栅格滤波模块、统计滤波模块、坐标转换模块、聚类分割模块、平面提取模块、参数确定模块、类型判别模块和定位确定模块。
三维成像传感器模块的功能为:采集环境三维点云信息。
姿态测量模块的功能为:测量三维成像传感器模块的空间姿态角。
平滑填补模块的功能为:填补三维点云缺失信息。
体素栅格滤波模块的功能为:对三维点云降采样。
统计滤波模块的功能为:对三维点云进行统计滤波。
坐标转换模块的功能为:转换三维点云到东北天地理坐标系下。
聚类分割模块的功能为:提取属于同一地形和目标的点数目最多的子点云。
平面提取模块的功能为:从子点云中提取三维空间平面。
参数确定模块的功能为:确定提取平面的相关参数。
类型判别模块的功能为:根据平面参数判别地形和目标的具体类别。
定位确定模块的功能为:确定地形和目标的形状、位置、距离和方向的信息并提供给载体导航使用。
第二步三维成像传感器模块采集三维点云
三维成像传感器模块采集环境的原始的三维点云数据,姿态测量模块同步采集三维成像传感器的三维姿态角。三维成像传感器模块选择双目立体相机、RGBD深度相机或三维激光雷达。
利用双目立体相机,通过双摄像头同时采集左右两幅图像,经图像校正和立体匹配转换成视差图,根据相机内外参数生成传感器坐标系下的三维点云。
或利用RGBD深度相机,同时采集RGB彩色图和深度图,根据相机参数生成传感器坐标系下的三维点云。
或利用三维激光雷达,通过激光测距扫描直接获得传感器坐标系下的三维点云。
第三步姿态测量模块采集姿态角
姿态测量模块采集自身三维姿态角,再根据三维成像传感器模块与姿态测量模块安装关系,确定三维成像传感器模块的三维姿态角,即航向角ψ、俯仰角θ和横滚角φ。
第四步平滑填补模块填补点云空洞
平滑填补模块填补三维点云的空洞并对点云进行滤波去噪。首先利用空洞周围的有效视差或点云数据进行插值填补,再通过中值滤波器进行平滑去噪。
对于三维成像传感器的每个缺失视差/深度的像素点Pi,在视差/深度图的同一行向左右两个方向同时搜索第一个未缺失的正常像素,根据左右两个正常像素与Pi的距离通过加权得到其视差/深度,缺失视差/深度di的插值填补用公式(1)表示:
di=αdL+(1-α)dR,其中
公式(1)中,|LiPi|和|RiPi|分别表示左右两个正常像素与Pi的像素距离,dL和dR分别表示左右两个正常像素的视差/深度。
第五步体素栅格滤波模块降采样点云
体素栅格滤波模块对点云进行降采样,保留点云特征同时,降低点云密度和点的数量,加快运算速度。首先确定点云各点到成像传感器坐标系原点的距离,剔除距离大于给定阈值DIST的点;再利用体素栅格滤波器对点云进行降采样,将三维空间分割成很多体素栅格,对于点云中落入同一栅格的所有点{qi},确定质心pc,用pc替代该栅格的所有点。
第六步 统计滤波模块去除点云异常点
统计滤波模块首先统计点云各点与其周围邻居点的距离,确定平均距离,再滤波去除平均距离大于预定阈值的异常点。假定点云各点与其周围最近N个邻居点的平均距离dmean符合高斯分布,确定每个点的dmean,对于dmean大于阈值dmean-th的点,作为统计异常点剔除。点p的与其N个邻居点{qi}的平均距离dmean用公式(2)表示:
公式(2)中,|pqi|表示点p与第i个邻居点qi的三维空间距离。
dmean-th用公式(3)表示:
公式(3)中,和σ分别为全局统计的距离均值和标准差,λ根据滤波效果需求在一定范围内设置。
第七步 坐标转换模块转换点云至地理坐标系
坐标转换模块将点云从三维成像传感器坐标系转换到东北天地理坐标系下,使其具备真实空间方位信息。根据三维姿态角,即航向角ψ、俯仰角θ和横滚角φ,及成像传感器距离地面高度H,将点云转换至东北天地理坐标系下,转换后的点云记为C1。坐标转换用公式(4)表示:
公式(4)中,[XG YG ZG]T是空间点在东北天地理坐标系下的坐标,[XS YS ZS]T是其在传感器坐标系下的坐标。
第八步 聚类分割模块确定目标子点云
聚类分割模块分割属于同一地形和目标的点数量最多的子点云,利用欧式聚类方式分割点云,分割后点数目最多的子点云记为E,E的空间点属于同一地形或目标。创建kd-tree搜索树表示C1,设置一个点云簇空列表U和点队列V。对于C1中的每个点pi,先将其添加到当前队列V;对于V中的每个点,在以pi为球心,球半径为r的球形空间内,搜索得到其全部邻居点集合Pi k;对于Pi k中的每个点,检查其是否已被处理过,当没有时,则将其添加到V中并标记被处理过;当V中的每个点都已经被处理过时,将V添加到点云簇列表U中,然后清空队列V;最后当C1中的所有点均被处理过,聚类分割过程结束,输出点云簇列表U,U中点数目最多的点云即为E。
第九步 平面提取模块确定目标平面
平面提取模块提取三维空间平面,反复选择点云中的一组随机点云子集来提取最优平面。被选取的点云子集被假设为属于同一个三维空间平面的局内点,首先随机假设点云的一小组局内点为初始值,用此局内点拟合一个平面模型,假设的局内点位于此平面内,平面方程Ax+By+Cz+D=0的A、B、C和D四个平面模型参数从假设的局内点确定。用得到的模型去测试点云的所有点,当某个点适用于估计的模型时,则认为它也是局内点,用所有假设的局内点去重新估计平面模型,最后通过估计局内点与平面模型的错误率来评估模型。通过迭代最后得到最佳拟合平面P的参数A、B、C和D,向量(A,B,C)为平面P的法线向量,E中参与平面P拟合的空间点集合记为点云F。在平面提取过程中,提取合理结果的概率p在[0.95,0.99]范围内设置,最大迭代次数为NUM,根据速度需求在预定范围内设置。
第十步 参数确定模块确定平面参数特征
参数确定模块确定下面8个平面相关参数:
确定平面P与水平地面的夹角θ,用公式(5)表示:
公式(5)中,A、B和C为平面P的部分模型参数。
确定点云F的质心Q:确定F中所有点的坐标均值。
确定质心Q与东北天地理坐标系原点O的距离dQ,用公式(6)表示:
确定判断点M的位置:确定过质心Q(xQ,yQ,zQ)的平面P的法线上与Q距离为H的两个三维点M1和M2,选取M1和M2中坐标z值较大者,作为判断点M(xM,yM,zM),其中H根据三维成像传感器测量精度设置。利用公式(7)确定M1和M2:
确定判断点M与东北天地理坐标系原点O的距离dM,用公式(8)表示:
确定点云F中各点与地面的平均距离L,用公式(9)表示:
确定点云F中各点的z坐标均值用公式(10)表示:
确定点云F中离地最高的点的z坐标zmax,用公式(11)表示:
zmax=max(zi) (11)
第十一步 类型判别模块确定地形和目标的类型
类型判别模块判定地形和目标的具体类型:
平地类型判别条件:θ<10°,且L<5cm。
上台阶类型判别条件:θ<10°,且L>5cm,且
下台阶类型判别条件:θ<10°,且L>5cm,且
上坡或上楼梯类型判别条件:10°≤θ≤40°,且dM<dQ,且且L>0.2m。
下坡或下楼梯类型判别条件:10°≤θ≤45°,且dM>dQ,且且L>0.2m。
栏杆类型判别条件:75°≤θ≤90°,且且zmax<1.2m。
墙类型判别条件:75°≤θ≤90°,且且zmax≥1.2m。
不满足以上条件的其他情况,则判定为地形和目标检测失败。
第十二步 定位确定模块确定地形和目标的定位信息
定位确定模块确定地形和目标的形状、位置、距离和方向的信息,提供给载体导航使用。
确定形状:确定点云F的最小包围盒,将包围盒的顶点作为地形和目标的形状信息输出给载体。
确定位置:确定F中各点与坐标系G原点O的距离,选择距离最近的点Pnear,将质心Q和最近点Pnear作为地形和目标的位置信息输出给载体。
确定距离:将距离|OQ|和|OPnear|作为地形和目标的距离信息输出给载体。
确定方向:将射线OQ在水平地面的投影与东北天地理坐标系OX正轴的夹角α,作为地形和目标的方向信息输出给载体。
至此,实现基于三维点云的地形和目标实时检测及定位。
本发明相比以往地形和目标检测方法的优势主要在于:无需提前采集和标注大量地形和目标样本,能够为载体的三维空间导航有效提供地形和目标信息,具有成本低、适应性强、准确率高、信息丰富和实时性强的优点,工程应用价值很高。
具体实施方式
一种基于三维点云的地形和目标实时检测及定位方法的具体步骤为:
第一步 构建地形和目标实时检测和定位系统
地形和目标实时检测和定位系统,包括:三维成像传感器模块、姿态测量模块、平滑填补模块、体素栅格滤波模块、统计滤波模块、坐标转换模块、聚类分割模块、平面提取模块、参数确定模块、类型判别模块和定位确定模块。
三维成像传感器模块的功能为:采集环境三维点云信息。
姿态测量模块的功能为:测量三维成像传感器模块的空间姿态角。
平滑填补模块的功能为:填补三维点云缺失信息。
体素栅格滤波模块的功能为:对三维点云降采样。
统计滤波模块的功能为:对三维点云进行统计滤波。
坐标转换模块的功能为:转换三维点云到东北天地理坐标系下。
聚类分割模块的功能为:提取属于同一地形和目标的点数目最多的子点云。
平面提取模块的功能为:从子点云中提取三维空间平面。
参数确定模块的功能为:确定提取平面的相关参数。
类型判别模块的功能为:根据平面参数判别地形和目标的具体类别。
定位确定模块的功能为:确定地形和目标的形状、位置、距离和方向的信息并提供给载体导航使用。
第二步 三维成像传感器模块采集三维点云
三维成像传感器模块采集环境的原始的三维点云数据,姿态测量模块同步采集三维成像传感器的三维姿态角。三维成像传感器模块选择双目立体相机、RGBD深度相机或三维激光雷达。
利用双目立体相机,通过双摄像头同时采集左右两幅图像,经图像校正和立体匹配转换成视差图,根据相机内外参数生成传感器坐标系下的三维点云。
或利用RGBD深度相机,同时采集RGB彩色图和深度图,根据相机参数生成传感器坐标系下的三维点云。
或利用三维激光雷达,通过激光测距扫描直接获得传感器坐标系下的三维点云。
第三步 姿态测量模块采集姿态角
姿态测量模块采集自身三维姿态角,再根据三维成像传感器模块与姿态测量模块安装关系,确定三维成像传感器模块的三维姿态角,即航向角ψ、俯仰角θ和横滚角φ。
第四步 平滑填补模块填补点云空洞
平滑填补模块填补三维点云的空洞并对点云进行滤波去噪。首先利用空洞周围的有效视差或点云数据进行插值填补,再通过中值滤波器进行平滑去噪。
对于三维成像传感器的每个缺失视差/深度的像素点Pi,在视差/深度图的同一行向左右两个方向同时搜索第一个未缺失的正常像素,根据左右两个正常像素与Pi的距离通过加权得到其视差/深度,缺失视差/深度di的插值填补用公式(1)表示:
di=αdL+(l-α)dR,其中
公式(1)中,|LiPi|和|RiPi|分别表示左右两个正常像素与Pi的像素距离,dL和dR分别表示左右两个正常像素的视差/深度。
第五步 体素栅格滤波模块降采样点云
体素栅格滤波模块对点云进行降采样,保留点云特征同时,降低点云密度和点的数量,加快运算速度。首先确定点云各点到成像传感器坐标系原点的距离,剔除距离大于给定阈值DIST的点;再利用体素栅格滤波器对点云进行降采样,将三维空间分割成很多体素栅格,对于点云中落入同一栅格的所有点{qi},确定质心pc,用pc替代该栅格的所有点。
第六步 统计滤波模块去除点云异常点
统计滤波模块首先统计点云各点与其周围邻居点的距离,确定平均距离,再滤波去除平均距离大于预定阈值的异常点。假定点云各点与其周围最近N个邻居点的平均距离dmean符合高斯分布,确定每个点的dmean,对于dmean大于阈值dmean-th的点,作为统计异常点剔除。点p的与其N个邻居点{qi}的平均距离dmean用公式(2)表示:
公式(2)中,|pqi|表示点p与第i个邻居点qi的三维空间距离。
dmean-th用公式(3)表示:
公式(3)中,和σ分别为全局统计的距离均值和标准差,λ根据滤波效果需求在一定范围内设置。
第七步 坐标转换模块转换点云至地理坐标系
坐标转换模块将点云从三维成像传感器坐标系转换到东北天地理坐标系下,使其具备真实空间方位信息。根据三维姿态角,即航向角ψ、俯仰角θ和横滚角φ,及成像传感器距离地面高度H,将点云转换至东北天地理坐标系下,转换后的点云记为C1。坐标转换用公式(4)表示:
公式(4)中,[XG YG ZG]T是空间点在东北天地理坐标系下的坐标,[XS YS ZS]T是其在传感器坐标系下的坐标。
第八步 聚类分割模块确定目标子点云
聚类分割模块分割属于同一地形和目标的点数量最多的子点云,利用欧式聚类方式分割点云,分割后点数目最多的子点云记为E,E的空间点属于同一地形或目标。创建kd-tree搜索树表示C1,设置一个点云簇空列表U和点队列V。对于C1中的每个点pi,先将其添加到当前队列V;对于V中的每个点,在以pi为球心,球半径为r的球形空间内,搜索得到其全部邻居点集合Pi k;对于Pi k中的每个点,检查其是否已被处理过,当没有时,则将其添加到V中并标记被处理过;当V中的每个点都已经被处理过时,将V添加到点云簇列表U中,然后清空队列V;最后当C1中的所有点均被处理过,聚类分割过程结束,输出点云簇列表U,U中点数目最多的点云即为E。
第九步 平面提取模块确定目标平面
平面提取模块提取三维空间平面,反复选择点云中的一组随机点云子集来提取最优平面。被选取的点云子集被假设为属于同一个三维空间平面的局内点,首先随机假设点云的一小组局内点为初始值,用此局内点拟合一个平面模型,假设的局内点位于此平面内,平面方程Ax+By+Cz+D=0的A、B、C和D四个平面模型参数从假设的局内点确定。用得到的模型去测试点云的所有点,当某个点适用于估计的模型时,则认为它也是局内点,用所有假设的局内点去重新估计平面模型,最后通过估计局内点与平面模型的错误率来评估模型。通过迭代最后得到最佳拟合平面P的参数A、B、C和D,向量(A,B,C)为平面P的法线向量,E中参与平面P拟合的空间点集合记为点云F。在平面提取过程中,提取合理结果的概率p在[0.95,0.99]范围内设置,最大迭代次数为NUM,根据速度需求在预定范围内设置。
第十步 参数确定模块确定平面参数特征
参数确定模块确定下面8个平面相关参数:
确定平面P与水平地面的夹角θ,用公式(5)表示:
公式(5)中,A、B和C为平面P的部分模型参数。
确定点云F的质心Q:确定F中所有点的坐标均值。
确定质心Q与东北天地理坐标系原点O的距离dQ,用公式(6)表示:
确定判断点M的位置:确定过质心Q(xQ,yQ,zQ)的平面P的法线上与Q距离为H的两个三维点M1和M2,选取M1和M2中坐标z值较大者,作为判断点M(xM,yM,zM),其中H根据三维成像传感器测量精度设置。利用公式(7)确定M1和M2:
确定判断点M与东北天地理坐标系原点O的距离dM,用公式(8)表示:
确定点云F中各点与地面的平均距离L,用公式(9)表示:
确定点云F中各点的z坐标均值用公式(10)表示:
确定点云F中离地最高的点的z坐标zmax,用公式(11)表示:
zmax=max(zi) (11)
第十一步类型判别模块确定地形和目标的类型
类型判别模块判定地形和目标的具体类型:
平地类型判别条件:θ<10°,且L<5cm。
上台阶类型判别条件:θ<10°,且L>5cm,且
下台阶类型判别条件:θ<10°,且L>5cm,且
上坡或上楼梯类型判别条件:10°≤θ≤40°,且dM<dQ,且且L>0.2m。
下坡或下楼梯类型判别条件:10°≤θ≤45°,且dM>dQ,且且L>0.2m。
栏杆类型判别条件:75°≤θ≤90°,且且zmax<1.2m。
墙类型判别条件:75°≤θ≤90°,且且zmax≥1.2m。
不满足以上条件的其他情况,则判定为地形和目标检测失败。
第十二步 定位确定模块确定地形和目标的定位信息
定位确定模块确定地形和目标的形状、位置、距离和方向的信息,提供给载体导航使用。
确定形状:确定点云F的最小包围盒,将包围盒的顶点作为地形和目标的形状信息输出给载体。
确定位置:确定F中各点与坐标系G原点O的距离,选择距离最近的点Pnear,将质心Q和最近点Pnear作为地形和目标的位置信息输出给载体。
确定距离:将距离|OQ|和|OPnear|作为地形和目标的距离信息输出给载体。
确定方向:将射线OQ在水平地面的投影与东北天地理坐标系OX正轴的夹角α,作为地形和目标的方向信息输出给载体。
至此,实现基于三维点云的地形和目标实时检测及定位。

Claims (12)

1.一种基于三维点云的地形和目标实时检测及定位方法,其特征在于具体步骤为:
第一步 构建地形和目标实时检测和定位系统
地形和目标实时检测和定位系统,包括:三维成像传感器模块、姿态测量模块、平滑填补模块、体素栅格滤波模块、统计滤波模块、坐标转换模块、聚类分割模块、平面提取模块、参数确定模块、类型判别模块和定位确定模块;
第二步 三维成像传感器模块采集三维点云三维成像传感器模块采集环境的原始的三维点云数据;三维成像传感器模块选择双目立体相机、RGBD深度相机或三维激光雷达;
利用双目立体相机,通过双摄像头同时采集左右两幅图像,经图像校正和立体匹配转换成视差图,根据相机内外参数生成传感器坐标系下的三维点云;
或利用RGBD深度相机,同时采集RGB彩色图和深度图,根据相机参数生成传感器坐标系下的三维点云;
或利用三维激光雷达,通过激光测距扫描直接获得传感器坐标系下的三维点云;
第三步 姿态测量模块采集姿态角
姿态测量模块采集自身三维姿态角,再根据三维成像传感器模块与姿态测量模块安装关系,确定三维成像传感器模块的三维姿态角,即航向角ψ、俯仰角θ和横滚角φ;
第四步 平滑填补模块填补点云空洞
平滑填补模块填补三维点云的空洞并对点云进行滤波去噪;首先利用空洞周围的有效视差或点云数据进行插值填补,再通过中值滤波器进行平滑去噪;
对于三维成像传感器的每个缺失视差/深度的像素点Pi,在视差/深度图的同一行向左右两个方向同时搜索第一个未缺失的正常像素,根据左右两个正常像素与Pi的距离通过加权得到其视差/深度,缺失视差/深度di的插值填补用公式(1)表示:
di=αdL+(1-α)dR,其中
公式(1)中,|LiPi|和|RiPi|分别表示左右两个正常像素与Pi的像素距离,dL和dR分别表示左右两个正常像素的视差/深度;
第五步 体素栅格滤波模块降采样点云
体素栅格滤波模块对点云进行降采样,保留点云特征同时,降低点云密度和点的数量,加快运算速度;首先确定点云各点到成像传感器坐标系原点的距离,剔除距离大于给定阈值DIST的点;再利用体素栅格滤波器对点云进行降采样,将三维空间分割成很多体素栅格,对于点云中落入同一栅格的所有点{qi},确定质心pc,用pc替代该栅格的所有点;
第六步 统计滤波模块去除点云异常点
统计滤波模块首先统计点云各点与其周围邻居点的距离,确定平均距离,再滤波去除平均距离大于预定阈值的异常点;假定点云各点与其周围最近N个邻居点的平均距离dmean符合高斯分布,确定每个点的dmean,对于dmean大于阈值dmean-th的点,作为统计异常点剔除;点p的与其N个邻居点{qi}的平均距离dmean用公式(2)表示:
公式(2)中,|pqi|表示点p与第i个邻居点qi的三维空间距离;
dmean-th用公式(3)表示:
公式(3)中,和σ分别为全局统计的距离均值和标准差,λ根据滤波效果需求在一定范围内设置;
第七步 坐标转换模块转换点云至地理坐标系
坐标转换模块将点云从三维成像传感器坐标系转换到东北天地理坐标系下,使其具备真实空间方位信息;根据三维成像传感器的三维空间姿态角和三维成像传感器距离地面高度H,将点云转换至东北天地理坐标系下,转换后的点云记为C1;坐标转换用公式(4)表示:
公式(4)中,[XG YG ZG]T是空间点在东北天地理坐标系下的坐标,[XS YS ZS]T是其在传感器坐标系下的坐标;
第八步 聚类分割模块确定目标子点云
聚类分割模块分割属于同一地形和目标的点数量最多的子点云,利用欧式聚类方式分割点云,分割后点数目最多的子点云记为E,E的空间点属于同一地形或目标;创建kd-tree搜索树表示C1,设置一个点云簇空列表U和点队列V;对于C1中的每个点pi,先将其添加到当前队列V;对于V中的每个点,在以pi为球心,球半径为r的球形空间内,搜索得到其全部邻居点集合Pi k;对于Pi k中的每个点,检查其是否已被处理过,当没有时,则将其添加到V中并标记被处理过;当V中的每个点都已经被处理过时,将V添加到点云簇列表U中,然后清空队列V;最后当C1中的所有点均被处理过,聚类分割过程结束,输出点云簇列表U,U中点数目最多的点云即为E;
第九步 平面提取模块确定目标平面
平面提取模块提取三维空间平面,反复选择点云中的一组随机点云子集来提取最优平面;被选取的点云子集被假设为属于同一个三维空间平面的局内点,首先随机假设点云的一小组局内点为初始值,用此局内点拟合一个平面模型,假设的局内点位于此平面内,平面方程Ax+By+Cz+D=0的A、B、C和D四个平面模型参数从假设的局内点确定;用得到的模型去测试点云的所有点,当某个点适用于估计的模型时,则认为它也是局内点,用所有假设的局内点去重新估计平面模型,最后通过估计局内点与平面模型的错误率来评估模型;通过迭代最后得到最佳拟合平面P的参数A、B、C和D,向量(A,B,C)为平面P的法线向量,E中参与平面P拟合的空间点集合记为点云F;在平面提取过程中,提取合理结果的概率p在[0.95,0.99]范围内设置,最大迭代次数为NUM,根据速度需求在预定范围内设置;
第十步 参数确定模块确定平面参数特征
参数确定模块确定下面8个平面相关参数:
确定平面P与水平地面的夹角θ,用公式(5)表示:
公式(5)中,A、B和C为平面P的部分模型参数;
确定点云F的质心Q:确定F中所有点的坐标均值;
确定质心Q与东北天地理坐标系原点O的距离dQ,用公式(6)表示:
确定判断点M的位置:确定过质心Q(xQ,yQ,zQ)的平面P的法线上与Q距离为H的两个三维点M1和M2,选取M1和M2中坐标z值较大者,作为判断点M(xM,yM,zM),其中H根据三维成像传感器测量精度设置;利用公式(7)确定M1和M2:
确定判断点M与东北天地理坐标系原点O的距离dM,用公式(8)表示:
确定点云F中各点与地面的平均距离L,用公式(9)表示:
确定点云F中各点的z坐标均值用公式(10)表示:
确定点云F中离地最高的点的z坐标zmax,用公式(11)表示:
zmax=max(zi) (11)
第十一步类型判别模块确定地形和目标的类型
类型判别模块判定地形和目标的具体类型:
平地类型判别条件:θ<10°,且L<5cm;
上台阶类型判别条件:θ<10°,且L>5cm,且
下台阶类型判别条件:θ<10°,且L>5cm,且
上坡或上楼梯类型判别条件:10°≤θ≤40°,且dM<dQ,且且L>0.2m;
下坡或下楼梯类型判别条件:10°≤θ≤45°,且dM>dQ,且且L>0.2m;
栏杆类型判别条件:75°≤θ≤90°,且且zmax<1.2m;
墙类型判别条件:75°≤θ≤90°,且且zmax≥1.2m;
不满足以上条件的其他情况,则判定为地形和目标检测失败;
第十二步 定位确定模块确定地形和目标的定位信息
定位确定模块确定地形和目标的形状、位置、距离和方向的信息,提供给载体导航使用;
确定形状:确定点云F的最小包围盒,将包围盒的顶点作为地形和目标的形状信息输出给载体;
确定位置:确定F中各点与坐标系G原点O的距离,选择距离最近的点Pnear,将质心Q和最近点Pnear作为地形和目标的位置信息输出给载体;
确定距离:将距离|OQ|和|OPnear|作为地形和目标的距离信息输出给载体;
确定方向:将射线OQ在水平地面的投影与东北天地理坐标系OX正轴的夹角α,作为地形和目标的方向信息输出给载体;
至此,实现基于三维点云的地形和目标实时检测及定位。
2.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述三维成像传感器模块的功能为:采集环境三维点云信息。
3.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述姿态测量模块的功能为:测量三维成像传感器模块的空间姿态角。
4.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述平滑填补模块的功能为:填补三维点云缺失信息。
5.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述体素栅格滤波模块的功能为:对三维点云降采样。
6.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述统计滤波模块的功能为:对三维点云进行统计滤波。
7.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述坐标转换模块的功能为:转换三维点云到东北天地理坐标系下。
8.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述聚类分割模块的功能为:提取属于同一地形和目标的点数目最多的子点云。
9.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述平面提取模块的功能为:从子点云中提取三维空间平面。
10.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述参数确定模块的功能为:确定提取平面的相关参数。
11.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述类型判别模块的功能为:根据平面参数判别地形和目标的具体类别。
12.根据权利要求1所述的一种基于三维点云的地形和目标实时检测及定位方法,其特征在于所述定位确定模块的功能为:确定地形和目标的形状、位置、距离和方向的信息并提供给载体导航使用。
CN202210518497.0A 2022-05-12 2022-05-12 一种基于三维点云的地形和目标实时检测及定位方法 Active CN115100264B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210518497.0A CN115100264B (zh) 2022-05-12 2022-05-12 一种基于三维点云的地形和目标实时检测及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210518497.0A CN115100264B (zh) 2022-05-12 2022-05-12 一种基于三维点云的地形和目标实时检测及定位方法

Publications (2)

Publication Number Publication Date
CN115100264A CN115100264A (zh) 2022-09-23
CN115100264B true CN115100264B (zh) 2024-04-02

Family

ID=83287951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210518497.0A Active CN115100264B (zh) 2022-05-12 2022-05-12 一种基于三维点云的地形和目标实时检测及定位方法

Country Status (1)

Country Link
CN (1) CN115100264B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020135446A1 (zh) * 2018-12-24 2020-07-02 深圳市道通智能航空技术有限公司 一种目标定位方法和装置、无人机
CN112396650A (zh) * 2020-03-30 2021-02-23 青岛慧拓智能机器有限公司 一种基于图像和激光雷达融合的目标测距系统及方法
CN113450408A (zh) * 2021-06-23 2021-09-28 中国人民解放军63653部队 一种基于深度相机的非规则物体位姿估计方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020135446A1 (zh) * 2018-12-24 2020-07-02 深圳市道通智能航空技术有限公司 一种目标定位方法和装置、无人机
CN112396650A (zh) * 2020-03-30 2021-02-23 青岛慧拓智能机器有限公司 一种基于图像和激光雷达融合的目标测距系统及方法
CN113450408A (zh) * 2021-06-23 2021-09-28 中国人民解放军63653部队 一种基于深度相机的非规则物体位姿估计方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度投影的三维点云目标分割和碰撞检测;王张飞;刘春阳;隋新;杨芳;马喜强;陈立海;;光学精密工程;20200731(第07期);第1600-1608页 *

Also Published As

Publication number Publication date
CN115100264A (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN110781827B (zh) 一种基于激光雷达与扇状空间分割的路沿检测系统及其方法
CN106650640B (zh) 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN110221603A (zh) 一种基于激光雷达多帧点云融合的远距离障碍物检测方法
CN102435174B (zh) 基于混合式双目视觉的障碍物检测方法及装置
CN104091369B (zh) 一种无人机遥感影像建筑物三维损毁检测方法
CN101975951B (zh) 一种融合距离和图像信息的野外环境障碍检测方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN113359782B (zh) 一种融合lidar点云与图像数据的无人机自主选址降落方法
CN112800938B (zh) 无人驾驶车辆检测侧面落石发生的方法及装置
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
WO2023060632A1 (zh) 基于点云数据的街景地物多维度提取方法和系统
Zhang et al. Filtering photogrammetric point clouds using standard lidar filters towards dtm generation
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN114170535A (zh) 目标检测定位方法、装置、控制器及存储介质和无人机
CN111563957B (zh) 一种煤田火灾及矸石山火灾三维温度场数字化成像方法
CN106709432B (zh) 基于双目立体视觉的人头检测计数方法
Yao et al. Automated detection of 3D individual trees along urban road corridors by mobile laser scanning systems
CN115100264B (zh) 一种基于三维点云的地形和目标实时检测及定位方法
CN115930946A (zh) 室内外交变环境下动态障碍物多特征描述的方法
Abdullah et al. Automatic segmentation of LiDAR point cloud data at different height levels for 3D building extraction
CN114972358B (zh) 一种基于人工智能的城市测绘激光点云偏移检测方法
CN114972541B (zh) 基于三维激光雷达和双目相机融合的轮胎吊立体防撞方法
CN111414848B (zh) 一种全类别3d障碍物检测方法、系统和介质
CN110110645A (zh) 一种适用于低信噪比图像的障碍快速识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant