CN116342621A - 基于空间运动目标三维重构的几何参数辨识方法及系统 - Google Patents

基于空间运动目标三维重构的几何参数辨识方法及系统 Download PDF

Info

Publication number
CN116342621A
CN116342621A CN202310300165.XA CN202310300165A CN116342621A CN 116342621 A CN116342621 A CN 116342621A CN 202310300165 A CN202310300165 A CN 202310300165A CN 116342621 A CN116342621 A CN 116342621A
Authority
CN
China
Prior art keywords
space moving
point cloud
space
moving object
moving target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310300165.XA
Other languages
English (en)
Inventor
彭键清
张弛
韩瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202310300165.XA priority Critical patent/CN116342621A/zh
Publication of CN116342621A publication Critical patent/CN116342621A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了基于空间运动目标三维重构的几何参数辨识方法及系统,该方法包括:获取单目视觉图像数据和稀疏点云数据;对单目视觉图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;基于视觉映射方法将稀疏雷达的稀疏点云数据与光学模型进行融合,得到点云粗提取结果;基于迭代匹配多视角点云融合方法对点云粗提取结果进行融合处理;基于特征和学习混合法对点云融合结果进行三维重构并对空间运动目标的几何参数进行自主辨识。通过使用本发明,能够提高空间运动目标三维重构和几何参数自主辨识的精确性、稳定性以及时效性。本发明作为基于空间运动目标三维重构的几何参数辨识方法及系统,可广泛应用于计算机视觉领域。

Description

基于空间运动目标三维重构的几何参数辨识方法及系统
技术领域
本发明涉及计算机视觉技术领域,尤其涉及基于空间运动目标三维重构的几何参数辨识方法及系统。
背景技术
在机械臂抓取任务中,一般包括空间运动目标的定位、跟踪和抓取三个过程。如果空间运动目标具有一定的运动速度,那么机械臂抓取的难度大幅度上升。因此,在定位过程中,需要通过视觉系统实现空间运动目标的几何参数的辨识和相对位姿的估计,它的前提条件是初始相对位姿已知。三维重构能够获取空间运动目标的点云信息,进而可以确定其初始相对位姿和几何参数,为后续的跟踪和抓取任务提供重要信息。因此,在对相对位姿进行估计之前,有必要对空间运动目标进行三维重建,从而获取精确的参考相对位姿。视觉相机蕴含着丰富的边缘信息,而雷达数据更好地体现了尺度信息。然而,传统方法没有对视觉和点云进行匹配,不能充分利用图像丰富的边缘特征。
发明内容
为了解决上述技术问题,本发明的目的是提供基于空间运动目标三维重构的几何参数辨识方法及系统,通过多源融合可以实现多视角视觉和点云的信息互补,提高空间运动目标三维重构和几何参数自主辨识的精确性、稳定性以及时效性。
本发明所采用的第一技术方案是:基于空间运动目标三维重构的几何参数辨识方法,包括以下步骤:
通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
进一步,所述通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型这一步骤,其具体包括:
将空间运动目标的单目视觉的图像数据进行空间转换处理,得到空间运动目标的HSV图像;
设置预设颜色分割阈值对空间运动目标的HSV图像进行分割处理,得到初步的分割结果;
通过图像膨胀技术对初步的分割结果中空间运动目标的残缺部位进行填充,得到空间运动目标的填充图像;
对空间运动目标的填充图像的轮廓进行提取筛选,获取空间运动目标的边缘轮廓直线;
对空间运动目标的边缘轮廓直线进行拟合,提取边缘直线的有效顶点;
基于极坐标思想对边缘直线的有效顶点进行排序并根据排序结果进行首尾相连,构建空间运动目标的光学模型即空间运动目标的掩码图像。
进一步,所述基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果这一步骤,其具体包括:
根据空间运动目标的光学模型,对空间运动目标的稀疏点云数据进行映射处理,获取对应的像素坐标;
将存在单目视觉的有效视野范围内的像素坐标与三维点进行匹配,获取空间运动目标在点云空间中的顶点,所述三维点为空间运动目标的点云中的三维点;
引入带约束的非线性优化问题,利用最近邻策略将空间运动目标在点云空间中的顶点与视觉空间中的顶点即有效顶点进行匹配处理,得到空间运动目标的点云粗提取结果。
进一步,所述带约束的非线性优化问题的表达式具体如下所示:
Figure BDA0004144903590000021
Figure BDA0004144903590000022
(camRlidar)Tcamplidar=I
Figure BDA0004144903590000023
上式中,
Figure BDA0004144903590000024
表示空间运动目标的光学模型,Ain表示单目视觉的内参矩阵,Aex表示单目视觉的外参矩阵,lidar表示稀疏雷达坐标系,cam表示相机坐标系,si表示该点i投影在图像平面上的像素坐标,camRlidar表示lidar相对于cam的旋转矩阵,ωi表示单目视觉的视野范围,/>
Figure BDA0004144903590000031
表示根据光学模型计算的lidarpi的像素坐标。
进一步,所述基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果这一步骤,其具体包括:
确定参考点云,获取空间运动目标的点云粗提取结果的第k帧临近点云;
基于迭代最近点算法迭代求解第k帧临近点云对齐到参考点云的旋转矩阵和平移向量;
引入带约束的非线性优化方程,对第k帧临近点云与参考点云进行迭代匹配,对匹配结果进行判断;
判断到匹配结果大于预设阈值则更新第k帧临近点云对齐到参考点云的旋转矩阵和平移向量并再次进行匹配,直至匹配结果小于预设阈值,将第k帧临近点云与参考点云依次进行统一与融合处理,得到空间运动目标的点云融合结果。
进一步,所述带约束的非线性优化方程的表达式具体如下所示:
Figure BDA0004144903590000032
Figure BDA0004144903590000033
上式中,refRk表示第k帧临近点云对齐到参考点云的旋转矩阵,reftk表示第k帧临近点云对齐到参考点云的平移向量,pk,i表示第k帧临近点云数据,pref,j表示参考点云数据,Nk表示第k帧临近点云所含三维点的数量。
进一步,所述基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果这一步骤,其具体包括:
基于迭代的空间运动目标三维重构方法对空间运动目标的点云融合结果进行分解优化,得到正交平面的最优参数;
结合正交平面的最优参数,基于优化的空间运动目标三维重构方法对空间运动目标进行三维重构处理,得到空间运动目标的三维重构结果;
基于空间运动目标的三维重构结果对空间运动目标的几何参数进行自辨识处理,得到辨识结果,所述辨识结果包括空间运动目标的顶点参数、空间运动目标的尺寸向量、空间运动目标的坐标轴和空间运动目标的中心。
进一步,所述基于迭代的空间运动目标三维重构方法对空间运动目标的点云融合结果进行分解优化,得到正交平面的最优参数这一步骤,其具体包括:
将空间运动目标的点云融合结果进行分解处理,得到空间运动目标的三个单平面,所述空间运动目标的三个单平面之间两两为正交关系;
基于空间运动目标的单平面,考虑平面法向量的约束关系,选取不共线的三个点,得到满足预设空间关系条件的六个空间点;
所述预设空间关系条件为第一空间点、第二空间点和第三空间点位于第一平面且第一空间点、第二空间点和第三空间点不共线,第四空间点和第五空间点位于第二平面且第四空间点和第五空间点构成的直线不与第一平面垂直,第六空间点位于第三平面;
基于上述空间运动目标的三个单平面与六个空间点,构建三个正交平面的数学模型,所述三个正交平面的数学模型包括对应平面的法向量与偏移量;
通过随机抽样一致算法对正交平面的数学模型进行估计,得到正交平面的最优参数。
进一步,所述结合正交平面的最优参数,基于优化的空间运动目标三维重构方法对空间运动目标进行三维重构处理,得到空间运动目标的三维重构结果这一步骤,其具体包括:
采用基于迭代的单平面拟合算法对空间运动目标的三个平面进行分割和局外点滤除,获取对应平面的粗参数;
根据平面的粗参数对平面的数学模型进行优化,得到对应平面的超定方程组;
对平面的超定方程组进行转换处理,获取对应平面的最小二乘问题;
根据对应平面的最小二乘问题对对应的平面进行拟合处理,得到对应平面的拟合结果;
结合各个平面的拟合结果构建空间运动目标的三维重构结果。
本发明所采用的第二技术方案是:基于空间运动目标三维重构的几何参数辨识系统,包括:
多源数据获取模块,用于通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
多源数据分割模块,用于通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
多源数据融合模块,基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
多源数据提取模块,基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
多源数据重构模块,基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
本发明方法及系统的有益效果是:本发明通过获取单目视觉的图像数据和稀疏点云数据,通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,减小图像噪声和遮挡物的影响,并利用图像膨胀技术对空间运动目标的残缺部位进行填充,实现了“像素-色彩-类别”的关联,进一步基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,判断三维点是否属于空间运动目标,从而实现了空间运动目标的自主点云区域分割,实现“像素-色彩-类别-深度”的关联,更进一步的基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,能够通过坐标变换的方式,将相邻多视角点云进行对齐,实现多视角点云之间的信息互补,从而提高三维重构的效果和信息提取的精度,即通过多源融合可以实现多视角视觉和点云的信息互补,提高空间运动目标三维重构和几何参数自主辨识的精确性、稳定性以及时效性。
附图说明
图1是本发明基于空间运动目标三维重构的几何参数辨识方法的步骤流程图;
图2是本发明基于空间运动目标三维重构的几何参数辨识系统的结构框图;
图3是本发明单目视觉和稀疏雷达测量系统的坐标关系图;
图4是本发明基于特征的自主视觉区域分割框图;
图5是本发明基于特征的自主视觉区域分割流程图;
图6是本发明基于视觉和点云融合的自主区域分割流程示意图;
图7是本发明基于迭代匹配的空间运动目标多视角点云融合流程图;
图8是本发明空间运动目标的融合点云结果示意图;
图9是本发明空间运动目标的模型示意图;
图10是本发明第一平面的拟合树状图;
图11是本发明第二平面的拟合树状图;
图12是本发明基于迭代的空间运动目标三维重构方法对空间运动目标的三维重构结果示意图;
图13是本发明基于优化的空间运动目标三维重构方法对空间运动目标进行三维重构结果示意图;
图14是本发明基于迭代的空间运动目标三维重构方法下的空间运动目标的几何参数误差柱状图;
图15是本发明基于优化的空间运动目标三维重构方法下的空间运动目标的几何参数误差柱状图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1,本发明提供了基于空间运动目标三维重构的几何参数辨识方法,该方法包括以下步骤:
S1、通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
具体地,通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据,所述多线激光雷达的前向为X轴、左向为Y轴、垂直向上为Z轴,单目摄像头的右向为X轴、垂直向下为Y轴、前向为Z轴;
参照图3,坐标系{cam}表示相机坐标系,坐标系{lidar}表示稀疏雷达坐标系,坐标系{img}表示图像坐标系,camTlidarcamRlidarcamtlidar分别表示{lidar}相对于{cam}的齐次坐标变换矩阵、旋转矩阵和平移向量,campi=[camxi,camyi,camzi]Tlidarpi=[lidarxi,lidaryi,lidarzi]T分别表示空间运动目标上的第i个点相对于坐标系{cam}和{lidar}的笛卡尔坐标,si=[ui,vi]T表示该点投影在图像平面上的像素坐标。
S2、通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
具体地,参照图4和图5,本发明提出了一种基于特征的自主视觉区域分割方法:第一,根据颜色特征对空间运动目标进行初步分割;第二,根据形状特性对空间运动目标的外轮廓进行拟合。
S21、基于颜色特征的分割;
具体地,与RGB空间相比,HSV空间更能够表达图像的色调特征,它方便于空间运动目标颜色的比较和提取。因此,利用色调阈值对空间运动目标的HSV图像进行初步的分割。为了减小噪声和遮挡物的影响,利用图像膨胀技术对空间运动目标的残缺部位进行填充。
S22、基于外形特征的拟合;
具体地,第一,为了消除背景环境对空间运动目标的干扰,对图像的轮廓进行初步的提取和筛选。第二,对空间运动目标边缘中的直线进行拟合。第三,提取边缘直线的有效交点,利用极坐标的思想将提取到的顶点进行排序,进而将其首尾相连构成空间运动目标的本体模型。
S3、基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
具体地,参照图6,根据小孔成像原理,单目视觉的光学模型可表示为:
Figure BDA0004144903590000071
其中,
Figure BDA0004144903590000072
和Aex=[camRlidar,camtlidar]分别表示单目视觉的内参矩阵和外参矩阵;
根据单目视觉的光学模型,可以将空间运动目标的点云映射到图像平面,获取对应的像素坐标,如果像素坐标在单目视觉的有效视野范围内,那么三维点可以与像素点进行匹配,形成“像素-色彩-深度”关联。由于空间运动目标在图像平面的顶点已经提取,因此可以利用最近邻策略实现点云空间和视觉空间中顶点的匹配。因此,带约束的非线性优化问题可表示为:
Figure BDA0004144903590000073
Figure BDA0004144903590000074
(camRlidar)TcamRlidar=I
Figure BDA0004144903590000075
上式中,
Figure BDA0004144903590000076
表示空间运动目标的光学模型,Ain表示单目视觉的内参矩阵,Aex表示单目视觉的外参矩阵,lidar表示稀疏雷达坐标系,cam表示相机坐标系,si表示该点i投影在图像平面上的像素坐标,camRlidar表示lidar相对于cam的旋转矩阵,ωi表示单目视觉的视野范围,/>
Figure BDA0004144903590000077
表示根据光学模型计算的lidarpi的像素坐标;
假设Iobj和Imask分别表示空间运动目标的原始图像和掩码图像,两者的关系可表示为:
Figure BDA0004144903590000078
其中,Iobj(s)和Imask(s)分别表示Iobj和Imask在像素坐标s处的值。
另外,在自主视觉区域分割中,实现了“像素-色彩-类别”的关联。最终,结合两种关联可以获得“像素-色彩-类别-深度”的关联,根据该关联可以判断三维点是否属于空间运动目标,从而实现了空间运动目标的自主点云区域分割,也即:
Figure BDA0004144903590000081
S4、基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
具体地,参照图7和图8,空间运动目标的单帧点云较为稀疏,这导致了三维重构的效果较差且关键信息提取的精度较低。实际上,在空间运动目标运动的过程中,稀疏雷达可以采集不同视角下的空间运动目标点云,如果能够通过坐标变换的方式,将相邻多视角点云进行对齐,那么就能够实现多视角点云之间的信息互补,从而提高三维重构的效果和信息提取的精度。基于此,本发明提出了一种基于迭代优化的空间运动目标多点云融合算法。
假设Pref={pref,j|j=1,2,…,Nref}表示参考点云,Pk={pk,i|i=1,2,…,Nk}表示第k帧临近点云,其中,k=1,2,…K且K≥1。以Pk对齐到Pref为例,首先利用迭代最近点算法迭代求解Pk对齐到Pref的旋转矩阵refRk和平移向量reftk,带约束的非线性优化方程可表示为:
Figure BDA0004144903590000082
Figure BDA0004144903590000083
上式中,refRk表示第k帧临近点云对齐到参考点云的旋转矩阵,reftk表示第k帧临近点云对齐到参考点云的平移向量,pk,i表示第k帧临近点云数据,pref,j表示参考点云数据,Nk表示第k帧临近点云所含三维点的数量;
假设临近点云和参考点云之中pk,i和pref,j相互匹配,那么两个点云的变换关系可表示为:
pref,jrefRkpk,i+reftk
其次,我们利用refRkreftk将Pk统一到与Pref对应的参考坐标系中,从而获得对齐点云Qk。最后,对所有对齐点云进行融合。因此,融合点云Pfusion(其初始化值为Pref)可表示为:
Figure BDA0004144903590000084
S5、基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
具体地,参照图9,在空间运动目标的正交平面参数方面,n1=[n1x,n1y,n1z]T和k1分别表示第一平面的法向量和偏移量;n2=[n2x,n2y,n2z]T和k2分别表示第二平面的法向量和偏移量;n3=[n3x,n3y,n3z]T和k3分别表示平面3的法向量和偏移量。在空间运动目标的几何参数方面,aobj=[a1,a2,a3]T分别表示尺寸向量,pv0和pc分别表示顶点和中心,xobj、yobj和zobj分别表示三个坐标轴,且Robj=[xobj,yobj,zobj]T构成了旋转矩阵。另外,令空间运动目标的三个坐标轴分别与三个正交平面的法向量平行,也即,xobj//n1,yobj//n2和zobj//n3
S51、基于迭代的空间运动目标三维重构方法;
具体地,随机抽样一致算法能够通过迭代方式对目标的模型参数进行估计。由于一个平面具有三个自由度,它拟合单平面的思想是:首先从观测点云中随机抽样不共线的三个点,然后根据“三点确定一个平面”的定理求解平面参数,最后利用求解的参数计算观测点云中内点的数量/比例,从而在迭代更新估计单平面模型的最优参数。基于该思想,我们将空间运动目标分解为三个单平面,理论上,拟合这三个单平面至少需要九个点。然而,由于空间运动目标的三个平面是相互正交的,这提供了关于法向量的三个约束。因此,最少需要六个点便可以对空间运动目标的三个正交平面进行拟合。
利用空间六个点p1、p2、p3、p4、p5、p6可以对空间运动目标三个正交平面进行建模,其需要满足以下条件:
(1)六个点在分布在三个平面上,也即,p1、p2、p3在第一平面上,p4、p5在第二平面上,p6在平面3上;
(2)第一平面上的三个点不共线,也即,p1、p2、p3不共线;
(3)第二平面上的两个点构成的直线不与第一平面垂直,也即,向量v45=p4-p5不垂直于第二平面。
进一步地,根据平面方程nTp+k=0以及相应的法向量正交约束,我们可以分别建立三个正交平面的数学模型:
(1)第一平面的法向量n1和偏移量k1可表示为:
Figure BDA0004144903590000091
(2)根据第一平面和第二平面之间的正交性,第二平面的法向量n2同时与n1和v45垂直。如果不满足要求3,则n1与v45平行,缺失了一个关于n2的约束。因此,根据p4、p5以及n1,第二平面的法向量n2和偏移量k2可表示为:
Figure BDA0004144903590000101
(3)由于三个平面是正交的,三个平面的法向量是相互垂直的。因此,平面3的法向量n3和偏移量k3可表示为:
Figure BDA0004144903590000102
最后,利用随机抽样一致算法估计正交平面的最优参数。基于迭代的三维重构算法在对空间运动目标进行拟合的过程中,还能够对局外点进行滤除,并且单步拟合程序简单。
S52、基于优化的空间运动目标三维重构方法;
具体地,基于迭代的三维重构算法仅利用少数点对空间运动目标进行拟合,丢失了大部分点的信息。基于优化的方法能够解决这个问题,它综合考虑所有点的信息,但是却容易受到局外点的影响。因此,在利用基于优化的方法对空间运动目标进行三维重构之前,需要将点云分成与三个平面相对应的三个部分。得益于单步拟合程序简单的特点,采用基于迭代的单平面拟合算法对空间运动目标的三个平面进行分割和局外点滤除,该方法还能够提取平面的粗参数。
根据法向量可以将平面的数学模型分为三种情况,也即是n1x≠0、n1y≠0和n1z≠0。在选择合理的数学模型时,利用平面粗参数进行判断。以n1x≠0的情况为例,第一平面的方程
Figure BDA0004144903590000106
可化简为:
m11y+m12z+m13=x
其中,
Figure BDA0004144903590000103
假设P1={pi=[xi,yi,zi]T|i=1,2,…,N1}表示第一平面的内点云。根据式,可以建立关于m1的超定方程组:
Figure BDA0004144903590000104
可以将式转换为一个最小二乘问题:
Figure BDA0004144903590000105
最终,式的闭式解为
Figure BDA0004144903590000111
另外,奇异值分解(SVD)的方法也可以用于式的求解,如图10所示。
参照图11,以n2x≠0的情况为例,第二平面的方程
Figure BDA0004144903590000112
可化简为:
m12y+m22z+m23=x
其中,
Figure BDA0004144903590000113
根据第一平面和第二平面的正交性,建立两个平面间法向量的数学关系:
Figure BDA0004144903590000114
相似地,根据式和,可以建立关于m2的带线性约束的最小二乘问题:
Figure BDA0004144903590000115
Figure BDA0004144903590000116
其中,A2和b2分别表示关于m2的超定方程组的系数矩阵和常数向量,以及k1=[m11m12 0]T
平面3的法向量可表示为n3=n1×n2,k3的最小二乘解可表示为:
Figure BDA0004144903590000117
S53、空间运动目标几何参数自主辨识方法;
S531、空间运动目标的顶点;
具体地,对于空间运动目标顶点pv0的求解,只需要联立三个正交平面的一般式方程nTp+k=0,其解也即是pv0。因此,pv0可表示为:
Figure BDA0004144903590000118
其中,N=[nx,ny,nz],B1=[-k,ny,nz],B2=[nx,-k,nz],B3=[nx,ny,-k],nx=[n1x,n2x,n3x]T,ny=[n1y,n2y,n3y]T,nz=[n1z,n2z,n3z]T,k=[k1,k2,k3]T
S532、空间运动目标的尺寸向量;
具体地,对于空间运动目标尺寸向量aSNCT的求解,其思想如下:首先,计算内点云到第i个平面的最远距离;其次,选择nfar个与第i个平面相对应的最远点组成最远点云Qi,并且对Qi进行直线拟合得到直线Li;最后,ai可表示为第i个平面与Li之间的距离
S533、空间运动目标的坐标轴;
具体地,对于空间运动目标坐标轴xSNCT、ySNCT和ZSNCT的求解,其思想如下:首先,计算第i个平面的内点云Pi的重心投影点pc,i;其次,计算pc,i到第j(j≠i)个平面的投影点qi,j;最后,与第k(k≠i且k≠j)个平面相对应的坐标轴v可表示为:
Figure BDA0004144903590000121
S534、空间运动目标的中心;
具体地,空间运动目标坐标的中心可表示为:
pc=pv0+RSNCTaSNCT
参照图2,基于空间运动目标三维重构的几何参数辨识系统,包括:
多源数据获取模块,用于通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
多源数据分割模块,用于通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
多源数据融合模块,基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
多源数据提取模块,基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
多源数据重构模块,基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
进一步基于本发明的方法进行数值仿真模拟,在实验平台中,控制空间运动目标按照一定轨迹运动,具体如图12、图13、图14和图15所示,其中:
对于图12为基于迭代的空间运动目标三维重构方法的三维模型重构结果,所重构的模型对空间运动目标的点云进行了较好的拟合;
对于图13为基于优化的空间运动目标三维重构方法的三维模型重构结果,所重构的模型对空间运动目标的点云进行了更好的拟合;
对于图14为基于迭代的空间运动目标三维重构方法的三维几何参数辨识误差柱状图。三个图分别表示X、Y、Z三轴上的几何参数误差,横轴表示空间运动目标运动过程中采集到的十帧数据,可以看出误差较小(XYZ三轴误差的平均值分别为5.5609mm、9.5463mm、6.8343mm)且鲁棒性较高(XYZ三轴误差的标准差分别为3.9431mm、7.8998mm、3.3252mm);
对于图15为基于优化的空间运动目标三维重构方法的三维几何参数辨识误差柱状图。三个图分别表示X、Y、Z三轴上的几何参数误差,横轴表示空间运动目标运动过程中采集到的十帧数据,可以看出误差更小(XYZ三轴误差的平均值分别为0.9837mm、4.8449mm、1.4981mm)且鲁棒性更高(XYZ三轴误差的标准差分别为0.6638mm、0.9897mm、0.9437mm)。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.基于空间运动目标三维重构的几何参数辨识方法,其特征在于,包括以下步骤:
通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
2.根据权利要求1所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型这一步骤,其具体包括:
将空间运动目标的单目视觉的图像数据进行空间转换处理,得到空间运动目标的HSV图像;
设置预设颜色分割阈值对空间运动目标的HSV图像进行分割处理,得到初步的分割结果;
通过图像膨胀技术对初步的分割结果中空间运动目标的残缺部位进行填充,得到空间运动目标的填充图像;
对空间运动目标的填充图像的轮廓进行提取筛选,获取空间运动目标的边缘轮廓直线;
对空间运动目标的边缘轮廓直线进行拟合,提取边缘直线的有效顶点;
基于极坐标思想对边缘直线的有效顶点进行排序并根据排序结果进行首尾相连,构建空间运动目标的光学模型即空间运动目标的掩码图像。
3.根据权利要求2所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果这一步骤,其具体包括:
根据空间运动目标的光学模型,对空间运动目标的稀疏点云数据进行映射处理,获取对应的像素坐标;
将存在单目视觉的有效视野范围内的像素坐标与三维点进行匹配,获取空间运动目标在点云空间中的顶点,所述三维点为空间运动目标的点云中的三维点;
引入带约束的非线性优化问题,利用最近邻策略将空间运动目标在点云空间中的顶点与视觉空间中的顶点即有效顶点进行匹配处理,得到空间运动目标的点云粗提取结果。
4.根据权利要求3所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述带约束的非线性优化问题的表达式具体如下所示:
Figure FDA0004144903580000021
Figure FDA0004144903580000022
camRlidar)TcamRlidar=I
Figure FDA0004144903580000023
上式中,
Figure FDA0004144903580000024
表示空间运动目标的光学模型,Ain表示单目视觉的内参矩阵,Aex表示单目视觉的外参矩阵,lidar表示稀疏雷达坐标系,cam表示相机坐标系,si表示该点i投影在图像平面上的像素坐标,camRlidar表示lidar相对于cam的旋转矩阵,ωi表示单目视觉的视野范围,/>
Figure FDA0004144903580000025
表示根据光学模型计算的lidarpi的像素坐标。
5.根据权利要求4所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果这一步骤,其具体包括:
确定参考点云,获取空间运动目标的点云粗提取结果的第k帧临近点云;
基于迭代最近点算法迭代求解第k帧临近点云对齐到参考点云的旋转矩阵和平移向量;
引入带约束的非线性优化方程,对第k帧临近点云与参考点云进行迭代匹配,对匹配结果进行判断;
判断到匹配结果大于预设阈值则更新第k帧临近点云对齐到参考点云的旋转矩阵和平移向量并再次进行匹配,直至匹配结果小于预设阈值,将第k帧临近点云与参考点云依次进行统一与融合处理,得到空间运动目标的点云融合结果。
6.根据权利要求5所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述带约束的非线性优化方程的表达式具体如下所示:
Figure FDA0004144903580000031
s.t.(refRk)TrefRk=I
上式中,refRk表示第k帧临近点云对齐到参考点云的旋转矩阵,reftk表示第k帧临近点云对齐到参考点云的平移向量,pk,i表示第k帧临近点云数据,pref,j表示参考点云数据,Nk表示第k帧临近点云所含三维点的数量。
7.根据权利要求6所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果这一步骤,其具体包括:
基于迭代的空间运动目标三维重构方法对空间运动目标的点云融合结果进行分解优化,得到正交平面的最优参数;
结合正交平面的最优参数,基于优化的空间运动目标三维重构方法对空间运动目标进行三维重构处理,得到空间运动目标的三维重构结果;
基于空间运动目标的三维重构结果对空间运动目标的几何参数进行自辨识处理,得到辨识结果,所述辨识结果包括空间运动目标的顶点参数、空间运动目标的尺寸向量、空间运动目标的坐标轴和空间运动目标的中心。
8.根据权利要求7所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述基于迭代的空间运动目标三维重构方法对空间运动目标的点云融合结果进行分解优化,得到正交平面的最优参数这一步骤,其具体包括:
将空间运动目标的点云融合结果进行分解处理,得到空间运动目标的三个单平面,所述空间运动目标的三个单平面之间两两为正交关系;
基于空间运动目标的单平面,考虑平面法向量的约束关系,选取不共线的三个点,得到满足预设空间关系条件的六个空间点;
所述预设空间关系条件为第一空间点、第二空间点和第三空间点位于第一平面且第一空间点、第二空间点和第三空间点不共线,第四空间点和第五空间点位于第二平面且第四空间点和第五空间点构成的直线不与第一平面垂直,第六空间点位于第三平面;
基于上述空间运动目标的三个单平面与六个空间点,构建三个正交平面的数学模型,所述三个正交平面的数学模型包括对应平面的法向量与偏移量;
通过随机抽样一致算法对正交平面的数学模型进行估计,得到正交平面的最优参数。
9.根据权利要求8所述基于空间运动目标三维重构的几何参数辨识方法,其特征在于,所述结合正交平面的最优参数,基于优化的空间运动目标三维重构方法对空间运动目标进行三维重构处理,得到空间运动目标的三维重构结果这一步骤,其具体包括:
采用基于迭代的单平面拟合算法对空间运动目标的三个平面进行分割和局外点滤除,获取对应平面的粗参数;
根据平面的粗参数对平面的数学模型进行优化,得到对应平面的超定方程组;
对平面的超定方程组进行转换处理,获取对应平面的最小二乘问题;
根据对应平面的最小二乘问题对对应的平面进行拟合处理,得到对应平面的拟合结果;
结合各个平面的拟合结果构建空间运动目标的三维重构结果。
10.基于空间运动目标三维重构的几何参数辨识系统,其特征在于,包括以下模块:
多源数据获取模块,用于通过单目摄像头与多线激光雷达对空间运动目标进行视觉图像数据与激光点云数据的采集,且基于不同视角进行多次采集,得到单目视觉的图像数据和稀疏点云数据;
多源数据分割模块,用于通过自主视觉区域分割法对单目视觉的图像数据进行像素级分割与拟合,构建空间运动目标的光学模型;
多源数据融合模块,基于视觉映射方法将稀疏雷达的稀疏点云数据与空间运动目标的光学模型进行融合,得到空间运动目标的点云粗提取结果;
多源数据提取模块,基于迭代匹配空间运动目标多视角点云融合方法对空间运动目标的点云粗提取结果进行融合处理,得到空间运动目标的点云融合结果;
多源数据重构模块,基于特征和学习混合的方法对空间运动目标的点云融合结果进行三维重构并根据重构结果对空间运动目标的几何参数进行自主辨识,得到辨识结果。
CN202310300165.XA 2023-03-27 2023-03-27 基于空间运动目标三维重构的几何参数辨识方法及系统 Pending CN116342621A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310300165.XA CN116342621A (zh) 2023-03-27 2023-03-27 基于空间运动目标三维重构的几何参数辨识方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310300165.XA CN116342621A (zh) 2023-03-27 2023-03-27 基于空间运动目标三维重构的几何参数辨识方法及系统

Publications (1)

Publication Number Publication Date
CN116342621A true CN116342621A (zh) 2023-06-27

Family

ID=86889058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310300165.XA Pending CN116342621A (zh) 2023-03-27 2023-03-27 基于空间运动目标三维重构的几何参数辨识方法及系统

Country Status (1)

Country Link
CN (1) CN116342621A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237902A (zh) * 2023-11-15 2023-12-15 山东飞宏工程机械有限公司 基于深度学习的机器人物体识别系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237902A (zh) * 2023-11-15 2023-12-15 山东飞宏工程机械有限公司 基于深度学习的机器人物体识别系统
CN117237902B (zh) * 2023-11-15 2024-01-26 山东飞宏工程机械有限公司 基于深度学习的机器人物体识别系统

Similar Documents

Publication Publication Date Title
CN111798475B (zh) 一种基于点云深度学习的室内环境3d语义地图构建方法
CN109344882B (zh) 基于卷积神经网络的机器人控制目标位姿识别方法
CN109461180B (zh) 一种基于深度学习的三维场景重建方法
CN111063021B (zh) 一种空间运动目标的三维重建模型建立方法及装置
CN109740665B (zh) 基于专家知识约束的遮挡图像船只目标检测方法及系统
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN111156984A (zh) 一种面向动态场景的单目视觉惯性slam方法
CN112258618A (zh) 基于先验激光点云与深度图融合的语义建图与定位方法
CN112902953A (zh) 一种基于slam技术的自主位姿测量方法
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN113065546B (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN111897349A (zh) 一种基于双目视觉的水下机器人自主避障方法
CN113744337B (zh) 一种融合视觉、imu与声纳的同步定位与建图方法
CN110866969A (zh) 基于神经网络与点云配准的发动机叶片重构方法
AU2021200832A1 (en) Collaborative 3d mapping and surface registration
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN115345822A (zh) 一种面向航空复杂零件的面结构光自动化三维检测方法
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN115375842A (zh) 一种植株三维重建方法、终端及存储介质
CN112330813A (zh) 一种基于单目深度摄像头的着装下三维人体模型重建方法
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
CN111860651A (zh) 一种基于单目视觉的移动机器人半稠密地图构建方法
CN116342621A (zh) 基于空间运动目标三维重构的几何参数辨识方法及系统
CN110176041B (zh) 一种基于双目视觉算法的新型列车辅助装配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination