CN114626112A - 一种基于边界检验的未知物体表面测量视点规划方法 - Google Patents

一种基于边界检验的未知物体表面测量视点规划方法 Download PDF

Info

Publication number
CN114626112A
CN114626112A CN202210299796.XA CN202210299796A CN114626112A CN 114626112 A CN114626112 A CN 114626112A CN 202210299796 A CN202210299796 A CN 202210299796A CN 114626112 A CN114626112 A CN 114626112A
Authority
CN
China
Prior art keywords
boundary
viewpoint
camera
vector
planning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210299796.XA
Other languages
English (en)
Inventor
苏成志
丁诗祺
王恩国
张勇琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202210299796.XA priority Critical patent/CN114626112A/zh
Publication of CN114626112A publication Critical patent/CN114626112A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computational Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

基于边界检验的未知物体表面测量的视点规划方法,属于三维测量技术领域,包括以下步骤:人工引导3D相机至初始视点;根据视点拍摄获取点云;对点云网格化;配准调整网格化模型;配准后网格化模型提取边界;边界边排序;待验证边界确认;基于边界检测的未知物体表面测量视点规划方法结束条件。首先进行人工引导3D相机获取初始物体点云,作为后续视点规划的出发点,通过反馈拍摄完成了视点迭代,待验证边界作为视点拓展的规划条件,从而实现了在没有足够先验信息的情况下,自动完成视点规划操作,实现未知物体表面的自动测量。另外本发明不限定物体的具体结构,因此对复杂的物体表面的视点规划具有较强的适应性。

Description

一种基于边界检验的未知物体表面测量视点规划方法
技术领域
本发明属于三维测量技术领域,具体涉及一种基于边界检验的视点规划方法。
背景技术
三维测量技术被广泛用于航空航天、汽车和船舶等领域,测量物体被三维测量技术数字化后,会被用于检测、识别、路径规划等场景。复杂物体表面大量存在于上述领域,由于物体表面结构复杂,在没有先验信息的情况下,物体表面完整信息的获取难度较大。
视点规划是三维测量技术中的关键技术之一,而现阶段针对具有复杂多样性的物体表面来说,为了获取完整的三维数据,往往是通过人工示教的方式来完成对物体表面的视点规划,这种方式的过程繁琐,耗费人力资源,而且很难获得视点的最优解。
中国专利公开号为“CN109977466A”,名称为“一种三维扫描视点规划方法、装置及计算机可读存储介质”,该方法利用获取的低精度数字化模型点云数据,进行视点规划计算,通过表面法线估计,得到所述待扫描物体表面的点云法向量,利用法向量和三维传感器的对焦距离确定视点;该算法终止条件关联于当前待计算的点云数量。
该方案所提出的三维扫描的视点规划方法存在不足:在针对未知物体时,为了完成三维扫描视点规划,需要事先获取未知物体低精度数字化模型,对未知物体表面测量自动化水平低。
发明内容
本发明的主要目的是提供一种基于边界检验面向未知物体表面测量的视点规划方法,旨在解决现有技术对未知物体三维扫描视点规划,需要事先获取未知物体低精度数字化模型,对未知物体表面测量自动化水平低的问题。
基于边界检验的未知物体表面测量的视点规划方法,包括以下步骤:
步骤1:人工引导3D相机至初始视点;
设未知物体F坐标系为{O},设3D相机第j轮视点规划的第i个视点的右手笛卡尔坐标系为{C(j,i)},{i=1,2,...,N,j=0,1,2...,M},{C(j,i)}方向向量为{cx,cy,cz},其中向量cz为相机主光轴方向,向量cx为相机水平方向,向量cy为相机竖直方向;3D相机视区水平角和垂直角分别为θH和θV,向量cz方向测量范围为[Lmin,Lmax],向量cz相对于未知物体F表面法向的倾角范围为[-βmax,βmax];
通过人工方式引导3D相机至初始视点V0拍摄未知物体F,此时3D相机的向量cz与未知物体F表面的法向倾角为β,β∈[-βmax,βmax],距物体F的拍摄距离为d,d∈[Lmin,Lmax];
步骤2:根据视点拍摄获取点云;
以初始视点V0拍摄获取的未知物体F点云记为
Figure BDA0003562778890000011
其中C(0,1)为相机在初始视点的坐标系;设3D相机拍摄物体F第j′轮规划的视点集合
Figure BDA0003562778890000012
其中
Figure BDA0003562778890000013
为视点位置,其中xi,yi,zi
Figure BDA0003562778890000014
在坐标系C(0,1)下的坐标,
Figure BDA0003562778890000015
为视点姿态,其中Ai,Bi,Ci分别为
Figure BDA0003562778890000021
在坐标系C(0,2)下绕x轴、y轴、z轴旋转的欧拉角,以Vj′拍摄获取的物体F点云
Figure BDA0003562778890000022
将V0与Vj′合并记为Vj,以第j轮规划视点Vj所拍摄获取的物体F点云记为
Figure BDA0003562778890000023
步骤3:对点云网格化;
Figure BDA0003562778890000024
进行预处理,并通过公式(1)区域生长三角网格算法对物体点云模型
Figure BDA0003562778890000025
进行三角网格化,得到3D相机坐标系{C(j,i)}下的网格模型
Figure BDA0003562778890000026
Figure BDA0003562778890000027
设{C(j,i)}与{C(0,1)}之间的变换矩阵为
Figure BDA0003562778890000028
由公式(2),将
Figure BDA0003562778890000029
转化得到在初始视点坐标系{C(0,1)}下的物体点云网格化模型
Figure BDA00035627788900000210
Figure BDA00035627788900000211
以此得到第j轮视点Vj在初始视点坐标系{C(0,1)}下对应的点云网格化模型
Figure BDA00035627788900000212
步骤4:配准调整网格化模型;
Figure BDA00035627788900000213
表示经j-1轮视点拍摄后的配准调整网格化模型;利用公式(3),通过迭代最近点算法(ICP)提取
Figure BDA00035627788900000214
Figure BDA00035627788900000215
的重叠区域对其进行配准,得到配准调整后的点云网格化模型
Figure BDA00035627788900000216
Figure BDA00035627788900000217
步骤5:配准后网格化模型提取边界;
检索配准后网格化模型
Figure BDA00035627788900000218
的三角形边集合
Figure BDA00035627788900000219
中的每一条边
Figure BDA00035627788900000220
Figure BDA00035627788900000221
仅关联一个三角形,
Figure BDA00035627788900000222
为边界边,则
Figure BDA00035627788900000223
由公式(4)得到边界边集合
Figure BDA00035627788900000224
步骤6:边界边排序;
Figure BDA00035627788900000225
为初始边界边,加入有序边界边集合
Figure BDA00035627788900000226
搜索
Figure BDA00035627788900000227
中与初始边界边相连的边界边加入
Figure BDA00035627788900000228
利用新加入的边界边继续迭代检索其相邻的边界边,直到寻得的边界边为初始边界边为止,即边界闭合;
以此,从
Figure BDA0003562778890000031
检索得到有序边界边集合
Figure BDA0003562778890000032
和对应的边界点集台
Figure BDA0003562778890000033
步骤7:待验证边界确认;
用公式(5)确认第j轮视点集合拍摄后的模型边界点集
Figure BDA0003562778890000034
中的待验证边界点集
Figure BDA0003562778890000035
Figure BDA0003562778890000036
步骤8:基于边界检测的未知物体表面测量视点规划方法结束条件;
Figure BDA0003562778890000037
Figure BDA0003562778890000038
中所有点均为真实边界点,视点规划任务终止,获得规划的视点集合V={V0,V1,V2,...,Vj};
Figure BDA0003562778890000039
以PT为待验证边界点,通过步骤9、步骤10继续进行第j+1轮视点规划,并重复步骤2~6,进行j+1轮视点规划配准调整后的网格化模型的待验证边界确认;
步骤9:对待检测边界分段;
对PT边界分段处理,设k为边界点采样间隔,对边界进行采样,通过公式(6)计算向量
Figure BDA00035627788900000310
Figure BDA00035627788900000311
之间的夹角α,
Figure BDA00035627788900000312
设阈值为Tα,若α<Tα,则边
Figure BDA00035627788900000313
与边
Figure BDA00035627788900000321
属于同一段边界,记
Figure BDA00035627788900000315
通过公式(7),将PT对应的边界ST分为N段边界,得到
Figure BDA00035627788900000316
每段边界
Figure BDA00035627788900000317
步骤10:根据每段边界的空间特征生成视点;
首先求视点姿态
Figure BDA00035627788900000318
使用主成分分析法求得,以每段边界
Figure BDA00035627788900000319
的中点pi为圆心,半径r的邻域的第三主成分方向向量,即中点pi的法向量ni,{i=1,2,...,N},3D相机的向量cz与法向量ni平行且反向,如式(8);
cz=-ni,i=0,1,2...,N (8)
当3D相机的向量cz方向已知时,使用主成分分析法求得边界
Figure BDA00035627788900000320
的最大主成分方向向量ξi,{i=1,2,...,N}。
由公式(9),求得向量cy、cx
Figure BDA0003562778890000041
由公式(10),求得向量cx、cy、cz在坐标系C(0,1)下绕x轴、y轴、z轴旋转的欧拉角Ai,Bi,Ci
Figure BDA0003562778890000042
得到视点姿态
Figure BDA0003562778890000043
再求视点位置
Figure BDA0003562778890000044
用公式(11),得到
Figure BDA0003562778890000045
的长度
Figure BDA0003562778890000046
Figure BDA0003562778890000047
用公式(12)计算得到3D相机的测量距离d;
Figure BDA0003562778890000048
设3D相机的向量cz对准边界
Figure BDA0003562778890000049
的中点pi,由式(8)、(13)求得视点位置
Figure BDA00035627788900000410
Figure BDA00035627788900000411
得到第j+1轮对应每段边界
Figure BDA00035627788900000412
的视点集合
Figure BDA00035627788900000413
本发明的有益效果:
本发明是一种基于边界检验的未知物体表面测量视点规划方法,首先进行人工引导3D相机获取初始物体点云,作为后续视点规划的出发点,通过反馈拍摄完成了视点迭代,待验证边界作为视点拓展的规划条件,从而实现了在没有足够先验信息的情况下,自动完成视点规划操作,实现未知物体表面的自动测量。另外本发明不限定物体的具体结构,因此对复杂的物体表面的视点规划具有较强的适应性。
附图说明
图1是本发明一种基于边界检验的未知物体表面测量视点规划方法流程图;
图2是本发明所述的视点拍摄示意图;
图3为本发明所述的初始视点拍摄位置示意图;
图4是本发明所述的边界边示意图;
图5是本发明所述的模型配准调整前后边界对比示意图;
图6是本发明所述的边界边分段示意图;
图7是本发明所述的初始视点待验证边界分段示意图;
图8是本发明所述的边界视点位姿示意图;
图9是本发明所述的第一轮视点位姿示意图;
图10是本发明所述的第二轮视点位姿示意图;
图11是本发明所述的第二轮视点拍摄前后边界比较示意图;
图12是本发明所述的所有视点集合。
具体实施方式
下面结合附图对本发明做进一步详细说明。
如图1所示,基于边界检验的未知物体表面测量的视点规划方法,包括以下步骤:
步骤1:人工引导3D相机至初始视点
设汽车后保险杠F坐标系为{O},事先没有物体F的任何先验信息。设图漾FM830-GI主动式结构光双目相机第j轮视点规划的第i个视点的右手笛卡尔坐标系为{C(j,i)},{i=1,2,...,N,j=0,1,2...,M},{C(j,i)}方向向量为{cx,cy,cz},其中向量cz为相机主光轴方向,向量cx为相机水平方向,向量cy为相机竖直方向。相机视区水平角和垂直角分别为θH=56°和θV=46°,向量cz方向测量范围为[0.7m,1m],向量cz相对于汽车后保险杠F表面法向的倾角范围为[-15°,15°],视点拍摄如图2所示。
通过人工方式引导相机至初始视点V0拍摄汽车后保险杠F,此时相机的向量cz与物体表面的法向倾角为β=3.6°,距汽车后保险杠F的拍摄距离为d=720mm,初始视点拍摄位置如图3所示。
步骤2:根据视点拍摄获取点云
以初始视点V0拍摄获取的汽车后保险杠F点云记为
Figure BDA0003562778890000051
其中C(0,1)为相机在初始视点的坐标系。
步骤3:对点云网格化
Figure BDA0003562778890000052
进行预处理,并通过公式(1)区域生长三角网格算法进行三角网格化,得到相机坐标系{C(0,1)}下的网格模型
Figure BDA0003562778890000053
Figure BDA0003562778890000054
由公式(2),将
Figure BDA0003562778890000055
转化得到在初始视点坐标系{C(0,1)}下的汽车后保险杠F点云网格化模型
Figure BDA0003562778890000056
Figure BDA0003562778890000057
以此得到初始视点V0在初始视点坐标系{C(0,1)}下对应的点云网格化模型
Figure BDA0003562778890000058
步骤4:配准调整网格化模型
由于初始视点拍摄的点云网格化模型的上一轮为空,利用公式(3),通过迭代最近点算法(ICP)提取
Figure BDA00035627788900000513
Figure BDA00035627788900000510
的重叠区域对其进行配准,得到配准调整后的点云网格化模型
Figure BDA00035627788900000511
Figure BDA00035627788900000512
步骤5:配准后网格化模型提取边界
检索配准后网格化模型
Figure BDA0003562778890000061
的三角形边集合
Figure BDA0003562778890000062
中的每一条边
Figure BDA0003562778890000063
Figure BDA0003562778890000064
又关联一个三角形,
Figure BDA0003562778890000065
为边界边,则
Figure BDA0003562778890000066
由公式(4)得到边界边集台
Figure BDA0003562778890000067
边界边如图4所示。
步骤6:边界边排序
Figure BDA0003562778890000068
为初始边界边,加入有序边界边集台
Figure BDA0003562778890000069
搜索
Figure BDA00035627788900000610
中与初始边界边相连的边界边加入
Figure BDA00035627788900000611
利用新加入的边界边继续迭代检索其相邻的边界边,直到寻得的边界边为初始边界边为止,即边界闭合。
以此,从
Figure BDA00035627788900000612
检索得到有序边界边集合
Figure BDA00035627788900000613
和对应的边界点集合
Figure BDA00035627788900000614
步骤7:待验证边界确认
模型配准调整前后边界对比如图5所示,用公式(5)确认初始视点拍摄后的模型边界点集
Figure BDA00035627788900000615
中的待验证边界点集
Figure BDA00035627788900000616
Figure BDA00035627788900000617
步骤8:基于边界检测的未知物体表面测量视点规划方法结束条件
Figure BDA00035627788900000618
以PT为待验证边界点,通过步骤9、步骤10继续进行第一轮视点规划,并重复步骤2~6,进行第一轮视点规划配准调整后的网格化模型的待验证边界确认。
步骤9:对待检测边界分段
对PT边界分段处理,k=50,对边界进行采样,通过公式(7)计算向量
Figure BDA00035627788900000619
Figure BDA00035627788900000620
之间的夹角α,边界分段如图6所示,
Figure BDA00035627788900000621
设阈值为Tα=70°,若α<Tα,则边
Figure BDA00035627788900000622
与边
Figure BDA00035627788900000623
属于同一段边界,记
Figure BDA00035627788900000624
通过公式(8),将PT对应的边界ST分为6段边界,得到
Figure BDA00035627788900000625
其中边界
Figure BDA00035627788900000626
边界
Figure BDA00035627788900000627
边界
Figure BDA00035627788900000628
边界
Figure BDA00035627788900000629
边界
Figure BDA00035627788900000630
边界
Figure BDA00035627788900000631
视点拍摄后模型的待验证边界分段如图7所示。
步骤10:根据每段边界的空间特征生成视点
边界视点位姿如图8所示,以第一轮视点的
Figure BDA0003562778890000071
为例,首先求视点姿态
Figure BDA0003562778890000072
使用主成分分析法求得,边界
Figure BDA0003562778890000073
的中点p1=[2262.77,-740.15,1545.18]T为圆心,半径r=15mm的邻域的第三主成分方向向量,即中点p1的法向量n1=[0.0817244,0.0133536,0.996566]T,相机的向量cz与法向量n1平行且反向,如式(11)。
Figure BDA0003562778890000074
当相机的向量cz方向已知时,使用主成分分析法求得边界
Figure BDA0003562778890000075
的最大主成分方向向量ξ1=[0514976,-0.856653,-0.0307523]T。由公式(12),求得向量cy、cx
Figure BDA0003562778890000076
由公式(10),求得向量cx、cy、cz在坐标系C(0,1)下绕x轴、y轴、z轴旋转的欧拉角A1,B1,C1
Figure BDA0003562778890000077
得到视点姿态
Figure BDA0003562778890000078
再求视点位置
Figure BDA0003562778890000079
用公式(14),得到
Figure BDA00035627788900000710
的长度
Figure BDA00035627788900000711
Figure BDA00035627788900000712
用公式(15)计算得到相机的测量距离d。
Figure BDA00035627788900000713
设3D相机的向量cz对准边界
Figure BDA00035627788900000714
的中点p1,由式(11)、(16)求得视点位置
Figure BDA00035627788900000715
Figure BDA00035627788900000716
得到第一轮对应每段边界
Figure BDA00035627788900000717
的视点集合
Figure BDA00035627788900000718
视点规划位姿结果如表1所示,第一轮视点位姿如图9所示。
表1 第一轮视点位姿
Figure BDA00035627788900000719
Figure BDA0003562778890000081
得到第二轮对应每段边界
Figure BDA0003562778890000082
的视点集合
Figure BDA0003562778890000083
视点规划位姿结果如表2所示,第一轮视点位姿如图10所示。
表2 第二轮视点位姿
Figure BDA0003562778890000084
第二轮视点集合拍摄后模型边界
Figure BDA0003562778890000085
与第一轮视点集合拍摄后模型边界
Figure BDA0003562778890000086
对比如图11所示,边界不再变化。
Figure BDA0003562778890000087
Figure BDA0003562778890000088
中所有点均为真实边界点,视点规划任务终止,获得规划的视点集合V={V0,V1,V2},如图12所示。
至此基于本发明方案的实施例到此结束,通过边界验证的方式来完成自终止条件,在不需要先验信息的情况下,也可以完成对未知物体的视点规划,构建物体的完整点云模型。

Claims (1)

1.基于边界检验的未知物体表面测量的视点规划方法,其特征是,该方法包括以下步骤:
步骤1:人工引导3D相机至初始视点;
设未知物体F坐标系为{O},设3D相机第j轮视点规划的第i个视点的右手笛卡尔坐标系为{C(j,i)},{i=1,2,...,N,j=0,1,2...,M},{C(j,i)}方向向量为{cx,cy,cz},其中向量cz为相机主光轴方向,向量cx为相机水平方向,向量cy为相机竖直方向;3D相机视区水平角和垂直角分别为θH和θV,向量cz方向测量范围为[Lmin,Lmax],向量cz相对于未知物体F表面法向的倾角范围为[-βmax,βmax];
通过人工方式引导3D相机至初始视点V0拍摄未知物体F,此时3D相机的向量cz与未知物体F表面的法向倾角为β,β∈[-βmax,βmax],距物体F的拍摄距离为d,d∈[Lmin,Lmax];
步骤2:根据视点拍摄获取点云;
以初始视点V0拍摄获取的未知物体F点云记为
Figure FDA0003562778880000011
其中C(0,1)为相机在初始视点的坐标系;设3D相机拍摄物体F第j′轮规划的视点集合
Figure FDA0003562778880000012
其中
Figure FDA0003562778880000013
为视点位置,其中xi,yi,zi
Figure FDA0003562778880000014
在坐标系C(0,1)下的坐标,
Figure FDA0003562778880000015
为视点姿态,其中Ai,Bi,Ci分别为
Figure FDA0003562778880000016
在坐标系C(0,1)下绕x轴、y轴、z轴旋转的欧拉角,以Vj′拍摄获取的物体F点云
Figure FDA0003562778880000017
将V0与Vj′合并记为Vj,以第j轮规划视点Vj所拍摄获取的物体F点云记为
Figure FDA0003562778880000018
步骤3:对点云网格化;
Figure FDA0003562778880000019
进行预处理,并通过公式(1)区域生长三角网格算法对物体点云模型
Figure FDA00035627788800000110
进行三角网格化,得到3D相机坐标系{C(j,i)}下的网格模型
Figure FDA00035627788800000111
Figure FDA00035627788800000112
设{C(j,i)}与{C(0,1)}之间的变换矩阵为
Figure FDA00035627788800000113
由公式(2),将
Figure FDA00035627788800000114
转化得到在初始视点坐标系{C(0,1)}下的物体点云网格化模型
Figure FDA00035627788800000115
Figure FDA00035627788800000116
以此得到第j轮视点Vj在初始视点坐标系{C(0,1)}下对应的点云网格化模型
Figure FDA00035627788800000117
Figure FDA00035627788800000118
步骤4:配准调整网格化模型;
Figure FDA00035627788800000119
表示经j-1轮视点拍摄后的配准调整网格化模型;利用公式(3),通过迭代最近点算法(ICP)提取
Figure FDA00035627788800000120
Figure FDA00035627788800000121
的重叠区域对其进行配准,得到配准调整后的点云网格化模型
Figure FDA00035627788800000122
Figure FDA0003562778880000021
步骤5:配准后网格化模型提取边界;
检索配准后网格化模型
Figure FDA0003562778880000022
的三角形边集合
Figure FDA0003562778880000023
中的每一条边
Figure FDA0003562778880000024
Figure FDA0003562778880000025
仅关联一个三角形,
Figure FDA0003562778880000026
为边界边,则
Figure FDA0003562778880000027
由公式(4)得到边界边集合
Figure FDA0003562778880000028
步骤6:边界边排序;
Figure FDA0003562778880000029
为初始边界边,加入有序边界边集合
Figure FDA00035627788800000210
搜索
Figure FDA00035627788800000211
中与初始边界边相连的边界边加入
Figure FDA00035627788800000212
利用新加入的边界边继续迭代检索其相邻的边界边,直到寻得的边界边为初始边界边为止,即边界闭合;
以此,从
Figure FDA00035627788800000213
检索得到有序边界边集合
Figure FDA00035627788800000214
和对应的边界点集合
Figure FDA00035627788800000215
Figure FDA00035627788800000216
步骤7:待验证边界确认;
用公式(5)确认第j轮视点集合拍摄后的模型边界点集
Figure FDA00035627788800000217
中的待验证边界点集
Figure FDA00035627788800000218
Figure FDA00035627788800000219
步骤8:基于边界检测的未知物体表面测量视点规划方法结束条件;
Figure FDA00035627788800000220
Figure FDA00035627788800000221
中所有点均为真实边界点,视点规划任务终止,获得规划的视点集合V={V0,V1,V2,...,Vj};
Figure FDA00035627788800000222
以PT为待验证边界点,通过步骤9、步骤10继续进行第j+1轮视点规划,并重复步骤2~6,进行j+1轮视点规划配准调整后的网格化模型的待验证边界确认;
步骤9:对待检测边界分段;
对PT边界分段处理,设k为边界点采样间隔,对边界进行采样,通过公式(6)计算向量
Figure FDA00035627788800000223
Figure FDA00035627788800000224
之间的夹角α,
Figure FDA00035627788800000225
设阈值为Tα,若α<Tα,则边
Figure FDA00035627788800000226
与边
Figure FDA00035627788800000227
属于同一段边界,记
Figure FDA00035627788800000228
通过公式(7),将PT对应的边界ST分为N段边界,得到
Figure FDA00035627788800000229
每段边界
Figure FDA00035627788800000230
Figure FDA00035627788800000231
步骤10:根据每段边界的空间特征生成视点;
首先求视点姿态
Figure FDA0003562778880000031
使用主成分分析法求得,以每段边界
Figure FDA0003562778880000032
的中点pi为圆心,半径r的邻域的第三主成分方向向量,即中点pi的法向量ni,{i=1,2,...,N},3D相机的向量cz与法向量ni平行且反向,如式(8);
cz=-ni,i=0,1,2...,N (8)
当3D相机的向量cz方向已知时,使用主成分分析法求得边界
Figure FDA0003562778880000033
的最大主成分方向向量ξi,{i=1,2,...,N};
由公式(9),求得向量cy、cx
Figure FDA0003562778880000034
由公式(10),求得向量cx、cy、cz在坐标系C(0,1)下绕x轴、y轴、z轴旋转的欧拉角Ai,Bi,Ci
Figure FDA0003562778880000035
得到视点姿态
Figure FDA0003562778880000036
再求视点位置
Figure FDA0003562778880000037
用公式(11),得到
Figure FDA0003562778880000038
的长度
Figure FDA0003562778880000039
Figure FDA00035627788800000310
用公式(12)计算得到3D相机的测量距离d;
Figure FDA00035627788800000311
设3D相机的向量cz对准边界
Figure FDA00035627788800000312
的中点pi,由式(8)、(13)求得视点位置
Figure FDA00035627788800000313
Figure FDA00035627788800000314
得到第j+1轮对应每段边界
Figure FDA00035627788800000315
的视点集合
Figure FDA00035627788800000316
CN202210299796.XA 2022-03-24 2022-03-24 一种基于边界检验的未知物体表面测量视点规划方法 Pending CN114626112A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210299796.XA CN114626112A (zh) 2022-03-24 2022-03-24 一种基于边界检验的未知物体表面测量视点规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210299796.XA CN114626112A (zh) 2022-03-24 2022-03-24 一种基于边界检验的未知物体表面测量视点规划方法

Publications (1)

Publication Number Publication Date
CN114626112A true CN114626112A (zh) 2022-06-14

Family

ID=81904856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210299796.XA Pending CN114626112A (zh) 2022-03-24 2022-03-24 一种基于边界检验的未知物体表面测量视点规划方法

Country Status (1)

Country Link
CN (1) CN114626112A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116465827A (zh) * 2023-03-17 2023-07-21 中国科学院自动化研究所 视点路径规划方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116465827A (zh) * 2023-03-17 2023-07-21 中国科学院自动化研究所 视点路径规划方法、装置、电子设备及存储介质
CN116465827B (zh) * 2023-03-17 2023-10-31 中国科学院自动化研究所 视点路径规划方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
CN106651942B (zh) 基于特征点的三维旋转运动检测与旋转轴定位方法
CN113436260B (zh) 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
Herráez et al. 3D modeling by means of videogrammetry and laser scanners for reverse engineering
CN110189257B (zh) 点云获取的方法、装置、系统及存储介质
CN109470149B (zh) 一种管路位姿的测量方法及装置
CN112067233B (zh) 一种用于风洞模型六自由度运动捕获方法
CN110641721B (zh) 一种登机桥停靠方法
CN111738032B (zh) 一种车辆行驶信息确定方法及装置、车载终端
CN110009680B (zh) 基于圆特征及异面特征点的单目图像位置、姿态测量方法
CN111127613B (zh) 基于扫描电子显微镜的图像序列三维重构方法及系统
CN113393524B (zh) 一种结合深度学习和轮廓点云重建的目标位姿估计方法
CN111028345B (zh) 一种港口场景下圆形管道的自动识别与对接方法
CN114372992A (zh) 一种基于动平台的边缘角点检测四目视觉算法
CN109671109A (zh) 密集点云生成方法及系统
CN114463425B (zh) 一种基于概率Hough直线检测的工件表面无特征点定位方法
CN114626112A (zh) 一种基于边界检验的未知物体表面测量视点规划方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN116894876A (zh) 基于实时图像的6-dof的定位方法
Cheng et al. A fast mosaic approach for remote sensing images
CN117036404A (zh) 一种单目热成像同时定位与建图方法和系统
CN116563377A (zh) 一种基于半球投影模型的火星岩石测量方法
CN113554705B (zh) 一种变化场景下的激光雷达鲁棒定位方法
CN111260727B (zh) 一种基于图像处理的网格定位方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination