CN113822934A - 基于逆投影的多特征融合视觉定位方法 - Google Patents
基于逆投影的多特征融合视觉定位方法 Download PDFInfo
- Publication number
- CN113822934A CN113822934A CN202111068322.6A CN202111068322A CN113822934A CN 113822934 A CN113822934 A CN 113822934A CN 202111068322 A CN202111068322 A CN 202111068322A CN 113822934 A CN113822934 A CN 113822934A
- Authority
- CN
- China
- Prior art keywords
- camera
- target
- features
- pose
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000000007 visual effect Effects 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 title claims abstract description 18
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 18
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 238000005070 sampling Methods 0.000 claims description 33
- 230000003068 static effect Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012512 characterization method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000012530 fluid Substances 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 7
- 238000012544 monitoring process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009924 canning Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005486 microgravity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
基于逆投影的多特征融合视觉定位方法,该方法包括:1)在相机图像中提取空间目标正向投影形成的特征像素坐标;2)确定空间中有N个相机,其中N1个为静态相机;N2个为动态相机;根据相机位姿是否为固定参数设置合适的相机位姿或空间目标位姿作为算法初始迭代值;3)根据已知的相机位姿信息或目标位姿信息和目标特征的像素坐标在空间中重建特征的三维坐标;4)根据重建出的空间坐标利用已知的特征之间的固定约束建立相机对多类特征的相对测量的统一的位姿优化模型;5)利用非线性优化方法迭代求解位姿测量优化模型,获取空间目标或机械臂臂载相机自身的精确位姿信息,从而实现对机械臂逐步精确地引导控制,执行预定的工作程序和任务。
Description
技术领域
本发明涉及视觉测量、视觉定位技术领域,具体涉及一种基于逆投影的多特征融合视觉定位方法。
背景技术
随着科学技术的发展,机械臂不但在地面的应用越来越广泛,在地外天体表面着陆探测中也发挥越来越重要的作用,尤其对于地外天体表面的采样操作具有无可替代性。
地外天体表面着陆采样与返回是世界航天大国探索深空和拓展人类认知外星球和太阳系的重要手段。机械臂是地外天体表面着陆采样任务中必不可少的关键设备,能够按照预定的程序自主进行采样任务或者在地面遥操作中心的控制下进行采样作业,可以代替航天员完成各种采样和样品转移、装罐等操作,实现地外天体表面的无人化采样。无论是执行自主进行采样任务或在地面遥操作中心的控制下进行采样作业,对机械臂进行精确的引导控制是实现采样作业的关键技术之一。然而现有采样任务中机械臂执行采样、放样、抓罐和放罐等操作中的视觉引导操作问题未建立统一约束求解模型进而给出稳定精度的求解方法。
中国发明专利申请(申请号:201611069552.3)公开了一种“视觉定位方法和视觉定位装置”,该视觉定位方法包括:在识别对象上设置多个标识点:根据该多个标识点之间的位置关系,对该多个标识点进行拓扑区分;根据该多个标识点之间的拓扑关系,建立标识点三维坐标的线性方程组,并求解该多个标识点的三维坐标;根据标识点的三维坐标,建立标识点坐标系;和求解该标识点坐标系的旋转矩阵,以得到该识别对象的姿态信息。通过根据本发明的视觉定位方法和视觉定位装置,可以实现不具有显著的自然特征的识别对象的姿态的实时和高精度定位。
该专利的执行需前提是在识别位姿的对象上设置多个标识点,根据该多个标识点之间的位置关系进一步计算得到该识别对象的姿态信息,而我们提出的方法综合利用了人工设置的标志特征和识别对象本身具有的显著自然特征的特点,可以极大地提升视觉定位的精度以及鲁棒性,适用范围更广泛。
发明内容
针对地外天体采样任务中机械臂执行采样、放样、抓罐和放罐等操作中的视觉引导操作存在的精度不高以及未建立统一优化模型求解的问题,本发明提出了基于逆投影的多特征融合视觉定位方法,通过对静态相机测量动态目标和动态相机测量静态目标的过程进行抽象建模,建立了双目、单目相机对自然特征(如圆形目标)和人工设置特征(如靶标特征)的组合定位优化模型,实现了不同操作应用场景下适应不同相机数量的多类特征组合定位,有效提高地外天体采样遥操作中利用机械臂采集样品、放置样品、抓取密封罐和放置密封罐等关键环节的操作精度和自动化程度。
为实现上述目的,本发明采用以下技术方案:基于逆投影的多特征融合视觉定位方法包括:
步骤一:在相机图像中提取目标特征的像素坐标,针对自然特征,如圆形特征,检测其轮廓像素坐标,针对人工设置的靶标特征如棋盘格特征检测其标志点像素坐标。
步骤二:确定空间中存在N个相机,其中N1个为静态相机;N2个为动态相机,当属于相机位姿固定,需要测量特征在空间中的位姿情况下,设置合适的目标位姿X0,Ψ0作为初始迭代值;反之,当属于目标位姿固定,需要反求相机在空间中的位姿情况下,设置合适的相机位姿t0,θ0作为初始迭代值。
步骤三:根据前述步骤一中的像素坐标,已知的目标位姿信息或已知的相机位姿信息和相机位姿初始迭代值或目标位姿初始迭代值在空间中重建特征的三维坐标。具体为:
设第i个相机坐标系在世界坐标系的位姿为Ri=R(θi)表示相机i的坐标系相对于世界坐标系的旋转变换矩阵,N和M分别表示相机和观测点的数量;空间中任意一个观测点其在相机i的坐标系中坐标为投影坐标uij=(uij,vij)T可以利用透视投影成像模型计算为:
nk=Rz(φk)Rx(ψk)n0,
=[sinφk sinψk,-cosφk sinψk,cosψk]T,
其中n0=[0 0 1]T,Ψk=[ψk,κk,φk]T表示该平面坐标系相对于世界坐标系的姿态角度,由此可得该平面的代数方程为其中zkj为在以为原点的局部坐标系中的坐标向量在方向上的投影分量;将公式(10)带入平面的代数方程可得:
步骤四:建立相机对自然特征(如圆形特征)和人工设置靶标特征(如棋盘格)的相对测量的统一的测量优化模型。根据已知人工设置特征的相对位置和自然特征的几何形状特性构建误差方程;假设仅有靶标和圆形目标两类特征,则逆投影误差函数写作:
其中为第i个相机中靶标特征逆投影产生的误差,为第i个相机中圆形目标特征逆投影产生的误差,表示第k组特征平面中各个靶标点相对于参考位置的偏移量,rk表示圆形目标的半径;α表示联合靶标特征和圆形目标特征建立的误差函数在两类特征之间分配的权重因子;根据上述建立的多特征融合的误差表达式,最小化逆投影误差可实现对Ψk或ti,θi的求解,即得到以下优化模型:
在实际应用中可根据测量需求对变量Ωi,nk进行已知量和未知量的确定。对于静态相机测量动态目标的情况,如采样区双目相机测量采样机械臂末端位姿,Ωi为固定已知量,nk为未知量;对于动态相机对静态目标的测量,如测量执行放样、抓罐、放罐操作时测量采样器相对目标罐的相对位姿,nk为已知量,Ωi为未知量。
那么可以采用高斯-牛顿法或Levenberg-Marquardt(L-M)算法等非线性优化算法将此非线性最小二乘问题转化为线性最小二乘问题,迭代求解此问题实现对目标位姿信息Ψk或相机位姿信息ti,θi的精确求解。下表I为使用L-M算法计算空间目标或相机的精确位姿的具体步骤。
表I 使用L-M法计算空间目标或相机的精确位姿
得到空间目标相对于相机的相对位姿关系或相机相对于空间目标的精确位姿后可以进一步转换到世界坐标系下实现对机械臂精确的引导控制,保证地外天体采样遥操作中采样、放样、抓罐和放罐等操作的顺利进行。
附图说明
图1.本发明定位方法框图;
图2.是着陆器、上升器和机械臂上的各类相机;
图3.多特征融合视觉测量模型示意图;
图4.基于逆投影的目标特征点几何表征示意图。
其中:上升器1;着陆器2;四自由度机械臂3;采样器相机甲4;采样器相机乙5;臂载相机6;采样区观测双目相机A/B 7;监视相机C 8;监视相机D 9;机械臂基座10;机械臂末端圆盘11;密封罐12;棋盘状靶标13;机械臂第1关节3.1;机械臂第2关节3.2;机械臂第3关节3.3;机械臂第4关节3.4。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
我国嫦娥五号探测器包括着陆器携带细长结构的四自由度机械臂3,在地面遥操作中心的控制下,利用该机械臂完成表取采样、样品放入密封罐12、样品密封罐12抓取和样品密封罐12放置到上升器1上等操作任务。由于细长机械臂在月面微重力作用下的柔性形变不可预知,因此利用视觉引导的方式对其完成精确操作控制。在嫦娥五号着陆器2、上升器1上带有多个相机,如图2所示,主要包括采样区观测双目相机7、采样器相机甲4、采样器相机乙5、臂载相机6,利用这些相机测量引导完成对采样、放样、抓罐和放罐等操作任务。其中采样区双目观测相机A/B 11固定在着陆器2上,用来在采样过程中对机械臂末端自然特征目标进行视觉定位,监视相机C 8固定在着陆器2上,监视相机D 9固定在上升器1上;臂载相机6固定在四自由度机械臂3上,采样器甲4、采样器乙5相机固定在机械臂末端,臂载相机6和采样器相机用来完成在采样、放样、抓罐和放罐等操作过程中对相机的自身位姿进行视觉定位。如图3所示,机械臂末端圆盘11作为空间圆形目标,在相机中成像为圆形特征,静态相机固定在着陆器2基座上。在放样密封罐12附近装有人工设置的棋盘状靶标13,动态相机即臂载相机和放样器相机安装在机械臂末端。四自由度机械臂包括第一关节3.1;机械臂第2关节3.2;机械臂第3关节3.3;机械臂第4关节3.4,机械臂整体固定在机械臂基座10上。
本发明针对地外天体表取采样过程中的采样、放样、抓罐和放罐等操作中的视觉引导问题,提出了基于逆投影的多特征融合视觉定位算法框架,通过对静态相机测量动态目标和动态相机测量静态目标的过程进行抽象建模,建立了双目、单目相机对自然特征如圆形目标和人工设置特征如靶标特征的组合定位优化模型,最后利用非线性优化算法解决此优化问题,从而获取各类特征在空间中的精确位姿或反解动态相机在空间中的精确位姿达到对各类操作精确视觉引导的效果。
如图1所示,本发明基于逆投影的多特征融合视觉定位方法包括以下步骤:
步骤一:在相机图像中提取空间目标正向投影形成的特征像素坐标;针对自然特征检测其轮廓像素坐标,针对人工设置的特征如靶标特征检测其标志点像素坐标;
步骤二:确定空间中有N个相机,其中N1个为静态相机;N2个为动态相机。当属于相机位姿固定,需要测量空间目标位姿的情况下,设置合适的目标位姿X0,Ψ0作为算法初始迭代值;当属于目标位姿为已知,需要反求相机在空间中的位姿情况下,设置合适的相机位姿t0,θ0作为算法初始迭代值;在相机视场中包含自然特征如圆形目标、人工设置特征如靶标特征两类特征,自然特征的几何尺寸需要为已知、人工设置特征之间的相对三维坐标需要为已知;
步骤三:根据已知的相机位姿信息或目标位姿信息和目标特征的像素坐标反向利用透视投影模型在空间中重建特征的三维坐标;具体步骤为:
假设第i个相机在世界坐标系的位姿为Ri=R(θi)表示相机i的坐标系相对于世界坐标系的旋转变换矩阵,M和N分别表示观测点和相机的数量。空间中任意一个观测点其在相机i的坐标系中坐标为投影坐标uij=(uij,vij)T可以利用透视投影成像模型计算为:
vij=Ri(u′ij,v′ij,fi)T/||(u′ij,v′ij,fi)||2 (4)
由公式(2)可知,多类特征融合的关键是对各类特征的尺度因子si的统一描述,为此提出以下表征方式。假设可将相机视场内的特征按照一定准则分为K组,其中人工设置特征(如靶标特征)和自然特征(如圆形目标)分别分在Kd和Kr组。以特征的共面性作为准则,对si的表征计算如下:令第k组特征平面上某一特征点的空间坐标为该平面的法向为则:
其中n0=[0 0 1]T,Ψk=[ψk,κk,φk]T表示平面坐标系相对于世界坐标系的姿态,由此可得该平面的代数方程为其中zkj为在以为原点的局部坐标系中的坐标向量在方向上的投影分量。将公式(2)带入可得
步骤四:根据重建出的空间坐标利用已知的特征之间的固定约束建立相机对自然特征和人工特征的相对测量的统一的测量优化模型。具体步骤为:
根据已知人工设置的特征之间的相对位置和自然特征的几何形状特性构建误差方程。假设仅有靶标和圆形目标两类特征,则逆投影误差可以写作:
其中为第i个相机中靶标特征逆投影产生的误差,为第i个相机中圆形目标特征逆投影产生的误差,表示第k组特征平面中各个靶标点相对于参考位置的偏移量,rk表示圆形目标的半径。最小化逆投影误差可实现对Ψk和ti,θi求解,即得到以下优化模型:
在实际应用中可根据测量需求对变量Ωi,nk进行已知量和未知量的确定。对于静态相机测量动态目标的情况,如采样区双目相机测量采样机械臂末端位姿,Ωi为固定已知量,nk为未知量;对于动态相机对静态目标的测量,如测量执行放样、抓罐、放罐操作时测量采样器相对目标罐的相对位姿,nk为已知量,Ωi为未知量。
步骤五:利用非线性优化方法迭代求解位姿测量优化模型,获取空间目标或机械臂臂载相机自身的精确位姿信息,从而实现对机械臂逐步引导控制,执行预定的工作程序,具体为:
那么可以采用高斯-牛顿法或Levenberg-Marquardt(L-M)算法等非线性优化算法将此非线性最小二乘问题转化为线性最小二乘问题,迭代求解此问题实现对目标位姿信息Ψk或相机位姿信息ti,θi的精确求解。下表I为使用L-M算法计算空间目标或相机的精确位姿的具体步骤。
表I 使用L-M法计算空间目标或相机的精确位姿
得到空间目标相对于相机的相对位姿关系或相机相对于空间目标的精确位姿后可以进一步转换到世界坐标系下实现对机械臂精确的引导控制,保证地外天体采样遥操作中采样、放样、抓罐和放罐等操作的顺利进行。
Claims (8)
1.基于逆投影的多特征融合视觉定位方法,包括以下步骤:
步骤一:在相机图像中提取目标特征的像素坐标,针对自然特征检测其轮廓像素坐标,针对人工设置的特征检测其标志点像素坐标;
步骤二:确定空间中存在N个相机,其中共存在N1个为静态相机和N2个为动态相机;当测量情况属于相机位姿固定,需要测量图像中的特征在空间中的位姿情况下,设置合适的目标位姿X0,Ψ0作为算法初始迭代值;反之,当属于目标位姿固定,需要反求相机在空间中的位姿情况下,设置合适的相机位姿t0,θ0作为算法初始迭代值;
步骤三:根据前述提取到的像素坐标,已知的目标位姿信息或相机位姿信息和相机或目标的位姿初始迭代值在空间中重建特征的三维坐标;
步骤四:建立相机对自然特征和人工设置特征的相对测量的统一的测量优化模型;根据已知人工设置特征的相对位置和自然特征的几何形状特性构建误差方程;
步骤五:迭代求解非线性误差函数,实现对目标的位姿信息或相机位姿信息的精确求解。
2.根据权利要求1所述的一种基于逆投影的多特征融合视觉定位方法,其特征在于:所述重建特征的三维坐标,具体为:
设第i个相机的相机坐标系在世界坐标系的位姿为Ri=R(θi)表示相机i的坐标系相对于世界坐标系的旋转变换矩阵,N和M分别表示相机和观测点的数量;空间中任意一个观测点其在相机i的坐标系中坐标为投影坐标uij=(uij,vij)T可以利用透视投影成像模型计算为:
其中n0=[0 0 1]T,Ψk=[ψk,κk,φk]T表示该平面坐标系相对于世界坐标系的姿态角度,由此可得该平面的代数方程为其中zkj为在以为原点的局部坐标系中的坐标向量在方向上的投影分量;将公式(2)带入平面的代数方程可得:
3.根据权利要求1所述的一种基于逆投影的多特征融合视觉定位方法,其特征在于:所述构建的误差方程为:
假设仅存在靶标和圆形目标两类特征,则逆投影误差函数写作:
其中为第i个相机中靶标特征逆投影产生的误差,为第i个相机中圆形目标特征逆投影产生的误差,表示第k组特征平面中各个靶标点相对于参考位置的偏移量,rk表示圆形目标的半径;α表示联合靶标特征和圆形目标特征建立的误差函数在两类特征之间分配的权重因子;根据上述建立的多特征融合的误差表达式,最小化逆投影误差可实现对Ψk或ti,θi的求解,即得到以下优化模型:
5.根据权利要求1所述的一种基于逆投影的多特征融合视觉定位方法,其特征在于:所说的静态相机N1固定在探测器系统着陆器上,也可以固定在上升器上。
6.根据权利要求1所述的一种基于逆投影的多特征融合视觉定位方法,其特征在于:所说的动态相机N2为机械臂臂载相机,也可以是采样器相机。
7.根据权利要求1所述的一种基于逆投影的多特征融合视觉定位方法,其特征在于:所说的相机包括采样区观测双目相机、采样器相机、臂载相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111068322.6A CN113822934B (zh) | 2021-09-13 | 2021-09-13 | 基于逆投影的多特征融合视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111068322.6A CN113822934B (zh) | 2021-09-13 | 2021-09-13 | 基于逆投影的多特征融合视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113822934A true CN113822934A (zh) | 2021-12-21 |
CN113822934B CN113822934B (zh) | 2022-08-02 |
Family
ID=78914418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111068322.6A Active CN113822934B (zh) | 2021-09-13 | 2021-09-13 | 基于逆投影的多特征融合视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113822934B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115493499A (zh) * | 2021-12-30 | 2022-12-20 | 北京航天飞行控制中心 | 一种圆柱体或类圆柱体的装配方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232728A1 (en) * | 2008-01-18 | 2010-09-16 | Leprince Sebastien | Ortho-rectification, coregistration, and subpixel correlation of optical satellite and aerial images |
CN105675266A (zh) * | 2016-02-03 | 2016-06-15 | 上海仪万光电科技有限公司 | 无限共轭光路测量光学镜头的调制传递函数的装置及方法 |
CN205538161U (zh) * | 2016-02-03 | 2016-08-31 | 上海仪万光电科技有限公司 | 一种无限共轭光路测量光学镜头的调制传递函数的装置 |
CN112862874A (zh) * | 2021-04-23 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 点云数据匹配方法、装置、电子设备及计算机存储介质 |
CN113052905A (zh) * | 2021-03-31 | 2021-06-29 | 中国人民解放军63920部队 | 基于双目逆投影变换的圆形目标位姿测量方法和装置 |
CN113313810A (zh) * | 2021-06-18 | 2021-08-27 | 广东工业大学 | 一种透明物体的6d姿态参数计算方法 |
-
2021
- 2021-09-13 CN CN202111068322.6A patent/CN113822934B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100232728A1 (en) * | 2008-01-18 | 2010-09-16 | Leprince Sebastien | Ortho-rectification, coregistration, and subpixel correlation of optical satellite and aerial images |
CN105675266A (zh) * | 2016-02-03 | 2016-06-15 | 上海仪万光电科技有限公司 | 无限共轭光路测量光学镜头的调制传递函数的装置及方法 |
CN205538161U (zh) * | 2016-02-03 | 2016-08-31 | 上海仪万光电科技有限公司 | 一种无限共轭光路测量光学镜头的调制传递函数的装置 |
CN113052905A (zh) * | 2021-03-31 | 2021-06-29 | 中国人民解放军63920部队 | 基于双目逆投影变换的圆形目标位姿测量方法和装置 |
CN112862874A (zh) * | 2021-04-23 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 点云数据匹配方法、装置、电子设备及计算机存储介质 |
CN113313810A (zh) * | 2021-06-18 | 2021-08-27 | 广东工业大学 | 一种透明物体的6d姿态参数计算方法 |
Non-Patent Citations (2)
Title |
---|
DONG RF ET AL: "《Line-based Monocular Graph SLAM》", 《IEEE》 * |
王志超等: "《基于特征融合的非合作航天器位姿测量方法》", 《高技术通讯》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115493499A (zh) * | 2021-12-30 | 2022-12-20 | 北京航天飞行控制中心 | 一种圆柱体或类圆柱体的装配方法及系统 |
CN115493499B (zh) * | 2021-12-30 | 2024-04-19 | 北京航天飞行控制中心 | 一种圆柱体或类圆柱体的装配方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113822934B (zh) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
CN106553195B (zh) | 工业机器人抓取过程中的物体6自由度定位方法及系统 | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
CN108324373B (zh) | 一种基于电磁定位系统的穿刺手术机器人精确定位实现方法 | |
CN105910535B (zh) | 一种用于舱段自动对接的单双目位姿偏差测量方法 | |
CN110866969B (zh) | 基于神经网络与点云配准的发动机叶片重构方法 | |
CN102620656B (zh) | 一种航天器交会对接相对位姿测量方法 | |
JP5924862B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108665499B (zh) | 一种基于视差法的近距飞机位姿测量方法 | |
CN114011608B (zh) | 基于数字孪生的喷涂工艺优化系统及其喷涂优化方法 | |
CN111546328A (zh) | 基于三维视觉测量的手眼标定方法 | |
CN110849331B (zh) | 基于三维点云数据库模型的单目视觉测量与地面试验方法 | |
CN109087355A (zh) | 基于迭代更新的单目相机位姿测量装置与方法 | |
CN113822934B (zh) | 基于逆投影的多特征融合视觉定位方法 | |
CN112712565A (zh) | 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法 | |
Liu et al. | A high-accuracy pose measurement system for robotic automated assembly in large-scale space | |
Lim | Point cloud modeling using the homogeneous transformation for non-cooperative pose estimation | |
Li | Relative pose measurement of moving rigid bodies based on binocular vision | |
CN110490934B (zh) | 基于单目相机与机器人的混合机立式桨叶姿态检测方法 | |
Rüther et al. | The narcissistic robot: Robot calibration using a mirror | |
Figueroa et al. | Joint origin identification of articulated robots with marker-based multi-camera optical tracking systems | |
Bao et al. | Robotic 3D plant perception and leaf probing with collision-free motion planning for automated indoor plant phenotyping | |
Lim et al. | Pose estimation using a flash lidar | |
Zhuang et al. | Simultaneous rotation and translation fitting of two 3-D point sets | |
JP6281938B2 (ja) | データ処理装置、データ処理方法、及びデータ処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |