CN104040590A - 用于估计物体的姿态的方法 - Google Patents

用于估计物体的姿态的方法 Download PDF

Info

Publication number
CN104040590A
CN104040590A CN201280063083.8A CN201280063083A CN104040590A CN 104040590 A CN104040590 A CN 104040590A CN 201280063083 A CN201280063083 A CN 201280063083A CN 104040590 A CN104040590 A CN 104040590A
Authority
CN
China
Prior art keywords
feature
point
attitude
model
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280063083.8A
Other languages
English (en)
Other versions
CN104040590B (zh
Inventor
田口裕一
O·图兹尔
S·拉姆阿里加姆
崔敞现
刘洺堉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN104040590A publication Critical patent/CN104040590A/zh
Application granted granted Critical
Publication of CN104040590B publication Critical patent/CN104040590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

通过首先将一组对特征定义为几何图元的组来估计物体的姿态,其中,几何图元包括取向表面点、取向边界点和边界线段。对于物体的模型,基于一组对特征来确定模型对特征。根据由3D传感器获取的数据,基于一组对特征来确定场景对特征,并且然后,将模型对特征与场景对特征匹配以估计物体的姿态。

Description

用于估计物体的姿态的方法
技术领域
本发明一般地涉及估计3D物体的姿态,并且更具体地涉及从由3D传感器获取的数据估计姿态。
背景技术
物体的姿态具有6个自由度(6-DoF),即3D平移和3D旋转。姿态估计的问题是指找出物体相对于参考坐标系(通常是传感器的坐标系)的姿态。能够利用3D模型使用来自传感器的测量结果(例如,2D图像、3D点云)获取姿态。姿态估计在很多机器人应用中都扮演了重要的角色,这些机器人应用例如为箱式拾取、抓握、位置测定、自主导航和3D重建。
近来,姿态估计主要使用2D图像来进行,这是因为相机是经济有效的并且允许快速图像获取。利用2D图像的主要问题在于将2D图像与模型中的它们对应的3D特征进行匹配。这由于相机的各种照明条件和不同的视点引起了图像空间中的旋转和尺度方面的变化而变得具有挑战性。此外,物体的一些视图能够理论上导致模糊的姿态。已知若干不变的特征描述符来确定输入图像与图像的数据库之间的对应性,其中,2D关键点与3D坐标匹配。
很多工业部件是无纹理的,例如,机械加工后的金属部件或者模塑成型的塑料部件。因此,需要严重地依赖于图像中的可观察的边缘。当使用物体的边界时,物体的一组边缘模板常常已知为先验,并且在查询边缘图(query edge maps)中搜索模板。已知包括边缘取向或层级表示的若干变化。基于强度的边缘检测常常产生了过多的边缘像素,其中,只有一些是来自深度不连续性的有用的边缘。能够使用多闪光灯相机来通过从多个闪光方向投射阴影来直接估计深度边缘。
一般来说,与2D数据相反地,利用3D传感器获得的3D数据具有少的多的变化。主要的挑战在于在存在传感器噪声、遮挡和杂乱时解决对应性问题。对应性问题是指找出数据中的特征与模型中的特征之间的一一匹配。这些特征通常被构造为以物体的大小和形状为特征。已知若干3D特征描述符,其使用表面点和法向的分布以及匹配过程。这些描述符通常对于刚性体变换来说是不变的,但是对于噪声和遮挡敏感。此外,这些特征要求密集的点云,这可能是不可获得的。
利用传感器3D数据与模型之间的各种对应性能够进行姿态估计:3D对应性、2线对应性和6点至3或更多平面。通常,这些对应性在诸如随机样本一致性(RANdomSample Consensus)(RANSAC)的假设测试框架中使用以确定姿态。替选地,能够使用霍夫投票方案或者参数空间中的聚类来从假设的姿态分布的模式获得姿态。这些方法当在没有图像或其它事先的信息的情况下仅能够获得3D传感器数据时受困于下述两个问题。点、线和平面不是能够单独地区分并且是组合的以匹配,并且难以在没有对模型进行任何事先处理的情况下实现快速的计算。
能够通过物体的表面上的两个取向点之间的距离和相对取向来限定对特征。物体由存储在哈希表中用于快速取回的一组取向点对特征来表示。从传感器数据中采样任意两个点并且每个这样的对对于特定姿态进行投票。所要求的姿态对应于具有最大数目的票的姿态。由像素与偏移像素之间的深度差构成的简单的对特征用于利用随机森林集合分类器的人类姿态估计。
发明内容
本发明的实施方式提供了一种基于投票的方法,其用于根据由3D传感器获取的数据估计物体的姿态。虽然在现有技术中使用的取向表面点(具有法向的物体的表面上的点)对于具有显著的曲率变化的物体来说是可区分的,但是这些表面点对于很多工业和真实世界的物体(其是平面的)来说紧凑和可分辨程度不够。
为了从边界获得信息,边缘在2D记录中扮演了重要的角色,但是深度不连续性在3D中是重要的。实施方式提供了姿态估计方法,其更好地研究了该边界信息。除了取向表面点之外,我们使用两个其它几何图元,包括取向边界点(位于具有方向的物体的边界上的点)和边界线分段。
仔细选择的图元对更多信息进行压缩编码并且从而为更广泛的工业部件提供了更大的准确性并且允许更快的计算。
附图说明
图1是能够使用本发明的实施方式的机器人组件设备的示意图;
图2A是用于使用根据本发明的实施方式的基于投票的方法确定3D物体的姿态的方法的框图;
图2B是使用基于投票的方法确定3D物体的姿态的方法的细节的框图;
图3A-图3D是根据本发明的实施方式的用于基于投票的姿态估计的对特征的示意图;以及
图4是根据本发明的实施方式的从传感器数据获得的线对特征与从模型获得的线对特征之间的变换的示意图。
具体实施方式
图1示出了估计物体的姿态的系统100。系统包括具有抓握器120的6轴机械臂110。3D传感器130被布置在臂上。抓握器根据它们的姿态101从箱150拾取物体140。应注意的是,箱能够包含不同的物体。
一个示例3D传感器使用由红外激光器生成的结构化光。其它传感器也是可能的。传感器获取3D“点云”160作为640×480个像素的深度图。3D传感器被相对于机械臂校准,从而允许使用该姿态抓握和拾取物体。
3D点云由在处理器170中执行的方法处理。处理器能够包括本领域中已知的存储器和输入/输出接口。该方法确定姿态,该姿态能够反馈到控制器180以指导臂拾取物体140。
图2A示出了方法200的框图,其包括下述步骤:场景的3D感测210;基于投票的姿态估计220、姿态改善230和根据其姿态的物体的抓握240。
系统使用3D传感器扫描物体的箱以检测物体并且根据由该方法确定的姿态拾取该物体。给定箱中的每个不同物体的3D CAD模型,基于投票的方法使用扫描的3D点云160执行物体的检测和姿态估计。该步骤提供的多个粗略姿态。系统选择若干最佳粗略姿态并且使用迭代最近点(ICP)过程来对姿态进行分别地改善。
一般来说,ICP使得两个3D点云之间的差异最小。ICP常常用于从在不同位置获取的多个空间扫描重构完整的3D模型并且相对于3D环境模型定位机器人。该过程能够通过反复修正最小化对应的点之间的距离所需的变换(平移和旋转)来实时地执行。该输入是两个3D点云、变换的初始估计和终止标准。该输出是改善后的变换。主要步骤包括通过最近相邻标准找到对应的点;使用均方误差作为成本函数来估计变换参数;使用所估计的参数来对点进行变换;以及进行迭代。
我们的系统中的ICP过程使用当前的姿态估计对物体的CAD模型进行渲染并且通过对渲染后的模型的表面进行采样来生成用于模型的3D点云。然后,ICP对于模型中的每个3D点确定扫描的点云中的最近3D点并且使用3D点对应性更新姿态估计。
在ICP收敛之后,测量记录误差作为扫描的点云和模型中的对应的3D点之间的平均距离。记录误差在ICP收敛到不正确的姿态时或者在物体的一部分由于其它物体的遮挡而丢失时会变高。因此,如果记录误差较高,则我们的系统不使用该估计的姿态用于抓握。除了记录误差之外,我们的系统还检查处于该姿态的物体是否能够由机器人臂达到以确定是否能够拾取该物体。
坐标系
为了该描述的目的,使用三个坐标系。在传感器(相机)坐标系C的观点中表达传感器。在物体坐标系O的观点中表达物体的模型。场景中的物体使用世界坐标系W。传感器坐标系S能够被校准到世界坐标系W,这是因为一般来说传感器在真实世界中处于已知的位置和取向。
姿态估计方法确定传感器坐标系与物体坐标系之间的变换。然后,能够使用传感器和世界坐标系之间的关系来处理场景中的物体。
基于投票的姿态估计
我们的用于姿态估计的特征是基于取向点或线的对,我们可以将其称为对特征。由一对取向表面点构成的对特征由S2S表示,这是因为我们从一个取向点(基准)到另一个(所指的)点非对称性地构造特征向量。类似地,我们具有基于一对取向边界点(B2B)、一对线段(L2L)和包括取向表面点和取向边界点(S2B和B2S)的异构对的四个其它对特征,参见图3A-图3C。
点对特征描述符FS2S、FB2B、FS2B和FB2S由一对取向点(m,n)的相对位置f1和取向f2、f3和f4限定,其中,点指示具有表面法向的表面点或者具有方向的边界点。在图3D中,线对特征描述符FL2L由两个无穷线之间的最小距离f1、两个线方向之间的锐角f2和两个线段之间的最大距离f3定义。
为了估计物体的姿态,需要建立从场景和模型获得的对特征之间的对应性。我们使用来自对特征的各种几何约束作为其描述符。然后,通过匹配它们的描述符来建立场景与模型对特征之间的对应性。
对特征
S2S-表面对特征
使用物体表面上的两个点及其法向来限定表面对特征S2S。给定来自场景的取向点和来自模型的对应初元,能够通过对齐点位置和它们的法向来将3D姿态恢复到平面旋转。为了解决旋转模糊性并且恢复完整的6-DoF姿态,至少需要场景与模型图元的两个点之间的对应性。
{(mr,nr),(mi,ni)}表示对特征,其中,mr和mi是物体表面上的参考和提及点,并且nr和ni分别是对应的法向。与该对特征关联的描述符为:
FS2S=(f1,f2,f3,f4)T (1)
=(||d||2,∠(nr,d),∠(ni,d),∠(nr,ni))T (2)
其中,d是从参考点到提及点的向量,并且∠(v1,v2)∈[0,π)表示两个向量之间的角度。
因此,描述符的第一分量表示f1=||mi-mr||2=||d||2,其是两个表面点之间的欧拉距离。第二和第三分量f2和f3分别是向量d与表面法向量nr和ni之间的角度。最后的分量f4是两个法向量之间的角度。在图3A中示出了S2S特征。如果物体横跨较宽范围的发现,则该特征提供了对于物体的良好描述。
B2B-边界对特征
S2S特征没有提供对于不横跨宽范围的表面发现的形状的良好描述。不幸的是,在机器人组装期间使用的很多工业部件都是平面的并且具有非常小的组的法向方向。另外,由于3D数据中的噪声,难以在表面上的高曲率区域中准确地估计法向,这使得问题进一步复杂化。
我们基于物体边界上的两个点定义了新颖的点对特征B2B。与表面点相反地,边界点不具有很好定义的法向。对于边界点来说,我们对线段进行拟合并且使用线段的方向用于取向。为了提取物体边界上的线段,我们首先使用Canny边缘检测器来确定深度图中的边缘。边缘被存储在边缘图中。来自边缘图的点被随机地采样并且使用RANSAC过程在以这些点为重心的局域区域上对3D线进行拟合。通过反复地定位和移除具有最大内围层(inliers)的线段,我们恢复了所有线段。通过向内围层应用最小二乘法来进一步改善这些线段。在线拟合之后,我们对3D线段上的边界点进行均匀的采样。
在图3B中,点示出了两条3D线段上的边界点。然后,利用下式定义边界对特征描述符
F B 2 B = ( f 1 , f 2 , f 3 , f 4 ) T - - - ( 3 ) = ( | | d | | 2 , ∠ ( n ‾ r , d ) , ∠ ( n ‾ i , d ) , ∠ ( n ‾ r , n ‾ i ) ) T . - - - ( 4 )
除了是3D线的方向之外,该特征等价于FS2S。注意的是,这些方向不是唯一地确定的。因此,当我们使用B2B特征时,我们考虑两个可能的方向
物体边界的信息量非常大。与S2S、B2B相比,由于存在比表面点更少的边界点,因此提供了更精确的建模。此外,从局部线段开始的取向也比表面法向对于噪声更具抵抗力。
S2B和B2S-表面-边界对特征
边界对特征与物体的深度边缘关联。仅依赖于边界点的这样的特征可能对于具有高表面曲率的物体来说不是最佳选择。例如,球形物体的表面上的任意点能够基于姿态而潜在地成为深度边缘,而多边形对向上的深度边缘更稳定,并且始终出现在平面交叉上。
为了一起高效地对平面和弯曲物体进行建模,我们提供了使用取向表面点和取向边界点定义的异构对特征。通过考虑表面和边界上的取向点,与B2B特征相比,该特征减少了姿态采样。
如图2C中所示,通过选择取向表面点作为参考点并且选择取向边界点作为提及点,利用下式定义S2B特征描述符
F S 2 B = ( f 1 , f 2 , f 3 , f 4 ) T - - - ( 5 ) = ( | | d | | 2 , ∠ ( n r , d ) , ∠ ( n ‾ i , d ) , ∠ ( n r , n ‾ i ) ) T . - - - ( 6 )
类似地,通过选择取向边界点作为参考点并且选择取向表面点作为提及点来定义B2S特征。
L2L-线对特征:
如图3D中所示,我们还提供了用于3D线段的对特征L2L。构造用于两条线段的特征比构造用于曲线点对的特征包含得略多。在我们的方法中,我们使用RANSAC过程对线进行拟合。线段通常由于噪声、随机线拟合和遮挡而分为若干较小的线段。因此,不能够可靠地确定线段的端点(表示为{lr 1,lr 2,li 1,li 2})。
因此,我们考虑由cr和ci表示的两个点以确定我们的特征描述符。如图2D中所示,cr和ci是每条线上彼此最近的点。具有方向v1和v2的两条线短之间的锐角为:
其中, ∠ a ( v 1 , v 2 ) ∈ [ 0 ; π 2 ] . .
我们的L2L特征描述符为:
F L 2 L = ( f 1 , f 2 , f 3 ) T - - - ( 8 ) = ( | | d | | 2 , ∠ a ( l r 2 - l r 1 , l i 2 - l i 1 ) , f 3 ) T . - - - ( 9 )
其中
f 3 = max ( | | l i 1 - l r 1 | | 2 , | | l i 1 - l r 2 | | 2 , | | l i 2 - l r 1 | | 2 , | | l i 2 - l r 2 | | 2 ) . .
第一分量是最近点cr和ci之间的距离(即,两条无限长线之间的距离),并且第二分量是两条线段之间的锐角。最后的分量表示两条线段之间的最大距离。该最大距离能够是一条线段中的端点与另一条线段中的端点之间的所有可能的距离中的最大的一个。该最大距离用于减少具有类似距离和角度的两条线段之间的错误匹配。例如,任意对共面正交线具有相同的距离和角度。然而,如上所述,该最大距离由于线段的中断而是不可靠的。因此,我们在姿态估计中对于该分量使用较大量化步骤。我们没有对于平行线段的对构造L2L特征,这是因为这样的对导致姿态的模糊。
线对特征提供了非常高效的匹配,这是因为线段的数目少于边界点或表面点的数目。该特征对于多面物体和具有长边界线段的物体来说是非常有效的。
在实际实施中,通过扫描并且二次采样深度图像来获得表面点,经由我们的从3D扫描估计3D线段的RANSAC过程确定3D线,并且通过沿着线段二次采样来获得边界点。
物体表现
我们首先获得几何图元M:用于S2S的取向表面点、用于B2B的取向边界点、用于S2B和B2S的取向表面和边界点以及用于L2L的3D线段。这些几何图元能够根据在传感器与物体之间进行了已知的校准的3D扫描数据或者从已知的CAD模型渲染得到的合成深度数据来确定。
利用这些图元M,我们使用一组模型对特征201S2S、B2B、S2B、B2S和L2L来表示每个特定物体140(如图2A中所示)。为了高效的特征匹配,我们将模型对特征存储在哈希表H205中。在一开始,我们对特征对进行离散化,其中距离和角度被分别以Δd和Δa的步长进行量化。重要的是,适当地定义量化水平。使用大的步长减少了描述符的区分能力,而使用小的步长使得方法对于噪声敏感。接下来,使用离散的对特征描述符作为用于哈希函数的关键字,并且相应地将对特征插入到箱中。利用适当的量化步骤,类似的对特征被分组在一起并且能够以恒定时间进行匹配和投票。
构造物体表现能够是能够离线执行的预处理步骤。图2A示出了在箱中能够随机地混合的用于以后的拾取的三个不同物体。
在在线处理中,我们根据扫描的3D点云160确定场景对特征202,并且将这些特征与所述一组模型对特征匹配。在图2B中示出了该方法的细节。
用于S2S、B2B、S2B和B2S的投票方案
如图2B中所示,在从模型确定了特征202的对并且构建了哈希表H205之后,我们通过计算场景对特征与一组对应的模型对特征之间的刚性体变换来确定姿态。为了高效地进行找到最佳姿态的处理,我们使用投票方案。单纯的方法要求6-DoF姿态空间中的投票,这是低效率的。
相反地,我们使用投票方案,其使用中间坐标变换来将投票空间减少到2D空间。首先,在哈希表H中搜索场景点对(sr,si),并且然后找到对应的模型点对(mr,mi)。然后,对的参考点被变换到中间坐标系,从而它们的位置对应于坐标系的原点,并且它们的法向与x轴对齐。为了完全对齐对,通过以角度α围绕x轴旋转物体模型来对齐提及点mi和si
上述从(mr,mi)到(sr,si)的变换由参考模型点的对和平面旋转角度(mr,α)来参数化,并且由下式给出
s i = T s → g - 1 R x ( α ) T m → g m i - - - ( 10 )
其中,Rx(α)是以角度α围绕x轴的旋转,Ts→g和Tm→g分别是从场景坐标系和模型坐标系到中间坐标系的变换。
在投票阶段,场景中的参考点sr与场景中的其它点si配对,并且然后,基于它们的描述符从哈希表H获得与场景对特征(sr,si)类似的模型对特征(mr,mi)。对于每个对,在中间坐标系中确定旋转角度α,并且然后,对于对(mrα)进行投票。在投票之后,选择大于预定阈值的元素,从其如等式(10)中那样计算候选姿态(模型坐标与场景坐标之间的刚性变换)206。通过选择场景中不同的参考点来重复该处理。该投票方案可应用于S2S、B2B、S2B和B2S对特征。
用于L2L的投票方案
由于通过一对线段来定义L2L特征,因此我们使用了不同的投票方案用于L2L方案。与用于点对特征的投票方案相比,用于L2L特征的投票方案更加困难。然而,基本理念是相同的:我们在中间坐标系中对齐两个对特征,如图4中所示。
我们首先将线对变换到中间坐标系。通过Ts→g,来自场景的参考线ls r与x轴对齐,并且参考中点om被移动到原点。来自模型的参考线lm r类似地通过Tm→g进行变换。之后,参考场景线cs r和参考模型线cm r的最近点通过沿着x轴平移参考线而在原点对齐。这些平移之间的差异被表示为τ。然后,提及线ls i和lm i通过围绕x轴以角度α旋转来对齐。角度α能够由ds和dm容易地确定。
因此,用于L2L投票方案的经由中间坐标系从(lm r,lm i)到(ls r,ls i)的变换由(lm r,α,τ)参数化并且由下式给出
l i s = T s → g - 1 T x ( τ ) R x ( α ) T m → g l i m - - - ( 11 )
其中,Tx(τ)是沿着x轴的平移。
姿态聚类
在上述投票方案中,对于场景中的每个参考图元(点或线)获得候选姿态206。由于通过多个特征对对物体进行建模,因此预计在不同参考图元(点mr或线lm r)上具有支持一致的姿态假设的多个候选姿态。因此,我们聚集来自不同场景图元的类似姿态。
虽然存在用于在3D刚性体变换空间SE(3)中进行聚类的若干方案(例如,李群上的均值漂移),但是这些方案通常在计算上对于对时间敏感的应用来说是禁止的。
我们使用聚集聚类207方案,其是非常高效的。我们首先按照投票的数目的降序对候选姿态进行排序。从具有最大数目的投票的候选姿态开始,我们创建新的聚类。如果下一候选姿态接近现有聚类之一,则该候选姿态被添加到该聚类,并且聚类中心被更新为聚类内的候选姿态的平均。如果下一候选姿态没有接近任何聚类,则生成新的聚类。对于平移和旋转以固定阈值进行接近测试。在3D欧几里德空间中执行平移的距离计算和平均,而使用旋转矩阵的四元数表示来执行用于旋转的距离计算和平均。
在聚类之后,按照投票总数的降序来对聚类进行排序,这确定估计的姿态的可信度。具有最大数目的投票的聚类对应于最佳姿态208。
本发明的效果。
提供了一组使用取向表面点、取向边界点和边界线段的对特征来对各种物体进行建模。我们在投票框架中使用对特征用于准确且高效的姿态估计。
来自边界的特征是更紧凑且信息量大,从而导致了更好的准确性和更快的计算。
根据本发明的实施方式实施的箱式拾取系统具有高于98%的拾取成功率,以及用于平移和旋转的小于0.3mm和0.3°的姿态估计误差。

Claims (15)

1.一种估计物体的姿态的方法,该方法包括下述步骤:
将一组对特征确定为几何图元的对,其中,几何图元包括取向表面点、取向边界点和边界线段;
对于所述物体的模型,基于所述一组对特征确定模型对特征;
根据由3D传感器获取的数据,基于所述一组对特征确定场景对特征;以及
将所述模型对特征与所述场景对特征匹配以估计所述物体的所述姿态,
其中,在处理器中执行上述的步骤。
2.根据权利要求1所述的方法,其中,所述物体是与其它物体随机混合的多个不同物体中的一个物体,并且对于每个物体存在模型对特征。
3.根据权利要求1所述的方法,其中,所述3D传感器安装在机器人臂上,并且所述机器人臂包括根据姿态拾取所述物体的抓握器。
4.根据权利要求1所述的方法,其中,所述3D传感器使用由红外激光器生成的结构化光。
5.根据权利要求1所述的方法,其中,使用两个取向表面点、两个取向边界点、一个取向表面点和一个取向边界点以及两个边界线段来定义每个对特征。
6.根据权利要求1所述的方法,其中,每个取向表面点包括位于所述物体的表面上的3D位置和3D法向量。
7.根据权利要求1所述的方法,其中,每个取向边界点包括位于所述物体的边界上的3D位置和3D方向向量。
8.根据权利要求7所述的方法,其中,所述3D方向向量被定义为在所述3D位置处与所述边界相切的方向。
9.根据权利要求1所述的方法,其中,每个边界线段是拟合到所述物体的边界上的3D点的线段。
10.根据权利要求1所述的方法,其中,根据每个对特征确定描述符。
11.根据权利要求10所述的方法,其中,通过比较所述模型对特征的描述符与所述场景对特征的描述符来执行所述匹配。
12.根据权利要求11所述的方法,所述方法进一步包括:
对所述对特征的描述符进行离散化;
将所述模型对特征的离散化的描述符存储在哈希表中;以及
使用所述哈希表执行所述匹配。
13.根据权利要求1所述的方法,其中,经由中间坐标变换,基于投票来估计所述物体的候选姿态。
14.根据权利要求13所述的方法,所述方法进一步包括:
对所述候选姿态进行聚类。
15.根据权利要求1所述的方法,所述方法进一步包括:
使用迭代最近点过程来改善所述姿态。
CN201280063083.8A 2011-12-19 2012-12-04 用于估计物体的姿态的方法 Active CN104040590B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/329,493 2011-12-19
US13/329,493 US8908913B2 (en) 2011-12-19 2011-12-19 Voting-based pose estimation for 3D sensors
PCT/JP2012/081864 WO2013094441A1 (en) 2011-12-19 2012-12-04 Method for estimating pose of object

Publications (2)

Publication Number Publication Date
CN104040590A true CN104040590A (zh) 2014-09-10
CN104040590B CN104040590B (zh) 2017-02-22

Family

ID=47436153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280063083.8A Active CN104040590B (zh) 2011-12-19 2012-12-04 用于估计物体的姿态的方法

Country Status (5)

Country Link
US (1) US8908913B2 (zh)
JP (1) JP5726378B2 (zh)
CN (1) CN104040590B (zh)
DE (1) DE112012005350B4 (zh)
WO (1) WO2013094441A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016732A (zh) * 2015-12-24 2017-08-04 达索系统公司 使用描述符的3d对象定位
CN107220580A (zh) * 2016-03-22 2017-09-29 敦泰电子有限公司 基于投票决策和最小二乘法的图像识别随机取样一致算法
CN107851181A (zh) * 2015-07-10 2018-03-27 库卡罗伯特有限公司 用于控制机器人和/或自主无人驾驶运输系统的方法
JP2018523154A (ja) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション 構造化照明イメージングシステムを較正するためおよび構造化照明画像をキャプチャするためのシステムおよび方法
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法
CN110992427A (zh) * 2019-12-19 2020-04-10 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
CN111453401A (zh) * 2020-03-25 2020-07-28 佛山缔乐视觉科技有限公司 工件的自动拾取方法和装置
CN117237451A (zh) * 2023-09-15 2023-12-15 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130201339A1 (en) * 2012-02-08 2013-08-08 Honeywell International Inc. System and method of optimal video camera placement and configuration
US9098913B2 (en) * 2012-05-11 2015-08-04 Cornell University Prediction of successful grasps by end of arm tooling
ITPR20120039A1 (it) * 2012-06-20 2012-09-19 Gevis S R L Dispositivo e metodo di misura di un pezzo
US8913825B2 (en) * 2012-07-16 2014-12-16 Mitsubishi Electric Research Laboratories, Inc. Specular edge extraction using multi-flash imaging
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
US9305364B2 (en) * 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
US9280827B2 (en) * 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
JP6245880B2 (ja) * 2013-07-31 2017-12-13 キヤノン株式会社 情報処理装置および情報処理手法、プログラム
US11412334B2 (en) * 2013-10-23 2022-08-09 Cochlear Limited Contralateral sound capture with respect to stimulation energy source
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
US10239210B2 (en) * 2014-04-11 2019-03-26 Symbotic Canada Ulc Vision-assisted system and method for picking of rubber bales in a bin
EP2933604B1 (en) * 2014-04-14 2016-11-30 Softbank Robotics Europe A method for localizing a robot in a localization plane
EP3192057A4 (en) * 2014-09-10 2018-03-21 Vangogh Imaging Inc. Real-time dynamic three-dimensional adaptive object recognition and model reconstruction
US9747493B2 (en) 2014-09-23 2017-08-29 Keylemon Sa Face pose rectification method and apparatus
DE102015100983A1 (de) 2015-01-23 2016-07-28 Sick Ag Verfahren zur Lokalisierung von Greifpunkten von Objekten
US10515259B2 (en) * 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
CN104899918B (zh) * 2015-05-14 2018-02-27 深圳大学 一种无人机的三维环境建模方法及系统
US11044390B2 (en) * 2016-02-10 2021-06-22 Karl Storz Imaging, Inc. Imaging system for identifying a boundary between active and inactive portions of a digital image
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US10371512B2 (en) * 2016-04-08 2019-08-06 Otis Elevator Company Method and system for multiple 3D sensor calibration
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10380762B2 (en) 2016-10-07 2019-08-13 Vangogh Imaging, Inc. Real-time remote collaboration and virtual presence using simultaneous localization and mapping to construct a 3D model and update a scene based on sparse data
US10116915B2 (en) * 2017-01-17 2018-10-30 Seiko Epson Corporation Cleaning of depth data by elimination of artifacts caused by shadows and parallax
DE102017201169A1 (de) 2017-01-25 2018-07-26 Siemens Aktiengesellschaft Rechnergestütztes Bildverarbeitungsverfahren
EP3495202B1 (en) * 2017-12-05 2020-08-19 Guima Palfinger S.A.S. Truck-mountable detection system
US10839585B2 (en) 2018-01-05 2020-11-17 Vangogh Imaging, Inc. 4D hologram: real-time remote avatar creation and animation control
US10957072B2 (en) * 2018-02-21 2021-03-23 Cognex Corporation System and method for simultaneous consideration of edges and normals in image features by a vision system
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
US11080540B2 (en) 2018-03-20 2021-08-03 Vangogh Imaging, Inc. 3D vision processing using an IP block
US10810783B2 (en) 2018-04-03 2020-10-20 Vangogh Imaging, Inc. Dynamic real-time texture alignment for 3D models
CN108537805B (zh) * 2018-04-16 2021-09-21 中北大学 一种基于特征几何收益的目标识别方法
US11170224B2 (en) 2018-05-25 2021-11-09 Vangogh Imaging, Inc. Keyframe-based object scanning and tracking
AU2019336263A1 (en) * 2018-09-04 2021-04-08 Fastbrick Ip Pty Ltd Vision system for a robotic machine
CN109903326B (zh) * 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置
JP7115376B2 (ja) * 2019-03-18 2022-08-09 日本電信電話株式会社 回転状態推定装置、方法及びプログラム
US11170552B2 (en) 2019-05-06 2021-11-09 Vangogh Imaging, Inc. Remote visualization of three-dimensional (3D) animation with synchronized voice in real-time
US11232633B2 (en) 2019-05-06 2022-01-25 Vangogh Imaging, Inc. 3D object capture and object reconstruction using edge cloud computing resources
JP7316134B2 (ja) * 2019-07-22 2023-07-27 ファナック株式会社 位置姿勢特定装置、位置姿勢特定方法及び位置姿勢特定プログラム
US11335063B2 (en) 2020-01-03 2022-05-17 Vangogh Imaging, Inc. Multiple maps for 3D object scanning and reconstruction
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
US11420334B2 (en) 2020-04-14 2022-08-23 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Candidate six dimensional pose hypothesis selection
DE102021109036A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte
CN113486470B (zh) * 2021-07-15 2023-05-23 西北工业大学 一种考虑非理想表面接触状态的装配体位姿计算方法
CN113853632A (zh) * 2021-08-18 2021-12-28 香港应用科技研究院有限公司 用于3d扫描之间全局配准的方法和系统
CN114676528B (zh) * 2022-04-07 2024-02-23 西北工业大学 基于组合基元法的非理想模型装配偏差算法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005017820A1 (en) * 2003-08-15 2005-02-24 Scape A/S Computer-vision system for classification and spatial localization of bounded 3d-objects
CN101408931A (zh) * 2007-10-11 2009-04-15 Mv科技软件有限责任公司 用于三维目标识别的系统和方法
CN101510308A (zh) * 2009-03-26 2009-08-19 山东理工大学 产品模型点云边界特征快速提取方法
CN102236794A (zh) * 2010-05-07 2011-11-09 Mv科技软件有限责任公司 3d场景中3d对象的识别和姿态确定

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366645B2 (en) * 2002-05-06 2008-04-29 Jezekiel Ben-Arie Method of recognition of human motion, vector sequences and speech
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8401304B2 (en) * 2007-07-27 2013-03-19 Sportvision, Inc. Detecting an object in an image using edge detection and morphological processing
JP5088278B2 (ja) * 2008-09-17 2012-12-05 株式会社安川電機 物体検出方法と物体検出装置およびロボットシステム
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8467596B2 (en) * 2011-08-30 2013-06-18 Seiko Epson Corporation Method and apparatus for object pose estimation
US9155675B2 (en) * 2011-10-12 2015-10-13 Board Of Trustees Of The University Of Arkansas Portable robotic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005017820A1 (en) * 2003-08-15 2005-02-24 Scape A/S Computer-vision system for classification and spatial localization of bounded 3d-objects
US20070127816A1 (en) * 2003-08-15 2007-06-07 Ivar Balslev Computer-vision system for classification and spatial localization of bounded 3d-objects
CN101408931A (zh) * 2007-10-11 2009-04-15 Mv科技软件有限责任公司 用于三维目标识别的系统和方法
CN101510308A (zh) * 2009-03-26 2009-08-19 山东理工大学 产品模型点云边界特征快速提取方法
CN102236794A (zh) * 2010-05-07 2011-11-09 Mv科技软件有限责任公司 3d场景中3d对象的识别和姿态确定

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BERTRAM DROST等: "Model Globally, Match Locally: Efficient and Robust 3D Object Recognition", 《2010 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
孙殿柱等: "散乱点云边界特征快速提取算法", 《山东大学学报(工学版)》 *
柯映林等等: "基于点云的边界特征直接提取技术", 《机械工程学报》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018523154A (ja) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション 構造化照明イメージングシステムを較正するためおよび構造化照明画像をキャプチャするためのシステムおよび方法
US10782514B2 (en) 2015-06-02 2020-09-22 Life Technologies Corporation Systems and methods for calibrating a structured illumination imaging system and for capturing a structured illumination image
CN107851181A (zh) * 2015-07-10 2018-03-27 库卡罗伯特有限公司 用于控制机器人和/或自主无人驾驶运输系统的方法
CN107016732B (zh) * 2015-12-24 2022-01-14 达索系统公司 用于使用描述符的3d对象定位的方法、装置、介质和系统
CN107016732A (zh) * 2015-12-24 2017-08-04 达索系统公司 使用描述符的3d对象定位
CN107220580A (zh) * 2016-03-22 2017-09-29 敦泰电子有限公司 基于投票决策和最小二乘法的图像识别随机取样一致算法
CN107220580B (zh) * 2016-03-22 2022-08-09 敦泰电子有限公司 基于投票决策和最小二乘法的图像识别随机取样一致算法
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN110348310A (zh) * 2019-06-12 2019-10-18 西安工程大学 一种霍夫投票3d彩色点云识别方法
CN110992427A (zh) * 2019-12-19 2020-04-10 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
CN110992427B (zh) * 2019-12-19 2023-10-13 深圳市华汉伟业科技有限公司 一种形变物体的三维位姿估计方法及定位抓取系统
CN111453401A (zh) * 2020-03-25 2020-07-28 佛山缔乐视觉科技有限公司 工件的自动拾取方法和装置
CN117237451A (zh) * 2023-09-15 2023-12-15 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法
CN117237451B (zh) * 2023-09-15 2024-04-02 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法

Also Published As

Publication number Publication date
JP5726378B2 (ja) 2015-05-27
WO2013094441A1 (en) 2013-06-27
CN104040590B (zh) 2017-02-22
DE112012005350B4 (de) 2022-03-31
US20130156262A1 (en) 2013-06-20
DE112012005350T5 (de) 2014-09-11
US8908913B2 (en) 2014-12-09
JP2014528057A (ja) 2014-10-23

Similar Documents

Publication Publication Date Title
CN104040590B (zh) 用于估计物体的姿态的方法
Rabbani et al. Efficient hough transform for automatic detection of cylinders in point clouds
Choi et al. Voting-based pose estimation for robotic assembly using a 3D sensor
Oehler et al. Efficient multi-resolution plane segmentation of 3D point clouds
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
Khoshelham Extending generalized hough transform to detect 3d objects in laser range data
KR20200045522A (ko) 국지화를 수행하는 데에 사용되기 위한 방법 및 시스템
CN107917710B (zh) 一种基于单线激光的室内实时定位与三维地图构建方法
JP5627325B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN112634451A (zh) 一种融合多传感器的室外大场景三维建图方法
Ji et al. Lloam: Lidar odometry and mapping with loop-closure detection based correction
CN102236794A (zh) 3d场景中3d对象的识别和姿态确定
JP2007502473A (ja) 有界三次元対象物の分類と空間ローカライゼーションのためのコンピュータ視覚システム
CN107818598B (zh) 一种基于视觉矫正的三维点云地图融合方法
Drost et al. Local hough transform for 3d primitive detection
Abuzaina et al. Sphere detection in kinect point clouds via the 3d hough transform
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN113177593A (zh) 一种水上交通环境中雷达点云与影像数据的融合方法
CN113791400A (zh) 一种基于激光雷达的楼梯参数自主检测方法
Cupec et al. Fast 2.5 D Mesh Segmentation to Approximately Convex Surfaces.
Guan et al. Relative pose estimation for multi-camera systems from affine correspondences
Xu et al. Feature selection and pose estimation from known planar objects using monocular vision
Galeote-Luque et al. GND-LO: Ground Decoupled 3D Lidar Odometry Based on Planar Patches
Lim et al. Underwater Terrain Map Building Based on Depth Image Using Multi-Beam Sonar Sensor
Rink et al. Monte Carlo registration and its application with autonomous robots

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant