CN103729643A - 多模式场景中的三维对象的识别和姿势确定 - Google Patents

多模式场景中的三维对象的识别和姿势确定 Download PDF

Info

Publication number
CN103729643A
CN103729643A CN201310418597.7A CN201310418597A CN103729643A CN 103729643 A CN103729643 A CN 103729643A CN 201310418597 A CN201310418597 A CN 201310418597A CN 103729643 A CN103729643 A CN 103729643A
Authority
CN
China
Prior art keywords
point
posture
data
scene
descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310418597.7A
Other languages
English (en)
Other versions
CN103729643B (zh
Inventor
伯特伦·德罗斯特
马库斯·乌尔里希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MVTec Software GmbH
Original Assignee
MVTec Software GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MVTec Software GmbH filed Critical MVTec Software GmbH
Publication of CN103729643A publication Critical patent/CN103729643A/zh
Application granted granted Critical
Publication of CN103729643B publication Critical patent/CN103729643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种用于利用3D场景数据和场景强度数据识别3D对象的实体和确定所述实体的3D姿势的方法,所述方法包括以下步骤:(a)提供3D对象数据并获得对象强度数据;(b)提供3D场景数据和场景强度数据;(c)从所述强度数据中提取场景特征点;(d)从所述3D场景数据中选择至少一个参考点;(e)在假设所述参考点为所述3D对象的一部分时,针对每个所选的参考点,通过最大化所提取的场景特征点的数量而为所述3D对象计算候选姿势,在给定的候选姿势下,所述所提取的场景特征点与所述3D对象一致;(f)从所述候选姿势中计算一组过滤姿势。

Description

多模式场景中的三维对象的识别和姿势确定
技术领域
本发明总体涉及机器视觉系统,尤其涉及利用成像和三维(3D)传感器所观测的场景中的3D对象的识别和定位。
背景技术
对象识别和定位是许多机器视觉应用的一部分。知道场景中所关注的对象的精确位置对任何后续操作和检查任务来说是至关重要的。开发了许多不同的技术以查找场景的强度图像或3D扫描图中的对象,该任务通常被称为匹配。本申请描述一种同时使用场景的强度图像和3D扫描图的匹配方法,以通过采用3D数据和强度数据优化模型与场景的一致性来查找对象。
基于描述符或特征的技术建立在通过使用描述符来查找场景中的点与模型上的点之间的对应关系的基础上。这种描述符使用低维表示来表示在给定的场景点周围的3D表面或强度。通常,对于模型的点的全部或者选定的一组脱机计算这种描述符,并将其存储在数据库中。为了识别场景中的对象,对于场景中的点计算描述符,并使用预先计算的数据库搜索相应的模型点。一旦发现足够的对应,则可以还原对象的姿势。Campbell和Flynn(A Survey Of Free-FormObject Representation and Recognition Techniques,2001,Computer Vision andImage Understanding,第81卷,第2期,第166-210页)、Mamic和Bennamoun(Representation and recognition of3D free-form objects,2002,Digital SignalProcessing,第12卷,第1期,第47-76页)以及Mian等(Automatic Correspondencefor3D Modeling:An Extensive Review,2005,International Journal of ShapeModeling,第11卷,第2期,第253页)给出了不同的3D表面描述符的广泛概述。强度数据中常用的特征描述符包括边缘,如Canny(A Computational ApproachTo Edge Detection,IEEE Transactions on Pattern Analysis and Machine Intelligence,8(6):679-698,1986)所描述的,SIFT关键点描述符,如Lowe(Object recognitionfrom local scale-invariant features,Proceedings of the International Conference onComputer Vision.2.第1150-1157页;也可参见专利号为6,711,293的美国专利)所描述的,以及SURF关键描述符,如Bay等(SURF:Speeded Up Robust Features,Computer Vision and Image Understanding(CVIU),2008,第110卷,第3号,第346-359页;也可参见专利号为8,165,401的美国专利)所描述的。在文献中提出了许多其它特征点描述符。如果所关注的对象具有小的独特形状或强度信息,则依赖于特征描述符的方法经常不起作用,这是因为那样的话描述符是难以区别的。
一些方法使用所谓的几何图元来检测场景中的对象。几何图元为简单的几何对象,例如平面、柱面或球体。相比于自由形态的对象,几何图元由于其内在对称性而在场景中更易于被检测到。存在检测场景中的由几何图元组成的图元或对象的多种方法。在EP-A-2 047 403中,将3D对象划分成几何图元。然后在3D场景中搜索这些几何图元,并且通过确定场景中的与对象中的图元相似的图元而识别对象。其它方法使用广义霍夫变换的变型来检测场景中的几何图元,例如Katsoulas(Robust extraction of vertices in range images by constraining thehough transform,2003,Lecture Notes in Computer Science,第2652卷,第360-369页)、Rabbani和Heuvel(Efficient hough transform for automatic detection ofcylinders in point clouds,2005,Proceedings of the11th Annual Conference of theAdvanced School for Computing and Imaging(ASCI'05),第60-65页)、以及Zaharia和Preteux(Hough transform-based3D mesh retrieval,2001,Proceedings of the SPIEConf.4476on Vision Geometry X,第175-185页)。依赖于几何图元的所有方法都具有的缺点是这些方法对一般的自由形态的对象不起作用。
开发了用于识别距离图像中的3D对象的多种方法,例如在EP-A-l 986 153中。这些方法对单距离图像起作用,如各种传感器系统所返回的。然而,所有的基于距离图像的系统都限于从单距离图像所获得的3D信息,且不能处理来自其它3D传感器的通用3D信息或来自不同的距离图像的组合的通用3D信息。此外,对于实时系统来说,这些方法并不足够快速,因为这些方法通常需要在参数空间中进行强力搜索。
已知用于细化已知的对象的3D姿势的多种方法。这些方法需要将场景中的对象的近似的3D姿势作为输入,并且提高该姿势的精确度。开发仅使用3D数据优化姿势的这几种方法,例如迭代最近点(例如参见Zhang(Iterative pointmatching for registration of free-form curves,1994,International Journal ofComputer Vision,第7卷,第3期,第119-152页)、EP-A-2 026 279以及Fitzgibbon(Robust registration of2D and3D point sets,2003,Image and Vision Computing,第21卷,第13-14期,第1145-1153页)。其它用于细化对象的姿势的方法仅使用强度数据,例如Wiedemann等(Recognition and Tracking of3D Objects,IEEEInternational Conference on Robotics and Automation2009,1191-1198)。姿势细化的主要缺点是输入姿势需要足够接近正确姿势,否则这些方法将无法会聚。然而,对于在实际应用中经常包含杂波、闭塞、噪声和多个对象实例的3D场景来说,难以获得正确姿势的良好近似。
出于以上原因,需要一种允许在场景中高效识别任意的自由形态的3D对象且还原其3D姿势的方法,利用一个或多个强度图像和一个或多个3D传感器捕获场景。为了本文件的目的,利用强度图像和3D传感器所捕获的场景也将被称为多模式场景。
发明内容
本发明提供用于发现多模式场景中的刚性3D对象和利用场景坐标确定对象的3D姿势的系统和方法。在典型应用中,例如使用具有两个或更多个相机的立体声系统、飞行时间、聚焦深度测量、光度立体法或结构光来获得多模式场景。然后,使用所提出的方法得到对象的3D姿势。例如,形成的3D姿势用于利用机器人操纵对象,检测对象表面上的错误,或者计算对象的表面特性。
本方法比之前的方法具有如下几个优势:允许识别具有任何类型的表面几何形状的自由形态的对象,因此不限于特定类型或形状的对象。此外,该方法对于噪声、丢失的对象部分、杂波和小的变形是稳健的。高精度地确定3D对象的姿势。3D对象的发现及其3D姿势的还原需要很少的计算时间,适合于实时环境。
本方法包括两个阶段。在脱机阶段中,计算模型描述,模型描述后续可以用于发现对象。用户需要提供待发现的对象的3D表示,例如3D的CAD模型或一组3D点,以及可选地,来自各种视点的对象的图像。如果未提供图像,则从对象的3D表示人为地渲染图像。因此,本方法仅需要对象的几何形状。不需要颜色、纹理或表面反射率信息,从而使本发明适合于大范围的对象类型。然而,可以提供额外的局部信息,例如颜色和纹理,以使用其它强度特征,因此,进一步提高本方法的稳健性。通过以一定速率采样对象的表面、从不同视点的对象的强度图像中计算特征点和特征点描述符、可选地使用3D表示过滤特征点、将每个采样的3D点与每个特征点组成一对、计算描述每个这样的对的描述符、以及将这些点对存储在利用所述点对描述符来索引的数据库中而构建模型描述。
在联机阶段中,用户提供包括一组强度图像和一组3D场景的多模式场景和在脱机阶段中所计算的模型描述。图像和场景必须相对彼此校准,即必须提前知道内在传感器参数及其相对位置。针对每个强度图像,提取特征点,计算特征点描述符,可选地使用所提供的3D数据过滤特征点描述符。通常,将边缘用作特征点,将边缘的方向作为特征描述符。3D数据用于去除纹理边缘,因此仅获得几何边缘。然后以一定速率采样3D场景,将那些点的子集用作参考点。针对每个参考点,相对于该参考点参数化对象的3D姿势。将采样的3D点与所提取的特征点组成一对,并且为每个这样的对计算描述符。在脱机阶段中所计算的数据库用于从模型中发现与场景中的点对相似的点对。将匹配体分组,使用具有最多匹配体的3D姿势。这同时优化了3D表面重叠和强度特征的一致性。作为可选的后处理步骤,可以进一步细化所还原的姿势。
根据第一方面,本发明提供一种利用3D场景数据和场景强度数据识别3D对象的实体和确定所述实体的3D姿势的方法,所述方法包括以下步骤:(a)提供3D对象数据并获得对象强度数据;(b)提供3D场景数据和场景强度数据;(c)从所述强度数据中提取场景特征点;(d)从所述3D场景数据中选择至少一个参考点;(e)在假设所述参考点为所述3D对象的一部分的情况下,针对每个所选的参考点,通过最大化所提取的场景特征点的数量而为所述3D对象计算候选姿势,在给定的候选姿势下,所提取的场景特征点与所述3D对象一致;(f)从所述候选姿势中计算一组过滤的姿势。优选地,步骤(a)中的3D对象数据和步骤(b)中的3D场景数据被提供为一组3D点或为3D计算机辅助设计模型。优选地,步骤(a)和步骤(b)中的强度数据被提供为灰度图像或彩色图像。可替选地,可通过人工地渲染3D场景数据或3D对象数据来创建强度数据。
优选地,在步骤(a)之后,从3D对象计算3D模型,包括以下步骤:(a1)从所述3D对象数据中选择至少一个样本点;(a2)从所述对象强度数据中提取对象特征点;(a3)针对每对所选的样本点和所提取的对象特征点,计算描述这两个点及其关系的点对描述符;(a4)创建存储利用所述点对描述符来索引的点对的模型。优选地,步骤(a4)包括:(a4a)采样所述点对描述符;(a4b)创建全局模型描述,所述全局模型描述将每个采样的点对描述符映射到点对的列表,其中,每个列表包含具有类似的采样的点对描述符的所有对所选的样本点和所提取的对象特征点。优选地,从3D数据中随机地选择步骤(a1)中的样本点,或者通过均匀地采样3D数据来选择步骤(a1)中的样本点。优选地,在步骤(a2)中所提取的对象特征点为利用边缘检测器所计算的边缘点,且优选地,使用3D对象数据过滤这些对象特征点以仅获得对象的轮廓边缘。优选地,步骤(a4b)中所创建的全局模型使用哈希表,利用点对描述符的采样形式索引哈希表。
优选地,在进行处理之前,过滤3D对象数据、3D场景数据、对象强度数据和场景强度数据,所述处理包括以下步骤中的至少一个:检测和去除异常值;减少噪声;以及针对3D数据,计算表面法线。
优选地,点对描述符描述按照对象特征点的距离而缩放的特征向量,特征向量描述样本点与所提取的对象特征点在强度数据的图像平面内的距离,以及点对描述符描述边缘的相对取向、表面点法线和两点间的差向量。根据另一优选实施方式,点对描述符额外地包含以下可选的特征:为特征点计算的特征点描述符;每点处的颜色值或灰度值;每点处的纹理信息;每点处的表面描述符;每点处的曲率;每点处的其它几何表面信息。
根据另一优选实施方式,在步骤(d)中,从所述3D场景数据中随机地选择所述参考点,或者通过均匀地采样所述3D场景数据来选择所述参考点。优选地,相对于3D对象的尺寸计算用于均匀采样3D场景数据的采样距离。
更优选地,在步骤(e)中,为每个候选姿势计算分数值。优选地,使用决策方案计算所述候选姿势。优选地,所述决策方案包括以下步骤:(e1)采样可能的对象姿势的空间;(e2)针对每个姿势空间样本,创建计数器;(e3)从所提取的场景特征点中选择至少一个场景特征点;(e4)针对每个所选的场景特征点,计算匹配姿势,使得所述参考点位于所述3D对象的表面上且所述场景特征点与所述3D对象一致;(e5)针对在步骤(e4)中所计算的每个匹配姿势,增大相应的姿势空间样本的计数器;以及(e6)检测采样的姿势空间中的达到峰值的计数器值,并选择相应的姿势空间样本作为候选姿势。优选地,在步骤(e6)中,达到峰值的计数器值的检测限于超过阈值的计数器值。优选地,在步骤(e1)中,利用两个参数表示可能的对象姿势的空间,其中,第一个参数为所述3D对象上的点,第二个参数为描述围绕表面法线的旋转的角度。优选地,将所述3D对象上的点表示成到从所述3D对象数据中所选的一组点的索引,通过将一组角度分成等大小的间隔来采样旋转角度。优选地,通过均匀地或随机地采样3D对象的表面而从3D对象数据中选择该一组点。
更优选地,在步骤(a)中,从所述对象强度数据中提取对象特征点。优选地,特征点为边缘点,优选地,使用3D对象数据过滤边缘点以仅获得在深度不连续面上或对象的轮廓上的边缘点。
更优选地,在步骤(e4)中,使用数据结构计算姿势,所述数据结构允许搜索类似于所述参考点与所选的场景特征点的对的3D对象点与对象特征点的对。优选地,搜索点对的步骤包括以下步骤:(e4a)计算描述所述参考点、所选的场景特征点及其关系的点对描述符;和(e4b)将所述点对描述符用作到所述数据结构的索引。
优选地,点对描述符描述按照对象特征点的距离而缩放的特征向量,特征向量描述样本点与所提取的对象特征点在强度数据的图像平面内的距离,以及点对描述符描述边缘的相对取向、表面点法线和两点间的差向量。参照另一优选实施方式,点对描述符额外地包含以下可选特征:为特征点计算的特征点描述符;每点处的颜色值或灰度值;每点处的纹理信息;每点处的表面描述符;每点处的曲率;每点处的其它几何表面信息。
根据优选实施方式,步骤(e4b)包括:(e4c)采样所述点对描述符;(e4d)使用数据结构,所述数据结构将采样的点对描述符映射到点对的一列表。优选地,在步骤(e4d)中,将哈希表用作数据结构。
根据优选实施方式,步骤(f)中的计算包括:(f1)定义所述候选姿势之间的相邻关系;(f2)按照相邻的候选姿势的分数的加权和计算每个姿势的分数;(f3)通过按照在(f2)中所计算的分数把所述姿势分等级而选择一组过滤姿势。优选地,通过取所述姿势的平移和所述姿势的旋转的差值的阈值或者通过取所述3D对象上的点在两种姿势下可具有的最大距离的阈值来定义所述相邻关系。该方法还可以包括以下步骤:按照所述相邻姿势上的平均姿势再计算(f3)中所选的姿势。优选地,加权取决于候选姿势和当前相邻姿势。
优选地,本发明的方法还包括以下步骤:通过优化误差函数而细化所述一组过滤姿势中的每个姿势,该误差函数基于以下中的一种或两种:所述姿势下所述3D场景与所述3D对象之间的距离;所述姿势下的所述场景强度数据与所述模型强度数据的一致性。
优选地,本发明的方法还包括以下步骤:针对该组过滤姿势中的每个姿势计算分数,其中,该分数描述所述姿势下3D场景与3D对象之间的一致性。
优选地,本发明的方法还包括以下步骤:针对最终姿势中的每个姿势计算分数。优选地,所计算的分数为3D场景中的在所计算的姿势下位于3D对象的表面上的点的数量。
附图说明
结合附图,从以下详细描述中将更全面地理解本发明,附图中:
图1示出如何通过均匀采样使3D数据正则化;
图2示出可以如何描述3D点与图像点之间的关系;
图3示出对象坐标系、局部坐标系和使用局部坐标的场景坐标系之间的变换。
具体实施方式
符号和定义
以下所有数据被认为是可以以电子形式使用,优选地为数字的。所描述的方法和算法被认为是以电子形式的且可用计算机实现的。
在以下符号中,3D点为3D空间中具有三个坐标值的点。每个3D点指的是坐标系,最值得注意的坐标系为限定3D场景数据的场景坐标系和限定所关注的3D对象的对象坐标系。3D向量为3D空间中具有三个坐标值的向量。在表面上一点处的3D法向量为3D空间中具有1欧几里德长度且在给定点处垂直于该表面的向量。3D点云为一组3D点。定向的3D点云为其中的3D法向量与每个点都相关联的3D点云。3D刚性变换为保持点距离的3D点到3D点的映射,在形式上为映射f,使得对于任意点P、Q,等式|P–Q|=|f(P)-f(Q)|成立。每个3D刚性变换可分解成旋转和平移,其中,首先对变元点应用旋转,然后对结果应用平移。形式上,可将每个3D刚性变换分解成3D旋转R和3D向量T,从而使f(P)=R(P)+T。
3D数据正则化为一种将3D中的表面变换为一组3D点的方法,该组3D点均匀地分布在所述表面上,如图1所示。在优选实施方式中,3D数据正则化为这样一种方法:将(a)描述3D中的2D表面的3D数据101和(b)采样距离d作为输入;输出一组3D点102,该组3D点102具有如下性质:(a)其仅包括也在输入的3D数据的表面上的点,(b)在形成的点云中的所有对点具有至少为d的距离,以及(c)在输入的3D数据中的每个点都具有在输出组中的点,该点具有至多为d的距离。在本发明的优选实施方式中,对于3D点组,只是当输出云中已没有点比采样距离更接近新点的时候,才通过迭代该组输入点并将每个点都添加到输出组中来产生具有预期性质的正则化的点组。通过将每个面采样成一组点并如前所述处理形成的点组来变换3D的CAD模型。在替选实施方式中,通过从表面上随机地选择点来使3D数据正则化。在另一替选实施方式中,法线方向用于正则化,其中,子采样点组在高曲率的区域中是更密集的。在优选实施方式中,计算从3D数据的表面所选择的点的曲面法线103。
对输入的点云进行正则化通常产生具有较少量点的云,该云仍能很好地表示原始云。本发明在脱机阶段和联机阶段中都使用正则化,用以有效地减少点的数量,从而产生更快速的性能。这对于局部参数空间的采样也是重要的,如下所述。在优选实施方式中,明确地相对于对象的直径而参数化采样距离d,其中,该直径为3D对象上的两点之间的最大距离。令Dobj为对象的直径,则利用τd使采样距离d参数化成d=τd Dobj。在替选实施方式中,用户给出采样因子。在另一替选实施方式中,根据先验信息(例如3D数据的噪声级)设置采样因子。
场景的强度数据或对象的强度数据为从一个或多个给定视点和观察方向上,通过测量从场景或对象所发出的光的量而获得的所述场景或对象的外观。通常以强度图像的形式来表示强度数据。对于真实场景或对象,通常使用成像设备(例如相机)来捕获强度数据。此外,可以通过将3D数据渲染成虚拟视图而从所述3D数据合成地创建强度数据。这种渲染成的视图的可能质量取决于所提供的3D数据的类型和质量。可以利用附加的纹理信息增补3D数据,纹理信息可以用在渲染过程中,以创建3D数据的更逼真的图像。强度数据可以包括一个或多个数据通道,每个通道代表场景或对象的外观的过滤后的形式。通常,多通道代表光的不同波长,且例如允许彩色形式的场景或对象。通常,使用像素的2D网格来表示强度数据。在下文中,该2D网格内的位置也被称为强度数据中的点、图像内的位置或图像内的坐标。
特征点为强度数据中的点。特征点可以在整个强度数据中密集地或均匀地分布,或者可以在强度数据内的突出位置处定位。从文献得知许多不同类型的特征点。通常在存在噪声、杂波、闭塞和其它干扰时,将特征点设计成具有稳定的且可重复的位置。在优选实施方式中,将边缘点用作为特征点。在优选实施方式中,使用Canny边缘提取器(Canny,J.,A Computational Approach To EdgeDetection,IEEE Transactions on Pattern Analysis and Machine Intelligence,8(6):679-698,1986)。在替选实施方式中,可以使用任何其它类型的特征点。
特征描述符为在特征点周围的区域中的强度数据的压缩描述符。通常,特征描述符用于通过从强度数据的一部分中提取最有表现力的信息而利用压缩感描述所述部分。特征描述符通常用于识别在其它位置或视图中的强度数据的类似部分,或者用于识别在不同强度图像中的相同的空间部分。在优选实施方式中,将在特征点的位置处的强度数据的梯度方向用作特征描述符。在替选实施方式中,可将在特征点的位置处的强度值用作特征描述符。在其它替选实施方式中,可使用任何其它种类的特征描述符。可将多个不同的特征描述符组合成单个特征描述符。
点对描述符为描述一对点的值的列表,其中,该对点中的一点为3D点,另一点为特征点。在优选实施方式中,首先获得3D点在强度数据内的位置。于是,该点对描述符包括强度数据的图像平面内的两点之间的距离、边缘方向与两点间的差向量之间的角度、3D点的法向量与差向量之间的角度、以及法向量与朝向强度数据的投影中心(通常为相机中心)的方向之间的角度。在另一优选实施方式中,特征点的附加特征描述符和3D点的附加特征描述符包括在点对描述符中。在替选实施方式中,局部特性(例如在两点处的表面的颜色、在两点处的曲率和其它几何特性)、以及在背景技术部分中所提及的局部点描述符可以包括在点对描述符中。在替选实施方式中,可以使用其它测量值来描述这两个点及其关系,而不脱离本发明的范围。向点对描述符添加更多信息将增大其区别不同对点的能力,但也增大了其复杂度,从而增大了计算、储存或处理描述符的复杂度。
在优选实施方式中,如图2所示,具有法线nr且位于强度图像内的r处且从方向νr上可见的3D点P和具有边缘法线e1的边缘点e的点对描述符F的形式定义为
(1)  F(P,e,nr,ed)=(|r-e|/Pz,∠(ed,r-e),∠(nr,P2-P1),∠(νr,nr))
其中,∠(a,b)表示两个向量之间的角度。
采样的点对描述符为点对描述符的采样形式。在优选实施方式中,以相同大小的间隔对点对描述符的四个项目进行采样以产生采样的点对描述符。采样的点对描述符的形式定义如下:令na为用于角度值的间隔的数量且da=360°/na。令d为如上所述的距离采样因子,且令
Figure BDA0000382062250000111
为小于x的最大整数值,则点对特征F(P,e,nr,ed)=(F1,F2,F3,F4)的采样形式FS(P,e,nr,ed)被定义为
Figure BDA0000382062250000112
全局模型描述为一种数据结构,该数据结构允许有效地搜索对象上与来自场景的给定点对类似的全部点对。因此,数据结构或方法将来自场景的点对作为输入,并且输出对象上与输入点对类似的点对的列表。在优选实施方式中,将从采样的点对描述符到点对组的映射用作点对描述符。通过为给定点对计算采样的点对描述符且使用哈希图检索所有具有相等的采样的点对描述符的点对来进行查找。哈希表允许有效地访问类似的点对,其中,定时独立于储存在模型描述中的点对的数量。在替选实施方式中,可使用最近邻访问方法来检索所有具有与给定点对的点对描述符类似的点对描述符的点对。在另一替选实施方式中,可将任意索引方案用作数据结构,例如搜索树。
在假设给定的参考点位于对象的表面上的情况下,可将场景中的对象的局部姿势定义为场景中的对象相对于给定的3D场景点(称为参考点)的3D姿势。该假设限制可能的姿势。因此,局部姿势具有比全3D姿势更小的自由度。在优选实施方式中,使用局部坐标参数化局部姿势,如下:令sr为场景中的假设位于对象表面上的参考点,则(a)mr为模型表面上对应于sr的点,以及(b)α为对齐sr、mr及其法线之后围绕sr的法线旋转的角度(图3)。将相对于sr的局部坐标写成(mr,α),且该局部坐标一共具有三个自由度,两个自由度用于mr在模型的表面上的位置,一个自由度用于旋转角α。在替选实施方式中,可使用对象表面的不同的参数化,例如u-v坐标或纹理坐标。
对于场景的参考点sr,令TS→L为刚性3D变换,该变换将sr平移到原点,并将sr的法线旋转到x轴上且指向正方向。对于模型点mr,令TM→L为刚性变换,该变换将mr平移到原点,并将mr的法线旋转到x轴上且指向正方向。令Rx(α)为刚性3D变换,该变换围绕x轴旋转角度α。于是,给定相对于参考点sr的局部坐标(mr,α),可将从模型空间中的点mi到其在场景空间中的对应点si的映射写成:
( 3 ) , s i = T s → L - 1 R x ( α ) T M → L m i
如果已知si,mi,TS→L和TM→L,则可用以上方程式求解出α。
3D模型创建
在本方法的脱机阶段中,建立模型,该模型以适于后续在场景中识别所关注的对象的方式描述该所关注的对象。用于创建模型的方法包括以下步骤:(a)可选地准备3D对象数据;(b)选择对象样本点;(c)创建全局模型描述;(d)可选地,为姿势细化做准备。在优选实施方式中,创建的模型将包括所选的样本点和全局模型描述。在替选实施方式中,可以包括以下信息:原始的3D对象数据;为姿势细化而计算的数据;本方法的用户所需的附加信息。
准备3D对象数据的目的为除去不想要的特性和增加想要的特性。在优选实施方式中,包括以下步骤:(a1)可选地抑制来自数据的不想要的特性,例如3D传感器所产生的噪声和异常值,其中,所用的具体方法也取决于用于获取数据的传感器;(a2)计算表面法线,如果表面法线已是可用的,则该步骤是可选的。准备对象强度数据的目的为除去不想要的特性和增加想要的特性。在优选实施方式中,使用高斯滤波器使对象强度数据变平滑。
在优选实施方式中,以一组3D点给出3D对象数据,或者以计算机辅助设计模型(CAD-model)的形式给出3D对象数据。在替选实施方式中,可使用代数曲面。在另一替选实施方式中,可使用3D表面的任何其它表示。在优选实施方式中,以一张或多张强度图像的形式给出对象强度数据,使用一个或多个数码相机获得该一张或多张强度图像,每张强度图像包含一个或多个通道。在另一优选实施方式中,通过在虚拟相机中渲染给定的3D对象数据而人为地创建对象强度数据。在其它实施方式中,可以使用其它成像技术来获得对象强度数据。
对于模型的创建,需要从3D对象数据中选择一组对象样本点。在优选实施方式中,使用上述3D数据正则化方法对3D对象数据作二次采样,以创建一组稀疏的样本点。在替选实施方式中,用户可以提供将要用作样本点的一组点。在另一替选实施方式中,可将来自3D对象数据的所有点都用作对象样本点。在又一替选实施方式中,可将来自对象的点的随机子集用作样本点。在其它替选实施方式中,可以使用其它对象样本点选择策略,而不脱离本发明的范围。
对于创建全局模型描述,需要从对象强度数据中提取一组特征点。在优选实施方式中,使用稳健的边缘提取器从强度数据中提取边缘点。在其它替选实施方式中,可以提取其它特征点,而不脱离本发明的范围。
用于创建全局模型描述的方法取决于为该全局模型描述所选择的特定数据结构。在优选实施方式中,全局模型描述的创建包括:(c1)为每对对象样本点和对象特征点计算点对描述符;(c2)通过将计算的点对描述符用作索引而将这样的每对点都存储在全局模型描述中。在替选实施方式中,可将点存储在数据结构中,使得高效查找类似的点对不需要点对描述符。
如果在匹配过程中应使用可选的姿势细化且如果所选的用于姿势细化的方法需要可从3D对象预先计算的某种数据,则也可在脱机阶段中计算数据,并将该数据和模型一起存储。在优选实施方式中,计算允许快速搜索对象上最接近给定的搜索点的点的数据结构。该数据结构随后用于姿势细化的迭代最近点(ICP)方法。在替选实施方式中,可使用任何其它姿势细化方法的数据结构,例如期望最大化(EM)(Granger和Pennec(Multi-scale EM-ICP:A fast and robustapproach for surface registration,2002,European Conference on Computer Vision(ECCV2002),第418-432页))。
对象识别和姿势确定
本方法的联机阶段利用3D场景数据和场景强度数据识别3D对象的实体,并计算场景中的所述实体的3D姿势。将3D场景数据、场景强度数据以及如在脱机阶段中所计算的3D模型作为输入,输出场景中的对象的一组3D姿势,可选地输出将这些姿势分等的一组分数。联机阶段包括以下步骤:(a)准备3D场景数据,(b)准备场景强度数据,(c)提取场景特征点,(d)选择参考点,(e)为每个参考点计算一组局部坐标,假设参考点在所关注的对象上,则这会导致对象和场景的高度一致性,(d)过滤形成的姿势,以形成最终姿势,(e)可选的姿势细化,以及(f)可选地为最终姿势评分。
准备3D场景数据的步骤是用于通过除去不想要的特性和增加想要的特性来准备输入的3D数据的步骤。在优选实施方式中,准备输入的3D数据包括以下步骤:(a1)可选地抑制来自数据的不想要的特性,例如3D传感器所产生的噪声和异常值,其中,所用的具体方法还取决于用于获取数据的传感器;(a2)计算表面法线,如果表面法线已是可用的,则这步骤是可选的;(a3)将点均匀地分布在场景点云中,以避免偏向场景的更密集地采样的部分,例如在基于投影的范围扫描仪的情况下更接近该扫描仪的部分。在优选实施方式中,将用于步骤(a3)的采样距离设置成等于或大于用于在脱机阶段中正则化模型点云的采样距离,且等于或大于用于创建采样的点对描述符的采样距离。改变采样距离导致正则化的点云具有不同数量的点,这随后会影响所公开的方法的执行时间和准确性,因此这是平衡二者的重要参数。在替选实施方式中,用户可以给出采样距离。在另一替选实施方式中,可以从先验信息(例如3D数据的噪声级)计算采样距离。准备场景强度数据的目的为除去不想要的特性和增加想要的特性。
在优选实施方式中,以一组3D点给出3D场景数据,或者以计算机辅助设计模型(CAD-model)的形式给出3D场景数据。在替选实施方式中,可使用代数曲面。在另一替选实施方式中,可使用3D表面的任何其它表示。在优选实施方式中,以一张或多张强度图像的形式给出场景强度数据,使用一个或多个数码相机获得该一张或多张强度图像,每张强度图像包含一个或多个通道。在另一实施方式中,通过在虚拟相机中渲染给定的3D场景数据而人为地创建场景强度数据。在其它实施方式中,可以使用其它成像技术来获得场景强度数据。
大量的参考点选自于3D场景数据且用在后续步骤中。为了使本方法起作用,选择至少一个位于所关注的对象的表面上的参考点是很重要的,这是因为只有在至少一个参考点满足该条件时后续步骤才查找对象姿势。在优选实施方式中,通过从场景点云中获取点的随机子集而选择参考点,其中,相对于场景点云的尺寸参数化子集中点的数量。在替选实施方式中,可将来自均匀分布的场景点组或来自原始的3D场景数据的所有点用作参考点。在另一替选实施方式中,可使用用户提供的关于对象的可能位置的信息、关于模型的表面特性的信息、场景点云的正则化或其它方法来引导参考点的选择。以上内容可以很容易地用在本发明中,而不脱离本发明的范围。所选的参考点的数量直接影响所公开的方法的执行时间。因此,参考点选择方法需要在选择过多参考点与过少参考点之间进行平衡,选择过多参考点会导致较差的性能,选择过少参考点会增大错过所关注的对象的可能性。
针对在先前步骤中所选择的每个参考点,计算一组局部坐标,该组局部坐标对应于在假设参考点位于所关注的对象的表面上的情况下所关注的对象最可能具有的3D姿势。在优选实施方式中,采用类似于广义霍夫变换的决策方案来计算最好地解释观测到的数据的局部坐标。在替选实施方式中,可以使用几种其它的优化局部坐标的方式,包括但不限于穷举搜索和能量函数的数值最小化。
在优选实施方式中,使用类似于广义霍夫变换的用于计算所关注的对象的局部坐标的决策方案。该方案包括以下步骤:(e1)将参数空间,这里为局部坐标的空间,划分成一组样本;(e2)将计数器附到每个样本上,且初始设置为0;(e3)从提取的场景特征点中选择一组场景特征点;(e4)针对从场景强度数据提取的每个特征点,确定所有的那些局部坐标,这导致利用模型解释特征点,当使用那些局部坐标来变换对象时,意味着当前参考点位于对象的表面上且当前特征点与对象一致;(e5)对于解释特征点的每个局部坐标,增大相应的包含局部坐标的参数空间样本的计数器;(e6)在通过步骤(e4)和步骤(e5)处理过所有场景点之后,用于局部坐标空间的每个样本的计数器将对应于解释参数空间的那部分的场景点的数量。其计数器具有最大值的样本对应于那些以最佳的方式解释场景点的局部坐标。在最后的步骤中,选择具有最大计数器值的样本或其计数器超过阈值的一组样本。可以使用决策方案的几个替选实施方式,包括但不限于:在步骤(e4)中,不使用所有的场景特征点,而仅使用场景特征点的子集;在步骤(e5)中,将计数器增大某一值,该值取决于当前特征点的权重;在步骤(e6)中,使用直方图分析或其它方法分析决策空间的峰值。
在优选实施方式中,以上步骤(e1)中参数空间的划分可如下进行:通过从3D对象数据所选择的样本点之一来描述局部坐标的第一分量,即描述模型表面上的位置的分量,从而暗含地将该第一分量划分成离散值。类似于以上采样的点对描述符的角度值的采样,通过将可能的旋转角度的区间[0°;360°]分成相同大小的区间na来划分第二分量,即描述围绕参考点的法线旋转的角度的分量。在替选实施方式中,可通过用u-v坐标或纹理坐标表示第一分量并采样那些坐标来进行第一分量的划分。
步骤(c2)中解释当前场景点的局部坐标的计算按如下过程进行:(c2.1)如上文所描述的,计算和采样参考点与当前特征点之间的点对描述符;(c2.2)使用采样的点对描述符来访问在脱机阶段中所计算的全局模型描述,这将返回类似于场景点对的模型点对的列表;(c2.3)对于每个这样的模型点对,使用场景点对和模型点对,使用方程式(3),计算对齐场景点对和模型点对的局部坐标。在替选实施方式中,全局模型描述可以基于最近邻体,比如允许搜索类似的点对而不需采样点对描述符的数据结构。在另一替选实施方式中,可使用允许直接搜索类似的点对而无需点对描述符的数据结构。
在处理过所有的场景点之后,步骤(c4)选择参数空间的样本,其中,相应的计数器具有最大值。在优选实施方式中,选择具有最大值(即全局最大值)的计数器。在替选实施方式中,可以使用具有超过一定阈值的计数器值的所有样本,其中,该阈值可以是固定的或可以取决于所有计数器的最大值。在另一替选实施方式中,可使用一种用于检测计数器空间中的局部峰值来代替全局阈值的方法。
从每个所选的样本中获取一个局部坐标,将局部坐标变换为完整的3D姿势,利用相应的局部坐标样本的计数器值返回每个3D姿势。计数器值为所述3D姿势的分数。
姿势过滤为这样一种方法:将来自一个或多个参考点的候选姿势作为输入,可选地利用分数值增补候选姿势,且输出一组按照姿势正确的可能性排列的仅包含所关注的对象的最可能的姿势的过滤姿势。通常,一组姿势可以包含零个、一个或多个姿势。姿势过滤服务于不同的目的:
(1)异常值去除:假设参考点位于所关注的对象的表面上,计算针对参考点的候选姿势。如果该假设是不正确的,例如在场景中的杂波点不属于所关注的对象的情况下,或者如果参考点的法线是不正确的,则针对该参考点而形成的候选姿势将包含错误姿势,错误姿势不对应于对象的正确姿势。姿势过滤应该去除这类不正确的姿势。
(2)增大精确度和稳定性:如果几个参考点在对象的表面上,则针对每个参考点的候选姿势将包含对应于对象的正确姿势的姿势。然而,由于计算中的数值错误、数据中的噪声,且由于在以上方案中所涉及的采样步骤,因此这些姿势将稍微不同于正确姿势。姿势过滤把针对不同参考点而找到的所有的正确姿势组成一组,并计算平均姿势,因此增大了最终结果的精确度和稳定性。
在优选实施方式中,姿势过滤包括以下步骤:(d1)定义姿势间的相邻关系,其中,如果姿势的旋转部分之差小于固定阈值,且如果其平移向量之差具有小于固定阈值的长度,则将这些姿势定义为邻体;(d2)分配新的分数给每个姿势,该新的分数为相邻(如(d1)中所定义)姿势的所有分数的总和;(d3)按照新的分数排序姿势;(d4)选择具有最佳分数的姿势;(d5)可选地,通过对相邻姿势进行平均而再计算所选择的姿势。在替选实施方式中,通过取来自模型的点在两个姿势下可具有的最大差值的阈值而定义步骤(d1)中的姿势的相邻关系,例如在步骤(d2)的替选实施方式中,按照相邻姿势的分数的加权和计算分数,其中,加权函数取决于这两个姿势。在(d1)的另一替选实施方式中,所有的姿势都是考虑的邻体,且使用加权函数,如上所述。此外,在步骤(d1)中,没有姿势可以是考虑的邻体,从而有效地从决策方案中选择具有最高单分数的姿势。在替选实施方式中,可使用聚类方法,例如K-均值偏移,来选择最终姿势组。在步骤(d5)的优选实施方式中,通过计算姿势的平移向量的均值来求平移的平均值,且通过计算姿势的旋转的平均Rodriguez向量来求旋转的平均值。在步骤(d5)的替选实施方式中,可以在计算平均旋转之前,利用所选择的姿势的旋转的反旋转来构成旋转。这增大了平均旋转的稳定性。在步骤(d5)的另一替选实施方式中,通过优化取决于姿势和平均姿势的分数函数来计算平均旋转。在替选实施方式中,多种其它方法可用于获得上述目的中的一个或多个,而不脱离本发明的范围。
姿势细化描述了这样一类方法:将一组对象数据和场景数据、连同场景中的模型的近似姿势作为输入,且输出细化的、更精确的模型姿势。姿势细化方法通常通过最小化误差函数来优化场景与对象之间的对应。姿势细化的缺点在于,初始近似姿势需要是已知的且对于用于收敛的方法是足够好的。如上所述的本发明计算对象的近似姿势,该近似姿势是足够好到使用姿势细化来进行细化。姿势细化的使用是可选的且取决于本发明的用户所需的精度。本方法所形成的姿势对于对象操作(例如抓握)来说通常是足够精确的。然而,使用本发明来进行表面检查的应用,例如检测不正确地产生的部分,可能需要姿势细化步骤。姿势细化可以使用3D数据、强度数据或二者。在优选实施方式中,迭代最近点(ICP)用于姿势细化。对于ICP,场景中的3D点与对象表面之间的距离的总和是最小的。在替选实施方式中,期望最大化可以用于姿势细化。在另一替选实施方式中,可以使用任何最小化场景点与对象之间的距离的方法。在其它替选实施方式中,可以使用多种其它用于细化近似姿势的方法,而不脱离本发明的范围。
评分是这样一种方法:将如利用算法所计算的最终姿势以及3D场景数据和3D对象数据作为输入,且输出描述所计算的姿势的品质或在所述姿势下场景与对象之间的一致性的一个或多个值。此外,最终姿势的品质和精确度取决于场景中所关注的对象的存在和可见性,以及取决于场景数据和模型数据的品质。评分是必要的,以给本方法的用户一种评估形成的姿势的方式,这是后续决定的基础。
可以使用用于为最终姿势评分的多种替选实施方式,包括但不限于:(a)返回如在决策方案中所计算的姿势的分数;(b)返回如在姿势过滤步骤中所计算的累计分数;(c)考虑到形成的姿势,计数位于模型表面上的场景点的数量;(d)针对接近在形成的姿势下的模型的场景点,计算场景点与模型表面之间的距离的协方差;(e)将模型投影到距离传感器的图像中,该距离传感器用于获得场景数据,并且计算图像域中的模型与场景点之间的距离;(f)(e)的方法,但是具有从多于一个的观察点验证投影的模型点的可见性的附加步骤,如在立体声方法的情况下所需的;(g)计算模型表面点与相应的场景表面点的法线间的点积的总和;(h)考虑到形成的姿势,计算可视的模型表面与总模型表面的比,或者可视的模型表面与在传感器相机中可视的模型表面之间的比;(i)计算场景特征与对象特征之间的相似度;(j)使用从(a)到(i)的方法中的两种或多种,并组合形成的值。取决于用户的需要和传感器特性,可以使用计算分数的其它方式,而不脱离本发明的范围。
在优选实施方式中,如果不使用姿势细化,则返回在姿势过滤步骤中所计算的分数,如用方法(b)所计算的分数;如果使用姿势细化,则返回方法(c)、(d)、(e)或(f)的分数。
尽管已经在附图和以上描述中详细地示出和描述了本发明,但是这些示出和描述被认为是说明性的或示例性的,而非限制性的。应当理解,在所附权利要求书的范围内,普通技术人员可以进行修改和变型。具体地,本发明涵盖具有来自以上和以下所描述的不同实施方式的特征的任何组合的其它实施方式。
此外,在权利要求书中,词语“包括”不排除其它元件或步骤,不定冠词“一”不排除复数。单个单元可以满足权利要求书中所列的多个特征的功能。特别地,与属性或值相连的术语“基本上”、“大约”、“近似地”等也分别精确地定义属性或值。权利要求书中的任何附图标记不应当被视为限制范围。

Claims (25)

1.一种用于利用3D场景数据和场景强度数据识别3D对象的实体和确定所述实体的3D姿势的方法,所述方法包括以下步骤:
a)提供3D对象数据并获得对象强度数据;
b)提供3D场景数据和场景强度数据;
c)从所述强度数据中提取场景特征点;
d)从所述3D场景数据中选择至少一个参考点;
e)在假设所述参考点为所述3D对象的一部分的情况下,针对每个所选的参考点,通过最大化所提取的场景特征点的数量而为所述3D对象计算候选姿势,在给定的候选姿势下,所述所提取的场景特征点与所述3D对象一致;
f)从所述候选姿势中计算一组过滤姿势。
2.如权利要求1所述的方法,其中,在步骤a)中,通过从所述3D对象数据合成地创建强度数据来获得所述对象强度数据。
3.如权利要求1所述的方法,其中,在步骤a)中,提供所述对象强度数据。
4.如权利要求1所述的方法,其中,步骤a)包括从所述3D对象数据和对象强度数据计算模型。
5.如权利要求4所述的方法,其中,步骤a)包括:
a1)从所述3D对象数据中选择至少一个样本点;
a2)从所述对象强度数据中提取对象特征点;
a3)针对每对所选的样本点和所提取的对象特征点,计算描述这两个点及这两个点的关系的点对描述符;
a4)创建存储利用所述点对描述符来索引的点对的模型。
6.如权利要求5所述的方法,其中,步骤a4)包括:
a4a)采样所述点对描述符;
a4b)创建全局模型描述,所述全局模型描述将每个采样的点对描述符映射到点对的一列表,其中,每列表包含具有类似的采样的点对描述符的所有对所选的样本点和所提取的对象特征点。
7.如权利要求1至6中任一项所述的方法,其中,在步骤d)中,从所述3D场景数据中随机地选择所述参考点,或者通过均匀地采样所述3D场景数据来选择所述参考点。
8.如权利要求1至7中任一项所述的方法,其中,在步骤e)中,为每个候选姿势计算分数值。
9.如权利要求8所述的方法,其中,使用决策方案计算所述候选姿势。
10.如权利要求9所述的方法,其中,所述决策方案包括以下步骤:
e1)采样可能的对象姿势的空间;
e2)针对每个姿势空间样本,创建计数器;
e3)从所述所提取的场景特征点中选择至少一个场景特征点;
e4)针对每个所选的场景特征点,计算匹配姿势,使得所述参考点位于所述3D对象的表面上且所述场景特征点与所述3D对象一致;
e5)针对在步骤e4)中所计算的每个匹配姿势,增大相应的姿势空间样本的计数器;
e6)检测采样的姿势空间中的达到峰值的计数器值,并选择相应的姿势空间样本作为候选姿势。
11.如权利要求10所述的方法,其中,在步骤e1)中,利用两个参数表示可能的对象姿势的空间,其中,第一个参数为所述3D对象上的点,第二个参数为角度。
12.如权利要求11所述的方法,其中,将所述3D对象上的点表示成到从所述3D对象数据中所选的一组点的索引,通过将一组角度分成等大小的间隔来采样所述角度。
13.如权利要求10所述的方法,其中,在步骤a)中,从所述对象强度数据中提取对象特征点。
14.如权利要求13所述的方法,其中,在步骤e4)中,使用数据结构计算所述匹配姿势,所述数据结构允许搜索类似于所述参考点与所述所选的场景特征点的对的3D对象点与对象特征点的对。
15.如权利要求14所述的方法,其中,搜索类似的点对的步骤包括以下步骤:
e4a)计算描述所述参考点、所述所选的场景特征点及所述参考点和所述所选的场景特征点的关系的点对描述符;
e4b)将所述点对描述符用作到所述数据结构的索引。
16.如权利要求15所述的方法,其中,步骤e4b)包括:
e4c)采样所述点对描述符;
e4d)使用数据结构,所述数据结构将采样的点对描述符映射到3D对象点与对象特征点的对的列表。
17.如权利要求16所述的方法,其中,在步骤e4d)中,将哈希表用作为数据结构。
18.如权利要求9至17中任一项所述的方法,其中,步骤f)中的计算包括:
f1)定义所述候选姿势之间的相邻关系;
f2)按照相邻的候选姿势的分数的加权和计算每个姿势的分数;
f3)通过按照在f2)中所计算的分数把所述姿势分等级而选择所述一组过滤姿势。
19.如权利要求18所述的方法,其中,通过取所述姿势的平移和所述姿势的旋转的差值的阈值或者通过取所述3D对象上的点在两种姿势下能够具有的最大距离的阈值来定义所述相邻关系。
20.如权利要求18所述的方法,还包括以下步骤:按照所述相邻姿势上的平均姿势再计算f3)中所选的姿势。
21.如权利要求1至20中任一项所述的方法,还包括以下步骤:通过优化基于所述姿势下的所述3D场景与所述3D对象之间的距离的误差函数而细化所述一组过滤姿势中的每个姿势。
22.如权利要求1至20中任一项所述的方法,还包括以下步骤:通过优化基于所述姿势下的所述场景强度数据与所述模型强度数据的一致性的误差函数而细化所述一组过滤姿势中的每个姿势。
23.如权利要求1至20中任一项所述的方法,还包括以下步骤:通过优化基于所述姿势下的所述3D场景与所述3D对象之间的距离和所述场景强度数据与所述模型强度数据的一致性的误差函数而细化所述一组过滤姿势中的每个姿势。
24.如权利要求1至23中任一项所述的方法,其中,在步骤c)中,将边缘点用作场景特征点。
25.如权利要求24所述的方法,还包括步骤c1):使用所述3D场景数据进一步过滤所述边缘点。
CN201310418597.7A 2012-10-12 2013-09-13 多模式场景中的三维对象的识别和姿势确定 Active CN103729643B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP12188290.6 2012-10-12
EP12188290.6A EP2720171B1 (en) 2012-10-12 2012-10-12 Recognition and pose determination of 3D objects in multimodal scenes

Publications (2)

Publication Number Publication Date
CN103729643A true CN103729643A (zh) 2014-04-16
CN103729643B CN103729643B (zh) 2017-09-12

Family

ID=47115339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310418597.7A Active CN103729643B (zh) 2012-10-12 2013-09-13 多模式场景中的三维对象的识别和姿势确定

Country Status (4)

Country Link
US (1) US8994723B2 (zh)
EP (1) EP2720171B1 (zh)
JP (1) JP6216508B2 (zh)
CN (1) CN103729643B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106524945A (zh) * 2016-10-13 2017-03-22 无锡科技职业学院 一种基于机械臂和结构光视觉的平面夹角在线测量方法
CN107092430A (zh) * 2016-02-18 2017-08-25 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
CN107436679A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 手势控制系统及方法
CN107507218A (zh) * 2017-08-31 2017-12-22 深圳大学 基于静态帧的部件运动性预测方法
CN107680124A (zh) * 2016-08-01 2018-02-09 康耐视公司 用于提高三维姿态评分和消除三维图像数据中杂点的系统及方法
CN107710094A (zh) * 2015-03-20 2018-02-16 库卡罗伯特有限公司 自主车辆运行期间的在线校准检查
CN108089699A (zh) * 2016-11-21 2018-05-29 宏达国际电子股份有限公司 人体姿势侦测系统、服装以及方法
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN111986299A (zh) * 2019-05-24 2020-11-24 北京京东尚科信息技术有限公司 点云数据处理方法、装置、设备及存储介质
CN113066126A (zh) * 2021-03-12 2021-07-02 常州龙源智能机器人科技有限公司 穿刺入针点的定位方法
CN113068017A (zh) * 2019-12-31 2021-07-02 达索系统公司 增强真实场景的视频通量

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9690979B2 (en) * 2006-03-12 2017-06-27 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
DE102011010975A1 (de) * 2011-02-10 2012-08-16 Martin Tank Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen
KR102060758B1 (ko) * 2013-02-28 2019-12-31 한국전자통신연구원 포인트 클라우드를 이용한 프리미티브 피팅 장치 및 방법
CN104424655A (zh) * 2013-09-10 2015-03-18 鸿富锦精密工业(深圳)有限公司 点云曲面重构系统及方法
WO2016035181A1 (ja) 2014-09-03 2016-03-10 株式会社ニコン 撮像装置、情報処理装置、及び撮像システム
US9995573B2 (en) 2015-01-23 2018-06-12 Cognex Corporation Probe placement for image processing
CN107408199B (zh) * 2015-03-24 2021-09-10 科磊股份有限公司 用于对物体进行形状分类的方法
US9818043B2 (en) * 2015-06-24 2017-11-14 Microsoft Technology Licensing, Llc Real-time, model-based object detection and pose estimation
EP3185172B1 (en) * 2015-12-24 2020-02-12 Dassault Systèmes 3d object localization with quantization of the point pair descriptors
EP3185171B1 (en) * 2015-12-24 2020-03-04 Dassault Systèmes 3d object localization with descriptor
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
EP3428877A4 (en) * 2016-03-09 2019-10-30 Nikon Corporation DETECTION DEVICE, INFORMATION PROCESSING DEVICE, METHOD, PROGRAM, AND DETECTION SYSTEM
US10424065B2 (en) 2016-06-10 2019-09-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for performing three-dimensional semantic parsing of indoor spaces
CN106204727A (zh) * 2016-07-11 2016-12-07 北京大学深圳研究生院 一种足部三维扫描重建的方法及装置
US10417533B2 (en) * 2016-08-09 2019-09-17 Cognex Corporation Selection of balanced-probe sites for 3-D alignment algorithms
JP6798826B2 (ja) * 2016-08-31 2020-12-09 株式会社ミマキエンジニアリング 三次元造形物製造方法
US10152786B2 (en) 2016-10-11 2018-12-11 Biosense Webster (Israel) Ltd. Registration of a magnetic tracking system with an imaging device
WO2018152214A1 (en) * 2017-02-14 2018-08-23 The Trustees Of The University Of Pennsylvania Event-based feature tracking
EP3495771A1 (en) * 2017-12-11 2019-06-12 Hexagon Technology Center GmbH Automated surveying of real world objects
US10956790B1 (en) * 2018-05-29 2021-03-23 Indico Graphical user interface tool for dataset analysis
CN110472532B (zh) * 2019-07-30 2022-02-25 中国科学院深圳先进技术研究院 一种视频对象行为识别方法和装置
JP7423462B2 (ja) 2020-07-13 2024-01-29 新光電気工業株式会社 実装基板及び半導体装置
US11900516B2 (en) * 2021-04-02 2024-02-13 Carnegie Mellon University System and method for pose tolerant feature extraction using generated pose-altered images
CN116416305B (zh) * 2022-09-17 2024-02-13 上海交通大学 一种基于优化采样五维点对特征的多实例位姿估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101258512A (zh) * 2005-06-15 2008-09-03 奥地利研究中心有限责任公司 用于场景分析的方法和图像分析单元
JP2011134757A (ja) * 2009-12-22 2011-07-07 Tosoh Corp 有機半導体材料
EP2385483A1 (en) * 2010-05-07 2011-11-09 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
CN102317979A (zh) * 2009-02-13 2012-01-11 哈里公司 基于场景内容可视化点云数据的方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1038542A (ja) * 1996-07-19 1998-02-13 Tsubakimoto Chain Co 物体認識方法及び装置並びに記録媒体
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
JP2004141514A (ja) * 2002-10-28 2004-05-20 Toshiba Corp 画像処理装置及び超音波診断装置
WO2006002320A2 (en) * 2004-06-23 2006-01-05 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
EP1850270B1 (en) 2006-04-28 2010-06-09 Toyota Motor Europe NV Robust interest point detector and descriptor
JP5109294B2 (ja) * 2006-06-19 2012-12-26 三菱電機株式会社 3次元位置補正装置
DE102006036346B4 (de) 2006-08-03 2010-12-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur automatisierten 3-D-Objekterkennung und Lagebestimmung
US7844105B2 (en) 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
ATE529836T1 (de) 2007-08-13 2011-11-15 Aqsense S L Verfahren und system zur ausrichtung dreidimensionaler oberflächen
KR20100081881A (ko) * 2009-01-07 2010-07-15 삼성전자주식회사 데이터 매칭 장치, 데이터 매칭 방법, 및 이를 이용한 이동로봇
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101258512A (zh) * 2005-06-15 2008-09-03 奥地利研究中心有限责任公司 用于场景分析的方法和图像分析单元
CN102317979A (zh) * 2009-02-13 2012-01-11 哈里公司 基于场景内容可视化点云数据的方法
JP2011134757A (ja) * 2009-12-22 2011-07-07 Tosoh Corp 有機半導体材料
EP2385483A1 (en) * 2010-05-07 2011-11-09 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710094B (zh) * 2015-03-20 2021-07-13 库卡罗伯特有限公司 自主车辆运行期间的在线校准检查
CN107710094A (zh) * 2015-03-20 2018-02-16 库卡罗伯特有限公司 自主车辆运行期间的在线校准检查
CN107092430A (zh) * 2016-02-18 2017-08-25 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
CN107436679A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 手势控制系统及方法
CN107680124B (zh) * 2016-08-01 2021-08-10 康耐视公司 提高三维姿态评分和消除三维图像数据杂点的系统及方法
CN107680124A (zh) * 2016-08-01 2018-02-09 康耐视公司 用于提高三维姿态评分和消除三维图像数据中杂点的系统及方法
CN106524945B (zh) * 2016-10-13 2019-07-12 无锡科技职业学院 一种基于机械臂和结构光视觉的平面夹角在线测量方法
CN106524945A (zh) * 2016-10-13 2017-03-22 无锡科技职业学院 一种基于机械臂和结构光视觉的平面夹角在线测量方法
CN108089699B (zh) * 2016-11-21 2020-10-30 宏达国际电子股份有限公司 人体姿势侦测系统、服装以及方法
CN108089699A (zh) * 2016-11-21 2018-05-29 宏达国际电子股份有限公司 人体姿势侦测系统、服装以及方法
CN107507218B (zh) * 2017-08-31 2020-01-10 深圳大学 基于静态帧的部件运动性预测方法
US10664976B2 (en) 2017-08-31 2020-05-26 Shenzhen University Method for part mobility prediction based on a static snapshot
CN107507218A (zh) * 2017-08-31 2017-12-22 深圳大学 基于静态帧的部件运动性预测方法
CN109785389A (zh) * 2019-01-18 2019-05-21 四川长虹电器股份有限公司 一种基于哈希描述与迭代最近点的三维物体检测方法
CN111986299A (zh) * 2019-05-24 2020-11-24 北京京东尚科信息技术有限公司 点云数据处理方法、装置、设备及存储介质
CN111986299B (zh) * 2019-05-24 2024-03-01 北京京东乾石科技有限公司 点云数据处理方法、装置、设备及存储介质
CN113068017A (zh) * 2019-12-31 2021-07-02 达索系统公司 增强真实场景的视频通量
CN113066126A (zh) * 2021-03-12 2021-07-02 常州龙源智能机器人科技有限公司 穿刺入针点的定位方法

Also Published As

Publication number Publication date
EP2720171A8 (en) 2014-05-28
US20140105506A1 (en) 2014-04-17
JP6216508B2 (ja) 2017-10-18
EP2720171B1 (en) 2015-04-08
EP2720171A1 (en) 2014-04-16
JP2014081347A (ja) 2014-05-08
CN103729643B (zh) 2017-09-12
US8994723B2 (en) 2015-03-31

Similar Documents

Publication Publication Date Title
CN103729643A (zh) 多模式场景中的三维对象的识别和姿势确定
CN102236794B (zh) 3d场景中3d对象的识别和姿态确定
Hughes et al. A deep learning framework for matching of SAR and optical imagery
JP4785880B2 (ja) 三次元オブジェクト認識のためのシステムおよび方法
CN104200495B (zh) 一种视频监控中的多目标跟踪方法
CN108921895B (zh) 一种传感器相对位姿估计方法
Li et al. A tutorial review on point cloud registrations: principle, classification, comparison, and technology challenges
CN109658515A (zh) 点云网格化方法、装置、设备及计算机存储介质
CN102074015A (zh) 一种基于二维图像序列的目标对象的三维重建方法
CN113298934B (zh) 一种基于双向匹配的单目视觉图像三维重建方法及系统
CN108830888B (zh) 基于改进的多尺度协方差矩阵特征描述子的粗匹配方法
Rusu et al. Perception for mobile manipulation and grasping using active stereo
CN112712589A (zh) 一种基于激光雷达和深度学习的植株3d建模的方法和系统
Wang et al. Towards accurate and efficient road extraction by leveraging the characteristics of road shapes
CN116935013B (zh) 基于三维重建的电路板点云大范围拼接方法及系统
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
Seo et al. Learning 3D local surface descriptor for point cloud images of objects in the real-world
CN114596343A (zh) 面向复杂地面场景的跨模态遥感图像智能多尺度配准方法
Kerber et al. Partial symmetry detection in volume data.
Sa et al. Depth grid-based local description for 3D point clouds
Huang Learning a 3D descriptor for cross-source point cloud registration from synthetic data
Kim et al. Method for the generation of depth images for view-based shape retrieval of 3D CAD model from partial point cloud
Hu et al. Global Constraint with Scale-invariant Feature Matching for Visual Hull Computation
Shen et al. Vision based terrain reconstruction for planet rover using a special binocular bundle adjustment
Chung Object Localization In 3D Point Cloud

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant