CN106407974B - 用于感兴趣目标的目标定位和姿态估计的方法 - Google Patents

用于感兴趣目标的目标定位和姿态估计的方法 Download PDF

Info

Publication number
CN106407974B
CN106407974B CN201510617041.XA CN201510617041A CN106407974B CN 106407974 B CN106407974 B CN 106407974B CN 201510617041 A CN201510617041 A CN 201510617041A CN 106407974 B CN106407974 B CN 106407974B
Authority
CN
China
Prior art keywords
target
feature
known target
extracted
image file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510617041.XA
Other languages
English (en)
Other versions
CN106407974A (zh
Inventor
S.梅达萨尼
J.梅尔策
J.徐
Z.陈
R.N.森达雷斯瓦拉
D.W.佩顿
R.M.乌伦布罗克
L.G.巴拉贾斯
K.金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN106407974A publication Critical patent/CN106407974A/zh
Application granted granted Critical
Publication of CN106407974B publication Critical patent/CN106407974B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

一种用于定位和估计视觉系统视野中已知目标姿态的方法,且方法包括开发已知目标的基于处理器的模型;捕获位图影像文件,其具有包括已知目标的视野的影像;和从位图影像文件提取特征。被提取特征与和已知目标的模型相关的特征相匹配。可以基于被提取特征在位图影像文件中定位一目标。被定位目标的被提取特征被聚类和合并。可以基于经合并的被聚类的被提取特征与已知目标的基于处理器的模型所作的比较而检测视野中的已知目标。基于已知目标的检测估计视野中被检测已知目标的姿态。

Description

用于感兴趣目标的目标定位和姿态估计的方法
技术领域
本发明涉及视觉系统,和用于定位感兴趣目标和其姿态的方法。
背景技术
已知的机器人感知系统通过工程设计具体的光照状态、构造观察状态和利用处理结构来实现期望的性能和可靠性。它们在仅工作在真实世界条件下的子组中的窄范围的条件下具有灵活性,且会因周围环境的微小改变而故障。此外,已知系统和相关技术的处理速度不足以实现高效的实时处理。一站式商业视觉系统(turnkey commercial visionsystem)在引入更宽灵活性时会变慢且通过严格地构造视域而能鲁棒地工作。例如,处理大的视野(FOV)以在非期望方位(占据FOV的5-10%)搜索目标会花费数秒或更多。这在搜索前/后/侧视野以精确地找到目标位置和姿态时会进一步复合。进而,与用于已知的用于机器人材料传递和操作应用的自动化方案的构造环境有关的成本是机器人装置相关成本的三倍到十倍。在已知自动化系统中可有效地操作的产品范围会受到限制且通常被限制为仅一些样式。进而,这种系统很重组起来笨重且针对不同种类的产品进行重构也很慢。由此,由于与投资、操作成本、灵活性和可重构性有关的问题,现有的自动化方案不易于处理具有丰富多样性的部件的组装操作。
发明内容
描述一种用于定位和估计视觉系统视野中已知目标的姿态的方法,且方法包括开发已知目标的基于处理器的模型;捕获位图影像文件,其具有包括已知目标的视野的影像;和从位图影像文件提取特征。被提取特征与和已知目标的模型相关的特征相匹配。可以基于被提取特征在位图影像文件中定位一目标。被定位目标的被提取特征被聚类和合并。可以基于经合并的被聚类的被提取特征与已知目标的基于处理器的模型所作的比较而检测视野中的已知目标。基于已知目标的检测估计视野中被检测已知目标的姿态。
本发明提供一种用于定位和估计视觉系统的视野中已知目标的姿态的方法,已知目标包括具有预定特征的结构实体,所述预定特征包括空间尺寸,该方法包括:开发已知目标的基于处理器的模型;捕获位图影像文件,其具有包括已知目标的视野的影像;从位图影像文件提取特征;将被提取特征与和已知目标的模型相关的特征相匹配;基于被提取特征在位图影像文件中定位一目标;将所定位的目标的被提取特征聚类;将聚类的被提取特征合并;基于经合并的被聚类的被提取特征与已知目标的基于处理器的模型所作的比较而检测视野中的已知目标;和基于已知目标的检测估计视野中被检测已知目标的姿态。
在所述的方法中,从位图影像文件提取特征包括,采用尺度不变特征转换(SIFT)算法而从位图影像文件中的尺度不变关键点检测独特影像特征。
在所述的方法中,从位图影像文件提取特征包括,基于所述被提取特征和已知目标的基于处理器的模型中的被提取特征之间的对应,从位图影像文件中的尺度不变关键点提取独特影像特征。
在所述的方法中,基于被提取特征在位图影像文件中定位一目标包括,识别与已知目标的特征相关的在位图影像文件中的特征。
在所述的方法中,识别与已知目标的特征相关的在位图影像文件中的特征进一步包括,将数字窗口匹配在位图影像文件中的感兴趣区域周围,且仅在数字窗口中的位图影像文件的一部分中识别特征。
在所述的方法中,将数字窗口匹配在位图影像文件中感兴趣区域的周围包括,识别位图影像文件中的内围,其所包括的数据的分布可通过与已知目标相关的某组模型参数解释。
在所述的方法中,基于已知目标的检测估计视野中被检测的已知目标的姿态包括,执行粗糙-精细影像匹配步骤,以检测已知目标的姿态。
在所述的方法中,开发已知目标的基于处理器的模型包括:采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像;在捕获的数字影像上执行特征追踪;基于特征追踪来构建与姿态相关的三维(3D)点云;从3D点云构造3D网格;和将外观描述符与3D网格关联。
在所述的方法中,采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像包括,捕获多个姿态下已知目标的视频影像;和其中在捕获的数字影像上执行特征追踪包括,在捕获的数字影像上执行帧间特征追踪。
本发明提供一种用于检测视觉系统的视野中已知目标的方法,已知目标包括具有预定特征的结构实体,所述预定特征包括空间尺寸,该方法包括:开发已知目标的基于处理器的模型;捕获位图影像文件,其具有包括已知目标的视野的影像;从位图影像文件提取特征;将被提取特征与和已知目标的模型相关的特征相匹配;基于被提取特征在位图影像文件中定位一目标;将所定位的目标的被提取特征聚类;将聚类的被提取特征合并;和基于经合并的被聚类的被提取特征与已知目标的基于处理器的模型所作的比较而检测视野中的已知目标。
在所述的方法中,从位图影像文件提取特征包括,采用尺度不变特征转换(SIFT)算法而从位图影像文件中的尺度不变关键点检测独特影像特征。
在所述的方法中,从位图影像文件提取特征包括,基于所述被提取特征和已知目标的基于处理器的模型中的被提取特征之间的对应,从位图影像文件中的尺度不变关键点提取独特影像特征。
在所述的方法中,基于被提取特征在位图影像文件中定位一目标包括,识别与已知目标的特征相关的在位图影像文件中的特征。
在所述的方法中,识别与已知目标的特征相关的在位图影像文件中的特征进一步包括,将数字窗口匹配在位图影像文件中的感兴趣区域周围,且仅在数字窗口中的位图影像文件的一部分中识别特征。
在所述的方法中,将数字窗口匹配在位图影像文件中感兴趣区域的周围包括,识别位图影像文件中的内围,其所包括的数据的分布可通过与已知目标相关的某组模型参数解释。
在所述的方法中,开发已知目标的基于处理器的模型包括:采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像;在捕获的数字影像上执行特征追踪;基于特征追踪来构建与姿态相关的三维(3D)点云;从3D点云构造3D网格;和将外观描述符与3D网格关联。
在所述的方法中,采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像包括捕获多个姿态下已知目标的视频影像;和其中在捕获的数字影像上执行特征追踪包括在捕获的数字影像上执行帧间特征追踪。
本发明提供一种用于确定感兴趣目标的姿态的方法,包括:通过数字摄像头产生视野的三维(3D)数字影像;在数字影像中执行目标识别,这包括检测至少一个被识别目标;提取与被识别目标对应的目标区块;从目标区块提取多个兴趣点;提取与目标区块相关联的3D点云和2D区块;将来自区块的兴趣点与来自多个训练影像每一个的兴趣点比较;选择多个训练影像中的一个,所述多个训练影像包括训练影像中的具有与来自目标区块的兴趣点类似的最大量兴趣点的那个影像;将与目标区块相关的3D点云和2D区块保存;和采用迭代最近点(ICP)算法计算与目标区块相关的3D点云和训练影像中所选择的一个之间的旋转和线性平移。
所述的方法进一步包括执行训练以产生多个训练影像,包括:在多个不同观察点使用数字摄像头捕获已知目标的多个训练影像;将训练影像每一个转换为位图影像文件;从位图影像文件每一个提取主区块;捕获用于主区块的特征和兴趣点;提取与主区块相关的3D点;和采用修改来识别和限定丢失深度点;其中训练影像包括用于主区块的被捕获特征和兴趣点和与主区块相关的被提取3D点。
在下文结合附图进行的对实施本发明的较佳模式做出的详尽描述中能容易地理解上述的本发明的特征和优点以及其他的特征和优点。
附图说明
参考附图通过例子描述一个或多个实施例,其中:
图1示意性地示出了根据本发明的视觉系统,其用于捕获、处理和存储视野(FOV)的三维(3D)影像,包括摄像头、已知物体和影像分类器;
图2示意性地显示了根据本发明的用于定位和估计示例性视觉系统的视野中已知目标姿态的过程;
图3显示了根据本发明的模型构建过程,其使用视频和帧间特征追踪快速构建代表已知目标的基于处理器的模型;
图4示意性地显示了根据本发明的用于定位和估计示例性视觉系统的视野中已知目标姿态的过程的第二实施例;
图5-1图形显示了根据本发明的FOV的3D影像,其包括已知目标,所述已知目标包括开关、扬声器和传感器;
图5-2图形显示了根据本发明的从图5-1所示的3D影像提取的区块,
图5-3图形显示了根据本发明的参考5-1所示的FOV的3D影像,其包括具有相应提取特征的已知目标;
图6图形显示了根据本发明的在x、y和z轴线情况下已知目标的3D点云的3D影像实例;和
图7图形显示了根据本发明的在x和y轴线情况下已知目标的2D点云的2D影像实例。
具体实施方式
现在参见附图,其中描述仅是用于图示某些示例性实施例的目的而不是为了对其进行限制,图1示意性地示出了用于捕捉、处理和存储视野(FOV)的影像的示例性视觉系统,包括通过信号连接到编码器20的影像检测器(摄像头)10,所述编码器20通过信号连接到控制器50。摄像头10优选是立体装置,其能捕获三维(3D)影像。摄像头10可相对于FOV35中的已知目标40定位在任何位置和取向,已知目标40在平面45上取向。本文采用的术语“已知目标”代表具有预定物理特征的结构实体,例如包括空间尺寸、材料和表明反射率的表面光洁度等。
在一个实施例中,通过摄像头10捕获的3D影像15是24位立体影像形式的位图影像文件,其包括RGB(红色-绿色-蓝色)值和代表FOV35的深度值。3D影像15的其他实施例可包括显示3D FOV的黑白或灰度表现形式的3D影像,和没有限制的其他影像表现形式。摄像头10包括影像获取传感器,所述传感器信号连接到编码器20,该编码器在3D影像15上执行数字信号处理(DSP)。影像获取传感器以预定分辨率在FOV 35中捕获像素,且编码器20产生FOV 35的位图影像文件25,例如8位像素位图,其代表预定分辨率下的FOV 35。编码器20产生位图影像文件25,该文件被通信到控制器30。位图影像文件25在一个实施例中是存储在非瞬时数字数据存储介质中的编码数据文件。位图影像文件25包括3D影像的数字表现形式,其可以包括已知目标40中的一个或多个,且代表以摄像头10的原始分辨率捕获的FOV的原始影像。多个已知目标40可以全部具有相同设计,或可以具有不相似的设计。通过摄像头10捕获的已知目标40的3D影像15含有足够的信息以评估与摄像头10有关的已知目标40的位置。在与照明和反射率相关的影响已经被考虑且摄像头10已经被校准之后,已知目标40的形状取决于摄像头10和已知目标40之间的相对观察角度和距离。
控制器、控制模块、模块、控制装置、控制单元、处理器和相似的术语是指专用集成电路(一个或多个)(ASIC)、电子电路(一个或多个)、执行一个或多个软件或固件程序或例程的中央处理单元(一个或多个)(优选是微处理器(一个或多个))和相关联的内存和存储器(只读的、可编程只读的、随机存取的、硬驱动的等)、组合逻辑电路(一个或多个)、输入/输出电路(一个或多个)和器件、适当的信号调节和缓冲电路以及其他部件中的一个或多个的任何一种或多种组合,以提供所述的功能,包括数据存储和数据分析。软件、固件、程序、指令、例程、代码、算法和相似的术语是指任何控制器可执行的指令集,包括校准和查找表。术语‘模型’是指基于处理器的或处理器可执行的代码,其模拟了物理存在或物理过程。
图2示意性地显示了用于对示例性视觉系统的视野中的已知目标205进行定位和估计姿态的姿态估计过程200的第一实施例。其可以包括采用摄像头10以捕获FOV 35中已知目标40的位图影像文件25,如参考图1所述的。显示了通过摄像头捕获的位图影像文件的一个示例性视觉描述,且其包括RGB值影像225,所述影像包括已知目标205。与姿态估计过程200的步骤相关的具体要素包括特征提取210、特征匹配220、快速目标定位230、关键点聚类(keypoint clustering)240、粗略目标检测250、聚类合并260、精细目标检测270和姿态过滤280,以估计已知目标205的姿态。
用于已知目标205的特征提取步骤210是采用尺度不变特征转换(scale-invariant feature transform,SIFT)在包括已知目标205的RGB值影像225中检测和描述局部特征的过程。SIFT算法从捕获在RGB值影像225的位图影像文件中的关键点来识别特别的尺度不变影像特征,显示为SIFT特征227。优选地,识别大量关键点,每一个关键点特点是对于不同零件和对于相同零件来说能容易地重复,例如已知目标205,提供可被容易地提取和匹配的已知目标205的代表性取向和尺度。SIFT过程和算法是已知的且由此不在本文详细描述。
特征匹配步骤220从包括工作环境在内的FOV的样本影像中提取SIFT特征,使用简单的近似最近邻技术可随时间对该工作环境进行追踪。这形成了被提取特征和已知目标205的模型中的一个或多个被提取特征之间的对应。图3显示了用于开发代表已知目标的基于处理器的模型的一个过程。在这种情况下可采用神经网络或其他合适程序。
快速目标定位步骤230使用提取的SIFT特征227,以找出FOV中的一个或多个已知目标205。这改善处理速度,因为随后的步骤仅需要在FOV的可能区域中执行而不是在整个FOV中执行。快速目标定位步骤230是基于外观的过程,其中SIFT特征227在测试影像上被检测且与之前训练的外观模型对照,所述之前训练的外观模型将属于已知目标205的特征与属于背景的噪声的特征区分开。数字窗口237被匹配在感兴趣区域周围,所述感兴趣区域比整个影像的尺寸小许多,其中感兴趣区域被识别作为包括SIFT特征227的RGB值影像225的一部分。使用数字窗口237将数据分析限制为仅是与包含在窗口237中的、RGB值影像225的位图影像文件的内围相关的数据部分,且将未包含在窗口237中的RGB值影像225的位图影像文件的影像数据文件部分从分析中排除。这种处理通过限制对特征匹配的搜索空间和随机样本一致性(RANSAC)算法的执行而增强了已知目标205的最终姿态估计质量且减少运行时间。RANSAC是非决定性的算法,其在合理的可能性(其随迭代的执行而增加)内产生结果。运行假定是,数据包括内围和外围,即内围即是其分布可通过与已知目标205相关的某组模型参数解释的数据,尽管会经历噪声影响,外围是与模型不匹配的数据。外围是噪声极值的结果,或来自不正确的测量或来自与数据解译有关的不正确臆测。RANSAC还假设,给定的小组别的内围,存在可估计模型参数的过程,所述模型最佳地解释或匹配与窗口237相关的数据。RANSAC算法是已知的且由此不在本文描述。数字窗口237数字界定了构成包含在数字窗口237中的内围的数据。
关键点聚类步骤240从进入聚类247的局部区域捕获SIFT特征227,其匹配存储在存储器中的已知目标205的模型。这包括一一对应的释放,允许聚类过程结合和识别已知目标205,所述已知目标具有很少的清楚外观特征。这是通过扩大可能匹配的列表实现的,以包括相似性阈值以下的所有匹配。
粗略目标检测步骤250包括粗略-精细影像匹配步骤,以检测已知目标205的姿态。这包括采用RANSAC算法和线性建模(LM),以检测已知目标205的粗略姿态。RANSAC算法采用迭代方法,以从一组观察数据估计数学模型的参数,例如从关键点聚类步骤240输出的聚类247,其包含外围。
聚类合并步骤260包括将跨过已知目标中的一个的多个聚类合并,因为与单个已知目标205相关的数据可以包含在多个聚类247中。精细目标检测步骤270包括检测精细目标,假定每一个聚类247含有来自单个已知目标205的特征。其也可采用RANSAC算法。姿态过滤步骤280移除虚假检测且精细调节已知目标205的估计姿态,这可用于机器人手臂或其他用于进行抓持、处理等动作的装置。已知目标205和已知目标205的估计姿态287用图形示出。
图3显示了模型构建过程300,其使用视频和帧间特征追踪来快速构建代表已知目标的基于处理器的模型。以这种方式,目标可变成已知目标。数字摄像头10在与数字摄像头(310)相关的多个姿态处捕获目标的数字视频形式的数字影像,这种视频显示为图片325,所述摄像头可包括捕获数字影像的多线程视频装置。在捕获的数字影像上执行特征追踪,包括采用Lucas-Kanade(LK)方法,以使用空间强度信息,以指引影像搜索用于产生与影像(320)的最佳匹配的目标的姿态。LK方法是用于光流估计的已知微分方法,其估计对于所研究的点p来说两个视频帧之间的影像中像素的位移很小且基本恒定。基本的光流方程使用最小二乘标准对在附近的所有像素进行求解。通过将来自几个邻近像素的信息进行组合,LK方法求解光流等式中的模糊度(ambiguity)且对影像噪声相对不敏感。LK方法不提供影像均匀区域内部的流信息。
帧间特征追踪被已知的光束法平差程序使用,以针对数字摄像头(310)构建与目标具体姿态相关的3D点云,示例性3D点云显示为图片335。LK方法不采用典型特征描述符。代替地,几何模型的外观描述符是与用于姿态估计的多目标姿态估计和检测(MOPED)兼容的输入。MOPED是可扩展的且是低延时目标辨识和姿态估计系统。另外,找出表面法线以支持姿态优化。为了实现这两点,且最大程度地是模型构建自动化,在接收光束法平差过程结果之后执行操作。过程并入不具有相关的外观描述符的3D点。在对不明显的目标使用特征追踪时,许多点不具有除了追踪点颜色以外的清楚SIFT描述符或任何描述符。通过增加一些项而将这种信息并入到LM姿态优化中,所述项通过模型点颜色和模型-点颜色的重投影之间的差对目的功能进行罚操作(penalize)。以此方式,甚至没有基于影像的匹配的那些点也可告知(inform)姿态估计。者包括并入与模型表面法线有关的信息,因为没有明确的匹配所以这是必要的,必须确定模型点是否可见或其被目标挡住(即面向其他方向)。这是通过确定用于感兴趣点的表面法线是否面对摄像头或背离摄像头实现的。面对摄像头的感兴趣点是有效的,且背离摄像头的感兴趣点是无效的,为手头的任务提供充分的近似。在任何给定步骤,仅未被挡住的点会在姿态优化过程中被考虑,因为没有数据可用于测量假定被挡住点的颜色差异。模型构建过程采用视频追踪加视觉特征,以更快地构建更密集的模型。这些模型最终可实时构建。可添加在姿态优化过程中与平滑姿态细化匹配的简单描述符,且可并入直接距离数据(direct range data)。由此,2D再投影和3D背投影可在姿态的单个优化过程中组合。封闭边界可被找出且被用于过滤跨界描述符,由此使得描述符损坏最小化。这种操作允许系统识别对用于已知目标的姿态估计来说最有用的具体特征和零件。
自动话的过程找出以几何平面,在该几何平面上放置已知目标以用于影像捕获,以执行模型细化(340),显示为图片345。仅在该平面上方的点被认为是模型的一部分。在一个实施例中,随后的手动点去除图形用户界面(GUI)能让用户除去剩余的离群3D点。通过用户与GUI互动以除去剩余离群3D点不是必须或必要的。得知平面的法线还允许模型的自动轴线对准。用通过模型细化产生的点云模型构造3D网格(350),在一个实施例中其是凸壳(convex hull)。该3D网格成为一表面,新的3D特征可从训练影像投射到该表面。
外观描述符与几何模型相关(360)。这包括计算用于每一个所选择训练影像的SIFT特征。对于每一个所选择视野中的这些SIFT特征每一个,仅选择背投影与3D模型相交的那些SIFT特征。在一个实施例中,这包括找出每个视野中2D模型投影的凸壳和仅引入位于内部的SIFT特征,以增强处理速度。引入的SIFT特征具有经计算的背投影,且新的3D点被添加到模型中,其中SIFT中心与用于已知目标的网格3D模型相交。新的模型被输出,优选是XML格式且含有3D特征,具有从不具有SIFT描述符的原始3D模型获得的SIFT关联。
图4示意性地显示了过程400的第二实施例,其用于在示例性视觉系统的视野中定位和估计已知目标的姿态,例如含有通过摄像头10捕获的3D影像15的位图影像文件,所述摄像头是24位立体影像的形式,其包括RGB(红色-绿色-蓝色)值和代表FOV的深度值。
过程400包括训练部分(步骤410-418)和测试部分(步骤420,等)。训练部分包括采用摄像头从‘n’个不同观察点捕获‘n’个量的已知目标训练影像(410),训练影像被转换为为位图影像文件。位图影像文件被分析且由此提取主区块(412)。区块是数字影像的一区域,在该区域中一些性能是恒定的或在预定的值范围内变化。区块中的所有点被认为是彼此类似的。区块可以是分开的且被分别识别以用于评估。通过作为解释过程400的操作的一部分的例子的方式,图5-1图形显示了包括已知目标的FOV的3D影像525,已知目标包括开关505、扬声器507和传感器509,图5-2图形显示了从包括图5-1所示的已知目标505、507和509的FOV的3D影像525提取的主区块515。图5-3图形显示了包括用于已知目标的外部特征的FOV的3D影像525,所述已知目标包括具有相应被提取特征506的开关505、具有相应被提取特征508的扬声器507和具有相应被提取特征510的传感器509。
再次参见图4,感兴趣点形式的特征从主区块捕获(414),所述主区块是从位图影像文件提取的。可采用局部特征检测符(local feature detector)算法,例如SIFT或SURF(Speeded Up Robust Features:加速鲁棒特征)。一个已知的SURF算法使用整数近似,以捕获兴趣点。与主区块相关的多个3D点被提取且采用修改(interpolation)来识别和限定丢失的深度点(416)。与主区块相关的3D点和兴趣点被保存在非易失存储装置中,作为用于特定角度(specific perspective)的已知目标的第n个的训练影像(418)。针对‘n’个训练影像每一个执行训练过程。
通过捕获影像并识别目标(例如已知目标)的存在而运行测试过程(420)。一个或多个目标区块(即对应于已知目标的区块)被从影像的主区块提取(422)且在去除任何外围之后用于目标区块的兴趣点检测符被提取(424)。与每一个目标区块相关的3D点云被提取和识别作为‘P1’,且与已知目标相关的2D区块被提取和识别作为‘B2’(426)。兴趣点检测符与用于在训练部分期间确定的已知目标的所有训练影像相比较(428),且训练影像和具有与目标区块相关的3D点云对应的最大量兴趣点的相应观察点中的一个被识别和捕获(430)。与目标区块相关的3D点云被识别作为目标区块‘P2’且被保存在非易失存储装置中,且相应2D区块被识别作为‘B2’且也被保存(430)。执行迭代最近点(ICP)算法,以确定目标区块相对于P1到P2的旋转和平移(432)。在与3D点云P1和P2相关的数据被认为存在太多噪声时,确定相对于B1到B2的旋转和平移(434)。在相同旋转平面中发生训练和测试之间的所有旋转和平移(即目标在相同表面上且摄像头未改变其位置或运动)时,该分析过程是足够的。
图6图形显示了影像610和620的3D示例,显示了分别在x、和z轴线602、604和606的情况下的已知目标的3D点云。影像610是显示了在当前测试姿态下的已知目标的3D点云,且影像620是显示了在多个训练姿态中的一个下的已知目标的3D点云,影像620代表与影像610最近似的训练姿态。影像610被显示为相对于影像620旋转和平移(615)。
图7图形显示了影像710和720的2D示例,其显示了分别在x和y轴线702和704情况下的已知目标的2D点云。影像710是显示了在当前测试姿态下的已知目标的2D点云,且影像720是显示了在多个训练姿态中的一个下的已知目标的2D点云,影像720代表与影像710最近似的训练姿态。影像710被显示为相对于影像720旋转和平移(715)。
如在本文所述的,可通过理解人视觉系统如何在有妨碍性的因素(例如照明、视野角度、距离和阻挡)的情况下仍保持不变性而开发过程和相关算法,以用于鲁棒的低水平视觉感知。
如在本文所述的基于视觉的方法自动地定位FOV中的感兴趣目标且估计其姿态。通过在目标的环境中提取与目标有关的属性并通过对各种的目标和状态、范围、照明、观察点、阻挡、背景和空间认知进行灵活匹配,这种能力使得装置(例如机器人手臂)能定位目标以用于抓持和/或操作。本文所述的方法将外观和几何结构二者进行协调,以定位和识别目标的姿态,且可将来自深度传感器的距离信息用于姿态优化算法,以提高准确性。通过并入多感知凝视机制(attention mechanisms)和通过开发用于快速解析各种目标的分类器分类标准,使用多感知技术能加速分类和搜索。
这有助于通过提供高水平的灵活性和可重构性而设置自动化系统。所提出的原理允许灵活性和可变换性,其在组装操作(例如箱体拾取或材料操作)中使用具有一定程度的第一代拟人机器人自动化技术的最少基础设施。其还实现鲁棒和自主的组装能力,在较少结构化的环境中找出零件、视觉确认任务,且能准备好处理复杂和柔性的零件。本文所述的系统使得机器人手臂能在组装线上补充人的角色且降低工人在例行的、非关键、重复的组装过程功能上花费的时间(所述功能属于灵巧拟人机器人的短期能力)。本文所述的系统使得机器人手臂能操作搁置形状和形式的半刚性、刚性、棱柱零件,快速检测许多目标,且具有以半自动的方式学习新目标的模型的能力。这种能力对实现可使用相同工艺基础设施而与工人协同工作的机器人来说是必要且关键的。
附图中的详细的描述和显示是对本发明的支持和描述,而本发明的范围仅通过权利要求限定。尽管已经对执行本发明的较佳模式进行了详尽的描述但是本领域技术人员可得知在所附的权利要求的范围内的用来实施本发明的许多替换设计和实施例。

Claims (7)

1.一种用于定位和估计视觉系统的视野中已知目标的姿态的方法,已知目标包括具有预定特征的结构实体,所述预定特征包括空间尺寸,该方法包括:
开发已知目标的基于处理器的模型;
捕获位图影像文件,其具有包括已知目标的视野的影像;
从位图影像文件提取特征;
将被提取特征与和已知目标的模型相关的特征相匹配;
基于被提取特征在位图影像文件中定位一目标,包括识别与已知目标的特征相关的在位图影像文件中的特征,其中,将数字窗口匹配在位图影像文件中的感兴趣区域周围,且仅在数字窗口中的位图影像文件的一部分中识别特征,其中,识别位图影像文件中的内围,其所包括的数据的分布可通过与已知目标相关的某组模型参数解释;
将所定位的目标的被提取特征聚类;
将聚类的被提取特征合并;
基于经合并的被聚类的被提取特征与已知目标的基于处理器的模型所作的比较而检测视野中的已知目标;和
基于已知目标的检测估计视野中被检测已知目标的姿态。
2.如权利要求1所述的方法,其中从位图影像文件提取特征包括,采用尺度不变特征转换(SIFT)算法而从位图影像文件中的尺度不变关键点检测独特影像特征。
3.如权利要求1所述的方法,其中从位图影像文件提取特征包括,基于所述被提取特征和已知目标的基于处理器的模型中的被提取特征之间的对应,从位图影像文件中的尺度不变关键点提取独特影像特征。
4.如权利要求1所述的方法,其中基于已知目标的检测估计视野中被检测的已知目标的姿态包括,执行粗糙-精细影像匹配步骤,以检测已知目标的姿态。
5.如权利要求1所述的方法,其中开发已知目标的基于处理器的模型包括:
采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像;
在捕获的数字影像上执行特征追踪;
基于特征追踪来构建与姿态相关的三维(3D)点云;
从3D点云构造3D网格;和
将外观描述符与3D网格关联。
6.如权利要求5所述的方法,其中采用数字摄像头捕获相对于数字摄像头处于多个姿态下的已知目标的数字影像包括,捕获多个姿态下已知目标的视频影像;和
其中在捕获的数字影像上执行特征追踪包括,在捕获的数字影像上执行帧间特征追踪。
7.一种用于确定感兴趣目标的姿态的方法,包括:
通过数字摄像头产生视野的三维(3D)数字影像;
在数字影像中执行目标识别,这包括检测至少一个被识别目标;
提取与被识别目标对应的目标区块,该目标区块是数字影像的一区域,在该区域中一些性能是恒定的或在预定的值范围内变化;
从目标区块提取多个兴趣点;
提取与目标区块相关联的3D点云和2D区块;
将来自区块的兴趣点与来自多个训练影像每一个的兴趣点比较;
选择多个训练影像中的一个,所述多个训练影像包括训练影像中的具有与来自目标区块的兴趣点类似的最大量兴趣点的那个影像;
将与目标区块相关的3D点云和2D区块保存;和
采用迭代最近点(ICP)算法计算与目标区块相关的3D点云和训练影像中所选择的一个之间的旋转和线性平移。
CN201510617041.XA 2015-07-28 2015-09-24 用于感兴趣目标的目标定位和姿态估计的方法 Active CN106407974B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/811,062 US9875427B2 (en) 2015-07-28 2015-07-28 Method for object localization and pose estimation for an object of interest
US14/811,062 2015-07-28

Publications (2)

Publication Number Publication Date
CN106407974A CN106407974A (zh) 2017-02-15
CN106407974B true CN106407974B (zh) 2019-10-15

Family

ID=57795418

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510617041.XA Active CN106407974B (zh) 2015-07-28 2015-09-24 用于感兴趣目标的目标定位和姿态估计的方法

Country Status (3)

Country Link
US (1) US9875427B2 (zh)
CN (1) CN106407974B (zh)
DE (1) DE102015113434A1 (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
KR102331164B1 (ko) 2015-03-05 2021-11-24 매직 립, 인코포레이티드 증강 현실을 위한 시스템들 및 방법들
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2017096396A1 (en) * 2015-12-04 2017-06-08 Magic Leap, Inc. Relocalization systems and methods
US9959625B2 (en) * 2015-12-29 2018-05-01 The United States Of America As Represented By The Secretary Of The Air Force Method for fast camera pose refinement for wide area motion imagery
EP3200122B1 (de) * 2016-01-26 2022-06-22 Sick Ag Optoelektronischer sensor und verfahren zur sicheren erkennung von objekten einer mindestgrösse
US10721451B2 (en) * 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
JP6972105B2 (ja) 2016-08-02 2021-11-24 マジック リープ, インコーポレイテッドMagic Leap, Inc. 固定距離の仮想現実システムおよび拡張現実システムならびに方法
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
CA3055218A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
WO2018170409A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
CN107649947A (zh) * 2017-05-02 2018-02-02 上海华太数控技术有限公司 Cnc视觉定位系统
WO2018213972A1 (en) * 2017-05-22 2018-11-29 Intel Corporation Region proposal filter for digital image processing
CN111094893A (zh) * 2017-07-28 2020-05-01 高通股份有限公司 机器人式运载工具的图像传感器初始化
US10499054B2 (en) 2017-10-12 2019-12-03 Mitsubishi Electric Research Laboratories, Inc. System and method for inter-frame predictive compression for point clouds
US11393114B1 (en) * 2017-11-08 2022-07-19 AI Incorporated Method and system for collaborative construction of a map
US10552665B2 (en) 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US10410089B2 (en) 2018-01-19 2019-09-10 Seiko Epson Corporation Training assistance using synthetic images
US10769437B2 (en) 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
US10878285B2 (en) 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
CN108648194B (zh) * 2018-04-23 2020-11-24 清华大学 基于cad模型三维目标识别分割和位姿测量方法及装置
EP3572971B1 (de) * 2018-05-22 2021-02-24 Sick Ag Absichern eines überwachungsbereichs mit mindestens einer maschine
EP3827584A4 (en) 2018-07-23 2021-09-08 Magic Leap, Inc. INTRA-FIELD SUB-CODE SYNCHRONIZATION IN SEQUENTIAL FIELD DISPLAYS
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
US10634918B2 (en) 2018-09-06 2020-04-28 Seiko Epson Corporation Internal edge verification
DE112019000125B4 (de) * 2018-10-30 2021-07-01 Mujin, Inc. Systeme, vorrichtungen und verfahren zur automatisierten verpackungsregistrierung
US11222225B2 (en) * 2018-11-29 2022-01-11 International Business Machines Corporation Image recognition combined with personal assistants for item recovery
US11532094B2 (en) 2018-12-05 2022-12-20 Qualcomm Technologies, Inc. Systems and methods for three-dimensional pose determination
CN109816050A (zh) * 2019-02-23 2019-05-28 深圳市商汤科技有限公司 物体位姿估计方法及装置
US11818361B2 (en) * 2019-03-14 2023-11-14 Nippon Telegraph And Telephone Corporation Data compression apparatus, data compression method, and program
CN111078926A (zh) * 2019-12-19 2020-04-28 青岛海信电器股份有限公司 一种人像缩略图像的确定方法及显示设备
US11023730B1 (en) * 2020-01-02 2021-06-01 International Business Machines Corporation Fine-grained visual recognition in mobile augmented reality
DE102020113278B4 (de) * 2020-05-15 2024-07-25 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zur Steuerung des Betriebs eines Industrieroboters, Industrieroboter und Anordnung zur Umsetzung von Objekten
CN111968180B (zh) * 2020-08-18 2023-12-05 维数谷智能科技(嘉兴)有限公司 基于参考平面的高精度物体多自由度姿态估计方法及系统
CN112116638B (zh) * 2020-09-04 2024-07-16 季华实验室 一种三维点云匹配方法、装置、电子设备和存储介质
CN112949531A (zh) * 2021-03-15 2021-06-11 哈尔滨理工大学 一种基于图像处理与机器学习的颈部姿态识别方法
US11900516B2 (en) * 2021-04-02 2024-02-13 Carnegie Mellon University System and method for pose tolerant feature extraction using generated pose-altered images
DE102021109036A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und verfahren zum lokalisieren von stellen von objekten aus kamerabildern der objekte
US11436752B1 (en) 2021-04-30 2022-09-06 farm-ng Inc. Real time localization with image data
US20230234233A1 (en) * 2022-01-26 2023-07-27 Nvidia Corporation Techniques to place objects using neural networks
CN115187658B (zh) * 2022-08-29 2023-03-24 合肥埃科光电科技股份有限公司 多相机视觉的大目标定位方法、系统及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
CN101673346A (zh) * 2008-09-09 2010-03-17 日电(中国)有限公司 对图像进行处理的方法、设备和系统
CN102708589A (zh) * 2012-05-15 2012-10-03 北京航空航天大学 一种基于特征聚类的三维目标多视点视图建模方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6621941B1 (en) * 1998-12-18 2003-09-16 Xerox Corporation System of indexing a two dimensional pattern in a document drawing
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
EP1850270B1 (en) 2006-04-28 2010-06-09 Toyota Motor Europe NV Robust interest point detector and descriptor
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8023725B2 (en) * 2007-04-12 2011-09-20 Samsung Electronics Co., Ltd. Identification of a graphical symbol by identifying its constituent contiguous pixel groups as characters
KR100951890B1 (ko) * 2008-01-25 2010-04-12 성균관대학교산학협력단 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법
US8001115B2 (en) * 2008-10-16 2011-08-16 The Curators Of The University Of Missouri Identifying geographic-areas based on change patterns detected from high-resolution, remotely sensed imagery
FR2951565B1 (fr) * 2009-10-20 2016-01-01 Total Immersion Procede, programme d'ordinateur et dispositif de suivi hybride de representations d'objets, en temps reel, dans une sequence d'images
US9405975B2 (en) * 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US20120011142A1 (en) * 2010-07-08 2012-01-12 Qualcomm Incorporated Feedback to improve object recognition
US8170372B2 (en) * 2010-08-06 2012-05-01 Kennedy Michael B System and method to find the precise location of objects of interest in digital images
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
EP2657882A1 (en) * 2012-04-27 2013-10-30 Layar B.V. Reference image slicing
EP3134850B1 (en) * 2014-04-22 2023-06-14 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728404B1 (en) * 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
CN101673346A (zh) * 2008-09-09 2010-03-17 日电(中国)有限公司 对图像进行处理的方法、设备和系统
CN102708589A (zh) * 2012-05-15 2012-10-03 北京航空航天大学 一种基于特征聚类的三维目标多视点视图建模方法

Also Published As

Publication number Publication date
US20170032220A1 (en) 2017-02-02
CN106407974A (zh) 2017-02-15
US9875427B2 (en) 2018-01-23
DE102015113434A1 (de) 2017-02-02

Similar Documents

Publication Publication Date Title
CN106407974B (zh) 用于感兴趣目标的目标定位和姿态估计的方法
CN109255813B (zh) 一种面向人机协作的手持物体位姿实时检测方法
US10109055B2 (en) Multiple hypotheses segmentation-guided 3D object detection and pose estimation
US9008439B2 (en) Image processing method and system
Rogez et al. First-person pose recognition using egocentric workspaces
CN106156778B (zh) 用于识别机器视觉系统的视野中的已知对象的方法
JP2004157850A (ja) 運動検出装置
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
US20160210761A1 (en) 3d reconstruction
JP4925120B2 (ja) 物体認識装置および物体認識方法
JP2017187861A (ja) 情報処理装置およびその制御方法
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
CN108364306B (zh) 一种高速周期运动的视觉实时检测方法
Billings et al. SilhoNet-fisheye: Adaptation of a ROI based object pose estimation network to monocular fisheye images
Kropp et al. Object recognition in bim registered videos for indoor progress monitoring
Yamashita et al. Robust sensing against bubble noises in aquatic environments with a stereo vision system
JP2019046278A (ja) 情報処理装置、制御方法、コンピュータプログラム、記憶媒体、及びモデル作成装置
Southey et al. Object discovery through motion, appearance and shape
JP2016194847A (ja) 画像検出装置、画像検出方法およびプログラム
Liu et al. 6DoF pose estimation with object cutout based on a deep autoencoder
Kragic et al. Initialization and system modeling in 3-d pose tracking
EP4365849A1 (en) Augmented reality devices
Pawar et al. Effective Object Detection and Tracking for Holonomic Robot using Deep Neural Architecture

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant