CN108876852A - 一种基于3d视觉的在线实时物体识别定位方法 - Google Patents
一种基于3d视觉的在线实时物体识别定位方法 Download PDFInfo
- Publication number
- CN108876852A CN108876852A CN201710320311.XA CN201710320311A CN108876852A CN 108876852 A CN108876852 A CN 108876852A CN 201710320311 A CN201710320311 A CN 201710320311A CN 108876852 A CN108876852 A CN 108876852A
- Authority
- CN
- China
- Prior art keywords
- point
- view
- object identification
- method based
- unilateral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种基于3D视觉的物体识别定位方法,具备适应性强、速度快、正确率高、精度高的优点。步骤包括:用多个虚拟相机拍摄模型(目标物体),获取单侧视图集;对离线单侧视图点云集和在线场景点云分别基于局部点云分布特点提取特征;匹配特征并进行霍夫投票实现粗匹配;ICP细匹配;校验结果。该方法通过将模型提取单侧视图集提高了识别正确率,避免使用不稳定的颜色信息扩大了应用范围,能够实现对工业领域金属工件的识别定位。
Description
技术领域
本发明涉及一种基于3D视觉的在线实时物体识别定位方法,属于机器视觉领域。
背景技术
随着机器人技术的发展和RGB-D图像采集设备的普及,为机器人安装眼睛使其能根据不同的应用环境智能进行自主操作,比如完成物品分拣、加工等任务,具有广泛的应用需求。为实现这一目标,首先需要突破的关键技术是基于RGB-D图像的物体识别与定位技术,需要克服的难点包括噪声、低精度、遮挡和杂乱等。
基于RGB-D图像的物体识别与定位方法可以分为两类,即基于全局特征和局部特征的方法,基于局部特征的方法可以有效克服遮挡,我们的方法属于这类方法。这类方法的通常的步骤是:(1)在目标物体模型上提取一些局部特征,构建模型特征库;(2)用在线采集的场景图像上提取的局部特征匹配模型特征库;(3)根据对应的局部的位置和姿态信息,利用霍夫投票获得模型在场景中的位置姿态假设;(4)对假设进行验证从而获得最终结果。
在线采集的场景图像中往往包含自遮挡、噪声、变形和颜色变化,尤其是自遮挡现象,使得位于场景图像中的模型局部表面相对于原始的模型发生了根本性的变化。传统的方法通过改进特征描述方法来克服这种差异,比如ROPS方法通过间隔一定角度绕三轴旋转局部表面并结合统计原理来构建特征描述。当这些方法面临形状复杂自遮挡较多的模型时,识别和定位准确率大幅下降。局部特征的描述方法对识别的效果有很大影响,传统的方法为获得高正确率使用复杂的特征提取方法,导致在线应用时速度慢。在一些工业领域的应用场景下,面临颜色信息的缺失,导致一些依赖于颜色的传统的识别定位方法失效。
发明内容
针对上述技术不足,本发明的目的提供一种基于3D视觉的在线实时物体识别定位方法。该方法可以克服噪声、变形、自遮挡和颜色缺失,实现准确率高、速度快、精度高的物体识别定位。
本发明解决其技术问题所采用的技术方案是:一种基于3D视觉的在线实时物体识别定位方法,包括以下步骤:
1)采用多个虚拟相机拍摄模型,生成单侧视图集;
2)对离线生成的单侧视图集和在线采集的场景点云分别进行预处理后提取特征,然后进行物体识别定位。
所述采用多个虚拟相机拍摄模型,生成单侧视图集包括以下步骤:
以物体模型的重心为中心,距离中心设定距离,生成设定数量的虚拟相机,所述虚拟相机朝向中心并均匀分布在球表面;
将模型点云投影到二维平面,根据深度信息滤除不可见面,每个虚拟相机获取模型点云的一副单侧视图,构成单侧视图集。
所述单侧视图为RGB-D图像或点云。
所述提取特征包括如下步骤:
对于一幅单侧视图或者场景点云,以参考点P为中心取半径R邻域内的点云作为支撑点,对支撑点求取局部参考坐标系,针对关键点将支撑点位置和法线变换到参考坐标系下求取特征。
所述对支撑点求取局部参考坐标系包括以下步骤:
以参考点P点为坐标原点,基于PCA求取的最小特征值对应的特征向量为Z轴,并将Z轴的正方向转换到与相机拍摄视角一致,以所有支撑点的平均法线为AN轴,以Z轴与AN轴的叉乘为X轴,以Z轴与X轴的叉乘获得的方向为Y轴。
所述关键点通过以下步骤得到:
由PCA求取的特征值由大到小排列为a1>a2>a3,当a1与a2的比值小于固定阈值t时,该P点为非关键点;否则,为关键点。
将支撑点位置和法线变换到参考坐标系下求取特征包括以下步骤:将转换后的支撑点向局部参考坐标系的XOY平面上投影,在XOY平面上画k*k的格子,统计落入每个格子内的点的平均法线方向,连接成(k-2)*(k-2)*3的特征向量。
所述进行物体识别定位包括以下步骤:
为每个场景特征找到最近的模型特征,用对应的点和位置求出物体一个可能姿态,根据场景特征集获得的所有可能姿态在六维空间中进行投票,由投票空间中的汇聚点确定出物体位姿的多个假设,最后验证去除错误假设,完成物体的识别定位。
本发明具有以下有益效果及优点:
1.本发明方法提出了一种基于3D立体视觉的物体识别定位方法,准确率高、速度快、精度高、适应性强。可以应用于工业领域,为机器人操作提供立体视觉反馈,实现对工件的加工、分拣等操作。
2.本发明方法通过对模型提取单侧视图,而后进行识别定位,大幅提高了正确率。
3.本发明方法提出的局部参考坐标系的提取方法具备很强的稳定性,提高了正确率。
4.本发明方法提出的局部特征描述方法运算复杂度低,速度快。
附图说明
图1是离线建立模型特征库流程图;
图2是在线识别定位流程图;
图3是粗匹配流程图;
图4是计算特征流程图;
图5a是多视角模型点云立体图;
图5b是多视角模型点云侧视图;
图5c是多视角模型点云正视图;
图5d是多视角模型点云俯视图;
图6a是多视角单侧点云立体图;
图6b是多视角单侧点云侧视图;
图6c是多视角单侧点云正视图;
图6d是多视角单侧点云俯视图;
图7是支撑域示意图;
图8a是多视角支撑点云立体图;
图8b是多视角支撑点云侧视图;
图8c是多视角支撑点云正视图;
图8d是多视角支撑点云俯视图;
图9是计算局部参考坐标系示意图;
图10a是多视角局部参考坐标系下的支撑点云立体图;
图10b是多视角局部参考坐标系下的支撑点云侧视图;
图10c是多视角局部参考坐标系下的支撑点云正视图;
图10d是多视角局部参考坐标系下的支撑点云俯视图;
图11是计算高维特征向量示意图;
图12a是多视角场景点云立体图;
图12b是多视角场景点云侧视图;
图12c是多视角场景点云正视图;
图12d是多视角场景点云俯视图;
图13a是多视角带标识的场景点云立体图;
图13b是多视角带标识的场景点云侧视图;
图13c是多视角带标识的场景点云正视图;
图13d是多视角带标识的场景点云俯视图。
具体实施方式
下面结合实施例对本发明做进一步的详细说明。
一种基于3D视觉的在线实时物体识别定位方法,包括以下步骤:
(a)模拟用3D相机采集场景图像的过程,用多个虚拟相机从不同方向拍摄模型,生成单侧视图集。
(b)对离线生成的单侧视图集和在线采集的场景点云分别进行预处理后提取特征,再进行物体识别或姿态估计。
在(a)步骤中,3D相机可以为能获取空间点云的任意设备,例如双目立体视觉系统、kinect、激光扫描系统、结构光扫描等。
在(a)步骤中,用多个虚拟相机从不同方向拍摄模型,生成单侧视图集是指根据计算机图形学原理,用仿真的方式,从不同视角,可能为确定的距离或不同的距离获取到单侧视图集。单侧视图可以是RGB-D图像,也可以是点云。
在(b)步骤中,物体识别或定位:为每个场景特征找到最近的模型特征,用对应的点和位置求出物体一个可能姿态,根据场景特征集获得的所有可能姿态在六维空间中进行投票,由投票空间中的汇聚点确定出物体位姿的多个假设,通过最后的验证阶段去除错误假设,完成定位。
对于所要解决的问题可以进行如下描述:对于给定的模型点云,如图5a~图5d所示,需要在场景点云(如图12a~图12d中所示)识别定位到该模型,输出位置与姿态。其中模型点云来自于高精度的扫描设备,场景点云由RGB-D相机实时在线采集,为便于观察点云,提供了多视角下的点云图像,图5a~图5d、图12a~图12d和图13a~图13d,其中图13a~图13d中标注出了模型在场景中的真实位置以便于观察。
基于3D视角的在线实时物体识别定位方法分为离线阶段和在线阶段。为了获得高的在线识别定位速度,所有不依赖于实时采集的场景图像的信息和处理步骤需要在离线阶段完成。
如图1所示,为离线阶段的处理流程。以模型的重心为中心,距离中心一定距离(比如1米),生成一定数量的虚拟相机(比如512个),这些虚拟相机朝向中心均匀分布在球表面。应用计算机图形学,将模型点云投影到二维平面,根据深度信息滤除不可见面,可以由一个虚拟相机获取模型点云的一副单侧视图。如图6a~图6d所示,自遮挡现象导致单侧视图点云表面与模型点云原始表面有一定的区别,正是这些区别导致传统方法实际应用于在线识别定位时准确率低。对于每幅单侧视图,进行预处理后提取特征,将特征存入特征库。
预处理步骤包含点云常用处理方法,包括降采样、平滑、求取法线等。
提取特征的方法,如图4所示。首先要选取参考点集,参考点集可以是经预处理步骤处理后的全部点,也可以用其他方式选取,比如对点集进行均匀采样作为参考点集。而后以每个参考点P为中心,R为半径取支撑域点集Q。如图7所示,为参考点P的支撑域,将支撑域内的点云提取出来,从不同视角观察如图8a~图8d所示,正是自遮挡现象产生点云表面的不连续。针对支撑点集计算局部参考坐标系,如图9所示,以参考点P点为坐标原点,基于PCA求取的最小特征值对应的特征向量为Z轴,并将Z轴的正方向转换到与相机拍摄视角一致,以所有支撑点的平均法线为AN轴,以Z轴与AN轴的叉乘为X轴方向,以Z轴与X轴的叉乘获得的方向为Y轴方向。用该方法建立的局部参考坐标系,比传统方法稳定,实际应用中获得更高的正确率。由PCA求取的特征值由大到小排列为a1>a2>a3,当a1与a2的比值小于固定阈值t时(比如t=1.1),该局部表面有较强对称性不利于识别定位,为非关键点。针对关键点,将支撑点集Q中每一点的坐标转换到局部参考坐标系下的相对于中心P点的相对坐标获得点集Q’,如图10a~图10d所示。针对Q’计算特征具体步骤为:支撑点向局部参考坐标系的XOY平面上投影,在XOY平面上画k*k的格子,统计落入每个格子内的点的平均法线方向,用3*3的格子进行平滑操作(即再次求平均),连接成(k-2)*(k-2)*3的特征向量。如图11所示,每个三角形处可以求得一个单位的平均法线向量,对应的区域为虚圆形覆盖的区域,将所有平均法线向量连接成特征向量。应用autoencoder方法对获得的高维特征进行压缩,获得低维的特征,实际应用中将147维的特征压缩为75维。使用该方法提取特征运算复杂度低,实际应用时速度快且正确率高。
如图2所示,为在线阶段的处理流程。首先对场景点云进行与模型单侧视图点云相同的预处理;而后进行粗匹配,获得模型在场景中的粗略位置;根据已知的粗略位置执行ICP细匹配,获得精确位置姿态;最后按照精确位置姿态将模型投影到场景3D图像上,以模型与场景重合的点数为依据对结果进行验证,去除得分(重合率)低的错误匹配。
如图3所示,粗匹配的流程为:首先对场景点云提取特征,方法如前所述;应用最近邻查找方法在模型特征库中找到与场景特征最近的模型特征;由与特征关联的点和局部参考坐标系信息在六维姿态空间中进行霍夫投票,在误差范围内(比如旋转小于0.01弧度,位置偏差小于0.005米)票数超过阈值(比如10票)的六维空间位置(汇聚点)为获得的粗匹配结果。
Claims (8)
1.一种基于3D视觉的在线实时物体识别定位方法,其特征在于包括以下步骤:
1)采用多个虚拟相机拍摄模型,生成单侧视图集;
2)对离线生成的单侧视图集和在线采集的场景点云分别进行预处理后提取特征,然后进行物体识别定位。
2.根据权利要求1所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述采用多个虚拟相机拍摄模型,生成单侧视图集包括以下步骤:
以物体模型的重心为中心,距离中心设定距离,生成设定数量的虚拟相机,所述虚拟相机朝向中心并均匀分布在球表面;
将模型点云投影到二维平面,根据深度信息滤除不可见面,每个虚拟相机获取模型点云的一副单侧视图,构成单侧视图集。
3.根据权利要求2所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述单侧视图为RGB-D图像或点云。
4.根据权利要求1所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述提取特征包括如下步骤:
对于一幅单侧视图或者场景点云,以参考点P为中心取半径R邻域内的点云作为支撑点,对支撑点求取局部参考坐标系,针对关键点将支撑点位置和法线变换到参考坐标系下求取特征。
5.根据权利要求4所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述对支撑点求取局部参考坐标系包括以下步骤:
以参考点P点为坐标原点,基于PCA求取的最小特征值对应的特征向量为Z轴,并将Z轴的正方向转换到与相机拍摄视角一致,以所有支撑点的平均法线为AN轴,以Z轴与AN轴的叉乘为X轴,以Z轴与X轴的叉乘获得的方向为Y轴。
6.根据权利要求4所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述关键点通过以下步骤得到:
由PCA求取的特征值由大到小排列为a1>a2>a3,当a1与a2的比值小于固定阈值t时,该P点为非关键点;否则,为关键点。
7.根据权利要求4所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于将支撑点位置和法线变换到参考坐标系下求取特征包括以下步骤:将转换后的支撑点向局部参考坐标系的XOY平面上投影,在XOY平面上画k*k的格子,统计落入每个格子内的点的平均法线方向,连接成(k-2)*(k-2)*3的特征向量。
8.根据权利要求1所述的一种基于3D视觉的在线实时物体识别定位方法,其特征在于所述进行物体识别定位包括以下步骤:
为每个场景特征找到最近的模型特征,用对应的点和位置求出物体一个可能姿态,根据场景特征集获得的所有可能姿态在六维空间中进行投票,由投票空间中的汇聚点确定出物体位姿的多个假设,最后验证去除错误假设,完成物体的识别定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710320311.XA CN108876852B (zh) | 2017-05-09 | 2017-05-09 | 一种基于3d视觉的在线实时物体识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710320311.XA CN108876852B (zh) | 2017-05-09 | 2017-05-09 | 一种基于3d视觉的在线实时物体识别定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108876852A true CN108876852A (zh) | 2018-11-23 |
CN108876852B CN108876852B (zh) | 2021-06-22 |
Family
ID=64287841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710320311.XA Active CN108876852B (zh) | 2017-05-09 | 2017-05-09 | 一种基于3d视觉的在线实时物体识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108876852B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636856A (zh) * | 2019-01-17 | 2019-04-16 | 天津大学 | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 |
CN110348310A (zh) * | 2019-06-12 | 2019-10-18 | 西安工程大学 | 一种霍夫投票3d彩色点云识别方法 |
CN110415363A (zh) * | 2019-08-05 | 2019-11-05 | 上海神添实业有限公司 | 一种基于三目视觉的散乱物识别定位方法 |
CN111062988A (zh) * | 2019-11-29 | 2020-04-24 | 佛山科学技术学院 | 一种基于局部点云的葡萄位姿估计方法 |
CN111721283A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
CN112352262A (zh) * | 2020-04-14 | 2021-02-09 | 香港应用科技研究院有限公司 | 候选六维位姿假设选择 |
WO2021208133A1 (en) * | 2020-04-14 | 2021-10-21 | Hong Kong Applied Science and Technology Research Institute Company Limited | Candidate six dimensional pose hypothesis selection |
CN113706454A (zh) * | 2021-07-13 | 2021-11-26 | 广东泽亨智能科技有限公司 | 一种基于配准的工件偏移检测的方法及喷涂装置 |
CN118196356A (zh) * | 2024-05-16 | 2024-06-14 | 山东捷瑞数字科技股份有限公司 | 一种基于点云对于不规则物体图像的重构解析方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040114807A1 (en) * | 2002-12-13 | 2004-06-17 | Dan Lelescu | Statistical representation and coding of light field data |
CN101551851A (zh) * | 2008-03-31 | 2009-10-07 | 中国科学院沈阳自动化研究所 | 一种红外图像目标识别方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
CN104093940A (zh) * | 2012-02-02 | 2014-10-08 | 斯奈克玛 | 在加工叶片的方法中优化叶片支柱的支撑点 |
CN104782122A (zh) * | 2012-10-10 | 2015-07-15 | 微软公司 | 受控三维通信端点 |
CN104952063A (zh) * | 2014-03-25 | 2015-09-30 | Metaio有限公司 | 用于在真实环境的视图中表示虚拟对象的方法和系统 |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106056050A (zh) * | 2016-05-23 | 2016-10-26 | 武汉盈力科技有限公司 | 一种基于自适应三维人体运动统计模型的多视角步态识别方法 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
CN106575160A (zh) * | 2014-08-01 | 2017-04-19 | 星船自动售货机株式会社 | 根据用户视点识别动作的界面提供方法及提供装置 |
-
2017
- 2017-05-09 CN CN201710320311.XA patent/CN108876852B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040114807A1 (en) * | 2002-12-13 | 2004-06-17 | Dan Lelescu | Statistical representation and coding of light field data |
CN101551851A (zh) * | 2008-03-31 | 2009-10-07 | 中国科学院沈阳自动化研究所 | 一种红外图像目标识别方法 |
CN102568026A (zh) * | 2011-12-12 | 2012-07-11 | 浙江大学 | 一种多视点自由立体显示的三维增强现实方法 |
CN104093940A (zh) * | 2012-02-02 | 2014-10-08 | 斯奈克玛 | 在加工叶片的方法中优化叶片支柱的支撑点 |
CN104782122A (zh) * | 2012-10-10 | 2015-07-15 | 微软公司 | 受控三维通信端点 |
CN104952063A (zh) * | 2014-03-25 | 2015-09-30 | Metaio有限公司 | 用于在真实环境的视图中表示虚拟对象的方法和系统 |
CN103903013A (zh) * | 2014-04-15 | 2014-07-02 | 复旦大学 | 一种无标记平面物体识别的优化算法 |
CN106575160A (zh) * | 2014-08-01 | 2017-04-19 | 星船自动售货机株式会社 | 根据用户视点识别动作的界面提供方法及提供装置 |
CN105976353A (zh) * | 2016-04-14 | 2016-09-28 | 南京理工大学 | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 |
CN106056050A (zh) * | 2016-05-23 | 2016-10-26 | 武汉盈力科技有限公司 | 一种基于自适应三维人体运动统计模型的多视角步态识别方法 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
Non-Patent Citations (2)
Title |
---|
JIAHUI WANG 等: "Shape Reconstruction of Human Foot from Multi-camera Images Based on PCA of Human Shape Database", 《PROCEEDINGS OF THE FIFTH INTERNATIONAL CONFERENCE ON 3-D DIGITAL IMAGING AND MODELING》 * |
都琳 等: "基于PCA的相机响应函数模型标定算法", 《红外与激光工程》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636856B (zh) * | 2019-01-17 | 2022-03-04 | 天津大学 | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 |
CN109636856A (zh) * | 2019-01-17 | 2019-04-16 | 天津大学 | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 |
CN111721283A (zh) * | 2019-03-18 | 2020-09-29 | 深圳市速腾聚创科技有限公司 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
CN111721283B (zh) * | 2019-03-18 | 2023-08-15 | 深圳市速腾聚创科技有限公司 | 定位算法的精度检测方法、装置、计算机设备和存储介质 |
CN110348310A (zh) * | 2019-06-12 | 2019-10-18 | 西安工程大学 | 一种霍夫投票3d彩色点云识别方法 |
CN110415363A (zh) * | 2019-08-05 | 2019-11-05 | 上海神添实业有限公司 | 一种基于三目视觉的散乱物识别定位方法 |
CN111062988A (zh) * | 2019-11-29 | 2020-04-24 | 佛山科学技术学院 | 一种基于局部点云的葡萄位姿估计方法 |
CN111062988B (zh) * | 2019-11-29 | 2024-02-13 | 佛山科学技术学院 | 一种基于局部点云的葡萄位姿估计方法 |
WO2021208133A1 (en) * | 2020-04-14 | 2021-10-21 | Hong Kong Applied Science and Technology Research Institute Company Limited | Candidate six dimensional pose hypothesis selection |
US11420334B2 (en) | 2020-04-14 | 2022-08-23 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Candidate six dimensional pose hypothesis selection |
CN112352262A (zh) * | 2020-04-14 | 2021-02-09 | 香港应用科技研究院有限公司 | 候选六维位姿假设选择 |
CN113706454B (zh) * | 2021-07-13 | 2022-05-03 | 广东泽亨智能科技有限公司 | 一种基于配准的工件偏移检测的方法及喷涂装置 |
CN113706454A (zh) * | 2021-07-13 | 2021-11-26 | 广东泽亨智能科技有限公司 | 一种基于配准的工件偏移检测的方法及喷涂装置 |
CN118196356A (zh) * | 2024-05-16 | 2024-06-14 | 山东捷瑞数字科技股份有限公司 | 一种基于点云对于不规则物体图像的重构解析方法及系统 |
CN118196356B (zh) * | 2024-05-16 | 2024-08-02 | 山东捷瑞数字科技股份有限公司 | 一种基于点云对于不规则物体图像的重构解析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108876852B (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108876852A (zh) | 一种基于3d视觉的在线实时物体识别定位方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
Pomerleau et al. | Tracking a depth camera: Parameter exploration for fast ICP | |
Gao et al. | A stable and accurate marker-less augmented reality registration method | |
Wang et al. | Point cloud and visual feature-based tracking method for an augmented reality-aided mechanical assembly system | |
CN112541973B (zh) | 虚实叠合方法与系统 | |
CN111178170B (zh) | 一种手势识别方法和一种电子设备 | |
TWI684956B (zh) | 物體辨識與追蹤系統及其方法 | |
CN107949851A (zh) | 在场景内的物体的端点的快速和鲁棒识别 | |
CN107330980A (zh) | 一种基于无标志物的虚拟家具布置系统 | |
Chen et al. | Determining pose of 3D objects with curved surfaces | |
Pacheco et al. | Reconstruction of high resolution 3D objects from incomplete images and 3D information | |
Salvi et al. | A survey addressing the fundamental matrix estimation problem | |
Kochi et al. | 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera | |
WO2023030062A1 (zh) | 一种无人机的飞行控制方法、装置、设备、介质及程序 | |
KR101001184B1 (ko) | 얼굴 정규화 벡터를 이용한 반복적 3차원 얼굴 포즈 추정 방법 | |
Azad et al. | Accurate shape-based 6-dof pose estimation of single-colored objects | |
CN110189267B (zh) | 一种基于机器视觉的实时定位装置和系统 | |
Oumer | Visual tracking and motion estimation for an on-orbit servicing of a satellite | |
Tonchev et al. | Kinect sensors network calibration in controlled environment based on semantic information | |
Zhang et al. | Combining kinect and pnp for camera pose estimation | |
Meng et al. | Tracking and positioning of industrial objects using CAD models | |
Kornuta et al. | Modreg: a modular framework for rgb-d image acquisition and 3d object model registration | |
Li et al. | Model-based 3d registration optimization based on graphics simulation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |