CN116416305A - 一种基于优化采样五维点对特征的多实例位姿估计方法 - Google Patents
一种基于优化采样五维点对特征的多实例位姿估计方法 Download PDFInfo
- Publication number
- CN116416305A CN116416305A CN202211132640.9A CN202211132640A CN116416305A CN 116416305 A CN116416305 A CN 116416305A CN 202211132640 A CN202211132640 A CN 202211132640A CN 116416305 A CN116416305 A CN 116416305A
- Authority
- CN
- China
- Prior art keywords
- point
- point cloud
- instance
- dimensional
- sampling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005070 sampling Methods 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000009466 transformation Effects 0.000 claims description 35
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 5
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9014—Indexing; Data structures therefor; Storage structures hash tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及姿估计技术领域,尤其涉及一种基于优化采样五维点对特征的多实例位姿估计方法,包括:步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征。本发明采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好;采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。
Description
技术领域
本发明涉及位姿估计技术领域,尤其涉及一种基于优化采样五维点对特征的多实例位姿估计方法。
背景技术
物体识别及位姿估计是计算机视觉领域的重要问题,也是工业产线智能化改造的必备技术。该技术通过传感器(如相机、雷达等)获取外部环境信息,解决视野中目标物体以什么姿态在哪里的问题。目标物体相对于传感器的位姿由3D的平移变换和3D的旋转变换组成,共同构成6D的位姿变换关系。目前,物体识别及位姿估计仍然是一项有挑战性的重要课题,也是工业机器人完成无序分拣、有序装配等任务的关键技术。
传统的基于点对特征的位姿估计方法采用体素滤波直接进行降采样,然后将降采样后的点云构建四维点对特征,并将其存储在哈希表中。采用同样的方法对场景点云进行降采样,计算其四维点对特征,并在已构建好的哈希表中进行匹配索引。将配对的点对依次进行位姿变换,使两个点对的点及法线方向重合,进而计算出一系列的位姿变换关系。通过在二维累加器中进行投票,聚类,最终完成目标识别和位姿估计。然而,由于体素滤波仅保留体素内的一个点,在部分情况下会造成有效信息的丢失;同时,对降采样后的场景点云随机提取关键点会造成较多的误匹配,使效率降低。
因此,如何在降采样中减少关键信息的丢失,减少误匹配以提高匹配效率,进而提高算法的实时性和工业应用性,成为当下需要解决的问题。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于优化采样五维点对特征的多实例位姿估计方法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于优化采样五维点对特征的多实例位姿估计方法,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵。
优选地,在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云。
优选地,在步骤2中,采用公式(1)、公式(2)构建五维点对特征描述符;
F(pi,pj)=(F1,F2,F3,F4,F5)(1)
式中pi、pj为降采样后点云中的两点,di,j为由pi点指向pj点的向量,ni、nj分别为pi、pj的法向量,ki、kj分别为pi、pj的曲率,其中i=1,2,…n,j=1,2,…n,n为降采样后点的个数。
优选地,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
优选地,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵(m1>0)。
优选地,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵(m2≤m1);
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
通过采用上述技术方案:通过四级降采样减少点云关键信息的丢失,通过构建五维点对特征描述符使配准更为准确,通过在边缘检测分割出的实例中采样关键点提高匹配效率,通过采用自组织映射神经网络聚类优化各实例对应的位姿估计结果。
与现有技术相比,本发明具有以下有益效果:
1、本发明采用四级降采样策略,能够在减少点云数据量的同时保留点云的关键信息,使变化较大的曲面特征及边缘点保留。
2、本发明在点对特征描述符中增加了曲率差,提高了描述符对点对的描述能力,进而使位姿估计结果更为准确。
3、本发明采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好。
4、本发明采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。
5、本发明可以用于弱纹理物体的检测及其六自由度位姿估计,进一步可应用于工业场景中散乱零件的无序分拣、有序装配等。
附图说明
图1为本发明的原理图;
图2为本发明中五维点对特征描述符实意图;
图3为本发明对工业零件的多实例识别和位姿估计效果图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-3,一种基于优化采样五维点对特征的多实例位姿估计方法,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵。
具体的,在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云。
具体的,在步骤2中,采用公式(1)、公式(2)构建五维点对特征描述符;
F(pi,pj)=(F1,F2,F3,F4,F5) (1)
式中pi、pj为降采样后点云中的两点,di,j为由pi点指向pj点的向量,ni、nj分别为pi、pj的法向量,ki、kj分别为pi、pj的曲率,其中i=1,2,…n,j=1,2,…n,n为降采样后点的个数。
具体的,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
具体的,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵(m1>0)。
具体的,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵(m2≤m1);
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
本实施例中,采用四级降采样策略,能够在减少点云数据量的同时保留点云的关键信息,使变化较大的曲面特征及边缘点保留;在点对特征描述符中增加了曲率差,提高了描述符对点对的描述能力,进而使位姿估计结果更为准确;采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好;采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。
本发明中披露的说明和实践,对于本技术领域的普通技术人员来说,都是易于思考和理解的,且在不脱离本发明原理的前提下,还可以做出若干改进和润饰。因此,在不偏离本发明精神的基础上所做的修改或改进,也应视为本发明的保护范围。
Claims (6)
1.一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵。
2.根据权利要求1所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云。
4.根据权利要求3所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
5.根据权利要求4所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵(m1>0)。
6.根据权利要求1所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵(m2≤m1);
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211132640.9A CN116416305B (zh) | 2022-09-17 | 2022-09-17 | 一种基于优化采样五维点对特征的多实例位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211132640.9A CN116416305B (zh) | 2022-09-17 | 2022-09-17 | 一种基于优化采样五维点对特征的多实例位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116416305A true CN116416305A (zh) | 2023-07-11 |
CN116416305B CN116416305B (zh) | 2024-02-13 |
Family
ID=87050344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211132640.9A Active CN116416305B (zh) | 2022-09-17 | 2022-09-17 | 一种基于优化采样五维点对特征的多实例位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116416305B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237451A (zh) * | 2023-09-15 | 2023-12-15 | 南京航空航天大学 | 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2720171A1 (en) * | 2012-10-12 | 2014-04-16 | MVTec Software GmbH | Recognition and pose determination of 3D objects in multimodal scenes |
CN111091062A (zh) * | 2019-11-21 | 2020-05-01 | 东南大学 | 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法 |
CN111553409A (zh) * | 2020-04-27 | 2020-08-18 | 哈尔滨工程大学 | 一种基于体素形状描述符的点云识别方法 |
CN112070832A (zh) * | 2020-08-07 | 2020-12-11 | 清华大学 | 基于点云dca特征的非合作目标位姿跟踪方法及装置 |
CN114743259A (zh) * | 2022-02-28 | 2022-07-12 | 华中科技大学 | 位姿估计方法、位姿估计系统、终端、存储介质及应用 |
-
2022
- 2022-09-17 CN CN202211132640.9A patent/CN116416305B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2720171A1 (en) * | 2012-10-12 | 2014-04-16 | MVTec Software GmbH | Recognition and pose determination of 3D objects in multimodal scenes |
US20140105506A1 (en) * | 2012-10-12 | 2014-04-17 | Mvtec Software Gmbh | Recognition and pose determination of 3d objects in multimodal scenes |
CN111091062A (zh) * | 2019-11-21 | 2020-05-01 | 东南大学 | 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法 |
CN111553409A (zh) * | 2020-04-27 | 2020-08-18 | 哈尔滨工程大学 | 一种基于体素形状描述符的点云识别方法 |
CN112070832A (zh) * | 2020-08-07 | 2020-12-11 | 清华大学 | 基于点云dca特征的非合作目标位姿跟踪方法及装置 |
CN114743259A (zh) * | 2022-02-28 | 2022-07-12 | 华中科技大学 | 位姿估计方法、位姿估计系统、终端、存储介质及应用 |
Non-Patent Citations (3)
Title |
---|
JIANWEI GUO等: "Efficient Center Voting for Object Detection and 6D Pose Estimation in 3D Point Cloud", IEEE TRANSACTIONS ON IMAGE PROCESSING * |
张健;李新乐;宋莹;王仁;朱凡;赵晓燕;: "基于噪声点云的三维场景重建方法", 计算机工程与设计, no. 04 * |
陆军等: "基于关键点的点对特征三维目标识别算法", 北京理工大学学报 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237451A (zh) * | 2023-09-15 | 2023-12-15 | 南京航空航天大学 | 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法 |
CN117237451B (zh) * | 2023-09-15 | 2024-04-02 | 南京航空航天大学 | 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116416305B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112070818B (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
Dong et al. | Ppr-net: point-wise pose regression network for instance segmentation and 6d pose estimation in bin-picking scenarios | |
Hodaň et al. | Detection and fine 3D pose estimation of texture-less objects in RGB-D images | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
Tsai et al. | Simultaneous 3D object recognition and pose estimation based on RGB-D images | |
CN111784770A (zh) | 基于shot和icp算法的无序抓取中的三维姿态估计方法 | |
CN106203342A (zh) | 基于多角度局部特征匹配的目标识别方法 | |
CN107818598B (zh) | 一种基于视觉矫正的三维点云地图融合方法 | |
CN106709500B (zh) | 一种图像特征匹配的方法 | |
CN104036523A (zh) | 一种基于SURF特征的改进Mean Shift的目标跟踪方法 | |
CN109215129A (zh) | 一种基于三维点云的局部特征描述方法 | |
CN105160686B (zh) | 一种基于改进sift算子的低空多视角遥感影像匹配方法 | |
CN109272577B (zh) | 一种基于Kinect的视觉SLAM方法 | |
CN110942476A (zh) | 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
Shao et al. | A deep learning-based semantic filter for RANSAC-based fundamental matrix calculation and the ORB-SLAM system | |
CN116416305B (zh) | 一种基于优化采样五维点对特征的多实例位姿估计方法 | |
CN107358189A (zh) | 一种基于多视目标提取的室内环境下物体检测方法 | |
CN115147599A (zh) | 一种面向遮挡和截断场景的多几何特征学习的物体六自由度位姿估计方法 | |
CN117132630A (zh) | 一种基于二阶空间兼容性度量的点云配准方法 | |
CN117372480A (zh) | 一种利用自适应下采样与曲率增强点对特征的点云配准方法 | |
CN117036653A (zh) | 基于超体素聚类的点云分割方法及系统 | |
CN109872343B (zh) | 弱纹理物体姿态跟踪方法、系统及装置 | |
CN117351078A (zh) | 基于形状先验的目标尺寸与6d姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |