CN116416305B - 一种基于优化采样五维点对特征的多实例位姿估计方法 - Google Patents

一种基于优化采样五维点对特征的多实例位姿估计方法 Download PDF

Info

Publication number
CN116416305B
CN116416305B CN202211132640.9A CN202211132640A CN116416305B CN 116416305 B CN116416305 B CN 116416305B CN 202211132640 A CN202211132640 A CN 202211132640A CN 116416305 B CN116416305 B CN 116416305B
Authority
CN
China
Prior art keywords
point
point cloud
instance
dimensional
sampling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211132640.9A
Other languages
English (en)
Other versions
CN116416305A (zh
Inventor
熊振华
陈高铭
刘菁茹
李松恒
柴子奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Faw Tooling Die Manufacturing Co Ltd
Original Assignee
Shanghai Jiaotong University
Faw Tooling Die Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University, Faw Tooling Die Manufacturing Co Ltd filed Critical Shanghai Jiaotong University
Priority to CN202211132640.9A priority Critical patent/CN116416305B/zh
Publication of CN116416305A publication Critical patent/CN116416305A/zh
Application granted granted Critical
Publication of CN116416305B publication Critical patent/CN116416305B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9014Indexing; Data structures therefor; Storage structures hash tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及姿估计技术领域,尤其涉及一种基于优化采样五维点对特征的多实例位姿估计方法,包括:步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征。本发明采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好;采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。

Description

一种基于优化采样五维点对特征的多实例位姿估计方法
技术领域
本发明涉及位姿估计技术领域,尤其涉及一种基于优化采样五维点对特征的多实例位姿估计方法。
背景技术
物体识别及位姿估计是计算机视觉领域的重要问题,也是工业产线智能化改造的必备技术。该技术通过传感器(如相机、雷达等)获取外部环境信息,解决视野中目标物体以什么姿态在哪里的问题。目标物体相对于传感器的位姿由3D的平移变换和3D的旋转变换组成,共同构成6D的位姿变换关系。目前,物体识别及位姿估计仍然是一项有挑战性的重要课题,也是工业机器人完成无序分拣、有序装配等任务的关键技术。
传统的基于点对特征的位姿估计方法采用体素滤波直接进行降采样,然后将降采样后的点云构建四维点对特征,并将其存储在哈希表中。采用同样的方法对场景点云进行降采样,计算其四维点对特征,并在已构建好的哈希表中进行匹配索引。将配对的点对依次进行位姿变换,使两个点对的点及法线方向重合,进而计算出一系列的位姿变换关系。通过在二维累加器中进行投票,聚类,最终完成目标识别和位姿估计。然而,由于体素滤波仅保留体素内的一个点,在部分情况下会造成有效信息的丢失;同时,对降采样后的场景点云随机提取关键点会造成较多的误匹配,使效率降低。
因此,如何在降采样中减少关键信息的丢失,减少误匹配以提高匹配效率,进而提高算法的实时性和工业应用性,成为当下需要解决的问题。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于优化采样五维点对特征的多实例位姿估计方法。
为了实现上述目的,本发明采用了如下技术方案:
一种基于优化采样五维点对特征的多实例位姿估计方法,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵。
优选地,在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云。
优选地,在步骤2中,采用公式(1)、公式(2)构建五维点对特征描述符;
F(pi,pj)=(F1,F2,F3,F4,F5)(1)
式中pi、pj为降采样后点云中的两点,di,j为由pi点指向pj点的向量,ni、nj分别为pi、pj的法向量,ki、kj分别为pi、pj的曲率,其中i=1,2,…n,j=1,2,…n,n为降采样后点的个数。
优选地,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
优选地,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵(m1>0)。
优选地,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵(m2≤m1);
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
通过采用上述技术方案:通过四级降采样减少点云关键信息的丢失,通过构建五维点对特征描述符使配准更为准确,通过在边缘检测分割出的实例中采样关键点提高匹配效率,通过采用自组织映射神经网络聚类优化各实例对应的位姿估计结果。
与现有技术相比,本发明具有以下有益效果:
1、本发明采用四级降采样策略,能够在减少点云数据量的同时保留点云的关键信息,使变化较大的曲面特征及边缘点保留。
2、本发明在点对特征描述符中增加了曲率差,提高了描述符对点对的描述能力,进而使位姿估计结果更为准确。
3、本发明采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好。
4、本发明采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。
5、本发明可以用于弱纹理物体的检测及其六自由度位姿估计,进一步可应用于工业场景中散乱零件的无序分拣、有序装配等。
附图说明
图1为本发明的原理图;
图2为本发明中五维点对特征描述符实意图;
图3为本发明对工业零件的多实例识别和位姿估计效果图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-3,一种基于优化采样五维点对特征的多实例位姿估计方法,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵。
具体的,在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云。
具体的,在步骤2中,采用公式(1)、公式(2)构建五维点对特征描述符;
F(pi,pj)=(F1,F2,F3,F4,F5) (1)
式中pi、pj为降采样后点云中的两点,di,j为由pi点指向pj点的向量,ni、nj分别为pi、pj的法向量,ki、kj分别为pi、pj的曲率,其中i=1,2,…n,j=1,2,…n,n为降采样后点的个数。
具体的,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
具体的,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵(m1>0)。
具体的,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵(m2≤m1);
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
本实施例中,采用四级降采样策略,能够在减少点云数据量的同时保留点云的关键信息,使变化较大的曲面特征及边缘点保留;在点对特征描述符中增加了曲率差,提高了描述符对点对的描述能力,进而使位姿估计结果更为准确;采用各实例内随机采样关键点,减少误匹配,提高了目标检测和位姿估计效率,使算法的精度更好;采用自组织映射神经网络聚类优化各实例对应的位姿估计结果,使算法的鲁棒性更好。
本发明中披露的说明和实践,对于本技术领域的普通技术人员来说,都是易于思考和理解的,且在不脱离本发明原理的前提下,还可以做出若干改进和润饰。因此,在不偏离本发明精神的基础上所做的修改或改进,也应视为本发明的保护范围。

Claims (4)

1.一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,具体步骤如下:
步骤1、对模型点云和深度相机获取的场景点云分别进行预处理,计算法向量和曲率信息,得到降采样模型点云和降采样场景点云;
步骤2、采用降采样模型点云的空间点位置、法向量和曲率信息,计算五维点对特征描述符,构建模型描述哈希表;
步骤3、对降采样场景点云在各实例中随机进行关键点提取,采集各实例的点对特征;
步骤4、将降采样场景点云的关键点点对特征在模型描述哈希表中匹配索引,确定对应的模型点对,计算位姿变换矩阵;
步骤5、将步骤4中得到的针对同一实例的位姿变换矩阵进行聚类,最终得到场景点云中对应各实例的位姿变换矩阵;
在步骤1中,具体包括以下步骤:
步骤1.1、对模型点云和场景点云分别构建KD树,通过最近邻搜索算法计算法向量和曲率;
步骤1.2、采用体素滤波,将各体素内所有点在三维方向上取均值作为该体素的均值点,选取体素内与均值点欧几里得距离最小的点作为一级降采样点;
步骤1.3、将体素内法向量夹角大于阈值α的点提取,作为二级降采样点集;
步骤1.4、将体素内曲率大于阈值β的点提取,作为三级降采样点集;
步骤1.5、采用Canny边缘检测算子对场景点云对应的二维彩色图像进行边缘检测,选取一定比率的边缘点作为四级降采样点集;
步骤1.6、将模型点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样模型点云,将场景点云对应的所有体素的一级、二级、三级降采样点集和整体四级降采样点集整合,得到降采样场景点云;
在步骤2中,采用公式(1)、公式(2)构建五维点对特征描述符;
F(pi,pj)=(F1,F2,F3,F4,F5) (1)
式中pi、pj为降采样后点云中的两点,di,j为由pi点指向pj点的向量,ni、nj分别为pi、pj的法向量,ki、kj分别为pi、pj的曲率,其中i=1,2,…n,j=1,2,…n,n为降采样后点的个数。
2.根据权利要求1所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤3中,具体包括以下步骤:
步骤3.1、根据步骤1.5中边缘检测的结果,将各封闭边缘的中心依次作为对应的各实例的中心;
步骤3.2、在各实例所在区域采用蒙特卡洛方法随机采样,得到各实例对应的关键点;
步骤3.3、对各实例的关键点分别按照公式(1)、公式(2)构建五维点对特征描述符。
3.根据权利要求2所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤4中,利用步骤3得到的降采样场景点云中各实例关键点的五维点对特征描述符在步骤2构建的哈希表中索引,在空间中通过坐标变换将二者对齐,最终得到该实例对应的m1个位姿变换矩阵,m1>0。
4.根据权利要求3所述的一种基于优化采样五维点对特征的多实例位姿估计方法,其特征在于,在步骤5中,具体包括以下步骤:
步骤5.1、将各位姿变换矩阵转换为由欧拉角和偏移量组成的六维向量,采用六维向量之间的欧几里得距离作为聚类的距离标准;
步骤5.2、采用自组织映射神经网络进行聚类,剔除较差的结果,得到各实例对应的m2个位姿变换矩阵,m2≤m1
步骤5.3、将各实例对应的位姿变换矩阵中的旋转矩阵转换为四元数qi表示:
采用公式(3)计算各实例对应的矩阵A,选择A矩阵的特征值最大的特征向量作为该实例对应的旋转四元数,偏移量采用该实例对应的位姿变换矩阵中所有偏移量在三维方向上的均值,最终得到各实例对应的位姿变换。
CN202211132640.9A 2022-09-17 2022-09-17 一种基于优化采样五维点对特征的多实例位姿估计方法 Active CN116416305B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211132640.9A CN116416305B (zh) 2022-09-17 2022-09-17 一种基于优化采样五维点对特征的多实例位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211132640.9A CN116416305B (zh) 2022-09-17 2022-09-17 一种基于优化采样五维点对特征的多实例位姿估计方法

Publications (2)

Publication Number Publication Date
CN116416305A CN116416305A (zh) 2023-07-11
CN116416305B true CN116416305B (zh) 2024-02-13

Family

ID=87050344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211132640.9A Active CN116416305B (zh) 2022-09-17 2022-09-17 一种基于优化采样五维点对特征的多实例位姿估计方法

Country Status (1)

Country Link
CN (1) CN116416305B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237451B (zh) * 2023-09-15 2024-04-02 南京航空航天大学 一种基于轮廓重建和几何引导的工业零件6d位姿估计方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2720171A1 (en) * 2012-10-12 2014-04-16 MVTec Software GmbH Recognition and pose determination of 3D objects in multimodal scenes
CN111091062A (zh) * 2019-11-21 2020-05-01 东南大学 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法
CN111553409A (zh) * 2020-04-27 2020-08-18 哈尔滨工程大学 一种基于体素形状描述符的点云识别方法
CN112070832A (zh) * 2020-08-07 2020-12-11 清华大学 基于点云dca特征的非合作目标位姿跟踪方法及装置
CN114743259A (zh) * 2022-02-28 2022-07-12 华中科技大学 位姿估计方法、位姿估计系统、终端、存储介质及应用

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2720171A1 (en) * 2012-10-12 2014-04-16 MVTec Software GmbH Recognition and pose determination of 3D objects in multimodal scenes
CN111091062A (zh) * 2019-11-21 2020-05-01 东南大学 一种基于3d视觉聚类和匹配的机器人乱序目标分拣方法
CN111553409A (zh) * 2020-04-27 2020-08-18 哈尔滨工程大学 一种基于体素形状描述符的点云识别方法
CN112070832A (zh) * 2020-08-07 2020-12-11 清华大学 基于点云dca特征的非合作目标位姿跟踪方法及装置
CN114743259A (zh) * 2022-02-28 2022-07-12 华中科技大学 位姿估计方法、位姿估计系统、终端、存储介质及应用

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Jianwei Guo等.Efficient Center Voting for Object Detection and 6D Pose Estimation in 3D Point Cloud.IEEE Transactions on Image Processing .2021,全文. *
基于噪声点云的三维场景重建方法;张健;李新乐;宋莹;王仁;朱凡;赵晓燕;;计算机工程与设计(04);全文 *
陆军等.基于关键点的点对特征三维目标识别算法.北京理工大学学报.2022,全文. *

Also Published As

Publication number Publication date
CN116416305A (zh) 2023-07-11

Similar Documents

Publication Publication Date Title
CN112070818B (zh) 基于机器视觉的机器人无序抓取方法和系统及存储介质
Labbé et al. Cosypose: Consistent multi-view multi-object 6d pose estimation
Hodaň et al. Detection and fine 3D pose estimation of texture-less objects in RGB-D images
Dong et al. Ppr-net: point-wise pose regression network for instance segmentation and 6d pose estimation in bin-picking scenarios
CN111784770B (zh) 基于shot和icp算法的无序抓取中的三维姿态估计方法
JP6216508B2 (ja) 3dシーンにおける3d物体の認識および姿勢決定のための方法
CN106709950B (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
Tsai et al. Simultaneous 3D object recognition and pose estimation based on RGB-D images
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN106203342A (zh) 基于多角度局部特征匹配的目标识别方法
CN107818598B (zh) 一种基于视觉矫正的三维点云地图融合方法
CN106709500B (zh) 一种图像特征匹配的方法
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN109272577B (zh) 一种基于Kinect的视觉SLAM方法
CN110942476A (zh) 基于二维图像引导的改进三维点云配准方法、系统及可读存储介质
Rubio et al. Efficient monocular pose estimation for complex 3D models
Shao et al. A deep learning-based semantic filter for RANSAC-based fundamental matrix calculation and the ORB-SLAM system
CN116416305B (zh) 一种基于优化采样五维点对特征的多实例位姿估计方法
CN117132630A (zh) 一种基于二阶空间兼容性度量的点云配准方法
Zhu et al. A review of 6d object pose estimation
CN109872343B (zh) 弱纹理物体姿态跟踪方法、系统及装置
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
Xiao et al. Structuring visual words in 3D for arbitrary-view object localization
CN117372480A (zh) 一种利用自适应下采样与曲率增强点对特征的点云配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant