CN109887030A - 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 - Google Patents
基于cad稀疏模板的无纹理金属零件图像位姿检测方法 Download PDFInfo
- Publication number
- CN109887030A CN109887030A CN201910064180.2A CN201910064180A CN109887030A CN 109887030 A CN109887030 A CN 109887030A CN 201910064180 A CN201910064180 A CN 201910064180A CN 109887030 A CN109887030 A CN 109887030A
- Authority
- CN
- China
- Prior art keywords
- image
- texture
- template
- metal parts
- free metal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法。导入无纹理金属零件的CAD模型,计算出视点的分布位置,采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像;在每一个视点位置下,将CAD模型的所有可见顶点的二维图像坐标和三维空间坐标成对保存;使用直线提取算法及直线段描述算法对实际图像与模板图像中的直线段进行提取及描述,将实际图像与每一张模板图像进行直线段匹配,由二维图像坐标替换为三维空间坐标,使用透视n点算法计算位姿。本发明能够由CAD模型生成均匀分布的稀疏模板,可满足实际应用的需求。
Description
技术领域
本发明涉及计算机视觉及工业自动化技术领域,具体涉及一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法。
背景技术
在工业自动化领域的很多应用场景下,都需要对相机获取的图像中的零件进行位姿估计。目前大部分的位姿估计方法都是针对普通物体的,这些物体或具有纹理信息,或不会产生反光现象,因此可以通过传统的特征点方法或是深度图像匹配方法求解出姿态,使机器人进行抓取。而在工业环境中机器人抓取的对象大多是机械零件等无纹理的物体,因此无法直接使用现有的针对纹理物体的一些成熟的基于特征点的位姿估计算法对零件的姿态进行估计。
对物体进行位姿估计,目前主要的实现方法分为基于多目视觉、基于深度视觉和基于单目视觉三类方法。
基于多目视觉及深度视觉的方法对于常规对象非常合适。但由于金属零件没有纹理特征,而多目视觉方法需要匹配点对,所以对于金属零件不合适。另外,由于金属零件具有很强的反光效应,因此基于深度视觉的方法也不适用于对金属零件进行抓取。
基于单目视觉对无纹理金属零件进行位姿估计的方法主要是通过物体的边缘信息来进行计算。这类方法更适合于金属零件的位姿估计。近年来,研究者们对使用单目相机进行物体6D位姿估计进行了大量研究。Hinterstoisser等提出了一种实时的对象位姿估计方法,该方法可以处理无纹理对象。该方法是一种新颖的模板匹配方法,对小视角变换具有鲁棒性。实验表明,该方法能够在背景杂乱的场景下对物体进行位姿估计。但是这种方法必须拍摄大量的真实图像作为模板,不是很满足实际应用的需求。因此有学者提出使用CAD模型生成模板,避免进行实际的拍摄。Konishi等提出了透视累积方向特征(PCOF),基于CAD模型从随机生成的2D图像提取PCOF特征,并构建分层姿态树通过由粗到细策略来加速位姿估计速度。
由于二维图像无法完整描述三维物体的外形,因此需要在多个视角下对模型进行采样,而离散的采样必然会丢失一些视角下的信息,因此目前大多数基于模型CAD的方法都将模板采样数量设定为数万张模板,使用稠密采样降低离散化采样引起的误差。但因此产生的模板存储空间就会变得很大,同时在大量模板中进行快速搜索也成为了需要解决的问题。
发明内容
本发明为解决上述位姿估计方法的不足,提出一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法。本发明考虑在物体模型外部进行稀疏均匀采样,同时使用对视角变化具有鲁棒性的描述子匹配算法进行位姿估计,使模型存储空间大大下降,满足实际应用的需求。
本发明的技术方案包括以下步骤:
步骤1:在计算机虚拟场景下导入无纹理金属零件的CAD模型,CAD模型中的各个顶点的三维空间坐标已知,根据需要采集的模板图像的数量计算出虚拟相机的各个视点位置,采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像;
步骤2:在每一个视点位置下,对于CAD模型在计算机虚拟场景中的所有可见顶点,计算所有可见顶点在模板图像中的二维图像坐标,并和可见顶点在CAD模型中的三维空间坐标成对保存;
所述的CAD模型为网格模型,例如可以为三角网格。
可见顶点为CAD模型的网格顶点在计算机虚拟场景界面中呈现时位于前方可见的顶点。
步骤3:待位姿检测的实际无纹理金属零件放置实际环境下,采用实际物理相机对无纹理金属零件进行拍摄获得实际图像,拍摄以物理相机坐标系为基准,使用线段检测子算法(line segment detector,LSD)对实际图像和所有模板图像进行处理,提取获得实际图像和所有模板图像中的棱边作为直线段并使用线束描述子(bunch of linesdescriptor,BOLD)进行描述,对实际图像与每一张模板图像进行直线段匹配,将匹配直线段最多的模板图像作为匹配结果图像,由匹配结果图像和实际图像中两两直线段的匹配形成各个直线段对;
步骤4:将匹配完成的直线段对的两端端点对应匹配,生成2D-2D匹配点对,利用步骤2中保存的二维图像坐标和三维空间坐标之间的对应关系,将2D-2D匹配点对中属于模板图像的点由二维图像坐标替换为三维空间坐标,生成2D-3D点对,根据2D-3D点对使用透视n点算法(perspective n point PnP)计算实际无纹理金属零件在实际图像中的位姿。
本发明特殊将CAD模型二维图像坐标和三维空间坐标成对保存,并且进行直线段检测和匹配,利用二维图像坐标和三维空间坐标成对关系对直线段检测和匹配的结果进行处理,获得了能够准确适用于透视n点算法处理位姿的数据,进而通过透视n点算法处理获得准确的位姿。
所述的无纹理金属零件是表面为平面且光滑、无凹凸和纹理的多面体金属零件。
所述步骤1中,根据需要采集的模板图像的数量计算出虚拟相机的各个视点位置,具体是采用以下公式计算获得,使得视点均匀分布在以模型原点为球心的球面上:
其中,x、y、z分别为CAD模型中的三维坐标系的三轴,xi,yi,zi分别是指第i个视点的三个方向上的坐标,N是视点的总数,视线的方向均朝向零件的原点。
所述步骤1中,采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像,具体包括:
以CAD模型每个表面平面的RGB三通道值被分别设置为该平面的法向量的三个分量,以CAD模型中每个表面平面的法向量n=(x,y,z)T创建RGB图像时,使用RGB三通道值将该表面平面绘制到图像中。
所述步骤4中,将匹配完成的直线段对的两端端点对应匹配,生成2D-2D匹配点对,具体是:直线段对中的两条直线段分别取两端端点,两条直线段的同一端端点构成一对2D-2D匹配点对,从而每个直线段对获得两对2D-2D匹配点对。
所述的实际无纹理金属零件在实际图像中的位姿输入到机械臂进而抓取零件。
本发明的有益效果是:
1)使用对视角变化具有鲁棒性的描述子匹配算法进行位姿估计,可以使模板稀疏化,模板数量大大下降,降低存储空间的需求,同时也避免了在大量模板中进行搜索的问题。利用透视n点算法在最后进行精确计算,使最终求得的位姿结果精度大大提升,进而能够提高后续工作(如抓取和装配)的精度。
2)在三维空间中均匀且稀疏地分布视点位置,并在对零件图像进行采样拍摄保存图像模板的同时将模型可见部分的顶点三维信息同时进行保存。
附图说明
图1为视点分布示意图;
图2为实施例模板匹配结果图;
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
本发明的具体实施例及其实施过程如下:
实施例以插销机械零件作为无纹理金属零件进行实施。
第一步,根据需要采集的模板的数量(此实施例中设为100),计算出视点的分布位置。如图1所示,视点能够均匀分布在球面上,而不会像按照经纬度进行分布造成南北两极附近分布过于密集。
第二步,在每一个视点位置下,拍摄在该视角下的模型图像并保存,即采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像。
CAD模型的每个平面的RGB三通道值被分别设置为其法向量的三个分量。
由于CAD软件保存的stl格式模型是由三角面片组合而成的,对于有曲面表面的零件,该方法通过足够数量的平面来近似弯曲表面。因此,这些边缘不应该出现在模板图像中。由于圆弧面上相邻的平面法向量相差很小,而每个平面的RGB三通道值又被分别设置为其法向量的三个分量,因此这两个平面之间地梯度幅值必然较小。真实存在的边缘处的梯度赋值要比圆弧面上产生的梯度赋值大上1-2个数量级,所以我们可以方便地通过一个阈值Tamp来抑制这些边缘的出现。
第三步,在每一个视点位置下,计算CAD模型的所有可见顶点在模板图像中的图像坐标,并与对应的三维坐标成对保存。
计算所有顶点从三维空间坐标到二维图像坐标的变换。查看该二维坐标对应位置上的z-buffer值(该点到视点的距离)是否比计算出的值更小。若更小,则说明已经有点显示在更靠近视点的位置上了,该顶点是不可见的,因此舍去;若更大,则说明该点比已经显示完毕的点在更靠近视点的位置上,该顶点是可见的,因此成对保存该二维坐标及原始的三维坐标。图2着重显示出了可见顶点的匹配情况。图2中的线条表示为匹配线,图2中明显可见所有的2D-2D匹配点对均匹配正确。
第四步,待位姿检测的实际无纹理金属零件放置实际环境下,采用实际物理相机对无纹理金属零件进行拍摄获得实际图像。使用LSD直线段提取算法提取实际图像和所有模板图像中的直线段并使用BOLD直线段描述子进行描述。对实际图像与每一张模板图像进行直线段匹配,将匹配直线段最多的模板图像作为匹配结果图像。由匹配结果图像和实际图像中两两直线段的匹配形成各个直线段对。
第五步,将匹配完成的直线段对的两端端点对应匹配,生成2D-2D匹配点对,根据模板图像中的二维图像坐标,在坐标对应关系中找到与该二维图像坐标最接近的点,用该点对应的三维空间坐标替换掉模板图像中的二维图像坐标,最终获得的是实际图像中二维图像坐标与坐标对应关系中三维空间坐标的关联匹配点对(2D-3D点对)。2D-2D匹配点对如图2所示。
最后调用OpenCV中的solvePnP()函数(透视n点算法),输入上一步得到的2D-3D点对,计算出最终的位姿。
使用本发明(100张模板)的位姿计算误差结果以及使用工业视觉软件HALCON(140张模板与1434张模板)的误差结果如表1所示。“/”表示误差获得失败。
表1位姿计算误差结果
上述实施可见,本发明方法能非常准确的获得实际图像中插销机械零件的位姿,具有鲁棒性,避免了在大量模板中进行搜索的问题,简化了计算,计算结果准确而且效率高。在模板数量均设为100左右的情况下,本发明的计算结果与商业软件HALCON相比精度更高。只有当HALCON中的模板数量设为1000以上时,其精度才与本发明的精度接近。本发明至少可以降低10倍以上的模板数量。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (6)
1.一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:
步骤1:在计算机虚拟场景下导入无纹理金属零件的CAD模型,CAD模型中的各个顶点的三维空间坐标已知,根据需要采集的模板图像的数量计算出虚拟相机的各个视点位置,采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像;
步骤2:在每一个视点位置下,对于CAD模型在计算机虚拟场景中的所有可见顶点,计算所有可见顶点在模板图像中的二维图像坐标,并和可见顶点在CAD模型中的三维空间坐标成对保存;
步骤3:待位姿检测的实际无纹理金属零件放置实际环境下,采用实际物理相机对无纹理金属零件进行拍摄获得实际图像,使用线段检测子算法对实际图像和所有模板图像进行处理,提取获得实际图像和所有模板图像中的棱边作为直线段并使用线束描述子进行描述,对实际图像与每一张模板图像进行直线段匹配,将匹配直线段最多的模板图像作为匹配结果图像,由匹配结果图像和实际图像中两两直线段的匹配形成各个直线段对;
步骤4:将匹配完成的直线段对的两端端点对应匹配,生成2D-2D匹配点对,利用步骤2中保存的二维图像坐标和三维空间坐标之间的对应关系,将2D-2D匹配点对中属于模板图像的点由二维图像坐标替换为三维空间坐标,生成2D-3D点对,根据2D-3D点对使用透视n点算法计算实际无纹理金属零件在实际图像中的位姿。
2.根据权利要求1所述的一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:所述的无纹理金属零件是表面为平面且光滑、无凹凸和纹理的多面体金属零件。
3.根据权利要求1所述的一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:所述步骤1中,根据需要采集的模板图像的数量计算出虚拟相机的各个视点位置,具体是采用以下公式计算获得:
其中,x、y、z分别为CAD模型中的三维坐标系的三轴,xi,yi,zi分别是指第i个视点的三个方向上的坐标,N是视点的总数,视线的方向均朝向零件的原点。
4.根据权利要求1所述的一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:所述步骤1中,采用虚拟相机在不同的视点位置对无纹理金属零件的CAD模型进行拍摄获得一系列模板图像,具体包括:
以CAD模型每个表面平面的RGB三通道值被分别设置为该平面的法向量的三个分量,以CAD模型中每个表面平面的法向量n=(x,y,z)T创建RGB图像时,使用RGB三通道值将该表面平面绘制到图像中。
5.根据权利要求1所述的一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:所述步骤4中,将匹配完成的直线段对的两端端点对应匹配,生成2D-2D匹配点对,具体是:直线段对中的两条直线段分别取两端端点,两条直线段的同一端端点构成一对2D-2D匹配点对,从而每个直线段对获得两对2D-2D匹配点对。
6.根据权利要求1所述的一种基于CAD稀疏模板的无纹理金属零件图像位姿检测方法,其特征在于:所述的实际无纹理金属零件在实际图像中的位姿输入到机械臂进而抓取零件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064180.2A CN109887030A (zh) | 2019-01-23 | 2019-01-23 | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910064180.2A CN109887030A (zh) | 2019-01-23 | 2019-01-23 | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109887030A true CN109887030A (zh) | 2019-06-14 |
Family
ID=66926548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910064180.2A Pending CN109887030A (zh) | 2019-01-23 | 2019-01-23 | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109887030A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647925A (zh) * | 2019-09-06 | 2020-01-03 | 重庆邮电大学 | 基于改进的line-mod模板匹配的刚性物体识别方法及装置 |
CN111080627A (zh) * | 2019-12-20 | 2020-04-28 | 南京航空航天大学 | 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法 |
CN111179342A (zh) * | 2019-12-11 | 2020-05-19 | 上海非夕机器人科技有限公司 | 物体位姿的估计方法、装置、存储介质和机器人 |
CN111241233A (zh) * | 2019-12-24 | 2020-06-05 | 浙江大学 | 基于关键动词特征全密度传递的服务机器人指令解析方法 |
CN111736564A (zh) * | 2020-08-20 | 2020-10-02 | 杭州百子尖科技股份有限公司 | 基于Halcon的化工OTS仿真DCS流程图制作方法 |
CN112017294A (zh) * | 2020-08-21 | 2020-12-01 | 武汉天喻软件股份有限公司 | 基于可见性判断的三维cad网格模型简化方法和系统 |
CN112802098A (zh) * | 2021-01-16 | 2021-05-14 | 北京化工大学 | 一种基于tm-src的三维无纹理目标位姿估计方法 |
CN113160105A (zh) * | 2020-01-23 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 相机视点确定、相机视点推荐、数据处理方法及设备 |
CN113836722A (zh) * | 2021-09-24 | 2021-12-24 | 北京航空航天大学 | 基于可穿戴设备、场景与数模配准的装配状态感知方法 |
WO2022099597A1 (zh) * | 2020-11-13 | 2022-05-19 | 浙江大学 | 一种基于虚拟轮廓特征点的机械零件6d位姿测量方法 |
CN114612700A (zh) * | 2022-03-14 | 2022-06-10 | 北京理工大学 | 对象的稀疏图像模板的建立方法、装置及计算机设备 |
CN115033998A (zh) * | 2022-07-13 | 2022-09-09 | 北京航空航天大学 | 一种面向机械零部件的个性化2d数据集构建方法 |
CN115393620A (zh) * | 2022-09-21 | 2022-11-25 | 齐鲁工业大学 | 一种光笔式三坐标测量系统零件姿态识别方法及光笔结构 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2048599A1 (en) * | 2007-10-11 | 2009-04-15 | MVTec Software GmbH | System and method for 3D object recognition |
CN102801994A (zh) * | 2012-06-19 | 2012-11-28 | 西北工业大学 | 一种信息物理图像融合装置与方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物体位姿测量方法 |
CN105956542A (zh) * | 2016-04-28 | 2016-09-21 | 武汉大学 | 一种结构线束统计匹配的高分遥感影像道路提取方法 |
CN107240129A (zh) * | 2017-05-10 | 2017-10-10 | 同济大学 | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 |
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
CN107300100A (zh) * | 2017-05-22 | 2017-10-27 | 浙江大学 | 一种在线cad模型驱动的级联式机械臂视觉引导逼近方法 |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
CN108986166A (zh) * | 2018-07-20 | 2018-12-11 | 山东大学 | 一种基于半监督学习的单目视觉里程预测方法及里程计 |
-
2019
- 2019-01-23 CN CN201910064180.2A patent/CN109887030A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2048599A1 (en) * | 2007-10-11 | 2009-04-15 | MVTec Software GmbH | System and method for 3D object recognition |
CN102801994A (zh) * | 2012-06-19 | 2012-11-28 | 西北工业大学 | 一种信息物理图像融合装置与方法 |
CN104596502A (zh) * | 2015-01-23 | 2015-05-06 | 浙江大学 | 一种基于cad模型与单目视觉的物体位姿测量方法 |
CN105956542A (zh) * | 2016-04-28 | 2016-09-21 | 武汉大学 | 一种结构线束统计匹配的高分遥感影像道路提取方法 |
CN107240129A (zh) * | 2017-05-10 | 2017-10-10 | 同济大学 | 基于rgb‑d相机数据的物体及室内小场景恢复与建模方法 |
CN107300100A (zh) * | 2017-05-22 | 2017-10-27 | 浙江大学 | 一种在线cad模型驱动的级联式机械臂视觉引导逼近方法 |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
CN107292965A (zh) * | 2017-08-03 | 2017-10-24 | 北京航空航天大学青岛研究院 | 一种基于深度图像数据流的虚实遮挡处理方法 |
CN108986166A (zh) * | 2018-07-20 | 2018-12-11 | 山东大学 | 一种基于半监督学习的单目视觉里程预测方法及里程计 |
Non-Patent Citations (3)
Title |
---|
GIOI R G V等: "LSD: A Line Segment Detector", 《IMAGE PROCESSING ON LINE》 * |
TOMBARI F等: "BOLD Features to Detect Texture-less Objects", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
宋薇等: "基于CAD模型的单目六自由度位姿测量", 《光学精密工程》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647925A (zh) * | 2019-09-06 | 2020-01-03 | 重庆邮电大学 | 基于改进的line-mod模板匹配的刚性物体识别方法及装置 |
CN111179342A (zh) * | 2019-12-11 | 2020-05-19 | 上海非夕机器人科技有限公司 | 物体位姿的估计方法、装置、存储介质和机器人 |
CN111179342B (zh) * | 2019-12-11 | 2023-11-17 | 上海非夕机器人科技有限公司 | 物体位姿的估计方法、装置、存储介质和机器人 |
CN111080627A (zh) * | 2019-12-20 | 2020-04-28 | 南京航空航天大学 | 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法 |
CN111241233A (zh) * | 2019-12-24 | 2020-06-05 | 浙江大学 | 基于关键动词特征全密度传递的服务机器人指令解析方法 |
CN111241233B (zh) * | 2019-12-24 | 2022-04-29 | 浙江大学 | 基于关键动词特征全密度传递的服务机器人指令解析方法 |
CN113160105B (zh) * | 2020-01-23 | 2024-05-28 | 阿里巴巴集团控股有限公司 | 相机视点确定、相机视点推荐、数据处理方法及设备 |
CN113160105A (zh) * | 2020-01-23 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 相机视点确定、相机视点推荐、数据处理方法及设备 |
CN111736564A (zh) * | 2020-08-20 | 2020-10-02 | 杭州百子尖科技股份有限公司 | 基于Halcon的化工OTS仿真DCS流程图制作方法 |
CN112017294B (zh) * | 2020-08-21 | 2023-10-27 | 武汉天喻软件股份有限公司 | 基于可见性判断的三维cad网格模型简化方法和系统 |
CN112017294A (zh) * | 2020-08-21 | 2020-12-01 | 武汉天喻软件股份有限公司 | 基于可见性判断的三维cad网格模型简化方法和系统 |
WO2022099597A1 (zh) * | 2020-11-13 | 2022-05-19 | 浙江大学 | 一种基于虚拟轮廓特征点的机械零件6d位姿测量方法 |
CN112802098A (zh) * | 2021-01-16 | 2021-05-14 | 北京化工大学 | 一种基于tm-src的三维无纹理目标位姿估计方法 |
CN113836722A (zh) * | 2021-09-24 | 2021-12-24 | 北京航空航天大学 | 基于可穿戴设备、场景与数模配准的装配状态感知方法 |
CN113836722B (zh) * | 2021-09-24 | 2022-04-08 | 北京航空航天大学 | 基于可穿戴设备、场景与数模配准的装配状态感知方法 |
CN114612700A (zh) * | 2022-03-14 | 2022-06-10 | 北京理工大学 | 对象的稀疏图像模板的建立方法、装置及计算机设备 |
CN115033998A (zh) * | 2022-07-13 | 2022-09-09 | 北京航空航天大学 | 一种面向机械零部件的个性化2d数据集构建方法 |
CN115393620A (zh) * | 2022-09-21 | 2022-11-25 | 齐鲁工业大学 | 一种光笔式三坐标测量系统零件姿态识别方法及光笔结构 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109887030A (zh) | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 | |
CN107945267B (zh) | 一种用于人脸三维模型纹理融合的方法和设备 | |
WO2019157924A1 (zh) | 三维物体的实时检测方法及系统 | |
Furukawa et al. | Accurate camera calibration from multi-view stereo and bundle adjustment | |
CN110223387A (zh) | 一种基于深度学习的三维模型重建技术 | |
CN109272537A (zh) | 一种基于结构光的全景点云配准方法 | |
CN109658444B (zh) | 一种基于多模态特征的规则三维彩色点云配准方法 | |
CN110349247A (zh) | 一种基于语义理解的室内场景cad三维重建方法 | |
CN108986221A (zh) | 一种基于模板人脸逼近的不规范三维人脸网格纹理方法 | |
Özbay et al. | A voxelize structured refinement method for registration of point clouds from Kinect sensors | |
CN111145341A (zh) | 一种基于单光源的虚实融合光照一致性绘制方法 | |
CN110120101A (zh) | 基于三维视觉的圆柱体增强现实方法、系统、装置 | |
CN108734772A (zh) | 基于Kinect fusion的高精度深度图像获取方法 | |
CN113160335A (zh) | 一种基于双目视觉的模型点云及三维表面重建方法 | |
CN109461197B (zh) | 一种基于球面uv和重投影的云实时绘制优化方法 | |
Pacheco et al. | Reconstruction of high resolution 3D objects from incomplete images and 3D information | |
Yin et al. | [Retracted] Virtual Reconstruction Method of Regional 3D Image Based on Visual Transmission Effect | |
CN112116653B (zh) | 一种多张rgb图片的物体姿态估计方法 | |
CN118247429A (zh) | 一种空地协同快速三维建模方法及系统 | |
CN116681839B (zh) | 一种基于改进NeRF的实景三维目标重建与单体化方法 | |
CN106408654B (zh) | 一种三维地图的创建方法及系统 | |
CN114049423B (zh) | 一种自动的真实感三维模型纹理映射方法 | |
CN106157321A (zh) | 基于平面表面高动态范围图像的真实点光源位置测算方法 | |
Deepu et al. | 3D Reconstruction from Single 2D Image | |
CN114067046B (zh) | 一种单张图片重建手部三维模型并显示的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190614 |
|
WD01 | Invention patent application deemed withdrawn after publication |