CN117593342A - 一种点云配准过程中的模板点云获取方法及其应用 - Google Patents
一种点云配准过程中的模板点云获取方法及其应用 Download PDFInfo
- Publication number
- CN117593342A CN117593342A CN202311550377.XA CN202311550377A CN117593342A CN 117593342 A CN117593342 A CN 117593342A CN 202311550377 A CN202311550377 A CN 202311550377A CN 117593342 A CN117593342 A CN 117593342A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- dimensional
- template
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000008569 process Effects 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 18
- 238000003708 edge detection Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000000513 principal component analysis Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000000717 retained effect Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种点云配准过程中的模板点云获取方法,获取点云,生成一幅各点灰度值均为定值A的二维平面图像W;将点云中的各点反投影到图像W上,将各反投影点处的灰度值从定值A修改为定值B,得到图像W';对图像W'进行边缘提取,获取各个边缘点的坐标,查找各个边缘点的坐标所对应的边缘三维点;获取点云的最小包围盒并等分成N个小立方体,小立方体内如有边缘三维点,则全部保留,删除其他三维点;如无边缘三维点,则将距离小立方体几何中心最近的三维点保留,删除其他三维点;得到模板点云;本方法重点考虑了工件的边缘信息,抽样出的模板点云能够提升点云配准速度和有效性,适用于环境复杂、纹理不丰富情形下的点云配准。
Description
技术领域
本发明涉及点云配准领域,具体涉及一种点云配准过程中的模板点云获取方法及其应用。
背景技术
随着光学测量技术发展,基于点云获取工件的关键信息,被广泛应用于工业测量领域。在点云检测领域,点云配准是常用的技术手段,其过程是:构建旋转平移关系,使得实测点云和模板点云的重合程度尽可能高。其中模板点云的有效性将直接关系到配准结果的合理性,现有的模板制作过程通常为:采集完整工件点云,均匀降采样,将采样后的点云记为模板点云。该方法在待测工件表面特征较为丰富时,获得的模板点云能够满足要求,获得较为理想的配准效果,但是,当工件表面形貌起伏较小,纹理不丰富,曲率变化不明显时,就会导致采集到的点云表面特征少,例如板状平面工件。此时获取的模板点云缺乏细节,特征不明显,在配准时缺乏有效的约束,配准结果准确性降低。特别是在三维无序抓取应用过程中,批量工件杂乱无序的丢放在料箱里,抓取时,需要利用模板点云(单个工件)在实测点云(堆叠工件点云)中进行配准,获得其中一个堆叠的工件与模板点云之间的旋转平移关系,再利用该旋转平移关系引导机器人抓取到工件;为此,点云配准得出的旋转平移关系直接影响到抓取结果的有效性。由于工业环境纷乱复杂,采集到的实际场景点云存在以下复杂性:
一、实际场景点云中不仅包含待处理工件还包括其他干扰物;工件很有可能被遮挡;
二、实际场景点云中包含有多个相同或近似工件,如散乱、堆叠存放的同一型号工件;
三、工件表面特征少、工件纹理不丰富且不同工件的特征相近似,算法难以准确识别、区分。
面对这种复杂背景中的工件,点云配准难度将会大大增加,现有的模板点云难以准确获得配准结果。
发明内容
为了解决上述技术问题,本发明提供一种点云配准过程中的模板点云获取方法,本方法对于工件点云并非采用均匀降采样的处理方式,而是重点考虑了工件的边缘信息,增加了纹理信息的约束,抽样出的模板点云不仅能够提升点云配准速度,更加能够提升点云配准结果的有效性,尤其适用于环境复杂、纹理不丰富、无序抓取等情形下的点云配准。
为此,本发明的技术方案如下:
一种点云配准过程中的模板点云获取方法,包括以下步骤:
①利用视觉传感器获取工件整体/局部区域的点云,并存储;
根据视觉传感器的相机分辨率生成一幅各点灰度值均为定值A的二维平面图像W;
②依据相机成像模型将点云中的各三维点分别反投影到所述二维平面图像W上,得到各个反投影点,记录各个三维点与反投影点之间的坐标对应关系;
在二维平面图像W中,将各反投影点处的灰度值从定值A修改为定值B,其他点的灰度值依旧为定值A,得到二维平面图像W';
③对二维平面图像W'进行边缘提取,获取各个边缘点的坐标,依据步骤②中记录的坐标对应关系,查找各个边缘点的坐标所对应的三维点,并将查找到的三维点分别标记为边缘三维点;
④获取点云的最小包围盒并将其内部空间等分成N个小立方体,在每个小立方体内分别进行以下处理:
如有边缘三维点,则将其全部保留,删除其他三维点;
如无边缘三维点,则将距离小立方体几何中心最近的三维点保留,删除其他三维点;
⑤将被保留的三维点存储为模板点云。
为了使得最小包围盒内的点云分布均匀、各个小立方体内的点云数量均衡,保障采样均匀,提升模板点云的有效性;优选,在步骤④之前先进行以下处理:
对点云进行主成分分析,提取特征值最大的三个特征向量,并以点云的重心坐标为原点、以三个特征向量分别为方向向量构建空间坐标系S;
记点云所在的坐标系为原始坐标系;
将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,获得转换后的点云;利用转换后的点云执行步骤④;
将步骤⑤获取的模板点云从空间坐标系S下转换到所述原始坐标系下,得到最终的模板点云。
进一步,将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,方法如下:
计算所述空间坐标系S与原始坐标系之间的旋转矩阵R和平移矩阵T:
其中,/>分别为所述特征值最大的三个特征向量;
其中,/>为点云的重心坐标;
利用旋转矩阵R和平移矩阵T,将点云中的各三维点均从原始坐标系下转换到空间坐标系S下。
进一步,计算点云的重心坐标的方法为分别求取点云中所有点的X坐标的均值、Y坐标的均值、Z坐标的均值,将三个均值坐标记为重心坐标。
进一步,利用模板点云进行点云配准的方式如下:
利用PPF姿态估计方法计算模板点云中任意两个点对的PPF特征描述子,并将各个点对及其PPF特征描述子存入哈希表;
获取实际场景点云数据,记为实测点云,计算实测点云中任意两个点对的PPF特征描述子;采用PPF特征描述子与霍夫投票结合的方法进行点云配准。
进一步,步骤④中最小包围盒为轴对齐包围盒(AABB)或者有向包围盒(OBB)。
进一步,步骤①中,获取的点云为正面点云、侧面点云、背面点云中的一种。
进一步,步骤②中,将点云中的第i个三维点(xi,yi,zi)依据相机成像模型分别反投影到所述二维平面图像W上,得到第i个反投影点(ui、vi):
其中,fx、fy、u0、v0均为相机内参数,fx、fy为焦距,u0、v0为主点坐标。
进一步,步骤③中,对二维平面图像W进行边缘提取的方法为Roberts边缘检测方法、Sobel边缘检测方法、Canny边缘检测方法或Prewitt边缘检测方法。
与现有技术相比较,本申请提供的方法具有以下优点:
(1)本方法在模板点云采样时,更多的保留了边缘点信息,增加了纹理信息的约束,抽样出的模板点云不仅能够提升点云配准速度,更加能够提升点云配准结果的有效性,尤其适用于环境复杂、纹理不丰富、无序抓取等情形下的点云配准。
(2)模板点云在后续点云配准过程,采用基于PPF特征描述子与霍夫投票的方式,得到模板点云与实测点云之间的旋转平移关系,再基于转换关系将模板点云对应到实测点云中,有效抑制了背景中其他物体的干扰,准确性高。应用于在散乱工件抓取过程中,能大幅提升抓取精度,避免抓错。
(3)采用主成分分析获得主方向,并建立坐标系,将点云转换到该坐标系下,再获取最小包围盒,能够使得最小包围盒内的点云分布均匀、各个小立方体内的点云数量均衡,保障在非边缘区域均匀采样,提升了模板点云的有效性。
(4)采用将点云反投影到二维图像平面的方式,对点云进行降维处理,在二维平面中获取边缘信息,能够降低算法复杂度,提升处理速度。此外,本方案中,二维图像平面是直接依据相机分辨率生成的,不需要额外采集二维图像,进一步加快了处理速度。
附图说明
图1是将最小包围盒内部空间等分成N个小立方体的示意图;
图2是具体实施方式中散乱工件(内含多个工件)的灰度图;
图3是具体实施方式步骤②中二维平面图像W'的示意图;
图4是具体实施方式中点云的最小包围盒示意图。
具体实施方式
以下结合附图和具体实施方式对本发明的技术方案进行详细描述。
一种点云配准过程中的模板点云获取方法,包括以下步骤:
①利用视觉传感器获取工件整体/局部区域的点云,并存储;
此时,视觉传感器的视场范围内仅有一个工件并且背景为单一颜色或者是简单背景。
根据视觉传感器的相机分辨率生成一幅各点灰度值均为定值A的二维平面图像W;
例如:相机分辨率为800×1000,则二维平面图像W在水平方向上含有800个像素点,垂直方向上含有1000个像素点,整幅图像中像素点的数量为800×1000;
②依据相机成像模型将点云中的各三维点分别反投影到所述二维平面图像W上,得到各个反投影点,记录各个三维点与反投影点之间的坐标对应关系;
在二维平面图像W中,将各反投影点处的灰度值从定值A修改为定值B,其他点的灰度值依旧为定值A,得到二维平面图像W'(如图3);
具体实施时,为了便于后续进行边缘提取,优选实施为:定值B与定值A差值大于100;例如:定值A为0,二维平面图像W是一幅全黑图像,定值B为255,将反投影点处的灰度值设置为白色,二维平面图像W'是一幅二值化图像;
③对二维平面图像W'进行边缘提取,获取各个边缘点的坐标,依据步骤②中记录的坐标对应关系,查找各个边缘点的坐标所对应的三维点,并将查找到的三维点分别标记为边缘三维点;
例如:边缘点坐标为(x1,y1),则查找它是点云中的哪个三维点投影过来的,将这个三维点标记为边缘三维点。
具体实施时,边缘点可以只提取工件整体外轮廓上的边缘点,若是工件的内轮廓面型复杂,也可以将内轮廓上的边缘点一并提取,即:边缘点可以同时包括工件的内轮廓边缘点和外轮廓边缘点,也可以只包含外轮廓点或者只包含内轮廓点。
④获取点云的最小包围盒(如图4)并将其内部空间等分成N个小立方体(如图1),在每个小立方体内分别进行以下处理:
如有边缘三维点,则将其全部保留,删除其他三维点;
如无边缘三维点,则将距离小立方体几何中心最近的三维点保留,删除其他三维点;
如果小立方体内没有三维点,则不进行处理,会直接跳过;
其中,最小包围盒为轴对齐包围盒(AABB)或者有向包围盒(OBB)。N的数量根据采样率1/s决定,记最小包围盒的长宽高分别为:L、D、H,则单个小立方体的长宽高分别为:L/s、D/s、H/s;
⑤将被保留的三维点存储为模板点云。
为了使得最小包围盒内的点云分布均匀、各个小立方体内的点云数量均衡,保障采样均匀,提升模板点云的有效性;下面公开一种优选的实施方式:
一种点云配准过程中的模板点云获取方法,包括以下步骤:
①利用视觉传感器获取工件整体/局部区域的点云,并存储;
根据视觉传感器的相机分辨率生成一幅各点灰度值均为定值A的二维平面图像W;
②依据相机成像模型将点云中的各三维点分别反投影到所述二维平面图像W上,得到各个反投影点,记录各个三维点与反投影点之间的坐标对应关系;
在二维平面图像W中,将各反投影点处的灰度值从定值A修改为定值B,其他点的灰度值依旧为定值A,得到二维平面图像W'(如图3);
③对二维平面图像W'进行边缘提取,获取各个边缘点的坐标,依据步骤②中记录的坐标对应关系,查找各个边缘点的坐标所对应的三维点,并将查找到的三维点分别标记为边缘三维点;
对点云进行主成分分析(PCA),提取特征值最大的三个特征向量并以点云的重心坐标为原点、以三个特征向量分别为方向向量构建空间坐标系S;
例如,以作为X轴的方向向量、/>作为Y轴的方向向量、/>作为Z轴的方向向量;
记点云所在的坐标系为原始坐标系;
将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,获得转换后的点云;利用转换后的点云执行步骤④;
④获取点云的最小包围盒(如图4)并将其内部空间等分成N个小立方体(如图1),在每个小立方体内分别进行以下处理:
如有边缘三维点,则将其全部保留,删除其他三维点;
如无边缘三维点,则将距离小立方体几何中心最近的三维点保留,删除其他三维点;
⑤将被保留的三维点存储为模板点云;再将模板点云从空间坐标系S下转换到所述原始坐标系下,得到最终的模板点云。
其中,将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,方法如下:
计算所述空间坐标系S与原始坐标系(点云原本所在的坐标系)之间的旋转矩阵R和平移矩阵T:
其中,/>分别为所述特征值最大的三个特征向量;具体实施时,/>为X轴的方向向量、/>为Y轴的方向向量、/>为Z轴的方向向量;
其中,/>为点云的重心坐标;
利用旋转矩阵R和平移矩阵T,将点云中的各三维点均从原始坐标系下转换到空间坐标系S下。
其中,计算点云的重心坐标的方法为分别求取点云中所有点的X坐标的均值、Y坐标的均值、Z坐标的均值,将三个均值坐标记为重心坐标。
更详细的,步骤①中,获取的点云为正面点云、侧面点云、背面点云中的一种。
根据实际配准需求,可以同时获取多种类型的点云并分别对各类型点云进行步骤①~⑤,得到不同类型的模板点云。后续再分别基于不同类型的模板点云进行点云配准。
例如,在堆叠件抓取(图2)时,很多个工件散乱放置,有的正面朝上、有的背面朝上、有的侧面朝上,此时同时获取正面点云、侧面点云、背面点云这三类点云,对这三类点云分别进行步骤①~⑤,得到不同类型的模板点云。后续再分别基于不同类型的模板点云进行点云配准。提高堆叠件抓取的准确率。
在步骤②中,将点云中的第i个三维点(xi,yi,zi)依据相机成像模型分别反投影到所述二维平面图像W上,得到第i个反投影点(ui、vi):
其中,fx、fy、u0、v0均为相机内参数,fx、fy为焦距,u0、v0为主点坐标。
步骤③中,对二维平面图像W进行边缘提取的方法为Roberts边缘检测方法、Sobel边缘检测方法、Canny边缘检测方法或Prewitt边缘检测方法。
作为模板点云的后续应用,利用模板点云进行点云配准的方式如下:
利用PPF姿态估计方法计算模板点云中任意两个点对的PPF特征描述子,并将各个点对及其PPF特征描述子存入哈希表;
获取实际场景点云数据,记为实测点云,计算实测点云中任意两个点对的PPF特征描述子;采用PPF特征描述子与霍夫投票结合的方法进行点云配准。
其中,点云配准的具体过程采用PPF特征描述子与霍夫投票结合的方法,该方法在其他公开文件中有详细的阐述,在此不再赘述。
前面对本发明具体示例性实施方案所呈现的描述是出于说明和描述的目的。前面的描述并不想要成为毫无遗漏的,也不是想要把本发明限制为所公开的精确形式,显然,根据上述教导很多改变和变化都是可能的。选择示例性实施方案并进行描述是为了解释本发明的特定原理及其实际应用,从而使得本领域的其它技术人员能够实现并利用本发明的各种示例性实施方案及其不同选择形式和修改形式。本发明的范围旨在由所附权利要求书及其等价形式所限定。
Claims (9)
1.一种点云配准过程中的模板点云获取方法,其特征在于,包括以下步骤:
①利用视觉传感器获取工件整体/局部区域的点云,并存储;
根据视觉传感器的相机分辨率生成一幅各点灰度值均为定值A的二维平面图像W;
②依据相机成像模型将点云中的各三维点分别反投影到所述二维平面图像W上,得到各个反投影点,记录各个三维点与反投影点之间的坐标对应关系;
在二维平面图像W中,将各反投影点处的灰度值从定值A修改为定值B,其他点的灰度值依旧为定值A,得到二维平面图像W';
③对二维平面图像W'进行边缘提取,获取各个边缘点的坐标,依据步骤②中记录的坐标对应关系,查找各个边缘点的坐标所对应的三维点,并将查找到的三维点分别标记为边缘三维点;
④获取点云的最小包围盒并将其内部空间等分成N个小立方体,在每个小立方体内分别进行以下处理:
如有边缘三维点,则将其全部保留,删除其他三维点;
如无边缘三维点,则将距离小立方体几何中心最近的三维点保留,删除其他三维点;
⑤将被保留的三维点存储为模板点云。
2.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:在步骤④之前先进行以下处理:
对点云进行主成分分析,提取特征值最大的三个特征向量,并以点云的重心坐标为原点、以三个特征向量分别为方向向量构建空间坐标系S;
记点云所在的坐标系为原始坐标系;
将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,获得转换后的点云;利用转换后的点云执行步骤④;
将步骤⑤获取的模板点云从空间坐标系S下转换到所述原始坐标系下,得到最终的模板点云。
3.如权利要求2所述点云配准过程中的模板点云获取方法,其特征在于:将点云中的各三维点均从原始坐标系下转换到空间坐标系S下,方法如下:
计算所述空间坐标系S与原始坐标系之间的旋转矩阵R和平移矩阵T:
其中,/>分别为所述特征值最大的三个特征向量;
其中,/>为点云的重心坐标;
利用旋转矩阵R和平移矩阵T,将点云中的各三维点均从原始坐标系下转换到空间坐标系S下。
4.如权利要求3所述点云配准过程中的模板点云获取方法,其特征在于:计算点云的重心坐标的方法为分别求取点云中所有点的X坐标的均值、Y坐标的均值、Z坐标的均值,将三个均值坐标记为重心坐标。
5.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:利用模板点云进行点云配准的方式如下:
利用PPF姿态估计方法计算模板点云中任意两个点对的PPF特征描述子,并将各个点对及其PPF特征描述子存入哈希表;
获取实际场景点云数据,记为实测点云,计算实测点云中任意两个点对的PPF特征描述子;采用PPF特征描述子与霍夫投票结合的方法进行点云配准。
6.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:步骤④中最小包围盒为轴对齐包围盒或者有向包围盒。
7.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:步骤①中,获取的点云为正面点云、侧面点云、背面点云中的一种。
8.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:步骤②中,将点云中的第i个三维点(xi,yi,zi)依据相机成像模型分别反投影到所述二维平面图像W上,得到第i个反投影点(ui、vi):
其中,fx、fy、u0、v0均为相机内参数,fx、fy为焦距,u0、v0为主点坐标。
9.如权利要求1所述点云配准过程中的模板点云获取方法,其特征在于:步骤③中,对二维平面图像W进行边缘提取的方法为Roberts边缘检测方法、Sobel边缘检测方法、Canny边缘检测方法或Prewitt边缘检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311550377.XA CN117593342A (zh) | 2023-11-20 | 2023-11-20 | 一种点云配准过程中的模板点云获取方法及其应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311550377.XA CN117593342A (zh) | 2023-11-20 | 2023-11-20 | 一种点云配准过程中的模板点云获取方法及其应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117593342A true CN117593342A (zh) | 2024-02-23 |
Family
ID=89917584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311550377.XA Pending CN117593342A (zh) | 2023-11-20 | 2023-11-20 | 一种点云配准过程中的模板点云获取方法及其应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117593342A (zh) |
-
2023
- 2023-11-20 CN CN202311550377.XA patent/CN117593342A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109801337B (zh) | 一种基于实例分割网络和迭代优化的6d位姿估计方法 | |
CN112070818B (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
CN111507390B (zh) | 一种基于轮廓特征的仓储箱体识别与定位方法 | |
DE112012005350B4 (de) | Verfahren zum Schätzen der Stellung eines Objekts | |
CN110648367A (zh) | 一种基于多层深度与彩色视觉信息的几何体目标定位方法 | |
CN106683137B (zh) | 基于人工标志的单目多目标识别与定位方法 | |
CN107767456A (zh) | 一种基于rgb‑d相机的物体三维重建方法 | |
JP2011198349A (ja) | 情報処理方法及びその装置 | |
CN113393524B (zh) | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 | |
CN114998328A (zh) | 一种基于机器视觉的工件喷涂缺陷检测方法、系统及可读存储介质 | |
CN114463425B (zh) | 一种基于概率Hough直线检测的工件表面无特征点定位方法 | |
CN113313116A (zh) | 一种基于视觉的水下人工目标准确检测与定位方法 | |
CN116188544A (zh) | 一种结合边缘特征的点云配准方法 | |
CN109064536B (zh) | 一种基于双目结构光的书页三维重建方法 | |
CN111179271B (zh) | 一种基于检索匹配的物体角度信息标注方法及电子设备 | |
CN116228783A (zh) | 一种复杂背景下的工件点云分割方法及其应用 | |
WO2023134251A1 (zh) | 一种基于聚类的光条提取方法及装置 | |
CN108180825A (zh) | 一种基于线结构光的长方体形物体三维识别与定位方法 | |
CN117593342A (zh) | 一种点云配准过程中的模板点云获取方法及其应用 | |
CN115841668A (zh) | 一种双目视觉苹果识别以及精准定位的方法 | |
WO2018057082A1 (en) | Curvature-based face detector | |
Sarkar et al. | Feature-augmented Trained Models for 6DOF Object Recognition and Camera Calibration. | |
Zhang et al. | Kinect-based universal range sensor for laboratory experiments | |
CN113223189A (zh) | 机械臂抓取物体三维点云模型孔洞修复及规则体拟合方法 | |
EP4073698A1 (en) | Object detection method, object detection device, terminal device, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |