CN113191207A - 一种基于多视角特征的工件识别方法和装置 - Google Patents
一种基于多视角特征的工件识别方法和装置 Download PDFInfo
- Publication number
- CN113191207A CN113191207A CN202110377328.5A CN202110377328A CN113191207A CN 113191207 A CN113191207 A CN 113191207A CN 202110377328 A CN202110377328 A CN 202110377328A CN 113191207 A CN113191207 A CN 113191207A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- data set
- cloud data
- workpiece
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001914 filtration Methods 0.000 claims abstract description 48
- 230000000007 visual effect Effects 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 238000009877 rendering Methods 0.000 claims abstract description 15
- 238000011176 pooling Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于多视角特征的工件识别方法和装置,属于图像数据处理技术领域,所述方法包括:S1:对携带目标工件的场景图像进行滤波、分割和点云化获得所述目标工件对应的待识别点云数据集;S2:分别将三维模型图像数据集和所述待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;S3:利用所述三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;S4:将所述待识别多视角点云数据集输入到所述目标深度神经网络,得到所述目标工件的类型识别结果。本发明方法能够快速、有效、精准地对目标工件进行自动识别。
Description
技术领域
本发明属于图像数据处理技术领域,更具体地,涉及一种基于多视角特征的工件识别方法和装置。
背景技术
目标工件识别是工件坐标测量中的重要任务,自动识别待测量工件的类型可以提高测量设备的智能化程度,满足测量任务的多样性需求,做到测量任务之间的自动切换。现有的测量系统的任务比较单一,在切换不同测量任务时需要人工操作,自动识别工件类型可以使得同时处理多种类型的任务成为可能。
目前存在的目标工件自动识别方法使用的分类方法或分割方法主要包括:手工特征提取法、体素网格法、点云网络法等。在关于目标工件识别的现有研究中应用了大量的特征和分类方法,这些研究中通常都存在以下二个问题:首先,受视角限制,相机可视范围外的点丢失,模型泛化能力较差,识别率低;其次,使用物体完整点云训练的模型对于完整点云数据有较好的识别率,但是对于深度相机采集的物体不完整点云的识别效果较差。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于多视角特征的工件识别方法和装置,其目的在于使用多视角点云数据训练工件类型识别模型,并使用训练好的类型识别模型识别多视角的深度特征获得工件种类,由此解决现有识别方法识别率低准确性差的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于多视角特征的工件识别方法,包括:
S1:对携带目标工件的场景图像进行滤波、分割和点云化获得所述目标工件对应的待识别点云数据集;
S2:分别将三维模型图像数据集和所述待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
S3:利用所述三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
S4:将所述待识别多视角点云数据集输入到所述目标深度神经网络,得到所述目标工件的类型识别结果。
在其中一个实施例中,所述S1包括:
S11:对所述场景图像进行条件滤波、体素滤波和统计滤波得到滤波图像;
S12:基于随机采样一致性的平面模型分割方法对所述滤波图像进行处理,以将所述目标工件从所述场景图像中分割出来得到目标图像;
S13:采用点云库将所述目标图像转换成所述待识别点云数据集。
在其中一个实施例中,所述S11包括:
利用所述条件滤波过滤工作平台范围外的无关点云数据;
利用所述体素滤波对所述工作平台范围内的点云数据进行下采样,得到稀疏点云数据;
利用所述统计滤波来过滤所述稀疏点云数据中的噪声点,得到所述滤波图像。
在其中一个实施例中,所述S2包括:
S21:分别将所述三维模型图像数据集和所述待识别点云数据集作为待处理CAD模型;
S22:从不同预设视角拍摄所述待处理CAD模型的部分视图,得到所述三维模型多视角点云数据集和所述待识别多视角点云数据集。
在其中一个实施例中,所述S22包括:
当所述预设视角为一个围绕在所述待处理CAD模型外由正三角形组成的二十面体时,从所述二十面体的每个顶点或者每个面拍摄所述待处理CAD模型,得到所述待处理CAD模型对应的多视角点云数据集;
所述待处理CAD模型对应的多视角点云数据集为所述三维模型多视角点云数据集或所述待识别多视角点云数据集。
在其中一个实施例中,所述S3包括:
S31:将所述三维模型图像数据集中各个样本点云输入所述工件类型识别网络;所述工件类型识别网络包括依次级联的多层感知机、Max-Pooling层、View-Pooling层和全连接层;
S32:利用所述多层感知机将每个视角的所述点云样本输入至权重共享的卷积层,以对各个视角的所述点云样本进行特征提取;
S33:利用所述Max-Pooling层聚集高维空间中各个视角的所有点云样本的特征,得到各个视角对应的全局特征向量;
S34:利用所述View-Pooling层将各视角对应的全局特征向量聚合成高维全局特征;
S35:利用所述全连接层中softmax函数对所述高维全局特征进行分类、利用交叉熵损失函数和Adam优化方法进行有监督训练,以输出多个候选类型及其概率;从而将所述工件类型识别网络训练成所述目标深度神经网络。
在其中一个实施例中,所述S34包括:
利用所述View-Pooling层将各视角对应的所述全局特征向量取平均值,以聚合成所述高维全局特征。
按照本发明的另一方面,提供了一种基于多视角特征的工件识别装置,包括:
预处理模块,用于对携带目标工件的场景图像进行滤波、分割和点云化获得所述目标工件对应的待识别点云数据集;
渲染模块,用于分别将三维模型图像数据集和所述待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
训练模块,用于利用所述三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
识别模块,用于将所述待识别多视角点云数据集输入到所述目标深度神经网络,得到所述目标工件的类型识别结果。
按照本发明的另一方面,还提供了一种工件识别设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现所述的方法的步骤。
按照本发明的另一方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的方法的步骤。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明方法对拍摄目标场景的图像进行滤波、分割和点云化获得待识别点云图像数据集,将三维模型图像数据集和待识别点云图像数据集在多个视角下进行渲染获得三维模型多视角点云数据集和多视角待识别点云图像数据集,再使用采用工件类型识别网络对三维模型多视角点云数据集进行训练,最后输入多视角待识别点云图像数据集至训练好的神经网络得到目标识别结果。本发明方法能够快速、有效、精准地实现目标工件的自动识别;
(2)本发明方法采用了采集自三维模型数据集的大规模样本集的多视角点云数据训练工件类型识别网络,由此本发明方法泛化能力强,采用多视角点云特征的特征提取方法,多视角的点云输入可以在一定程度上解决单视角点云输入误识别的问题;
(3)本发明方法采用了工件类型识别网络提取多视角点云图像特征,程序由GPU执行,由此自动识别整体速度很快,有使用价值;另外,本发明方法采用了滤波和平面模型分割方法将目标物体点云从场景中分割出来自动提取,由此能快速准确的自动提取工件物体目标。
附图说明
图1是本发明一实施例中基于多视角特征的工件识别方法的实施流程图;
图2是本发明一实施例中场景图像经过滤波、分割和点云化后得到的花瓶图像;
图3是本发明实施例中图2进行目标提取后获得待识别的花瓶图像;
图4是本发明实施例中三维模型图像数据集的原始模型文件;
图5是本发明实施例中图3进行多视角渲染后获得的点云图像;
图6是本发明一实施例中工件类型识别网络模型的结构示意图;
图7是图3经工件类型识别网络网络中网络末端的softmax函数分类的结果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明提供了一种基于多视角特征的工件识别方法,包括:
S1:对携带目标工件的场景图像进行滤波、分割和点云化获得目标工件对应的待识别点云数据集;
S2:分别将三维模型图像数据集和待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
S3:利用三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
S4:将待识别多视角点云数据集输入到目标深度神经网络,得到目标工件的类型识别结果。
具体的,(1)对目标场景的图像进行滤波、分割和点云化获得原始点云图像数据集;(2)分别将三维模型图像数据集和步骤(1)处理后的点云图像在多个视角下进行渲染获得三维模型多视角点云数据集和待识别多视角点云数据集;(3)采用工件类型识别网络对三维模型多视角点云数据集进行训练;(4)将待识别多视角点云数据集输入到训练好的深度神经网络得到最终结果。
在其中一个实施例中,S1包括:
S11:对场景图像进行条件滤波、体素滤波和统计滤波得到滤波图像;
S12:基于随机采样一致性的平面模型分割方法对滤波图像进行处理,以将目标工件从场景图像中分割出来得到目标图像;
S13:采用点云库将目标图像转换成待识别点云数据集。
在其中一个实施例中,S11包括:
利用条件滤波过滤工作平台范围外的无关点云数据;
利用体素滤波对工作平台范围内的点云数据进行下采样,得到稀疏点云数据;
利用统计滤波来过滤稀疏点云数据中的噪声点,得到滤波图像。
其中,滤波法包括:条件滤波、统计滤波和体素滤波,使用条件滤波来过滤工作平台范围以外的无关点云数据,使用体素滤波对点云进行下采样获得稀疏点云数据,使用统计滤波来过滤噪声点,采用基于随机采样一致性的平面模型分割方法将目标物体点云从场景中分割出来,采用点云库将目标图像转换成点云数据。实施效果如图2和图3所示,图2是本发明一实施例中场景图像经过滤波、分割和点云化后得到的花瓶图像;图3是本发明实施例中图2进行目标提取后获得待识别的花瓶图像。
在其中一个实施例中,S2包括:
S21:分别将三维模型图像数据集和待识别点云数据集作为待处理CAD模型;
S22:从不同预设视角拍摄待处理CAD模型的部分视图,得到三维模型多视角点云数据集和待识别多视角点云数据集。
具体的,三维模型图像数据集为ABC数据集,使用点云库对三维模型进行多个视角的渲染,从而获得多视角的点云数据,该功能是从不同视角得到CAD模型的部分视图,预设的视角是一个围绕在CAD模型外面的由正三角形组成的二十面体,虚拟的相机从二十面体的每个顶点(或者每个面)拍摄CAD模型,然后得到对应视角下的点云。使用时不能指定视角,获取到点云数据后可自行挑选。实施效果如图4和图5所示,图4是本发明实施例中三维模型图像数据集的原始模型文件;图5是本发明实施例中图3进行多视角渲染后获得的点云图像。
在其中一个实施例中,S22包括:
当预设视角为一个围绕在待处理CAD模型外由正三角形组成的二十面体时,从二十面体的每个顶点或者每个面拍摄待处理CAD模型,得到待处理CAD模型对应的多视角点云数据集;
待处理CAD模型对应的多视角点云数据集为三维模型多视角点云数据集或待识别多视角点云数据集。
在其中一个实施例中,S3包括:
S31:将三维模型图像数据集中各个样本点云输入工件类型识别网络;工件类型识别网络包括依次级联的多层感知机、Max-Pooling层、View-Pooling层和全连接层;
S32:利用多层感知机将每个视角的点云样本输入至权重共享的卷积层,以对各个视角的点云样本进行特征提取;
S33:利用Max-Pooling层聚集高维空间中各个视角的所有点云样本的特征,得到各个视角对应的全局特征向量;
S34:利用View-Pooling层将各视角对应的全局特征向量聚合成高维全局特征;
S35:利用全连接层中softmax函数对高维全局特征进行分类、利用交叉熵损失函数和Adam优化方法进行有监督训练,以输出多个候选类型及其概率;从而将工件类型识别网络训练成目标深度神经网络。
其中,工件类型识别网络选择多视角的点云数据作为输入,网络输入为同一模型生成的多个视角的点云数据,初始点云直接通过所有权重共享的多层感知机对每个点提取1024维特征,然后使用Max-Pooling获得1024维的全局特征。对所有视角的点云分别的提取全局特征使用View-Pooling进行聚合,使用取平均值的方法进行特征聚合,最后经过全连接层输出分类的得分。该网络末端使用softmax函数分类,使用交叉熵损失函数和Adam优化方法进行有监督训练,softmax函数输出类别概率。进一步地,S3使用GPU运算对每一个点云数据进行深度特征的提取。图6是本发明一实施例中工件类型识别网络的结构示意图;图7是图3经工件类型识别网络网络中网络末端的softmax函数分类的结果示意图。
具体的,首先输入数据,设置好每个样本点云的数目1024,以及样本类别数10,定义视角数目n。定义Adam学习器,初始学习率设置为0.001,衰减为0.7;然后,多层感知机特征提取,每个视角的点云被输入到权重共享的卷积层,输出大小分别为64、64、64、128和1024,将点的特征变换到了1024维的空间;其次,应用Max-Pooling聚集高维空间中的所有点的特征,输出全局特征向量;再次,将各视角的1024维特征使用View-Pooling聚合成一个1024维的全局特征;最后,特征聚合,从全局特征到输出得分学习一组优化方程。最后的全连接层由三个输出分别为512,256和10的Dense组成。最后一个Dense在输入前使用了一个0.3的Dropout,并且使用SoftMax激活函数,最终输出候选类别的分数,以进行分类。
在其中一个实施例中,S34包括:
利用View-Pooling层将各视角对应的全局特征向量取平均值,以聚合成高维全局特征。
按照本发明的另一方面,提供了一种基于多视角特征的工件识别装置,包括:
预处理模块,用于对携带目标工件的场景图像进行滤波、分割和点云化获得目标工件对应的待识别点云数据集;
渲染模块,用于分别将三维模型图像数据集和待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
训练模块,用于利用三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
识别模块,用于将待识别多视角点云数据集输入到目标深度神经网络,得到目标工件的类型识别结果。
按照本发明的另一方面,还提供了一种工件识别设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现基于多视角特征的工件识别方法的步骤。
按照本发明的另一方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现基于多视角特征的工件识别的步骤。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于多视角特征的工件识别方法,其特征在于,包括:
S1:对携带目标工件的场景图像进行滤波、分割和点云化获得所述目标工件对应的待识别点云数据集;
S2:分别将三维模型图像数据集和所述待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
S3:利用所述三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
S4:将所述待识别多视角点云数据集输入到所述目标深度神经网络,得到所述目标工件的类型识别结果。
2.如权利要求1所述的基于多视角特征的工件识别方法,其特征在于,所述S1包括:
S11:对所述场景图像进行条件滤波、体素滤波和统计滤波得到滤波图像;
S12:基于随机采样一致性的平面模型分割方法对所述滤波图像进行处理,以将所述目标工件从所述场景图像中分割出来得到目标图像;
S13:采用点云库将所述目标图像转换成所述待识别点云数据集。
3.如权利要求2所述的基于多视角特征的工件识别方法,其特征在于,所述S11包括:
利用所述条件滤波过滤工作平台范围外的无关点云数据;
利用所述体素滤波对所述工作平台范围内的点云数据进行下采样,得到稀疏点云数据;
利用所述统计滤波来过滤所述稀疏点云数据中的噪声点,得到所述滤波图像。
4.如权利要求1所述的基于多视角特征的工件识别方法,其特征在于,所述S2包括:
S21:分别将所述三维模型图像数据集和所述待识别点云数据集作为待处理CAD模型;
S22:从不同预设视角拍摄所述待处理CAD模型的部分视图,得到所述三维模型多视角点云数据集和所述待识别多视角点云数据集。
5.如权利要求4所述的基于多视角特征的工件识别方法,其特征在于,所述S22包括:
当所述预设视角为一个围绕在所述待处理CAD模型外由正三角形组成的二十面体时,从所述二十面体的每个顶点或者每个面拍摄所述待处理CAD模型,得到所述待处理CAD模型对应的多视角点云数据集;
所述待处理CAD模型对应的多视角点云数据集为所述三维模型多视角点云数据集或所述待识别多视角点云数据集。
6.如权利要求1所述的基于多视角特征的工件识别方法,其特征在于,所述S3包括:
S31:将所述三维模型图像数据集中各个样本点云输入所述工件类型识别网络;所述工件类型识别网络包括依次级联的多层感知机、Max-Pooling层、View-Pooling层和全连接层;
S32:利用所述多层感知机将每个视角的所述点云样本输入至权重共享的卷积层,以对各个视角的所述点云样本进行特征提取;
S33:利用所述Max-Pooling层聚集高维空间中各个视角的所有点云样本的特征,得到各个视角对应的全局特征向量;
S34:利用所述View-Pooling层将各视角对应的全局特征向量聚合成高维全局特征;
S35:利用所述全连接层中softmax函数对所述高维全局特征进行分类、利用交叉熵损失函数和Adam优化方法进行有监督训练,以输出多个候选类型及其概率;从而将所述工件类型识别网络训练成所述目标深度神经网络。
7.如权利要求6所述的基于多视角特征的工件识别方法,其特征在于,所述S34包括:
利用所述View-Pooling层将各视角对应的所述全局特征向量取平均值,以聚合成所述高维全局特征。
8.一种基于多视角特征的工件识别装置,其特征在于,包括:
预处理模块,用于对携带目标工件的场景图像进行滤波、分割和点云化获得所述目标工件对应的待识别点云数据集;
渲染模块,用于分别将三维模型图像数据集和所述待识别点云数据集在多个视角下进行渲染,得到三维模型多视角点云数据集和待识别多视角点云数据集;
训练模块,用于利用所述三维模型多视角点云数据集对工件类型识别网络进行训练,训练完成后得到目标深度神经网络;
识别模块,用于将所述待识别多视角点云数据集输入到所述目标深度神经网络,得到所述目标工件的类型识别结果。
9.一种工件识别设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110377328.5A CN113191207B (zh) | 2021-04-08 | 2021-04-08 | 一种基于多视角特征的工件识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110377328.5A CN113191207B (zh) | 2021-04-08 | 2021-04-08 | 一种基于多视角特征的工件识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113191207A true CN113191207A (zh) | 2021-07-30 |
CN113191207B CN113191207B (zh) | 2022-12-02 |
Family
ID=76975095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110377328.5A Active CN113191207B (zh) | 2021-04-08 | 2021-04-08 | 一种基于多视角特征的工件识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113191207B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106663334A (zh) * | 2014-06-16 | 2017-05-10 | 索尼公司 | 使用网格雕塑利用深度相机的3d扫描 |
CN109409437A (zh) * | 2018-11-06 | 2019-03-01 | 安徽农业大学 | 一种点云分割方法、装置、计算机可读存储介质及终端 |
CN110097598A (zh) * | 2019-04-11 | 2019-08-06 | 暨南大学 | 一种基于pvfh特征的三维物体位姿估计方法 |
CN111145240A (zh) * | 2019-11-18 | 2020-05-12 | 西宁市动物疫病预防控制中心(挂西宁市畜牧兽医站牌子) | 一种基于3d相机的活体西门塔尔牛体尺在线测量方法 |
-
2021
- 2021-04-08 CN CN202110377328.5A patent/CN113191207B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106663334A (zh) * | 2014-06-16 | 2017-05-10 | 索尼公司 | 使用网格雕塑利用深度相机的3d扫描 |
CN109409437A (zh) * | 2018-11-06 | 2019-03-01 | 安徽农业大学 | 一种点云分割方法、装置、计算机可读存储介质及终端 |
CN110097598A (zh) * | 2019-04-11 | 2019-08-06 | 暨南大学 | 一种基于pvfh特征的三维物体位姿估计方法 |
CN111145240A (zh) * | 2019-11-18 | 2020-05-12 | 西宁市动物疫病预防控制中心(挂西宁市畜牧兽医站牌子) | 一种基于3d相机的活体西门塔尔牛体尺在线测量方法 |
Non-Patent Citations (1)
Title |
---|
WEIGUO ZHOU,ET AL: "MVPointNet: MULTI-VIEW NETWORK FOR 3D OBJECT BASED ON POINT CLOUD", 《IEEE SENSORS JOURNAL》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113191207B (zh) | 2022-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109685141B (zh) | 一种基于深度神经网络的机器人物品分拣视觉检测方法 | |
JP2016161569A (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
CN110222767B (zh) | 基于嵌套神经网络和栅格地图的三维点云分类方法 | |
CN110457515B (zh) | 基于全局特征捕捉聚合的多视角神经网络的三维模型检索方法 | |
CN109919085B (zh) | 基于轻量型卷积神经网络的人人交互行为识别方法 | |
CN110309835B (zh) | 一种图像局部特征提取方法及装置 | |
CN111611889B (zh) | 基于改进卷积神经网络的农田微型虫害识别装置 | |
CN113378770B (zh) | 手势识别方法、装置、设备、存储介质 | |
CN115330940B (zh) | 一种三维重建方法、装置、设备和介质 | |
CN112785526B (zh) | 一种用于图形处理的三维点云修复方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN110490915B (zh) | 一种基于卷积受限玻尔兹曼机的点云配准方法 | |
CN110942110A (zh) | 一种三维模型的特征提取方法和装置 | |
CN110809768B (zh) | 数据清洗系统和方法 | |
CN114998890B (zh) | 一种基于图神经网络的三维点云目标检测算法 | |
CN114972646B (zh) | 一种实景三维模型独立地物的提取与修饰方法及系统 | |
CN114120067A (zh) | 一种物体识别方法、装置、设备及介质 | |
CN115830375A (zh) | 点云分类方法及装置 | |
CN115222896A (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
CN112966698A (zh) | 基于轻量化卷积网络的淡水鱼图像实时识别方法 | |
CN113191207B (zh) | 一种基于多视角特征的工件识别方法和装置 | |
CN114913330B (zh) | 点云部件分割方法、装置、电子设备与存储介质 | |
Kong et al. | Effective 3d face depth estimation from a single 2d face image | |
KR102129060B1 (ko) | 단일 깊이 영상을 이용한 내용기반 3차원 모델 검색 방법, 이를 수행하는 3차원 모델 검색 서버 및 컴퓨터로 판독 가능한 기록매체 | |
CN113657375B (zh) | 一种基于3d点云的瓶装物体文字检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |