CN115631326A - 一种智能机器人的知识驱动3d视觉检测方法 - Google Patents
一种智能机器人的知识驱动3d视觉检测方法 Download PDFInfo
- Publication number
- CN115631326A CN115631326A CN202210981606.2A CN202210981606A CN115631326A CN 115631326 A CN115631326 A CN 115631326A CN 202210981606 A CN202210981606 A CN 202210981606A CN 115631326 A CN115631326 A CN 115631326A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- model
- driven
- data set
- nut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 14
- 230000000007 visual effect Effects 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000010606 normalization Methods 0.000 claims abstract description 17
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 238000013526 transfer learning Methods 0.000 claims abstract description 6
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 36
- 238000012360 testing method Methods 0.000 claims description 16
- 238000011109 contamination Methods 0.000 claims description 7
- 238000013508 migration Methods 0.000 claims description 5
- 230000005012 migration Effects 0.000 claims description 5
- 238000009827 uniform distribution Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 2
- 238000005293 physical law Methods 0.000 claims description 2
- 230000006641 stabilisation Effects 0.000 claims description 2
- 238000011105 stabilization Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000011179 visual inspection Methods 0.000 claims 5
- 238000005498 polishing Methods 0.000 abstract description 9
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 239000013589 supplement Substances 0.000 abstract 1
- 238000004519 manufacturing process Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000008447 perception Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 238000000227 grinding Methods 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000014451 palmoplantar keratoderma and congenital alopecia 2 Diseases 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Molecular Biology (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种智能机器人的知识驱动3D视觉检测方法,包括步骤:(1)基于初始螺母CAD种子模型,在模拟器中生成训练数据集;(2)生成数据污损增强数据集;(3)3D点云数据,在模拟器里自动标注真实正确标签,获得生成数据集以及实例标签;(4)将获得的数据集及实例标签分别作为输入和输出训练3D空洞卷积神经网;(5)预测输出得到在知识驱动3D满贴面归一化目标物体单位正方体空间的表示;(6)通过和线下比较提前学到的归一化空间表示实现密集关联映射,完成物体缺失部分的补全。本发明实现了模型匹配迁移学习,在智能机器人工业打磨应用场景中,补全实际物体相机采集的点云的缺失问题。
Description
技术领域
本发明涉及一种用于工业智能机器人操控位置与姿态感知的知识驱动3D视觉检测方法,涉及智能制造与机器视觉领域。
背景技术
在智能制造数字工厂环境中,有大量智能机器人参与生产操作的应用需求,随着生产环节与生产场景过程复杂度越来越高,以及对生产工艺智能化要求的逐步提高,现有基于传统工业机器人的解决方案往往不能适应多变的和多样化的生产操控需求,迫切需要机器人能够更智能、更灵巧、应用更灵活。尤其在小批量多场景条件下,结合3D深度相机对环境实时检测感知做出决策规划,智能适应环境变化柔性协作完成生产任务是目前亟待解决的问题。
机器人操作通常需要确定与下游任务协同的恰当抓取,一个重要的应用领域是工业打磨,机器人在抓取物体后需要执行约束条件,即确保合适的抓取不能影响下游任务,既不能抓到打磨件需要被打磨的部位,也要确保抓握姿势不遮挡打磨件的待打磨部位与打磨带的充分接触;同时还需要在物体抓取和运输过程中保持稳定。所以最初的正确抓取是后续自动智能打磨的关键,而在抓取前对目标打磨件的3D视觉检测、感知与建模,形成完备的综合抓取策略就尤为重要。
现有无模型方法通过直接对原始点云观察结果进行操作,训练一个抓取评估网络,对抓取方案排名。也有基于抓取姿势预测网络,在给定条件下输出抓取得分。然而仅能计算稳定未考虑后续下游工业打磨任务。结合任务约束的方法有的框架预测观察点云分割,缺陷在于假设人工标注数据可用于监督学习导致生成成本太高,也有通过仿真试验实现自我交互来学习,但通常涉及单一物品场景,并且仍然需要大量人工标注,所以无法广泛应用,且泛化性能也不太理想。
发明内容
本发明所要解决的技术问题是:为了更好的实现了模型匹配迁移学习,在智能机器人工业打磨应用场景中,采用知识驱动3D满贴面归一化目标物体单位正方体空间表示方法,补全实际物体相机采集的点云的缺失问题。
本发明为解决上述技术问题采用以下技术方案:
本发明提出一种智能机器人的知识驱动3D视觉检测方法,包括以下步骤:
步骤1、基于初始螺母CAD种子模型,在模拟器中生成训练数据集;
步骤3、对数据污损增强数据集回到模拟器环境采用相机视角拍照,采集RGB图像的深度图,将深度图进一步转化为3D点云数据在模拟器里自动标注真实正确标签,包括实例分割的标签以及知识驱动3D满贴面归一化目标物体单位正方体空间表示实例标签
经过上述步骤,完成智能机器人在抓取目标打磨件前的3D视觉检测、感知与建模,进一步形成综合抓取策略。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、相比于现有的方法,本发明更好的实现了模型匹配迁移学习,在智能机器人工业打磨应用场景中,采用知识驱动3D满贴面归一化目标物体单位正方体空间表示方法,补全实际物体相机采集的点云的缺失问题。
2、本发明所提出的框架仅在模拟中进行训练,并且无需任何再训练就可以泛化到真实世界,利用域随机化双向对齐和领域不变性,在类别级规范空间中建模,在工业打磨真实场景的复杂噪声环境中生成的新数据集,相比现有其他方法更具鲁棒性,算法模型泛化性能更优。
具体实施方式
下面对本发明的技术方案做进一步的详细说明:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本发明提出一种智能机器人的知识驱动3D视觉检测方法,包括以下步骤:
步骤1、基于初始螺母CAD种子模型,在模拟器中生成训练数据集,模拟器根据设定参数仿真生成螺母3D模型,通过多次运行试验得到符合需求的训练数据集D。
步骤2、对得到的数据集进行数据污损,包括对成堆螺母3D模型进行随机深度偏移,人为引入了一些噪声因子,使得模拟器生成数据集的深度图以及点云逼近现实世界,因为通过模拟器得到的模型是完美的,而数据需要在真实世界中测试,本步骤用以解决仿真到现实的鸿沟问题,得到数据污损增强数据集
步骤3、生成堆之后的数据污损增强数据集回到模拟器环境采用相机视角拍照,采集RGB图像,深度图,深度图进一步转化为3D点云数据在模拟器里自动标注(模拟器在生成过程中就已经同步标签数据了)真实正确标签,包括实例分割的标签以及“知识驱动3D满贴面归一化目标物体单位正方体空间表示”实例标签
步骤5、推理阶段,真实世界相机采集到的实际物体点云(设为表示点数,6表示3个位置X,Y,Z坐标和3个法向量分量)输入到知识驱动归一化网络预测输出得到在知识驱动3D满贴面归一化目标物体单位正方体空间的表示,用来代表,输出与输入是逐点一一对应的也是结构。
步骤6、由于相机采集到的点云只是相机这个视角可见部分,所以步骤5得到的也只是物体部分点云描述,所以本发明基于线下知识驱动数据集的归一化目标物体单位正方体空间表示,通过和线下比较提前学到的归一化空间表示实现密集关联映射,完成物体缺失部分的补全,从而完成先验知识的迁移操作。
在步骤1中生成训练数据集的具体方法如下:
(1)设置初始螺母3D模型,设计具有基本结构的螺母CAD模型作为种子,用于后续步骤生成这样堆的时候,从中随机采样一些不同的模型。
(2)在模拟器中的空中随机生成n个螺母,每个螺母分别处在不同高度和不同的初始位姿朝向,其中n的取值范围是[10,20]的自然数,即n∈N,取值规则遵循均匀分布,共计取值50个,即在构造数据集的完整试验中n是一个50维向量,其向量元素是取值10到20的自然数,表示为n={n1,n2,…,n50},ni∈N,i=1,2,…,50。
(3)释放这些螺母,做自由落体运动下落到其正下方承接框容器里面。在运行自由落体的过程中,本发明设计微分方程模型来满足螺母的运动符合真实世界物理定律,即实际合理性,以满足逼近自然形成的物体堆放形态的多样性。
(4)为了满足自然形态堆放约束条件,本发明采用仿真到现实的领域随机化方法,包括调整相机姿态,物体初始化姿态随机泛化,物体表面物理摩擦力范围参数适配,螺母刚体弹性系数微调等等。
(5)随机初始化空中螺母的高度设定为距离落地点20厘米到50厘米的高度范围,螺母高度值服从均匀分布;每个螺母的位姿朝向由3个参数,为相对于世界坐标系的三个坐标轴X,Y,Z的旋转角度α,β,γ决定,其中取值范围α∈[0,360),β∈[0,180),γ∈[0,360),角度α,β,γ取值服从均匀分布。
(6)在上述约束条件以及参数设定基础上,依次选取n={n1,n2,…,n50}中的取值,每个取值运行一次释放这些数量螺母的试验以构建物体堆放数据集,其中ni,i=1,2,…,25个螺母的释放是依次逐个单独释放,前一个螺母落到下方承接框容器里面稳定后,再释放下一个螺母。
(7)依次重复运行步骤(5)-(6),共计运行试验25次,得到螺母数分别为n1,n2,…,n25的试验结果数据集,分别编号为D1,D2,…,D25。
(8)依次选取n={n26,n27,…,n50}中的取值,每个取值ni数量螺母运行一次释放(此处的操作是同时全部释放,其中ni,i=26,27,…,50)的试验,以构建物体堆放数据集,
(9)依次重复运行步骤(5)-(8),共计运行试验25次,得到螺母数分别为n26,n27,…,n50的试验结果数据集,分别编号为D26,D27,…,D50。
(10)组合数据集D1,D2,…,D25和D26,D27,…,D50,然后得到训练数据集D={D1,D2,…,D50}即为所求数据集。
步骤3中的“知识驱动3D满贴面归一化目标物体单位正方体空间表示”的具体构造方法如下:
知识驱动是指在构建连接器物理实体目标物体的3D深度模型基础上,通过领域泛化结合3D特征检测算法抽取多种形态连接器目标模型知识(包括常规朝向、部件结构关系等等),构建的常识知识库,用于实现小样本标注到大量无监督数据的迁移学习,实现类级别的3D物体建模、检测与位姿估计方法有效泛化。
(2)所述单位立方体空间,是指构建边长都是单位1的正立方体,所有 中的每个物体模型都初阶归一化到该单位正方体中,初阶归一化是指每个物体模型分别等比例缩放到单位长度,由于物体在长宽高(X,Y,Z轴三个方向)上的尺寸往往并不相对,所以选择最大尺寸的轴向缩放到单位长度1,那么物体模型的最长尺寸轴就贴合到了单位正方体的两个相对面,而物体模型其他四个面都在正方体里面。
(3)对初步归一化模型进一步在X,Y,Z轴三个方向上做不等比例缩放,实现物体模型相对较小尺寸的四个面也完全贴合单位立方体的对应四个面,我们称之为实现满贴面归一化(满贴面是指立方体六个面都与物体模型相切贴合)。
(4)在上一步的六面完全贴合单位立方体基础上,本发明进一步做模型质心中心化变换,模型质心定义为物体材质均匀分布的几何中心,做X→Y→Z三个方向的均匀偏移,假设质心处于单位正方体中心偏上方位置,即处于Z轴正上方δz,那么质心在X,Y轴向保持不变,在Z轴f负方向下移|δz|,模型所有点相应按比例偏移。优点是即使这个训练集里面物体各个轴向的相对尺寸不一样,经过满贴面归一化之后匹配在一个相似的空间里面。
经过上述步骤,完成智能机器人在抓取目标打磨件前的3D视觉检测、感知与建模,进一步形成综合抓取策略。
本发明采用以上技术实施方案,与现有技术相比的实质性的创新优点在于:
(1)本发明的训练数据集是从模拟器中生成的,因为本发明要解决的是工业界抓取的问题,为了避免再重新收集一个数据集,本发明选择在模拟器里面直接生成数据集,在模拟器里面训练的好处就是全程都是免费的,并且生成速度比较快,数据集想要多大规模就可以生成多大,与真实世界相比本发明不需要采购各种各样的螺母实体。
(2)整合训练集中不同类别的不同物体实例的先验信息,本发明引入知识驱动3D满切边归一化目标物体单位正方体空间表示方法,达到类级别实例的共有空间的表示,充分利用迁移学习知识,显著减少标注工作量,降低生产成本,显著提升产能和效益。
(3)采用知识驱动3D满切边归一化目标物体单位正方体空间表示,该方法的优越性在于即使待检测物体是不同形状的,它也可以在一个共有的单位正方体空间里,可以做类级别的6D物体姿态估计,相比于之前的单位立方体归一化方法,本发明的优点在于目标物可以贴合到立方体的六个面,因为之前的归一化方法是简单地按比例对原始目标物体模型进行缩放,而物体可以有高瘦或矮胖,大尺寸物理方向贴合对称边,而小尺寸物理方向缩进在单位立方体里面,比如高瘦物体的头顶和脚部分别贴合到单位立方体的顶面和底面,而侧面并没有接触到立方体侧面的四个面,给后续迁移学习带来困难,对给定一个新的物体,不曾在训练集里面出现过,也可以估计它的6D物体姿态。进一步可以利用类级别的表示方法来整合各个不同实例的先验信息,实现泛化迁移学习。
(4)因为本发明有真实正确标签的CAD模型,模拟器在生成过程中就已经同步标签数据了,所以可以精确计算出每个模型在知识驱动3D满贴面归一化目标物体单位正方体空间中的表示,优点是知识驱动归一化表示还可以给我们带来9D的迁移,因为本发明有了在知识驱动归一化空间预测出的一个点云之后,可以转变为一个点云匹配的问题,点云A在相机坐标系下,点云B在物体局部坐标系下,我们可以求解一个9D位姿,点云B的9D包括原来的6D位姿(6D包括3D平移和3D旋转),还有3D是沿各个轴的尺度变化。9D求解方法用RANSAC,现在我们可以求解出一个6D物体姿态,以及它跟模板类的逐点的密集关联,实现超低时延实时推断,生产部署中性能显著优于目前其他同类方法。
在本发明构造的工业打磨数据集上进行性能对比分析,10个不同真实场景,采用2K的RGB-D数据,其中训练集规模2000个,验证集规模500个,测试集规模1500个用于工业打磨场景评估。将本发明的方法与现有其他方法进行比较:NOCS、CASS、FS-Net、DualPoseNet,其中NOCS引入了目标物体坐标空间表示,以在类级内部实现对象之间的一致表示;CASS才用变分自编码器捕获位姿无关性特征表示直接预测6D位姿。FS-Net提出了一种解耦旋转机制并使用双解码器来解码类别级位姿信息。DualPoseNet利用两个并行解码器显式地进行位姿估计。
结果如表中所示。本发明的方法在(5°,5cm)、(10°,5cm)和(15°,5cm)上分别实现了35.2、63.9和71.2的mAP。它比其他最好方法高出3.8、1.4和1.5,在工业打磨场景下本发明的算法性能具有显著的优越性。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种智能机器人的知识驱动3D视觉检测方法,其特征在于,包括以下步骤:
步骤1、基于初始螺母CAD种子模型,在模拟器中生成训练数据集;
步骤3、对数据污损增强数据集回到模拟器环境采用相机视角拍照,采集RGB图像的深度图,将深度图进一步转化为3D点云数据在模拟器里自动标注真实正确标签,包括实例分割的标签以及知识驱动3D满贴面归一化目标物体单位正方体空间表示实例标签
2.根据权利要求1所述的一种智能机器人的知识驱动3D视觉检测方法,其特征在于,步骤1中,模拟器根据设定参数仿真生成螺母3D模型,通过多次运行试验得到符合需求的训练数据集D。
3.根据权利要求1所述的一种智能机器人的知识驱动3D视觉检测方法,其特征在于,在步骤1中生成训练数据集的具体方法如下:
步骤101、设置初始螺母3D模型,设计具有基本结构的螺母CAD模型作为种子;
步骤102、在模拟器中的空中随机生成n个螺母,每个螺母分别处在不同高度和不同的初始位姿朝向,其中n的取值范围是[10,20]的自然数,即n∈N,取值规则遵循均匀分布,共计取值50个,即在构造数据集的完整试验中n是一个50维向量,其向量元素是取值10到20的自然数,表示为n={n1,n2,…,n50},ni∈N,i=1,2,…,50;
步骤103、释放随机生成n个螺母,做自由落体运动下落到其正下方承接框容器里面,通过设计微分方程模型来满足螺母的运动符合真实世界物理定律;
步骤104、采用仿真到现实的领域随机化方法,包括调整相机姿态,物体初始化姿态随机泛化,物体表面物理摩擦力范围参数适配,螺母刚体弹性系数微调;
步骤105、随机初始化空中螺母的高度设定为距离落地点20厘米到50厘米的高度范围,螺母高度值服从均匀分布;每个螺母的位姿朝向由3个参数,为相对于世界坐标系的三个坐标轴X,Y,Z的旋转角度α,β,γ决定,其中取值范围α∈[0,360),β∈[0,180),γ∈[0,360),角度α,β,γ取值服从均匀分布;
步骤106、在上述约束条件以及参数设定基础上,依次选取n={n1,n2,…,n50}中的取值,每个取值运行一次释放这些数量螺母的试验以构建物体堆放数据集,其中ni,i=1,2,…,25个螺母的释放是依次逐个单独释放,前一个螺母落到下方承接框容器里面稳定后,再释放下一个螺母;
步骤107、依次重复运行步骤105、106,共计运行试验25次,得到螺母数分别为n1,n2,…,n25的试验结果数据集,分别编号为D1,D2,…,D25;
步骤108、依次选取n={n26,n27,…,n50}中的取值,每个取值ni数量螺母运行一次释放的试验,其中ni,i=26,27,…,50,以构建物体堆放数据集;
步骤109、依次重复运行步骤105至步骤108,共计运行试验25次,得到螺母数分别为n26,n27,…,n50的试验结果数据集,分别编号为D26,D27,…,D50;
步骤110、组合数据集D1,D2,…,D25和D26,D27,…,D50,然后得到训练数据集D={D1,D2,…,D50}即为所求数据集。
4.根据权利要求1所述的一种智能机器人的知识驱动3D视觉检测方法,其特征在于,在步骤3中的知识驱动3D满贴面归一化目标物体单位正方体空间表示,所述知识驱动是指在构建连接器物理实体目标物体的3D深度模型基础上,通过领域泛化结合3D特征检测算法抽取多种形态连接器目标模型知识,包括常规朝向、部件结构关系,所构建的常识知识库,用于实现小样本标注到大量无监督数据的迁移学习,实现类级别的3D物体建模、检测与位姿估计方法有效泛化。
5.根据权利要求4所述的一种智能机器人的知识驱动3D视觉检测方法,其特征在于,所述常识知识库的具体构造方法如下:
步骤302、构建单位正方体空间:构建边长都是单位1的正立方体所有 中的每个物体模型都初阶归一化到该单位正方体中,(cloud-i)∈1,2,…,k,所述初阶归一化是指每个物体模型分别等比例缩放到单位长度,选择物体最大尺寸的轴向缩放到单位长度1,使得物体模型的最长尺寸轴贴合到单位正方体的两个相对面,而物体模型其他四个面都在正方体里面;
步骤303、对初步归一化模型进一步在X,Y,Z轴三个方向上做不等比例缩放,实现物体模型相对较小尺寸的四个面也完全贴合单位立方体的对应四个面,实现满贴面归一化,即立方体六个面都与物体模型相切贴合;
步骤304、做模型质心中心化变换:模型质心定义为物体材质均匀分布的几何中心,做X→Y→Z三个方向的均匀偏移。
6.根据权利要求5所述的一种智能机器人的知识驱动3D视觉检测方法,其特征在于,在步骤304中做X→Y→Z三个方向的均匀偏移,假设质心处于单位正方体中心偏上方位置,即处于Z轴正上方δz,质心在X,Y轴向保持不变,在Z轴f负方向下移|δz|,模型所有点相应按比例偏移,使得物体各个轴向经过满贴面归一化之后匹配在一个相似的空间里面。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210981606.2A CN115631326B (zh) | 2022-08-15 | 2022-08-15 | 一种智能机器人的知识驱动3d视觉检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210981606.2A CN115631326B (zh) | 2022-08-15 | 2022-08-15 | 一种智能机器人的知识驱动3d视觉检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115631326A true CN115631326A (zh) | 2023-01-20 |
CN115631326B CN115631326B (zh) | 2023-10-31 |
Family
ID=84902468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210981606.2A Active CN115631326B (zh) | 2022-08-15 | 2022-08-15 | 一种智能机器人的知识驱动3d视觉检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115631326B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090187278A1 (en) * | 2007-04-17 | 2009-07-23 | Yefim Zhuk | Adaptive Mobile Robot System with Knowledge-Driven Architecture |
WO2010033521A2 (en) * | 2008-09-16 | 2010-03-25 | Quantum Leap Research, Inc. | Methods for enabling a scalable transformation of diverse data into hypotheses, models and dynamic simulations to drive the discovery of new knowledge |
US20100302247A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Target digitization, extraction, and tracking |
CN103020332A (zh) * | 2012-10-22 | 2013-04-03 | 南京航空航天大学 | 一种民用飞机的智能虚拟维修训练系统 |
CN106127749A (zh) * | 2016-06-16 | 2016-11-16 | 华南理工大学 | 基于视觉注意机制的目标零件识别方法 |
CN110765526A (zh) * | 2019-10-18 | 2020-02-07 | 北京申信达成科技有限公司 | 一种基于知识规则驱动的古建筑结构分析模型重建方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN113821648A (zh) * | 2021-11-23 | 2021-12-21 | 中国科学院自动化研究所 | 基于本体知识表示的机器人任务处理方法及系统 |
CN114157539A (zh) * | 2022-02-10 | 2022-03-08 | 南京航空航天大学 | 一种数据知识双驱动的调制智能识别方法 |
-
2022
- 2022-08-15 CN CN202210981606.2A patent/CN115631326B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090187278A1 (en) * | 2007-04-17 | 2009-07-23 | Yefim Zhuk | Adaptive Mobile Robot System with Knowledge-Driven Architecture |
WO2010033521A2 (en) * | 2008-09-16 | 2010-03-25 | Quantum Leap Research, Inc. | Methods for enabling a scalable transformation of diverse data into hypotheses, models and dynamic simulations to drive the discovery of new knowledge |
US20100302247A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Target digitization, extraction, and tracking |
CN103020332A (zh) * | 2012-10-22 | 2013-04-03 | 南京航空航天大学 | 一种民用飞机的智能虚拟维修训练系统 |
CN106127749A (zh) * | 2016-06-16 | 2016-11-16 | 华南理工大学 | 基于视觉注意机制的目标零件识别方法 |
CN110765526A (zh) * | 2019-10-18 | 2020-02-07 | 北京申信达成科技有限公司 | 一种基于知识规则驱动的古建筑结构分析模型重建方法 |
WO2021244079A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科技大学 | 智能家居环境中图像目标检测方法 |
CN113821648A (zh) * | 2021-11-23 | 2021-12-21 | 中国科学院自动化研究所 | 基于本体知识表示的机器人任务处理方法及系统 |
CN114157539A (zh) * | 2022-02-10 | 2022-03-08 | 南京航空航天大学 | 一种数据知识双驱动的调制智能识别方法 |
Non-Patent Citations (3)
Title |
---|
WU, YUANWEI: "Optimization for Training Deep Models and Deep Learning Based Point Cloud Analysis and Image Classification", 《UNIVERSITY OF KANSAS》, pages 1 - 60 * |
ZHENG, SENJING ET AL: "Automatic identification of mechanical parts for robotic disassembly using the PointNet deep neural network", <INTERNATIONAL JOURNAL OF MANUFACTURING RESEARCH>, vol. 17, no. 1, pages 1 - 21 * |
李凤鸣: "面向复杂零部件的机器人柔性装配方法研究", 《中国博士学位论文全文数据库》, no. 11, pages 1 - 139 * |
Also Published As
Publication number | Publication date |
---|---|
CN115631326B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109870983B (zh) | 处理托盘堆垛图像的方法、装置及用于仓储拣货的系统 | |
Kappler et al. | Leveraging big data for grasp planning | |
CN109816725A (zh) | 一种基于深度学习的单目相机物体位姿估计方法及装置 | |
Cao et al. | Suctionnet-1billion: A large-scale benchmark for suction grasping | |
Wang et al. | Video-based hand manipulation capture through composite motion control | |
Hamer et al. | An object-dependent hand pose prior from sparse training data | |
Bi et al. | Zero-shot sim-to-real transfer of tactile control policies for aggressive swing-up manipulation | |
Wang et al. | DemoGrasp: Few-shot learning for robotic grasping with human demonstration | |
CN110553650B (zh) | 一种基于小样本学习的移动机器人重定位方法 | |
Turpin et al. | Fast-Grasp'D: Dexterous Multi-finger Grasp Generation Through Differentiable Simulation | |
Higuera et al. | Learning to read braille: Bridging the tactile reality gap with diffusion models | |
US20220402125A1 (en) | System and method for determining a grasping hand model | |
CN111914595B (zh) | 一种基于彩色图像的人手三维姿态估计方法和装置 | |
CN116958252A (zh) | 一种基于域随机化的智能抓取位姿估计方法 | |
JP2022184829A (ja) | 3d形状最適化のためのディープパラメータ化 | |
US20240296662A1 (en) | Synthetic dataset creation for object detection and classification with deep learning | |
Liang et al. | Learning category-level manipulation tasks from point clouds with dynamic graph CNNs | |
CN114218692A (zh) | 基于深度学习与模型仿真的相似零件识别系统、介质和方法 | |
Biza et al. | One-shot imitation learning via interaction warping | |
CN115631326A (zh) | 一种智能机器人的知识驱动3d视觉检测方法 | |
Hong et al. | Fixing malfunctional objects with learned physical simulation and functional prediction | |
Li et al. | Grasping Detection Based on YOLOv3 Algorithm | |
Zhang et al. | Big-Net: Deep learning for grasping with a bio-inspired soft gripper | |
Adjigble et al. | Spectgrasp: Robotic grasping by spectral correlation | |
Sun et al. | Precise grabbing of overlapping objects system based on end-to-end deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |