CN115147437A - 机器人智能引导加工方法与系统 - Google Patents
机器人智能引导加工方法与系统 Download PDFInfo
- Publication number
- CN115147437A CN115147437A CN202210787270.6A CN202210787270A CN115147437A CN 115147437 A CN115147437 A CN 115147437A CN 202210787270 A CN202210787270 A CN 202210787270A CN 115147437 A CN115147437 A CN 115147437A
- Authority
- CN
- China
- Prior art keywords
- point
- points
- point cloud
- fitting
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明提供一种机器人智能引导加工方法与系统,计算机处理数据信息;3D相机和深度相机获取场景及目标物体的点云信息,机械臂搭载并控制3D相机和深度相机的位置。大视场引导中的深度相机获取场景点云;大视场引导中的C‑S分割;大视场引导中目标物体的识别与点云配准获取初始引导位姿;小视场定位;路径规划中的目标模型预处理及矫正点云位姿;路径规划中的点云切片;路径规划中的路径点及姿态生成。本发明提出一种“大视场快速引导+小视场精确定位+加工路径规划”的机器人智能引导加工技术,实现复杂场景物体智能识别引导、高精度扫描定位与加工路径自适应自动生成,无需人工干预,提高加工效率和精度。
Description
技术领域
本发明属于机器人技术领域,具体涉及一种机器人智能引导加工方法与系统。
背景技术
在对部件表面进行操作时,最重要的是定位目标物体以及合理规划出有效的加工路径。当前对工件表面处理的路径规划方式中,传统机器人示教法并不能满足作业中的自动定位、快速加工和高精度加工的需求;主要存在问题:
(1)无标准化的加工前处理流程;
(2)机器人精确定位通常需要标记靶;
(3)单一视场,大场景和高精度无法同时具备;
(4)加工路径需要复杂的建模过程,且需要人工干预,效率低;
(5)基于逆向工程进行曲面重构的路径规划过于耗时复杂;
(6)普通常规的路径拟合方法并不适应复杂曲率变化。
发明内容
人类通过视觉可以获取众多的外部信息,若将这一特点应用到机器人上,可以使机器人感知外部信息,并反馈给控制器,其应用领域将更加广泛。机器视觉定位技术在其中扮演的重要的角色,机器人通过机器视觉实现对物体的识别,从而进行后续操作。本发明提出将视觉定位与路径规划结合,实现复杂场景物体智能识别、高精度定位和加工路径自动规划。解决了传统机器人示教、人工建模等一系列复杂的过程,提高加工效率和智能水平,为机器人加工提供了标准化流程。
本发明技术方案主要思路是:引导+定位+路径规划,提出一种“大视场快速引导+小视场精确定位+加工路径规划”的机器人智能引导加工技术,实现复杂场景物体智能识别引导、高精度扫描定位与加工路径自适应自动生成,无需人工干预,提高加工效率和精度,为机器人加工提供了标准化系统与流程。
结合深度相机与3D扫描相机的视场特点,提出一种“大视场引导,小视场定位”的思想,即LSFP(Large and Small FOV Positioning);针对平面分割的不完全,在欧式聚类分割的基础上,提出C-S分割算法。并搭建基于LSFP的手眼标定硬件系统,进行目标物体的识别与位姿估计,完成对目标物体的定位。
本发明提出一种自适应点云曲率变化的路径规划算法,对三次样条曲线拟合与多项式曲线拟合两种方法结合改进,通过对点云数据进行系列的处理及切片,拟合路径获取相关路径信息,算法可实现自适应曲率变化,合理规避非加工区域的路径规划并弥补了点云切片中求交法的缺陷。
具体的技术方案为:
机器人智能引导加工系统,包括,机械臂、3D相机、深度相机及计算机;
3D相机、深度相机分别通过数据线与计算机进行连接,机械臂通过Wifi无线网络与计算机进行通信,3D相机、深度相机分别固定于机械臂的法兰位置;
计算机处理数据信息;3D相机和深度相机获取场景及目标物体的点云信息,机械臂搭载并控制3D相机和深度相机的位置。
机器人智能引导加工方法,采用所述的机器人智能引导加工系统,包括以下步骤;
步骤1:大视场引导中的深度相机获取场景点云
由深度相机获取点云后分割得到目标模型点云和扫描相机扫描得到目标点云建立目标物体的模型数据库;
步骤2:大视场引导中的C-S分割
采用平面分割、聚类分割和区域生长分割算法相结合,采用C-S分割算法;
基本流程如下:
1)原始点云数据为输入点云集P,先选用三维kd-tree建立离散点之间的拓扑关系,用于后续邻域关系的快速查找,并新建一空的聚类{Qi}和点队列M;
3)对所有pn∈P的点云,均执行2),当Mi n中不再有新的点加入时,一个聚类完成,判断是否小于设定聚类簇数量的阈值下限ε1和阈值上限ε1,若大于ε1且小于ε2则将其加入Qi中,并在剩余点云中选取新的种子点,继续2)、3),直到遍历完所有点。
4)当Qi=0时,设置一个空的种子点序列N和一个空的聚类数组pn,选择种子点,加入到N中;
5)搜索当前种子点的邻域点pn,计算邻域点的法线与当前种子点的法线之间的夹角αi,小于平滑阈值的邻域点加入到当前区域;即αi≤α,α为夹角阈值。
6)检查每一个邻域点pn的曲率,小于曲率阈值的邻域点加入到N中,并删除当前种子点,以新的种子点继续生长,αsmooth为曲率阈值;
即αsmooth,i≤αsmooth。
7)重复进行4)、5)、6),直到种子点序列被清空。此时,一个区域生长完成,并将其加入到聚类数组pn中;
8)对剩余点重复算法1)-8)的步骤,直到遍历完所有点,复制{Qi}到R。
9)再进行一次场景平面分割和聚类分割,若剩余的点云数量Num2≥Num(根据自己的实验选取数量),则用于后续识别与配准,否则{Qi}=R,再代入识别与配准。
步骤3:大视场引导中进行目标物体的识别与点云配准获取初始引导位姿
设定当前点云模板库中的相似度阈值,取当前点云簇Qi与模板点云库进行匹配识别,小于相似度阈值判定为所需识别的目标物体点云簇。并计算符合要求的点云簇Qi与模板库中最相似点云模板的表面法线与描述子特征,并进行识别与配准。点云配准分为粗配准和精配准两个阶段。粗配准指在点云相对位姿完全未知的情况下对点云进行配准,为精配准提供良好的初始值,本发明使用SAC-IA采样一致性初始配准算法。精配准是在粗配准的基础上,让点云之间的空间位置差异最小化,得到一个更加精准的旋转平移变换矩阵,本发明使用ICP迭代最近点算法。
步骤4:小视场定位
由大视场引导的步骤中获取目标物体位姿信息,在进行机械臂引导。
在硬件搭建中,采用Eye-in-hand的方式,使用深度相机和3D扫描相机得到目标物体所在场景的三维信息,通过点云位姿估计算法,得到当前位置下目标物体的相对相机的位姿信息,并利用矩阵转换得到相对机械臂基底坐标系的位姿。
步骤5:路径规划中的目标模型预处理及矫正点云位姿
对目标模型点云进行处理,去除其中的体外孤点、非连接项及噪点并减少数据量;
在点云切片之前,需首先矫正点云姿态。通过计算点云三维坐标的协方差矩阵C,求解矩阵C的特征值λ1,λ2,λ3及其对应的特征向量x1,x2,x3。其中x1,x2,x3分别为点云的三个主方向,而最小特征值对应的特征向量即为点云的法向量。利用特征向量旋转点云使其主方向与空间坐标系的三个轴对齐。切片时使截平面的方向向量平行点云旋转后的法向量。
步骤6:路径规划中的点云切片
预处理后的点云数据V进行切片操作:
(1)假设点云姿态矫正后的法向量与x轴平行,则根据切片规则可得截平面应平行于x轴,因此令截平面平行于xOy平面;
(2)在y轴上设置n条等间距的平行截平面,对于任一条截平面Si(1≤i≤n),在其左右两侧设置宽度为的平行平面Sil、Sir,利用八叉树结构快速索引查找位于平面Sil、Sir之间的数据点的集合并称集合P所包含的点为切片内点;其中为切片宽度阈值系数,davg为点云的预处理后距离密度即点平均距离;
(3)以平面Si为界将集合P划分为Si左右两侧的子集Pl和Pr和刚好落在Si上的子集Ps;
(4)采用求交法,对Pl和Pr中的任意一点M(xi,yi,zi),以M为中心建立边长为ds的正方体包围盒,在包围盒范围内遍历与点M所处点集相异的另一个点集的所有点,寻找其中与点M的最近邻点M',再求取线段MM'与平面Si的交点;
(5)依次求取Pl和Pr中所有点对应的交点集合Q,则集合Q∪Ps即为点集P与平面Si的切片交P′i;
步骤7:路径规划中的路径拟合
在获取截平面与点云的交点后,对交点在其截平面上进行二维曲线拟合。采用“三次样条-多项式”拟合法。
原理如下:
(1)根据点云切片规则,假设点云法向量平行于x轴且截平面平行于xOz平面,则后续拟合时z轴坐标为自变量,x轴坐标为因变量;
(2)对任意一截平面Si(1≤i≤n),Si对点云数据V切片所得交点P′i在截屏面上的二维投影点集合为P′iT;
(3)将点集P′iT在z轴的坐标值为排序基准从小到大排序,同时删去z轴坐标值相同的点,以保证拟合时函数中一个自变量只对应一个因变量;
(4)将点集P′iT在z轴上的取值范围划分为n个区间,共n+1个节点,对这n个区间分段构造三次函数fi(x)=ai+bi(x-xi)+ci(x-xi)2+di(x-xi)3,i=0,1,2,…,n-1.,要求满足所有分段函数在连接处的函数、一阶导数及二阶导数均连续,此外约束非节点边界,在第二个节点和倒数第二个节点处,节点两侧的分段函数的三阶导数连续。
则整个点集初步拟合的函数为:
得到拟合函数后,采用等参数步长法完成初步路径点拟合;
(5)对拟合点中的这两类偏离点进行识别修正,减小拟合误差:
A.遍历每个拟合点,求取其左右各点云距离密度davg范围内的投影点,求取这些投影点x值的平均值和总体标准差std,设置偏离判断阈值系数kdev和标准差阈值STD,若且std<STD,则判断标记为A类偏离点;
B.求解拟合点对应的三次样条曲线二阶导数f”(x),设置拐点判断阈值DIIF,若f”(x)>DIIF,则拟合点处于拐点区域。识别每处拐点区域及其区域内的拟合点、切片内点,若区域内拟合点的最小x值大于切片内点的最小x值,则该区域的拟合点标记为B类偏离点;
(6)索引A、B类偏离点附近的切片内点,对这些切片内点进行适宜的局部多项式曲线拟合,生成新的拟合点取代偏离点:设偏离点在切片面的投影点二维坐标为(x0,f(x0)),则取代其的投影点为(x0,g(x0))。
(7)对所有截平面与点云的交点P′i重复步骤(2)至(6),将每次得到的拟合点进行光栅状有序连接,得到初步拟合点;
(8)当点云表面有非处理区域时,需要对此区域的拟合点删去。首先遍历每个拟合点,利用K-邻近算法(KNN)寻找其在截平面与点云的交点中的邻近点及两点间距离dneb,为避免错误删除点云稀疏区域的拟合点,设置非处理区域判断阈值系数knon,若knon*davg<dneb,则需删除该拟合点;
(9)对初步拟合点进行非处理区域识别处理后,所得拟合点是在姿态矫正后的坐标系建立的,需对所有拟合点逆旋转至原始坐标系,即得最终路径点。
步骤8:路径规划中的路径点及姿态生成
生成路径点后,对路径点进行K邻域搜索点云中的邻近点和距离,再次采用PCA主成分分析降维处理的方法,求解协方差矩阵对应的特征值和特征向量,最小特征值对应的特征向量即近似为路径点的法矢量,求取法矢量后进行矢量指向统一,设路径点指向点云质心的向量为路径点法矢量为若则路径点法矢量取反向。
本发明结合深度相机与3D高精度扫描相机的视场特点,提出一种“大视场快速引导+小视场精确定位+加工路径规划”的机器人智能引导加工技术,实现复杂场景物体智能识别引导、高精度扫描定位与加工路径自适应自动生成,无需人工干预,提高加工效率和精度,为机器人加工提供了标准化系统与流程。
附图说明
图1为本发明智能引导系统结构示意图;
图2为本发明流程图;
图3为实施例目标模型点云和目标点云;
图4为实施例C-S分割场景点云图;
图5为实施例点云切片示意图。
具体实施方式
结合实施例说明本发明的具体技术方案。
机器人智能引导加工系统结构示意图如图1所示:
主要硬件:机械臂1、3D相机2、深度相机3及计算机4。
硬件功能:计算机4处理数据信息;3D相机2和深度相机3获取场景及目标物体的点云信息,机械臂1搭载并控制3D相机2和深度相机3的位置。
硬件连接方式:3D相机2、深度相机3分别通过数据线与计算机4进行连接,机械臂1通过Wifi无线网络与计算机4进行通信,3D相机2、深度相机3分别固定于机械臂1的法兰位置。
机器人智能引导加工方法,如图2所示,包括以下步骤:
步骤1:大视场引导中的深度相机3获取场景点云
在进行目标点云的位姿估计过程中,首先需要建立目标物体的模型数据库,可以是CAD生成、3D扫描相机扫描或者深度相机3获取。本发明主要是由深度相机3获取点云后分割得到目标模型点云和扫描相机扫描得到目标点云,如图3所示。
步骤2:大视场引导中的C-S分割
为了提高分割效果,提高后续配准准确度,采用平面分割、聚类分割和区域生长分割算法相结合,提出了C-S分割算法,分割效果如图4所示,C-S算法流程图如图所示。
基本流程如下:
1)原始点云数据为输入点云集P,先选用三维kd-tree建立离散点之间的拓扑关系,用于后续邻域关系的快速查找,并新建一空的聚类{Qi}和点队列M;
3)对所有pn∈P的点云,均执行2),当Mi n中不再有新的点加入时,一个聚类完成,判断是否小于设定聚类簇数量的阈值下限ε1和阈值上限ε1,若大于ε1且小于ε2则将其加入Qi中,并在剩余点云中选取新的种子点,继续2)、3),直到遍历完所有点。
4)当Qi=0时,设置一个空的种子点序列N和一个空的聚类数组pn,选择种子点,加入到N中;
5)搜索当前种子点的邻域点pn,计算邻域点的法线与当前种子点的法线之间的夹角αi,小于平滑阈值的邻域点加入到当前区域;即αi≤α(α为夹角阈值)。
6)检查每一个邻域点pn的曲率,小于曲率阈值的邻域点加入到N中,并删除当前种子点,以新的种子点继续生长,αsmooth为曲率阈值;
即αsmooth,i≤αsmooth。
7)重复进行4)、5)、6),直到种子点序列被清空。此时,一个区域生长完成,并将其加入到聚类数组pn中;
8)对剩余点重复算法1-8的步骤,直到遍历完所有点,复制{Qi}到R。
9)再进行一次场景平面分割和聚类分割,若剩余的点云数量Num2≥Num(根据自己的实验选取数量),则用于后续配准,否则{Qi}=R,再代入配准。
步骤3:大视场引导中目标物体的识别与点云配准获取初始引导位姿
设定当前点云模板库中的相似度阈值,取当前点云簇Qi与模板点云库进行匹配识别,小于相似度阈值判定为所需识别的目标物体点云簇。并计算符合要求的点云簇Qi与模板库中最相似的点云模板的表面法线与描述子特征,并进行识别与配准(特别说明:若目标物体特征不明显可使用标志物进行辅助识别获取目标物体的大致位姿)。点云配准分为粗配准和精配准两个阶段。粗配准指在点云相对位姿完全未知的情况下对点云进行配准,为精配准提供良好的初始值,本发明使用SAC-IA采样一致性初始配准算法。精配准是在粗配准的基础上,让点云之间的空间位置差异最小化,得到一个更加精准的旋转平移变换矩阵,本发明使用ICP迭代最近点算法。
步骤4:小视场定位
由大视场引导的步骤中获取目标物体位姿信息,在进行机械臂1引导。
在硬件搭建中,采用Eye-in-hand的方式,使用深度相机3和3D扫描相机得到目标物体所在场景的三维信息,通过点云位姿估计算法,得到当前位置下目标物体的相对相机的位姿信息,并利用矩阵转换得到相对机械臂1基底坐标系的位姿。
步骤5:路径规划中的目标模型预处理及矫正点云位姿
对目标模型点云进行平滑、采样、去噪等处理,去除其中的体外孤点、非连接项及其它噪点并适当减少数据量,以保证点云数据的质量较佳。
在点云切片之前,需首先矫正点云姿态。通过计算点云三维坐标的协方差矩阵C,求解矩阵C的特征值λ1,λ2,λ3及其对应的特征向量x1,x2,x3。其中x1,x2,x3分别为点云的三个主方向,而最小特征值对应的特征向量即为点云的法向量。利用特征向量旋转点云使其主方向与空间坐标系的三个轴对齐。由于点云在法向量方向上的投影点分布最小,为保证每次规划的路径具有一致性且自适应点云形状,切片时应使截平面的方向向量平行点云旋转后的法向量。
步骤6:路径规划中的点云切片
预处理后的点云数据V进行切片操作,如图5:
(1)假设点云姿态矫正后的法向量与x轴平行,则根据切片规则可得截平面应平行于x轴,因此令截平面平行于xOy平面;
(2)在y轴上设置n条等间距的平行截平面,对于任一条截平面Si(1≤i≤n),在其左右两侧设置宽度为(其中为切片宽度阈值系数,davg为点云的预处理后距离密度即点平均距离)的平行平面Sil、Sir,利用八叉树结构快速索引查找位于平面Sil、Sir之间的数据点的集合并称集合P所包含的点为切片内点;
(3)以平面Si为界将集合P划分为Si左右两侧的子集Pl和Pr和刚好落在Si上的子集Ps;
(4)采用求交法,对Pl和Pr中的任意一点M(xi,yi,zi),以M为中心建立边长为ds的正方体包围盒,在包围盒范围内遍历与点M所处点集相异的另一个点集的所有点,寻找其中与点M的最近邻点M′,再求取线段MM'与平面Si的交点;
(5)依次求取Pl和Pr中所有点对应的交点集合Q,则集合Q∪Ps即为点集P与平面Si的切片交P′i;
步骤7:路径规划中的路径拟合
在获取截平面与点云的交点后,直接使用交点作为路径显然不能满足实际需求,需对交点在其截平面上进行二维曲线拟合。为使拟合过程简洁高效且满足高精度的需求,本发明对三次样条曲线拟合与多项式曲线拟合两种方法结合改进,提出“三次样条-多项式”拟合法。
原理如下:
(1)根据点云切片规则,假设点云法向量平行于x轴且截平面平行于xOz平面,则后续拟合时z轴坐标为自变量,x轴坐标为因变量;
(2)对任意一截平面Si(1≤i≤n),Si对点云数据V切片所得交点P′i在截屏面上的二维投影点集合为P′iT;
(3)将点集P′iT在z轴的坐标值为排序基准从小到大排序,同时删去z轴坐标值相同的点,以保证拟合时函数中一个自变量只对应一个因变量;
(4)将点集P′iT在z轴上的取值范围划分为n个区间,共n+1个节点,对这n个区间分段构造三次函数fi(x)=ai+bi(x-xi)+ci(x-xi)2+di(x-xi)3,i=0,1,2,…,n-1.,要求满足所有分段函数在连接处的函数、一阶导数及二阶导数均连续,此外约束非节点边界,在第二个节点和倒数第二个节点处,节点两侧的分段函数的三阶导数连续。
则整个点集初步拟合的函数为:
得到拟合函数后,采用等参数步长法完成初步路径点拟合;
(5)由于单一的三次样条曲线拟合在直线与曲线交界处的拟合效果较差,并且不能改善求交法在曲率变化较大处(对应切片片点的拐点处)对实际点云表面的表达缺损,因此需要对拟合点中的这两类偏离点进行识别修正,减小拟合误差:
A.遍历每个拟合点,求取其左右各点云距离密度davg范围内的投影点,求取这些投影点x值的平均值和总体标准差std,设置偏离判断阈值系数kdev和标准差阈值STD,若且std<STD,则判断标记为A类偏离点;
B.求解拟合点对应的三次样条曲线二阶导数f”(x),设置拐点判断阈值DIIF,若f”(x)>DIIF,则拟合点处于拐点区域。识别每处拐点区域及其区域内的拟合点、切片内点,若区域内拟合点的最小x值大于切片内点的最小x值,则该区域的拟合点标记为B类偏离点;
(6)索引A、B类偏离点附近的切片内点,对这些切片内点进行适宜的局部多项式曲线拟合,生成新的拟合点取代偏离点:(为防止出现龙格现象,拟合阶次不宜过高)。设偏离点在切片面的投影点二维坐标为(x0,f(x0)),则取代其的投影点为(x0,g(x0))。
(7)对所有截平面与点云的交点P′i重复步骤(2)至(6),将每次得到的拟合点进行光栅状有序连接,得到初步拟合点;
(8)当点云表面有非处理区域(即点云中较大的无数据点的空白区域)时,需要对此区域的拟合点删去。首先遍历每个拟合点,利用K-邻近算法(KNN)寻找其在截平面与点云的交点中的邻近点及两点间距离dneb,为避免错误删除点云稀疏区域的拟合点,设置非处理区域判断阈值系数knon,若knon*davg<dneb,则需删除该拟合点;
(9)对初步拟合点进行非处理区域识别处理后,所得拟合点是在姿态矫正后的坐标系建立的,需对所有拟合点逆旋转至原始坐标系,即得最终路径点。
步骤8:路径规划中的路径点及姿态生成
Claims (6)
1.机器人智能引导加工系统,其特征在于,包括,机械臂、3D相机、深度相机及计算机;
3D相机、深度相机分别通过数据线与计算机进行连接,机械臂通过Wifi无线网络与计算机进行通信,3D相机、深度相机分别固定于机械臂的法兰位置;
计算机处理数据信息;3D相机和深度相机获取场景及目标物体的点云信息,机械臂搭载并控制3D相机和深度相机的位置。
2.机器人智能引导加工方法,其特征在于,采用权利要求1所述的机器人智能引导加工系统,包括以下步骤;
步骤1:大视场引导中的深度相机获取场景点云
由深度相机获取点云后分割得到目标模型点云和扫描相机扫描得到目标点云建立目标物体的模型数据库;
步骤2:大视场引导中的C-S分割
采用平面分割、聚类分割和区域生长分割算法相结合,采用C-S分割算法;
步骤3:大视场引导中点云配准算法获取初始引导位姿
使用目标物体的模板点云与场景中的分割簇进行配准;点云配准分为粗配准和精配准两个阶段;粗配准指在点云相对位姿完全未知的情况下对点云进行配准,为精配准提供良好的初始值,本发明使用SAC-IA采样一致性初始配准算法;精配准是在粗配准的基础上,让点云之间的空间位置差异最小化,得到一个更加精准的旋转平移变换矩阵;
步骤4:小视场定位
由大视场引导的步骤中获取目标物体位姿信息或者标志物的位姿信息,在进行机械臂引导;
在硬件搭建中,采用Eye-in-hand的方式,使用深度相机和3D扫描相机得到目标物体所在场景的三维信息,通过点云位姿估计算法,得到当前位置下目标物体的相对相机的位姿信息,并利用矩阵转换得到相对机械臂基底坐标系的位姿;
步骤5:路径规划中的目标模型预处理及矫正点云位姿
对目标模型点云进行处理,去除其中的体外孤点、非连接项及噪点并减少数据量;
在点云切片之前,需首先矫正点云姿态;通过计算点云三维坐标的协方差矩阵C,求解矩阵C的特征值λ1,λ2,λ3及其对应的特征向量x1,x2,x3;其中x1,x2,x3分别为点云的三个主方向,而最小特征值对应的特征向量即为点云的法向量;利用特征向量旋转点云使其主方向与空间坐标系的三个轴对齐;切片时使截平面的方向向量平行于点云旋转后的法向量;
步骤6:路径规划中的点云切片
预处理后的点云数据V进行切片操作;
步骤7:路径规划中的路径拟合
在获取截平面与点云的交点后,对交点在其截平面上进行二维曲线拟合;采用“三次样条-多项式”拟合法;
步骤8:路径规划中的路径点及姿态生成
3.根据权利要求2所述的机器人智能引导加工方法,其特征在于,步骤2中所述的C-S分割算法,包括以下子步骤:
1)原始点云数据为输入点云集P,先选用三维kd-tree建立离散点之间的拓扑关系,用于后续邻域关系的快速查找,并新建一空的聚类{Qi}和点队列M;
3)对所有pn∈P的点云,均执行2),当Mi n中不再有新的点加入时,一个聚类完成,判断是否小于设定聚类簇数量的阈值下限ε1和阈值上限ε1,若大于ε1且小于ε2则将其加入Qi中,并在剩余点云中选取新的种子点,继续2)、3),直到遍历完所有点;
4)当Qi=0时,设置一个空的种子点序列N和一个空的聚类数组pn,选择种子点,加入到N中;
5)搜索当前种子点的邻域点pn,计算邻域点的法线与当前种子点的法线之间的夹角αi,小于平滑阈值的邻域点加入到当前区域;即αi≤α,α为夹角阈值;
6)检查每一个邻域点pn的曲率,小于曲率阈值的邻域点加入到N中,并删除当前种子点,以新的种子点继续生长,αsmooth为曲率阈值;
即αsmooth,i≤αsmooth;
7)重复进行4)、5)、6),直到种子点序列被清空;此时,一个区域生长完成,并将其加入到聚类数组pn中;
8)对剩余点重复算法1)-8)的步骤,直到遍历完所有点,复制{Qi}到R;
9)再进行一次场景平面分割和聚类分割,若剩余的点云数量Num2≥Num(根据自己的实验选取数量),则用于后续配准,否则{Qi}=R,再代入配准。
4.根据权利要求2所述的机器人智能引导加工方法,其特征在于,步骤3中使用ICP迭代最近点算法。
5.根据权利要求2所述的机器人智能引导加工方法,其特征在于,步骤6中切片操作,包括以下子步骤:
(1)假设点云姿态矫正后的法向量与x轴平行,则根据切片规则可得截平面应平行于x轴,因此令截平面平行于xOy平面;
(2)在y轴上设置n条等间距的平行截平面,对于任一条截平面Si,1≤i≤n,在其左右两侧设置宽度为的平行平面Sil、Sir,利用八叉树结构快速索引查找位于平面Sil、Sir之间的数据点的集合并称集合P所包含的点为切片内点;其中为切片宽度阈值系数,davg为点云的预处理后距离密度即点平均距离;
(3)以平面Si为界将集合P划分为Si左右两侧的子集Pl和Pr和刚好落在Si上的子集Ps;
(4)采用求交法,对Pl和Pr中的任意一点M(xi,yi,zi),以M为中心建立边长为ds的正方体包围盒,在包围盒范围内遍历与点M所处点集相异的另一个点集的所有点,寻找其中与点M的最近邻点M′,再求取线段MM′与平面Si的交点;
(5)依次求取Pl和Pr中所有点对应的交点集合Q,则集合Q∪Ps即为点集P与平面Si的切片交Pi′;
6.根据权利要求2所述的机器人智能引导加工方法,其特征在于,步骤7中“三次样条-多项式”拟合法,包括以下子步骤:
(1)根据点云切片规则,假设点云法向量平行于x轴且截平面平行于xOz平面,则后续拟合时z轴坐标为自变量,x轴坐标为因变量;
(2)对任意一截平面Si,1≤i≤n,Si对点云数据V切片所得交点Pi′在截屏面上的二维投影点集合为P′iT;
(3)将点集P′iT在z轴的坐标值为排序基准从小到大排序,同时删去z轴坐标值相同的点,以保证拟合时函数中一个自变量只对应一个因变量;
(4)将点集P′iT在z轴上的取值范围划分为n个区间,共n+1个节点,对这n个区间分段构造三次函数fi(x)=ai+bi(x-xi)+ci(x-xi)2+di(x-xi)3,i=0,1,2,…,n-1.,要求满足所有分段函数在连接处的函数、一阶导数及二阶导数均连续,此外约束非节点边界,在第二个节点和倒数第二个节点处,节点两侧的分段函数的三阶导数连续;
则整个点集初步拟合的函数为:
得到拟合函数后,采用等参数步长法完成初步路径点拟合;
(5)对拟合点中的这两类偏离点进行识别修正,减小拟合误差:
A.遍历每个拟合点,求取其左右各点云距离密度davg范围内的投影点,求取这些投影点x值的平均值和总体标准差std,设置偏离判断阈值系数kdev和标准差阈值STD,若且std<STD,则判断标记为A类偏离点;
B.求解拟合点对应的三次样条曲线二阶导数f”(x),设置拐点判断阈值DIIF,若f”(x)>DIIF,则拟合点处于拐点区域;识别每处拐点区域及其区域内的拟合点、切片内点,若区域内拟合点的最小x值大于切片内点的最小x值,则该区域的拟合点标记为B类偏离点;
(6)索引A、B类偏离点附近的切片内点,对这些切片内点进行适宜的局部多项式曲线拟合,生成新的拟合点取代偏离点:设偏离点在切片面的投影点二维坐标为(x0,f(x0)),则取代其的投影点为(x0,g(x0));
(7)对所有截平面与点云的交点Pi′重复步骤(2)至(6),将每次得到的拟合点进行光栅状有序连接,得到初步拟合点;
(8)当点云表面有非处理区域时,需要对此区域的拟合点删去;首先遍历每个拟合点,利用K-邻近算法(KNN)寻找其在截平面与点云的交点中的邻近点及两点间距离dneb,为避免错误删除点云稀疏区域的拟合点,设置非处理区域判断阈值系数knon,若knon*davg<dneb,则需删除该拟合点;
(9)对初步拟合点进行非处理区域识别处理后,所得拟合点是在姿态矫正后的坐标系建立的,需对所有拟合点逆旋转至原始坐标系,即得最终路径点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210787270.6A CN115147437B (zh) | 2022-07-04 | 2022-07-04 | 机器人智能引导加工方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210787270.6A CN115147437B (zh) | 2022-07-04 | 2022-07-04 | 机器人智能引导加工方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115147437A true CN115147437A (zh) | 2022-10-04 |
CN115147437B CN115147437B (zh) | 2023-04-14 |
Family
ID=83411723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210787270.6A Active CN115147437B (zh) | 2022-07-04 | 2022-07-04 | 机器人智能引导加工方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147437B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115423835A (zh) * | 2022-11-02 | 2022-12-02 | 中汽创智科技有限公司 | 杆状物点云数据处理方法、装置、电子设备及存储介质 |
CN115564777A (zh) * | 2022-12-06 | 2023-01-03 | 南京航空航天大学 | 一种基于特征约束的单视角点云定位方法 |
CN116197913A (zh) * | 2023-03-23 | 2023-06-02 | 广东技术师范大学 | 一种基于点云处理的机器人加工路径规划方法和存储介质 |
CN116503409A (zh) * | 2023-06-28 | 2023-07-28 | 矽瞻科技(成都)有限公司 | 一种焊缝缺陷3d点云检测方法、设备和介质 |
CN116625242A (zh) * | 2023-07-26 | 2023-08-22 | 青岛科技大学 | 光学三坐标测量机路径规划方法、系统、电子设备及介质 |
CN116755441A (zh) * | 2023-06-19 | 2023-09-15 | 国广顺能(上海)能源科技有限公司 | 移动机器人的避障方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014069306A (ja) * | 2012-10-02 | 2014-04-21 | Canon Inc | ロボットシステム及び無線カメラ装置 |
CN112634379A (zh) * | 2021-01-08 | 2021-04-09 | 清华大学深圳国际研究生院 | 一种基于混合视域光场的三维定位测量方法 |
CN113103235A (zh) * | 2021-04-20 | 2021-07-13 | 亿嘉和科技股份有限公司 | 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法 |
-
2022
- 2022-07-04 CN CN202210787270.6A patent/CN115147437B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014069306A (ja) * | 2012-10-02 | 2014-04-21 | Canon Inc | ロボットシステム及び無線カメラ装置 |
CN112634379A (zh) * | 2021-01-08 | 2021-04-09 | 清华大学深圳国际研究生院 | 一种基于混合视域光场的三维定位测量方法 |
CN113103235A (zh) * | 2021-04-20 | 2021-07-13 | 亿嘉和科技股份有限公司 | 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115423835A (zh) * | 2022-11-02 | 2022-12-02 | 中汽创智科技有限公司 | 杆状物点云数据处理方法、装置、电子设备及存储介质 |
CN115564777A (zh) * | 2022-12-06 | 2023-01-03 | 南京航空航天大学 | 一种基于特征约束的单视角点云定位方法 |
CN116197913A (zh) * | 2023-03-23 | 2023-06-02 | 广东技术师范大学 | 一种基于点云处理的机器人加工路径规划方法和存储介质 |
CN116197913B (zh) * | 2023-03-23 | 2023-12-05 | 广东技术师范大学 | 一种基于点云处理的机器人加工路径规划方法和存储介质 |
CN116755441A (zh) * | 2023-06-19 | 2023-09-15 | 国广顺能(上海)能源科技有限公司 | 移动机器人的避障方法、装置、设备及介质 |
CN116755441B (zh) * | 2023-06-19 | 2024-03-12 | 国广顺能(上海)能源科技有限公司 | 移动机器人的避障方法、装置、设备及介质 |
CN116503409A (zh) * | 2023-06-28 | 2023-07-28 | 矽瞻科技(成都)有限公司 | 一种焊缝缺陷3d点云检测方法、设备和介质 |
CN116503409B (zh) * | 2023-06-28 | 2023-09-12 | 矽瞻科技(成都)有限公司 | 一种焊缝缺陷3d点云检测方法、设备和介质 |
CN116625242A (zh) * | 2023-07-26 | 2023-08-22 | 青岛科技大学 | 光学三坐标测量机路径规划方法、系统、电子设备及介质 |
CN116625242B (zh) * | 2023-07-26 | 2023-10-03 | 青岛科技大学 | 光学三坐标测量机路径规划方法、系统、电子设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115147437B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115147437B (zh) | 机器人智能引导加工方法与系统 | |
CN109541997B (zh) | 一种面向平面/近似平面工件的喷涂机器人快速智能编程方法 | |
CN108010116B (zh) | 点云特征点检测方法和点云特征提取方法 | |
CN110039538B (zh) | 一种基于大型复杂构件点云信息的机器人轨迹规划方法 | |
CN112070818B (zh) | 基于机器视觉的机器人无序抓取方法和系统及存储介质 | |
CN110223345B (zh) | 基于点云的配电线路作业对象位姿估计方法 | |
CN111080627A (zh) | 一种基于深度学习的2d+3d大飞机外形缺陷检测与分析方法 | |
CN112348864B (zh) | 一种融合线激光轮廓特征的三维点云自动配准方法 | |
CN113298833A (zh) | 目标物点云特征线面提取方法及系统 | |
CN111077844B (zh) | 一种基于实测数据特征引导的零件精确加工方法 | |
Lin et al. | Robotic grasping with multi-view image acquisition and model-based pose estimation | |
CN111179321B (zh) | 一种基于模板匹配的点云配准方法 | |
CN116402866A (zh) | 基于点云的零件数字孪生几何建模与误差评定方法及系统 | |
CN113741426B (zh) | 一种基于局部点云曲线拟合的机器人加工路径规划方法 | |
CN110990952B (zh) | 一种飞机结构件自动化扫描轨迹规划方法 | |
CN110599506A (zh) | 一种复杂异形曲面机器人三维测量的点云分割方法 | |
CN113223067B (zh) | 针对具有平面基准的非完整三维扫描点云的在线配准方法 | |
CN113313200B (zh) | 一种基于法向约束的点云精匹配方法 | |
Liu et al. | Comparison of initial registration algorithms suitable for ICP algorithm | |
CN115423854B (zh) | 一种基于多尺度特征提取的多视角点云配准及点云融合方法 | |
Filaretov et al. | Method of combination of three-dimensional models of details with their CAD-models at the presence of deformations | |
CN114939891B (zh) | 一种基于物体平面特征的复合机器人3d抓取方法及系统 | |
CN115641418A (zh) | 一种基于点云信息的雷达罩分区域自适应修型方法 | |
Denker et al. | On-line reconstruction of CAD geometry | |
CN115147433A (zh) | 点云配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |