CN113134683A - 基于机器学习的激光标刻方法及装置 - Google Patents
基于机器学习的激光标刻方法及装置 Download PDFInfo
- Publication number
- CN113134683A CN113134683A CN202110523053.1A CN202110523053A CN113134683A CN 113134683 A CN113134683 A CN 113134683A CN 202110523053 A CN202110523053 A CN 202110523053A CN 113134683 A CN113134683 A CN 113134683A
- Authority
- CN
- China
- Prior art keywords
- bar
- marking
- laser
- laser marking
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/36—Removing material
- B23K26/362—Laser etching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/08—Devices involving relative movement between laser beam and workpiece
- B23K26/0869—Devices involving movement of the laser head in at least one axial direction
- B23K26/0876—Devices involving movement of the laser head in at least one axial direction in at least two axial directions
- B23K26/0884—Devices involving movement of the laser head in at least one axial direction in at least two axial directions in at least in three axial directions, e.g. manipulators, robots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K26/00—Working by laser beam, e.g. welding, cutting or boring
- B23K26/70—Auxiliary operations or equipment
- B23K26/702—Auxiliary equipment
Abstract
基于机器学习的激光标刻方法及装置,更适合棒材在复杂环境下的定位,其误差满足标刻平台定位精度需求。方法包括:(1)对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据;(2)在PyTorch和CUDA框架下训练棒材数据集;(3)对目标检测模型的评价指标AP、mAP、Recall进行分析,如不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;(4)获取棒材堆区域图像;(5)利用最优参数检测出图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;(6)控制机器人运动到棒材端面坐标;(7)进行激光标刻。
Description
技术领域
本发明涉及激光标刻的技术领域,尤其涉及一种基于机器学习的激光标刻方法,以及基于机器学习的激光标刻装置。
背景技术
目前,机器视觉检测设备仅在尖端微电子行业崭露头角。随着工业信息化和智能化的发展,传统机械产业的升级换代必将为机器视觉提供更好的舞台。机器视觉主要解决定位、测量、检测和识别四大问题,其核心是图像的采集与处理,视觉信息都来自图像,即信息提取的准确性取决于图像的质量。视觉光源是机器视觉不可或缺的一部分,正确使用可增加获得图像的清晰度,并对机器视觉处理的精度和速度产生极大影响。在实际生产环境中,自然光和厂区照明光源普遍受能见度、温度、湿度和人为因素等影响,且不同材料表面对光的反射程度不同,这些都将严重干扰机器视觉检测过程,降低标刻平台的定位精度,且具有一定程度上的安全隐患。因此为了将铝及合金棒材标刻端面与生产环境的背景相区分,获得高品质、高对比度的图像,保障标刻平台定位精度,视觉光源的正确选用尤为重要。
依据标刻平台标刻流程可知,对铝及合金棒材进行激光标刻需在棒材堆中寻找最佳标刻端面,但棒材堆中棒材之间位姿存在空间位移和空隙,难以准确的将激光器移动至最佳标刻位置,如何在标刻面精确定位成为标刻平台研究的重点。近年来数字图像处理和机器学习在机器视觉领域都被广泛应用,相较于传统机械式操作定位,机器视觉极大的提高了目标工件定位的准确性和灵活性,对不同形状、位姿的工件都具有较高的识别率,适应传统工业中复杂的工作环境,提高工作效率和质量的同时大大降低了人工操作。但是,目前的机器视觉的激光标刻方法对噪声相对敏感,且检测时需要先验设定参数,在不同的环境和光照条件下其最佳参数变化范围难以控制,鲁棒性较差。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种基于机器学习的激光标刻方法,其更适合棒材在复杂环境下的定位,其误差满足标刻平台定位精度需求,大大减少实际工作中计算机运算时间的同时提高定位效率。
本发明的技术方案是:这种基于机器学习的激光标刻方法,其包括以下步骤:
(1)依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据;
(2)在PyTorch和CUDA框架下训练棒材数据集;
(3)训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
(4)获取棒材堆区域图像;
(5)利用步骤(3)的最优参数检测出步骤(4)的图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
(6)控制机器人运动到棒材端面坐标;
(7)进行激光标刻。
本发明针对生产现场不同光照条件和不同棒材堆放姿态,由CCD摄像机进行多角度多方位的采集图像,对采集好的图像进行标注,并通过机器学习框架来进行训练,由训练好的模型得出参数,评估之后为定位计算单元提供最优参数;在实际工作环节中,摄像机捕获棒材堆区域照片后传输给计算机,计算机根据最优参数计算出坐标信息并对坐标进行转换,计算机计算出世界坐标系中相对坐标差值后控制机械臂运动至标刻面,进而完成激光标刻,因此更适合棒材在复杂环境下的定位,其误差满足标刻平台定位精度需求,大大减少实际工作中计算机运算时间的同时提高定位效率。
还提供了基于机器学习的激光标刻装置,其包括:
机器学习模块,其配置来依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据,在PyTorch和CUDA框架下训练棒材数据集,训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
视觉单元,其配置来获取棒材堆区域图像;
计算单元,其配置来利用机器学习模块的最优参数检测出棒材堆区域图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
控制单元,其配置来控制机器人运动到棒材端面坐标;
标刻单元,其配置来进行激光标刻。
附图说明
图1是基于数字图像处理的目标定位方法的流程图。
图2是霍夫变换的X-Y坐标转化为a-b-r参数坐标示意图。
图3是根据本发明的基于机器学习的激光标刻方法的流程图。
图4是根据本发明的基于机器学习的激光标刻方法的评价结果图。
图5是基于数字图像处理的目标定位方法与本发明的基于机器学习的激光标刻方法的实验性能对比表。
图6是根据本发明的激光器找正对焦的原理图。
具体实施方式
如图3所示,这种基于机器学习的激光标刻方法,其包括以下步骤:
(1)依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据;
(2)在PyTorch和CUDA框架下训练棒材数据集;
(3)训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
(4)获取棒材堆区域图像;
(5)利用步骤(3)的最优参数检测出步骤(4)的图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
(6)控制机器人运动到棒材端面坐标;
(7)进行激光标刻。
本发明针对生产现场不同光照条件和不同棒材堆放姿态,由CCD摄像机进行多角度多方位的采集图像,对采集好的图像进行标注,并通过机器学习框架来进行训练,由训练好的模型得出参数,评估之后为定位计算单元提供最优参数;在实际工作环节中,摄像机捕获棒材堆区域照片后传输给计算机,计算机根据最优参数计算出坐标信息并对坐标进行转换,计算机计算出世界坐标系中相对坐标差值后控制机械臂运动至标刻面,进而完成激光标刻,因此更适合棒材在复杂环境下的定位,其误差满足标刻平台定位精度需求,大大减少实际工作中计算机运算时间的同时提高定位效率。
优选地,所述步骤(4)中,采用补光灯进行均匀补光来保障定位所需的光照环境。
优选地,对于在定位过程中出现的极少数定位不到的情况,通过控制机器人自动调整位姿进行多角度多次定位。
优选地,所述步骤(6)之后还包括:激光器的找正对焦。
优选地,所述激光器的找正对焦,由机器人带动测距仪测量截面上不在一条直线的三个点距离,通过对标刻端面法线坐标进行求解,计算出激光器镜头平面相对于标刻端面法线的偏移角度,进而控制机械臂携带激光器调整最终标刻相对位置,完成清晰有效的标刻。
优选地,所述激光器的找正对焦包括以下步骤:
(a)控制机械臂携带毫米级激光测距仪在世界坐标系YOZ平面内分别移动至棒材端面随机不共线三点,同时记录在三点位置时机械臂TCP点空间坐标值和测距仪测量值,通过对记录的数据进行计算,得到世界坐标系下三点空间坐标;
(b)利用三点空间坐标求出棒材端面的空间平面方程,进而计算出世界坐标系下平面的法向量坐标,判断法向量方向并使其为正方向;
(c)激光器镜面与标刻面平行,基于激光器装夹位置,以正方向的法向量作为Z1轴,X1轴平行标刻面垂直向下,Y1轴平行标刻面向左建立找正坐标系;
(d)计算世界坐标系旋转到找正坐标系的RPY旋转角;
(e)根据世界坐标系下标刻端面中心点坐标与找正坐标系的旋转角,控制机器人携带激光器运动至等待标刻位置。
优选地,所述步骤(d)中,当机器人坐标系旋转为外旋时,以X-Y-Z旋转顺序旋转。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括上述实施例方法的各步骤,而所述的存储介质可以是:ROM/RAM、磁碟、光盘、存储卡等。因此,与本发明的方法相对应的,本发明还同时包括一种基于机器学习的激光标刻装置,该装置通常以与方法各步骤相对应的功能模块的形式表示。该装置包括:
机器学习模块,其配置来依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据,在PyTorch和CUDA框架下训练棒材数据集,训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
视觉单元,其配置来获取棒材堆区域图像;
计算单元,其配置来利用机器学习模块的最优参数检测出棒材堆区域图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
控制单元,其配置来控制机器人运动到棒材端面坐标;
标刻单元,其配置来进行激光标刻。
以下更详细地说明本发明。
根据机器视觉不同技术特点,针对工业环境下铝及合金棒材定位技术需求,申请人设计如下两种定位方案:
(1)基于霍夫变换的目标定位系统:遵循单目图像采集原理,在工业机器人法兰中心末端上安装CCD摄像机和穹顶光源组成的定位机构,对棒材端面进行定位时获取棒材堆区域图像并传输到计算机,计算机在对图像进行预处理后运用霍夫检测圆算法进行图形计算,通过计算选定最佳圆截面并获取截面位置坐标,将坐标转换为同一坐标系后,依据坐标之间的空间差异控制机械臂运动至最佳标刻端面,进而在找正对焦后完成激光标刻,具体流程如图1所示。
(2)基于机器学习的目标定位系统:该定位系统需要前期准备工作,与上述方案硬件设备条件相同,针对生产现场不同光照条件和不同棒材堆放姿态,由CCD摄像机进行多角度多方位的采集图像。对采集好的图像进行标注,并通过机器学习框架来进行训练。由训练好的模型得出参数,评估之后为定位计算单元提供最优参数。在实际工作环节中,摄像机捕获棒材堆区域照片后传输给计算机,计算机根据最优参数计算出坐标信息并对坐标进行转换。计算机计算出世界坐标系中相对坐标差值后控制机械臂运动至标刻面,进而在找正对焦后完成激光标刻,具体流程如图3所示。
针对以上两种定位方法分别进行阐述和实验,并对实验结果进行对比分析。
(1)基于霍夫变换的目标定位方法
霍夫变换的核心是坐标的转换,通过将图像的平面坐标转换为参数坐标,在参数空间中检测图像边缘,使图像中图形特征易于识别。例如圆形的一般参数方程可表示为:
(a-x)2+(b-y)2=r2 (4.1)
其中x,y对应a-b-r参数空间中的某一点。由上式可得,在坐标转换过后的二维图像中任意点处的圆在参数空间中显示为具有无限高度r的三维圆锥,因此,在X-Y坐标中与同一圆上的点相对应的高度r0是常数,且三维圆锥必在点(a0,b0,r0)的高度r0相交。通过遍历三维参数空间网格得到累加矩阵,由累加值的大小即可判定过某点的圆。X-Y坐标转化为a-b-r参数坐标示意图如图2所示:
因霍夫圆变换的标准做法计算量较大,本文采用OPENCV中霍夫梯度算法来进行棒材端面的检测,算法具体步骤如下:
1、将图像灰度化后计算其边缘图和梯度图。
2、依据边缘图和梯度图找到累加值较大的点,即可能成为圆心的点。
3、根据阈值和局部最大值对累加值较大的点集进行筛选。
4、将筛选后的点集按照大小排序,并对每个圆点查找可能的半径。
5、在找到的所有圆心距离小于最小距离的圆中,保留累加值最大的圆。
(2)基于机器学习的目标定位方法
机器学习的目标检测算法大都基于卷积神经网络,计算机将图像集通过优化的深度学习网络模型进行训练,从而得到最优的参数。当计算机再次输入单一图像时,可直接利用最优参数检测出图像中的目标物体,并获取物体在图像中的坐标信息,即棒材端面坐标的确定,重点是最优参数的获取。目前主流的深度学习网络模型有AlexNet、VGG-16、ResNet-101、ResNet-152、DrakNet-53等,从各网络在MS COCO数据集上测试结果来看,ResNet-152和DrakNet-53表现较好,Darknet-53与ResNet-152具有相近性能但Darknet-53速度更佳,且相较于其它网络结构利用GPU资源更充分。
Darknet-53是YOLOv3目标检测算法的主要网络结构,经过2年不断的优化,YOLOv系列目标检测算法已优化至YOLOv5。现版本的YOLOv5单个图像推理时间几乎低至0.007秒,且权重文件较上一代更加轻快灵巧,可以更轻松地部署到嵌入式设备,非常适用传统工业环境。YOLOv5s作为YOLOv5的基础版,其网络最小,速度最快,适用于追求速度的大目标检测。
依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据。在PyTorch和CUDA框架下训练棒材数据集,待训练完成后对目标检测模型的评价指标AP、mAP、Recall等进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率。图4为调整后训练模型的最终评价结果。
如图4所示,针对铝及合金棒材标刻端面训练出的模型从标注角度看,召回率为百分之百。从预测结果角度看,在无均匀光照环境下单次训练迭代100后预测准确率保持在百分之80左右。平均精确率在交并比阈值为0.5时可达到百分之百,在阈值为0.5到0.95之间时可达到百分之80。实验环境中对单张照片进行单目标检测时识别速度接近每秒140帧,实时目标检测识别速度低于0.5秒,模型效果表现良好。
(3)针对两种设计方案,模拟实际工况光照下不同位姿棒材定位环境,进行100组对比试验,选取十组在不同光照条件下定位结果性能对比如图5。
分析两种目标定位方案,从实验结果来看方案一利用霍夫检测圆算法获取端面坐标对噪声相对敏感,且检测圆时需要先验设定参数,在不同的环境和光照条件下其最佳参数变化范围难以控制,鲁棒性较差。方案二更适合棒材在复杂环境下的定位,其误差满足标刻平台定位精度需求。机器学习前期训练出的模型可通过训练图像的质量和数量改变得以优化,进而达到一次学习多次使用的效果,大大减少实际工作中计算机运算时间的同时提高定位效率。鉴于此,本文采用基于机器学习的目标定位系统进行棒材标刻端面的定位,并采用补光灯进行均匀补光来保障定位所需的光照环境,对于在定位过程中出现的极少数定位不到的情况,可通过控制机器人自动调整位姿进行多角度多次定位来解决。
依照激光标刻要求,激光器镜头在定位棒材标刻端面后需与被标刻端面平行,且相对距离需在有效焦距范围内。在棒材生产流水线上,棒材堆放存在一定程度上的位姿偏差,导致激光器镜头在定位后与被标刻端面不平行且相对距离不在有效焦距范围内,造成标签打印不清晰等情况。现有较好的找正方法是采用线激光测距仪测量端面三维点云图,基于测量的点集,利用改进的RANSAC算法对平面进行拟合,求解出平面方程,再根据方程得出法线坐标与旋转角,最后由机械臂带动激光器完成找正。此种方法拟合的平面方程较为精确,但点云图处理时间较长。在实际工程中,基础建材的客户需求量往往较大,生产节拍较快,现场锯切机、打捆机和打标机需同步进行工作,每捆的激光打标时间较少,点云图处理时间难以保证。另一方面,线激光测距仪成本较高,影响设备的工程应用。
针对于此,本文基于不共线三点确定一个平面的原理,采用点激光测距仪,由机器人带动测距仪测量截面上不在一条直线的三个点距离,通过对标刻端面法线坐标进行求解,计算出激光器镜头平面相对于标刻端面法线的偏移角度,进而控制机械臂携带激光器调整最终标刻相对位置,完成清晰有效的标刻。具体实现步骤如下:
(1)控制机械臂携带毫米级激光测距仪在世界坐标系YOZ平面内分别移动至棒材端面随机不共线三点,同时记录在三点位置时机械臂TCP点空间坐标值和测距仪测量值,通过对记录的数据进行计算,得到世界坐标系下三点空间坐标。
(2)利用三点空间坐标求出棒材端面的空间平面方程,进而计算出世界坐标系下平面的法向量坐标,最后判断法向量方向并使其为正方向。
(3)激光器的找正,即激光器镜面与标刻面平行(TCP点Z轴与法向量平行),至此找正问题转化为坐标系旋转与平移问题。基于激光器装夹位置,以正方向的法向量作为Z1轴,X1轴平行标刻面垂直向下,Y1轴平行标刻面向左建立找正坐标系,如图6所示。
(4)计算世界坐标系旋转到找正坐标系的RPY旋转角。本文臂式机器人坐标系旋转为外旋,以X-Y-Z旋转顺序旋转。
(5)根据世界坐标系下标刻端面中心点坐标与找正坐标系的旋转角,控制机器人携带激光器运动至等待标刻位置。
本发明从实际出发,通过对铝及合金棒材生产环境的光照、棒材相对位姿及端面平整度进行分析,明确了标刻平台空间定位和找正的必要性。针对研究重点分别设计和采用了基于卷积神经网络的棒材端面定位方法和基于激光测距仪的端面找正方法,并对两种方法进行详细阐述,确定了其可行性和有效性。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (10)
1.基于机器学习的激光标刻方法,其特征在于:其包括以下步骤:
(1)依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据;
(2)在PyTorch和CUDA框架下训练棒材数据集;
(3)训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
(4)获取棒材堆区域图像;
(5)利用步骤(3)的最优参数检测出步骤(4)的图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
(6)控制机器人运动到棒材端面坐标;
(7)进行激光标刻。
2.根据权利要求1所述的基于机器学习的激光标刻方法,其特征在于:所述步骤(4)中,采用补光灯进行均匀补光来保障定位所需的光照环境。
3.根据权利要求2所述的基于机器学习的激光标刻方法,其特征在于:对于在定位过程中出现的极少数定位不到的情况,通过控制机器人自动调整位姿进行多角度多次定位。
4.根据权利要求3所述的基于机器学习的激光标刻方法,其特征在于:所述步骤(6)之后还包括:激光器的找正对焦。
5.根据权利要求4所述的基于机器学习的激光标刻方法,其特征在于:所述激光器的找正对焦,由机器人带动测距仪测量截面上不在一条直线的三个点距离,通过对标刻端面法线坐标进行求解,计算出激光器镜头平面相对于标刻端面法线的偏移角度,进而控制机械臂携带激光器调整最终标刻相对位置,完成清晰有效的标刻。
6.根据权利要求5所述的基于机器学习的激光标刻方法,其特征在于:所述激光器的找正对焦包括以下步骤:
(a)控制机械臂携带毫米级激光测距仪在世界坐标系YOZ平面内分别移动至棒材端面随机不共线三点,同时记录在三点位置时机械臂TCP点空间坐标值和测距仪测量值,通过对记录的数据进行计算,得到世界坐标系下三点空间坐标;
(b)利用三点空间坐标求出棒材端面的空间平面方程,进而计算出世界坐标系下平面的法向量坐标,判断法向量方向并使其为正方向;
(c)激光器镜面与标刻面平行,基于激光器装夹位置,以正方向的法向量作为Z1轴,X1轴平行标刻面垂直向下,Y1轴平行标刻面向左建立找正坐标系;
(d)计算世界坐标系旋转到找正坐标系的RPY旋转角;
(e)根据世界坐标系下标刻端面中心点坐标与找正坐标系的旋转角,控制机器人携带激光器运动至等待标刻位置。
7.根据权利要求6所述的基于机器学习的激光标刻方法,其特征在于:所述步骤(d)中,当机器人坐标系旋转为外旋时,以X-Y-Z旋转顺序旋转。
8.基于机器学习的激光标刻装置,其特征在于:其包括:
机器学习模块,其配置来依据YOLOv5算法训练集所需文件类型,对实验环境下模拟现场环境拍摄的棒材照片进行标注,随机抽取20%作为验证集数据,其余全部作为训练集数据,在PyTorch和CUDA框架下训练棒材数据集,训练完成后对目标检测模型的评价指标AP、mAP、Recall进行分析,如若不满足预期效果则调整棒材训练集和网络循环次数来提高精确率,获得最优参数和评估模型;
视觉单元,其配置来获取棒材堆区域图像;
计算单元,其配置来利用机器学习模块的最优参数检测出棒材堆区域图像中的目标物体,并获取物体在图像中的坐标信息,确定棒材端面坐标;
控制单元,其配置来控制机器人运动到棒材端面坐标;
标刻单元,其配置来进行激光标刻。
9.根据权利要求8所述的基于机器学习的激光标刻装置,其特征在于:其还包括找正单元,其配置来执行激光器的找正对焦。
10.根据权利要求9所述的基于机器学习的激光标刻装置,其特征在于:标刻平台视觉光源采用白色穹顶光源,其半球内壁具有反射涂层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110523053.1A CN113134683A (zh) | 2021-05-13 | 2021-05-13 | 基于机器学习的激光标刻方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110523053.1A CN113134683A (zh) | 2021-05-13 | 2021-05-13 | 基于机器学习的激光标刻方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113134683A true CN113134683A (zh) | 2021-07-20 |
Family
ID=76817542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110523053.1A Pending CN113134683A (zh) | 2021-05-13 | 2021-05-13 | 基于机器学习的激光标刻方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113134683A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113779668A (zh) * | 2021-08-23 | 2021-12-10 | 浙江工业大学 | 一种基坑围护结构位移监测系统 |
CN113895575A (zh) * | 2021-11-15 | 2022-01-07 | 浙江理工大学 | 一种基于阿里云及卷积神经网络算法的水面清洁机器人打捞系统 |
CN114001654A (zh) * | 2021-11-01 | 2022-02-01 | 北京卫星制造厂有限公司 | 工件端面位姿评价方法 |
CN114019921A (zh) * | 2021-11-01 | 2022-02-08 | 碳纪科技(北京)有限公司 | 基于组合模型的生产线设备控制方法、装置、设备及介质 |
CN116245877A (zh) * | 2023-05-08 | 2023-06-09 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133565A (zh) * | 2017-03-31 | 2017-09-05 | 大连理工大学 | 基于线激光的激光刻型线特征提取方法 |
EP3370203A1 (en) * | 2017-03-04 | 2018-09-05 | Wipro Limited | Method and system for marking content on the surface of an object using laser |
CN109033947A (zh) * | 2018-06-11 | 2018-12-18 | 北京航空航天大学 | 基于深度学习的路面遗撒识别方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110370286A (zh) * | 2019-08-13 | 2019-10-25 | 西北工业大学 | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 |
CN110434516A (zh) * | 2019-08-28 | 2019-11-12 | 浙江大学城市学院 | 一种智能焊接机器人系统及焊接方法 |
CN110929795A (zh) * | 2019-11-28 | 2020-03-27 | 桂林电子科技大学 | 高速焊线机焊点快速识别与定位方法 |
CN111079584A (zh) * | 2019-12-03 | 2020-04-28 | 东华大学 | 基于改进YOLOv3的快速车辆检测方法 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN111923053A (zh) * | 2020-04-21 | 2020-11-13 | 广州里工实业有限公司 | 基于深度视觉的工业机器人物件抓取示教系统及方法 |
CN112053336A (zh) * | 2020-08-31 | 2020-12-08 | 中冶赛迪重庆信息技术有限公司 | 一种棒材对齐检测方法、系统、设备及介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
CN112497219A (zh) * | 2020-12-06 | 2021-03-16 | 北京工业大学 | 一种基于目标检测和机器视觉的柱状工件分类定位方法 |
-
2021
- 2021-05-13 CN CN202110523053.1A patent/CN113134683A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3370203A1 (en) * | 2017-03-04 | 2018-09-05 | Wipro Limited | Method and system for marking content on the surface of an object using laser |
CN107133565A (zh) * | 2017-03-31 | 2017-09-05 | 大连理工大学 | 基于线激光的激光刻型线特征提取方法 |
CN109033947A (zh) * | 2018-06-11 | 2018-12-18 | 北京航空航天大学 | 基于深度学习的路面遗撒识别方法 |
CN110298265A (zh) * | 2019-06-10 | 2019-10-01 | 东南大学 | 一种基于yolo神经网络的电梯中特定目标检测方法 |
CN110370286A (zh) * | 2019-08-13 | 2019-10-25 | 西北工业大学 | 基于工业机器人和单目相机的定轴运动刚体空间位置识别方法 |
CN110434516A (zh) * | 2019-08-28 | 2019-11-12 | 浙江大学城市学院 | 一种智能焊接机器人系统及焊接方法 |
CN110929795A (zh) * | 2019-11-28 | 2020-03-27 | 桂林电子科技大学 | 高速焊线机焊点快速识别与定位方法 |
CN111079584A (zh) * | 2019-12-03 | 2020-04-28 | 东华大学 | 基于改进YOLOv3的快速车辆检测方法 |
CN111923053A (zh) * | 2020-04-21 | 2020-11-13 | 广州里工实业有限公司 | 基于深度视觉的工业机器人物件抓取示教系统及方法 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN112053336A (zh) * | 2020-08-31 | 2020-12-08 | 中冶赛迪重庆信息技术有限公司 | 一种棒材对齐检测方法、系统、设备及介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
CN112497219A (zh) * | 2020-12-06 | 2021-03-16 | 北京工业大学 | 一种基于目标检测和机器视觉的柱状工件分类定位方法 |
Non-Patent Citations (2)
Title |
---|
刘幸, 等: "基于激光测距仪的视觉对准技术研究", 《机电工程》 * |
赵伟: "基于激光跟踪测量的机器人定位精度提高技术研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113779668A (zh) * | 2021-08-23 | 2021-12-10 | 浙江工业大学 | 一种基坑围护结构位移监测系统 |
CN113779668B (zh) * | 2021-08-23 | 2023-05-23 | 浙江工业大学 | 一种基坑围护结构位移监测系统 |
CN114001654A (zh) * | 2021-11-01 | 2022-02-01 | 北京卫星制造厂有限公司 | 工件端面位姿评价方法 |
CN114019921A (zh) * | 2021-11-01 | 2022-02-08 | 碳纪科技(北京)有限公司 | 基于组合模型的生产线设备控制方法、装置、设备及介质 |
CN114001654B (zh) * | 2021-11-01 | 2024-03-26 | 北京卫星制造厂有限公司 | 工件端面位姿评价方法 |
CN113895575A (zh) * | 2021-11-15 | 2022-01-07 | 浙江理工大学 | 一种基于阿里云及卷积神经网络算法的水面清洁机器人打捞系统 |
CN113895575B (zh) * | 2021-11-15 | 2023-09-15 | 浙江理工大学 | 一种基于阿里云及卷积神经网络算法的水面清洁机器人打捞系统 |
CN116245877A (zh) * | 2023-05-08 | 2023-06-09 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及系统 |
CN116245877B (zh) * | 2023-05-08 | 2023-11-03 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113134683A (zh) | 基于机器学习的激光标刻方法及装置 | |
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN107356608B (zh) | 大口径熔石英光学元件表面微缺陷快速暗场检测方法 | |
CN107229930B (zh) | 一种指针式仪表数值智能识别方法 | |
CN101458072A (zh) | 一种基于多传感器的三维轮廓测量装置及其测量方法 | |
JPH10253322A (ja) | 空間内で物体を位置指定する方法および装置 | |
CN109238084B (zh) | 一种微型圆孔测量的自动导引方法 | |
CN110146017B (zh) | 工业机器人重复定位精度测量方法 | |
CN109794948A (zh) | 配网带电作业机器人及识别定位方法 | |
CN108090896B (zh) | 木板平整度检测及其机器学习方法、装置及电子设备 | |
CN111968048B (zh) | 电力巡检少样本图像数据增强方法及系统 | |
CN110651686B (zh) | 一种基于割胶机械臂的割胶方法及系统 | |
CN107084671B (zh) | 一种基于三线结构光的凹球直径测量系统及测量方法 | |
CN113324478A (zh) | 一种线结构光的中心提取方法及锻件三维测量方法 | |
CN112733428B (zh) | 一种光学测量的扫描姿态与覆盖路径规划方法 | |
CN114140439A (zh) | 基于深度学习的激光焊接焊缝特征点识别方法及装置 | |
JP2021193400A (ja) | アーチファクトを測定するための方法 | |
CN114331995A (zh) | 一种基于改进2d-icp的多模板匹配实时定位方法 | |
CN109015632A (zh) | 一种机器人手爪末端定位方法 | |
CN113935971A (zh) | 一种复合材料表面缺陷的检测方法及装置 | |
TWI388797B (zh) | Three - dimensional model reconstruction method and its system | |
CN115619738A (zh) | 一种模组侧缝焊焊后检测方法 | |
CN114593897A (zh) | 一种近眼显示器的测量方法及装置 | |
CN116468764A (zh) | 基于超点空间引导的多视图工业点云高精度配准系统 | |
CN111127562A (zh) | 一种单目面阵相机的标定方法及自动标定系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210720 |