CN113634954A - 多传感器融合的焊缝轨迹跟踪方法及系统 - Google Patents
多传感器融合的焊缝轨迹跟踪方法及系统 Download PDFInfo
- Publication number
- CN113634954A CN113634954A CN202110983447.5A CN202110983447A CN113634954A CN 113634954 A CN113634954 A CN 113634954A CN 202110983447 A CN202110983447 A CN 202110983447A CN 113634954 A CN113634954 A CN 113634954A
- Authority
- CN
- China
- Prior art keywords
- welding
- sensor
- touch sensor
- laser vision
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K37/00—Auxiliary devices or processes, not specially adapted to a procedure covered by only one of the preceding main groups
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Abstract
公开了一种多传感器融合的焊缝轨迹跟踪方法,所述方法包括:示教时,通过触觉传感器确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;焊接时,通过激光视觉传感器对焊缝信息进行前置检测;对前述两种传感器多次测量的数据进行拟合,分别建立前述两种传感器对焊缝偏差的观测方程;根据观测方程计算前述两种传感器观测数据的均方误差;根据均方误差分别确定前述两种传感器的加权融合系数;将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果;将所述融合结果输入PID控制器进行焊缝轨迹调节。本发明能实时有效补偿焊接过程中产生的焊缝偏差。
Description
技术领域
本发明涉及机器人焊接技术领域,具体涉及一种多传感器融合的焊缝轨迹跟踪装置及方法。
背景技术
在现代制造业中,焊接是重要的工艺,它被广泛地应用于机械制造、核工业、航空航天、大型建筑等诸多领域。传统人工焊接劳动强度大,工作环境恶劣,利用机器人实现自动焊接已成为趋势。
然而,目前机器人焊接基本上都使用的手工示教,然后复现的方式。该方式存在工作量大,工作效率低,无法检测焊缝质量以及实时调整焊接轨迹等问题。
随着近几年机器视觉、图像处理、智能控制等技术的发展,已出现多种应用于机器人焊接的传感器,机器人焊接中焊缝轨迹跟踪的功能也孕育而生。机器人可以通过焊缝轨迹跟踪功能,确认轨迹跟踪中心位置,实时调整焊枪的位置,确保焊接的质量。
现有的焊缝跟踪的方法主要有电弧跟踪、激光跟踪等。但是电弧跟踪技术还不够成熟。激光跟踪又分为点跟踪和线跟踪。点跟踪是焊接前就用激光检测出焊缝的偏差,焊接时按照检测好的值修正,不过受到焊接变形影响,精确度不是很高。线跟踪采用的是焊接时实时修正,但是对于圆弧形的路径要求半径不能太小。
发明内容
本发明提供的多传感器融合的焊缝轨迹跟踪方法及系统,跟踪精度高,能实时有效补偿焊接过程中产生的焊缝偏差,大幅度提高焊缝的质量。
根据本发明实施例的第一方面,提供一种多传感器融合的焊缝轨迹跟踪方法,包括:
焊接之前先进行示教,通过触觉传感器与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
焊接过程中,通过激光视觉传感器对焊缝信息进行前置检测;
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉传感器和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
将所述第一焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
根据本发明实施例的第二方面,提供一种多传感器融合的焊缝轨迹跟踪方法,包括:
焊接之前先进行示教,通过触觉传感器与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
焊接过程中,通过激光视觉传感器对焊缝信息进行前置检测;
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉传感器和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
根据所述激光视觉传感器和所述触觉传感器测量的数据,分别建立起所述激光视觉传感器和所述触觉传感器的坐标方程;
根据拉格朗日插值法将所述激光视觉传感器和所述触觉传感器坐标方程进行融合,提取出焊缝轨迹偏差的融合结果得到第二焊缝轨迹;
使用三阶样条法将所述第一焊缝轨迹与所述第二焊缝轨迹进行融合得到新的焊缝轨迹;
将所述新的焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
根据本发明实施例的第三方面,提供一种多传感器融合的焊缝轨迹跟踪系统,包括:
触觉传感器,用于在焊接之前的示教阶段与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
激光视觉传感器,用于在焊接过程中对焊缝信息进行前置检测;
处理模块,其被配置为:
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
将所述第一焊缝轨迹输入模糊-PID控制器进行焊缝轨迹调节。
根据本发明实施例的第四方面,提供一种多传感器融合的焊缝轨迹跟踪系统,包括:
触觉传感器,用于在焊接之前的示教阶段与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
激光视觉传感器,用于在焊接过程中对焊缝信息进行前置检测;
处理模块,其被配置为:
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
根据所述激光视觉传感器和所述触觉传感器测量的数据,分别建立起所述激光视觉传感器和所述触觉传感器的坐标方程;
根据拉格朗日插值法将所述激光视觉传感器和所述触觉传感器坐标方程进行融合,提取出焊缝轨迹偏差的融合结果得到第二焊缝轨迹;
使用三阶样条法将所述第一焊缝轨迹与所述第二焊缝轨迹进行融合得到新的焊缝轨迹;
将所述新的焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
在上述的第一方面和/或第二方面和/或第三方面和/或第四方面,所述触觉传感器为焊丝。
本发明的有益效果为:
1、本发明的焊缝轨迹跟踪方法通过多传感器数据融合,与传统单传感器采集数据相比数据采集更为精确。
2、采用模糊-PID控制的方法,提高了对焊缝的识别率。
3、本发明利用对传感器融合技术,可以根据焊缝轨迹与焊接速度的变化进行调整。
4、本发明在多传感器融合过程中,引入了阈值,使得建立的数据观测方程更为准确。
5、采用了本发明焊缝轨迹跟踪方法及系统的焊接机器人使用方便,市场前景广阔。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为本发明一实施例提供的一种焊接系统示意图。
图2为本发明一实施例提供的一种多传感器融合的焊缝轨迹跟踪系统原理图;
图3为本发明一实施例提供的基于最小二乘法的观测方程图。
图4为本发明一实施例提供的视觉触觉所测数据融合图。
图5为本发明一实施例提供的基于拉格朗日插值法的观测方程图。
图6为本发明一实施例提供的基于三阶样条法获取的最终焊缝轨迹。
图7为本发明一实施例提供的平面模糊-PID控制器系统结构框图。
图8为本发明一实施例提供的高度模糊-PID控制器系统结构框图。
具体实施方式
下面结合附图所示的实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述、显然,所描述地实施案例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,本发明中所使用的步骤编号仅是为了方便描述,不作为对步骤执行先后顺序的限定。
本发明提供一种多传感器融合的焊缝轨迹跟踪方法及系统,用于实现焊接机器人的自动焊接。如图1,本发明焊接机器人104上有焊枪103以及焊缝跟踪组件,所述焊缝跟踪组件包括安装在机器人末端执行器105上激光视觉传感器101以及触觉传感器102。
触觉传感器102用于在焊接之前的示教阶段与所需要焊接的部件进行接触,确定焊接轨迹的起点A、终点D以及二者之间的各个插补点(B、C)的位置坐标信息。本发明利用焊丝作为触觉传感器102。焊丝与控制器连接,焊丝、待焊接部件、控制器构成检测回路,焊丝触碰到待焊接部件不同位置时,会产生不同的电信号,进而能实现焊接轨迹的起点、终点以及二者之间的各个插补点的确定。
激光视觉传感器101用于在焊接过程中对焊缝位置坐标信息进行前置检测。术语“前置检测”指在焊接之前进行位置坐标信息的检测来确定焊缝的轨迹坐标。激光视觉传感器101包括相机与结构光线激光器,安装在机器人末端执行器上。
激光视觉传感器101、所述控制器连接到工控机,所述工控机根据激光视觉传感器101、触觉传感器102的检测结果,对焊枪103进行控制,实现焊缝轨迹跟踪,实时有效补偿焊接过程中产生的焊缝偏差,大幅度提高焊缝的质量。
下面结合图2对本发明多传感器融合的焊缝轨迹跟踪方法进行详细说明。
步骤1,焊接之前先进行示教,通过触觉传感器102与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
步骤2,焊接过程中,通过激光视觉传感器101对焊缝信息进行前置检测;
步骤3,分别对激光视觉传感器101和触觉传感器102多次测量的数据进行拟合,分别建立激光视觉传感器101和触觉传感器102对焊缝偏差的观测方程;
步骤4,根据观测方程计算激光视觉传感器101和触觉传感器102观测数据的均方误差;
步骤5,对所述激光视觉传感器观测数据的均方误差的大小与所述激光视觉传感器观测数据的均方误差的大小进行比较,分别确定激光视觉传感器101和触觉传感器102的加权融合系数;
步骤6,将触觉传感器102采集的所述插补点的焊缝偏差信息与激光视觉传感器101前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
步骤7,将所述第一焊缝轨迹输入模糊-PID控制器进行焊缝轨迹调节。分别设计好焊缝宽度纠偏和焊缝高度调节的平面和高度模糊-PID控制器;通过实际的偏差变化范围与给定的模糊论域范围进行试验和计算获取得到量化因子,模糊控制规则表等信息;将各个模糊控制器作为对应PID参数(比例、积分和微分系数)的实时调节器,实现焊接过程PID参数的在线调整;将焊缝宽度、高度偏差的融合结果分别作为平面、高度模糊-PID控制器输入、实现焊缝轨迹的3D跟踪。
下面详细介绍所述第一焊缝轨迹获得方法。
如图3所示,将激光视觉传感器101采集到的信息与触觉传感器102采集到的信息通过图表绘制出来。根据图表中各个坐标点的信息,采用最小二乘法对传感器多次测量的数据进行拟合,建立激光视觉和触觉传感对焊缝偏差的观测方程,具体算法过程如下:
通过python的sklearn库求出相对应的x轴的坐标xi的大小,同理得到相对应的y轴的坐标yi。根据坐标信息建立其所代表的触觉传感器102的焊缝偏差的观测方程:
Y1=H1x1+e1
同理,求出激光视觉传感器101对焊缝偏差的观测方程:
Y2=H2x2+e2
其中H1,H2为根据图3图表信息所拟合的线性观测方程观测的比例系数;e1,e2为该方程在Y轴上的纵坐标。
以触觉传感器101的观测方程为标准,设定阈值为观测方程每个x所对应的y值得波动范围为0.9y至1.1y,滤掉图表中不在阈值范围内的其他坐标,得到一个新的触觉传感器所测得图表,再根据图标中的各个点的坐标通过最小二乘法求取新的触觉传感器的观测方程:
Y1=a1x1+e3
同理,求得视觉传感器所测得的观测方程
Y2=a2x2+e4
其中a1,a2为根据新的线性观测方程观测的比例系数;e3,e4为该方程在Y轴上的纵坐标。
得到相对应的观测方程后,再计算各个传感器观测数据的均方误差,确定激光视觉传感器101和触觉传感器102的加权系数,具体步骤如下所示:
先计算触觉传感器102所测观测数据的均方误差:
同理,求出激光视觉传感器101所测观测数据的均方误差:
通过激光视觉传感器101所测观测数据的均方误差的大小与触觉传感器102所测观测数据的均方误差的大小进行比较,得到对应加权系数的值K,公式如下所示:
K1为触觉传感器102的加权融合系数,K2为激光视觉传感器101的加权融合系数,通过加权融合得到最终的焊接轨迹:
y=K1x+K1e1
最后将触觉传感插补点的焊缝偏差信息与激光视觉传感前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到所述第一焊缝轨迹。
作为替代,在上述多传感器融合的焊缝轨迹跟踪方法中,还进行如下处理,提高焊接精度:根据激光视觉传感器101和触觉传感器102测量的数据,分别建立起激光视觉传感器101和触觉传感器102的坐标方程;根据拉格朗日插值法将激光视觉传感器101和触觉传感器102坐标方程进行融合,提取出焊缝轨迹偏差的融合结果得到第二焊缝轨迹;使用三阶样条法将所述第一焊缝轨迹与所述第二焊缝轨迹进行融合得到新的焊缝轨迹;将所述新的焊缝轨迹输入模糊-PID控制器进行焊缝轨迹调节。
下面详细介绍所述第二焊缝轨迹获得方法。
将两类传感器所得到的各个点的坐标信息通过图表绘制出来,得到触觉传感器102的坐标信息与激光视觉传感器101的坐标信息,将两个图表绘制于一个坐标轴内,得到一个新的散点图,如图4所示,其中每个x轴对应两个y轴坐标,取两个y轴坐标的平均值,得到一个新的图表。
对新图表采用拉格朗日插值法进行拟合,如图5所示,过程如下:
将图表中各个点的信息带入L1(x)函数求解出的融合的拟合函数(焊缝轨迹函数)。
将两个融合的最终函数对应的坐标画入另一个坐标系中,同样,该坐标系中的每个x坐标对应两个y值,求出每两个y值的平均值得到n个新的x,y坐标。如图6,通过三阶样条法拟合出最终的函数图像,其公式如下:
Si=aix3+bix2+cix+d,i=1,2,...,n-1
Si(xi)=yi,i=1,2,...,n-1
Si(xi+1)=yi+1,i=1,2,...,n-1
Si'(xi+1)=Si+1'(xi+1),i=1,2,...,n-1
Si”(xi+1)=Si+1”(xi+1),i=1,2,...,n-1
其中a,b,c,d分别为所设3阶函数的系数。
在得到融合结果之后,通过基于融合信息的焊缝轨迹模糊-PID控制进行调节,具体过程如下:
先分别设计焊缝宽度纠偏和焊缝高度调节的平面和高度模糊-PID控制器,整个控制器为一个闭环的控制系统,如图7、8所示。将焊缝的高度以及宽度偏差信息的融合结果以及当前焊接点的X,Y轴坐标信息分别作为平面、高度模糊-PID控制器进行输入。通过实际的融合宽度与高度偏差信息的大小M1,设计好对应的模糊控制的论域的大小N1,以及实际的融合宽度与高度偏差变化率的大小M2,设计好对应的模糊控制的论域的大小N2根据公式:
K1=N1/M1
K2=N2/M2
经验值确定K1、K2的大小,通过K1、K2的计算得出相应的e1以及ec1的大小,根据提前设计好的论域的大小,将论域均分为7档,即{NB,NM,NS,ZE,PS,PM,PB}确定相对应的模糊控制规则,通过表格的信息将各个模糊控制器作为对应PID的比例、积分和微分系数的实时调节器,实现对焊接过程PID参数的在线调整。最后实现对整个焊枪的位姿进行实时的3D调整达到一个焊缝轨迹跟踪的效果。
Claims (8)
1.一种多传感器融合的焊缝轨迹跟踪方法,其特征在于,包括:
焊接之前先进行示教,通过触觉传感器与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
焊接过程中,通过激光视觉传感器对焊缝信息进行前置检测;
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉传感器和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
将所述第一焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
2.根据权利要求1所述的多传感器融合的焊缝轨迹跟踪方法,其特征在于,所述触觉传感器为焊丝。
3.一种多传感器融合的焊缝轨迹跟踪方法,其特征在于,包括:
焊接之前先进行示教,通过触觉传感器与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
焊接过程中,通过激光视觉传感器对焊缝信息进行前置检测;
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉传感器和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
根据所述激光视觉传感器和所述触觉传感器测量的数据,分别建立起所述激光视觉传感器和所述触觉传感器的坐标方程;
根据拉格朗日插值法将所述激光视觉传感器和所述触觉传感器坐标方程进行融合,提取出焊缝轨迹偏差的融合结果得到第二焊缝轨迹;
使用三阶样条法将所述第一焊缝轨迹与所述第二焊缝轨迹进行融合得到新的焊缝轨迹;
将所述新的焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
4.根据权利要求3所述的多传感器融合的焊缝轨迹跟踪方法,其特征在于,所述触觉传感器为焊丝。
5.一种多传感器融合的焊缝轨迹跟踪系统,其特征在于,包括:
触觉传感器,用于在焊接之前的示教阶段与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
激光视觉传感器,用于在焊接过程中对焊缝信息进行前置检测;
处理模块,其被配置为:
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
将所述第一焊缝轨迹输入模糊-PID控制器进行焊缝轨迹调节。
6.根据权利要求5所述的多传感器融合的焊缝轨迹跟踪系统,其特征在于,所述触觉传感器为焊丝。
7.一种多传感器融合的焊缝轨迹跟踪系统,其特征在于,包括:
触觉传感器,用于在焊接之前的示教阶段与所需要焊接的部件进行接触,确定焊接轨迹的起点、终点以及二者之间的各个插补点的信息;
激光视觉传感器,用于在焊接过程中对焊缝信息进行前置检测;
处理模块,其被配置为:
分别对所述激光视觉传感器和所述触觉传感器多次测量的数据进行拟合,分别建立所述激光视觉传感器和所述触觉传感器对焊缝偏差的观测方程;
根据观测方程计算所述激光视觉传感器和所述触觉传感器观测数据的均方误差;
对所述激光视觉传感器观测数据的均方误差的大小与所述触觉传感器观测数据的均方误差的大小进行比较,分别确定所述激光视觉和所述触觉传感器的加权融合系数;
将所述触觉传感器采集的所述插补点的焊缝偏差信息与所述激光视觉传感器前置检测的焊缝偏差信息进行加权融合,提取出焊缝轨迹偏差的融合结果得到第一焊缝轨迹;
根据所述激光视觉传感器和所述触觉传感器测量的数据,分别建立起所述激光视觉传感器和所述触觉传感器的坐标方程;
根据拉格朗日插值法将所述激光视觉传感器和所述触觉传感器坐标方程进行融合,提取出焊缝轨迹偏差的融合结果得到第二焊缝轨迹;
使用三阶样条法将所述第一焊缝轨迹与所述第二焊缝轨迹进行融合得到新的焊缝轨迹;
将所述新的焊缝轨迹输入模糊-PID进行焊缝轨迹调节。
8.根据权利要求7所述的多传感器融合的焊缝轨迹跟踪系统,其特征在于,所述触觉传感器为焊丝。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110983447.5A CN113634954B (zh) | 2021-08-25 | 2021-08-25 | 多传感器融合的焊缝轨迹跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110983447.5A CN113634954B (zh) | 2021-08-25 | 2021-08-25 | 多传感器融合的焊缝轨迹跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113634954A true CN113634954A (zh) | 2021-11-12 |
CN113634954B CN113634954B (zh) | 2022-07-05 |
Family
ID=78423944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110983447.5A Active CN113634954B (zh) | 2021-08-25 | 2021-08-25 | 多传感器融合的焊缝轨迹跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113634954B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114789288A (zh) * | 2022-04-24 | 2022-07-26 | 湘潭大学 | 基于涡流及双目线阵视觉复合传感的焊缝三维定位跟踪方法 |
CN115609113A (zh) * | 2022-09-14 | 2023-01-17 | 湘潭大学 | 一种应用于整流器的tig焊视觉、接触双传感融合传感器 |
CN115805358A (zh) * | 2023-02-01 | 2023-03-17 | 南通华泰信息科技有限公司 | 一种基于模糊控制的信息集成系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010013511A1 (en) * | 2000-02-11 | 2001-08-16 | Sung-Jin Hong | Method for correcting teaching points for welding robot and welding robot system employing the same |
WO2004089570A1 (de) * | 2003-04-07 | 2004-10-21 | Fronius International Gmbh | Nahtverfolgungssensor für schweissroboter |
KR100859334B1 (ko) * | 2006-12-29 | 2008-09-19 | 삼성중공업 주식회사 | 아크 센서와 레이저비젼 센서를 이용한 용접선 추적 및끝단부 감지 방법 및 시스템 |
CN101829835A (zh) * | 2010-04-27 | 2010-09-15 | 南京航空航天大学 | 一种焊缝自动跟踪方法及装置 |
CN106041380A (zh) * | 2016-06-16 | 2016-10-26 | 嘉兴职业技术学院 | 基于离线规划的焊缝跟踪系统及方法 |
CN205989108U (zh) * | 2016-09-12 | 2017-03-01 | 阳江东华激光智能科技有限公司 | 一种刀柄机器人焊接系统 |
CN108202185A (zh) * | 2018-01-17 | 2018-06-26 | 湘潭大学 | 一种基于双传感式的管管相交相贯线焊缝跟踪方法 |
CN111331248A (zh) * | 2020-02-22 | 2020-06-26 | 武汉新耐视智能科技有限责任公司 | 一种触觉跟踪的激光搅拌焊接装置 |
CN112894223A (zh) * | 2021-01-16 | 2021-06-04 | 佛山市广凡机器人有限公司 | 一种多方位转向型自动化焊接机器人 |
-
2021
- 2021-08-25 CN CN202110983447.5A patent/CN113634954B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010013511A1 (en) * | 2000-02-11 | 2001-08-16 | Sung-Jin Hong | Method for correcting teaching points for welding robot and welding robot system employing the same |
WO2004089570A1 (de) * | 2003-04-07 | 2004-10-21 | Fronius International Gmbh | Nahtverfolgungssensor für schweissroboter |
KR100859334B1 (ko) * | 2006-12-29 | 2008-09-19 | 삼성중공업 주식회사 | 아크 센서와 레이저비젼 센서를 이용한 용접선 추적 및끝단부 감지 방법 및 시스템 |
CN101829835A (zh) * | 2010-04-27 | 2010-09-15 | 南京航空航天大学 | 一种焊缝自动跟踪方法及装置 |
CN106041380A (zh) * | 2016-06-16 | 2016-10-26 | 嘉兴职业技术学院 | 基于离线规划的焊缝跟踪系统及方法 |
CN205989108U (zh) * | 2016-09-12 | 2017-03-01 | 阳江东华激光智能科技有限公司 | 一种刀柄机器人焊接系统 |
CN108202185A (zh) * | 2018-01-17 | 2018-06-26 | 湘潭大学 | 一种基于双传感式的管管相交相贯线焊缝跟踪方法 |
CN111331248A (zh) * | 2020-02-22 | 2020-06-26 | 武汉新耐视智能科技有限责任公司 | 一种触觉跟踪的激光搅拌焊接装置 |
CN112894223A (zh) * | 2021-01-16 | 2021-06-04 | 佛山市广凡机器人有限公司 | 一种多方位转向型自动化焊接机器人 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114789288A (zh) * | 2022-04-24 | 2022-07-26 | 湘潭大学 | 基于涡流及双目线阵视觉复合传感的焊缝三维定位跟踪方法 |
CN115609113A (zh) * | 2022-09-14 | 2023-01-17 | 湘潭大学 | 一种应用于整流器的tig焊视觉、接触双传感融合传感器 |
CN115609113B (zh) * | 2022-09-14 | 2024-04-12 | 湘潭大学 | 一种应用于整流器的tig焊视觉、接触双传感融合传感器 |
CN115805358A (zh) * | 2023-02-01 | 2023-03-17 | 南通华泰信息科技有限公司 | 一种基于模糊控制的信息集成系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113634954B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113634954B (zh) | 多传感器融合的焊缝轨迹跟踪方法及系统 | |
CN106624262B (zh) | 一种智能焊接圆管相贯线的方法 | |
CN108982546B (zh) | 一种智能机器人涂胶质量检测系统及方法 | |
Xu et al. | Welding seam tracking in robotic gas metal arc welding | |
He et al. | Autonomous detection of weld seam profiles via a model of saliency-based visual attention for robotic arc welding | |
CN104384765B (zh) | 基于三维模型与机器视觉的自动焊接方法 | |
Zou et al. | A seam tracking system based on a laser vision sensor | |
CN113634964B (zh) | 一种大型构件龙门式机器人焊接装备及焊接工艺 | |
Ma et al. | Robot welding seam tracking method based on passive vision for thin plate closed-gap butt welding | |
Ye et al. | Passive vision based seam tracking system for pulse-MAG welding | |
CN104588838A (zh) | 一种焊枪自动跟踪控制并在线修正系统及其控制方法 | |
Chen et al. | A robust visual servo control system for narrow seam double head welding robot | |
Hou et al. | A teaching-free welding method based on laser visual sensing system in robotic GMAW | |
CN203791807U (zh) | 一种焊接机器人 | |
Chen et al. | Robotic welding systems with vision-sensing and self-learning neuron control of arc welding dynamic process | |
Aviles-Viñas et al. | On-line learning of welding bead geometry in industrial robots | |
CN103418950A (zh) | 工业焊接机器人焊缝跟踪过程位姿自动调整方法 | |
CN105643062B (zh) | 基于旋转电弧的复杂曲面形状识别及焊枪位姿控制方法 | |
Rout et al. | Weld seam detection, finding, and setting of process parameters for varying weld gap by the utilization of laser and vision sensor in robotic arc welding | |
Ma et al. | Efficient and accurate start point guiding and seam tracking method for curve weld based on structure light | |
Geng et al. | A novel seam extraction and path planning method for robotic welding of medium-thickness plate structural parts based on 3D vision | |
Zhao et al. | Additive seam tracking technology based on laser vision | |
CN112191993A (zh) | 一种氩弧焊焊缝跟踪系统及方法 | |
Gao et al. | A method of feature extraction of position detection and weld gap for GMAW seam tracking system of fillet weld with variable gaps | |
CN113119122A (zh) | 一种机器人焊接系统的混合离线编程方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |