CN107745207A - 一种三维焊接机器人混合控制方法 - Google Patents

一种三维焊接机器人混合控制方法 Download PDF

Info

Publication number
CN107745207A
CN107745207A CN201710967269.0A CN201710967269A CN107745207A CN 107745207 A CN107745207 A CN 107745207A CN 201710967269 A CN201710967269 A CN 201710967269A CN 107745207 A CN107745207 A CN 107745207A
Authority
CN
China
Prior art keywords
welding
image
robot
information
personal computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710967269.0A
Other languages
English (en)
Inventor
杨道国
苗国强
郝卫东
魏尧
曹冬旺
淮旭鸽
李静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201710967269.0A priority Critical patent/CN107745207A/zh
Publication of CN107745207A publication Critical patent/CN107745207A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K37/00Auxiliary devices or processes, not specially adapted to a procedure covered by only one of the preceding main groups
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K37/00Auxiliary devices or processes, not specially adapted to a procedure covered by only one of the preceding main groups
    • B23K37/02Carriages for supporting the welding or cutting element
    • B23K37/0252Steering means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明属于焊接机械技术领域,公开了一种三维焊接机器人混合控制方法,通过建立图像识别系统可以提供焊接识别的精准性,同时采用的激光视觉传感系统,具有主动性、非接触的特点,能获取准确物体的三维信息、灵敏度精度高、抗电磁场干扰能力强;控制系统运用4类传感器,各传感器协同复合工作,大大增加了机器人运动轨迹的精确性提高了工件焊缝的质量,并且对机器人的各种状态实时监控,减少了出错的可能性;整个控制系统可以随着焊接条件和环境的变化自动对机器人的工作方式进行调整,焊接机器人对焊接条件的要求降低,自适应能力增强,可靠性提高。

Description

一种三维焊接机器人混合控制方法
技术领域
本发明属于焊接机械技术领域,尤其涉及一种三维焊接机器人混合控制方法。
背景技术
焊接机器人是从事焊接(包括切割与喷涂)的工业机器人。根据国际标准化组织(ISO)工业机器人属于标准焊接机器人的定义,工业机器人是一种多用途的、可重复编程的自动控制操作机(Manipulator),具有三个或更多可编程的轴,用于工业自动化领域。为了适应不同的用途,机器人最后一个轴的机械接口,通常是一个连接法兰,可接装不同工具或称末端执行器。焊接机器人就是在工业机器人的末轴法兰装接焊钳或焊(割)枪的,使之能进行焊接,切割或热喷涂。然而,现有焊接机器人对工件焊接识别度不高,容易出现焊接错位;缺乏监控机制,焊接质量差。
综上所述,现有技术存在的问题是:现有焊接机器人对工件焊接识别度不高,容易出现焊接错位;缺乏监控机制,焊接质量差。
发明内容
针对现有技术存在的问题,本发明提供了一种三维焊接机器人混合控制方法。
本发明是这样实现的,一种三维焊接机器人混合控制方法包括以下步骤:
步骤一,对待焊件的焊接点进行图像标记;所述图像标记的获取方法包括:通过摄像装置获取待焊件的焊接点的实时图像信息;通过视频采集模块,与所述摄像装置相连,适于将采集得的图像变换为数字图像;与所述视频采集模块相连的图像处理模块,该图像处理模块存储有第一样本数据,所述第一样本数据适于记录各种焊接点的灰度值;与所述图像处理模块相连的用于接收远程控制信号并输出焊接点情况的无线通讯模块;无线通讯模块设置有信任值计算模块;所述图像处理模块适于对所述数字图像进行灰度处理,以获得所述待焊件的焊接点的灰度值,该灰度值与第一样本数据进行比对得出焊接点焊接情况,并进行标记,图像处理模块包括高光谱图像色彩可视化模块;所述高光谱图像色彩可视化模块的实现方法包括以下步骤:
第一步,对于高光谱图像数据的每个像素,由各谱段的灰度值计算出辐亮度值,并进行归一化构成一条光谱曲线;采用各像素在各谱段的灰度值计算出辐亮度值以构成光谱曲线,具体包括以下步骤:
1)对于光谱成像仪器进行定标,选取5个~10个定标灰度值D测量对应的定标辐亮度值F,采用最小二乘法拟合出下式映射表达式的参数α、β、ε,从而对被测区域的每个像素,将各谱段的灰度值代入下式计算辐亮度值;
D=αFβ+ε;
2)以最大灰度值Dmax对应的辐亮度值Fmax为基准,将每个像素在各谱段的辐亮度值进行归一化,构成一条光谱曲线;
第二步,针对每个像素在步骤一所获的光谱曲线,采用Savitzky-Golay滤波器进行平滑处理,在保留较多曲线特征的基础上消除光谱噪声,得到各像素平滑后的光谱曲线
第三步,将步骤二所获各像素平滑后的光谱曲线结合CIE1931标准色度系统的色匹配函数采用下式计算得CIE1931标准色度系统下的CIEXYZ三刺激值
(X,Y,Z),其中Δλ是成像光谱仪器的光谱采样间隔;
第四步,根据标准照明体D65的三刺激值(XD65,YD65,ZD65),通过下式将步骤三所获每个像素的CIEXYZ三刺激值转换至均匀色彩感知空间CIEL*C*h*,获得三个色彩感知参量,即明度彩度及色调h1,
其中,XD65=95.047,YD65=100,ZD65=108.883;
第五步,设置明度系数kL、彩度系数kC和色调系数kh的取值,通过下式调制第四步所获各像素的明度彩度及色调h1,得到调制后的色彩感知参量,即明度彩度及色调h2,使可视化效果满足保真复现需求,则kL=kC=1,kh=0,改变kL实现调节图像明暗的需求,改变kC实现调节图像鲜艳程度的需求,改变kh实现调节图像白平衡的需求;
第六步,根据显示设备的白点三刺激值(XW,YW,ZW),通过下式,将步骤五所获各像素的明度彩度及色调h2转换至在显示设备上待显示的CIEXYZ值(X′,Y′,Z′);
第七步,根据显示设备红、绿、蓝三通道的原色三刺激值(XRmax,YRmax,ZRmax)、(XGmax,YGmax,ZGmax)、(XBmax,YBmax,ZBmax)结合三通道的伽马系数γR、γG、γB,建立起如下式的特征化模型,通过特征化模型,第六步所获各像素的CIEXYZ值(X′,Y′,Z′)计算至对应的数字驱动值(dR,dG,dB),即完成了高光谱图像的色彩可视化,其中N是显示设备单通道的存储位数;
步骤二,建立图像识别系统;
将焊接点的图像标记录入图像识别系统,系统设置为识别图像中白色的部分,图像识别系统基于摄像头和DSP芯片,将所需识别的颜色,图案录入图像识别系统,同时,采用OCR识别技术,将颜色进行二值化,将图案录入字符识别库;
步骤三,图像识别系统与焊接机器人进匹配;
对图像识别系统与焊接机器人内部的三轴坐标系进行统一标准化,图像识别系统在识别图像的同时可以进行距离测定从而分析待测点的三维坐标。
步骤四,生成三维模型;
焊接机器人根据图像识别系统将焊件扫描成三维模型,导入主工控机,然后通过无线装置直接在三维模型上指定焊接信息,包括焊缝的位置,长度,焊枪摆动方式;当焊接工件需要批量生产时,可以通过条形码识别系统,读取工件焊接条形码的焊接信息,然后将信息送到主工控机;由工控机将条形码信息转化成焊接信号;主工控机将扫描出来的三维模型信息和焊接信息生成程序代码,发送给机器人的驱动装置,通过无线装置发出启动信息,机器人开始动作;
步骤五,信号传输;
传感器随机器人同时启动,主工控机将接收到的信号进行分析处理并完成人机交互功能、焊接机器人的力学计算,控制系统解算,形成控制误差信号通过通信装置传送给主工控机;主工控机接收传感器测得驱动装置中交流伺服电机的转角与转速信号,并构成反馈;
步骤六,焊接参数修正;
当焊枪与工件距离达到已设定值,传感器向主工控机发出焊接启动信号,主工控机控制焊机进行工作,焊接开始后,接近传感器根据焊丝距离工件的距离,对焊枪的姿态摆动进行辅助控制;激光视觉传感系统将接收到熔池图像信息送到图像采集卡,图像采集卡对图像进行预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机,对焊枪的焊接参数进行反馈修改,保证焊接机器人对焊接条件变化后的适应性;
步骤七,启动操作。
操作者通过无线装置对机器人的启动,急停进行操作;根据焊件的形状手动进行各种点,直线圆弧的插补。
进一步,所述的激光视觉传感系统包括激光器、CCD摄像头、滤光片和图样采集卡;通过CCD摄像头成像后,图像采集卡对相应的图像信息进行采集,并且进行图像预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机。
进一步,所述的传感器为光电编码器、测力传感器、接近传感器和激光视觉传感器;所述的光电编码器安装在驱动装置中的交流伺服电机上,在机器人的力臂上下各安装一测力传感器,接近传感器和激光视觉传感器均安装在焊枪上。
进一步,所述图像识别系统DSP芯片的识别方法包括:
对于每一路图像信号,按照下述公式对所述图像信号中的每一帧图像信号进行噪声跟踪,获取每一帧图像信号的噪声谱N(w,n):
其中,X(w,n)表示所述图像信号的短时傅里叶变换;αu、αd为预设系数且0<αd<αu<1;w表示频域上的频点序号;n表示时域上的帧序号。
进一步,按照下述公式对每一帧图像信号的短时傅里叶变换进行二值化处理得到二值谱Xb(w,n):
Tb为预设第一阈值;
将其中一路图像信号对应的Ka个二值谱与另一路图像信号对应的Kb个二值谱进行两两间的相干性匹配得到所述第一匹配结果,所述第一匹配结果包括匹配度最高的一组二值谱对应的匹配位置和匹配度,Ka、Kb均为正整数。
进一步,对于每一路图像信号,按照下述公式计算所述图像信号中的每一帧图像信号的功率谱P(w,n):
P(w,n)=αpP(w,n-1)+(l-αp)|X(w,n)|2
其中,X(w,n)表示所述图像信号的短时傅里叶变换;
αp为预设系数且0<αp<1;w表示频域上的频点序号;n表示时域上的帧序号;
按照下述公式计算每一帧图像信号的功率谱的谱间相关性DP(w,n):
DP(w,n)=|P(w+1,n)-P(w,n)|
按照下述公式对所述谱间相关性DP(w,n)进行噪声跟踪,获取每一帧图像信号的噪声功率谱的谱间相关性NDP(w,n):
其中,βu、βd为预设系数且0<βd<βu<1。
本发明的优点及积极效果为:发明通过建立图像识别系统可以提供焊接识别的精准性,同时采用的激光视觉传感系统,具有主动性、非接触的特点,能获取准确物体的三维信息、灵敏度精度高、抗电磁场干扰能力强;控制系统运用4类传感器,各传感器协同复合工作,大大增加了机器人运动轨迹的精确性提高了工件焊缝的质量,并且对机器人的各种状态实时监控,减少了出错的可能性;整个控制系统可以随着焊接条件和环境的变化自动对机器人的工作方式进行调整,焊接机器人对焊接条件的要求降低,自适应能力增强,可靠性提高。
本发明可以有效引入不同焊接点间表色参数方面的影响,使不同设备以不同数字驱动值显示相同的色彩感知参量,有效解决了色彩可视化效果因焊枪而异的问题;此外,本发明提出了以明度因数kL、彩度系数kC和色调系数kh调节色彩感知参量的方法,可以通过制定对明度、彩度、色调等参量的调制要求,满足不同类型的焊接点色彩复现需求。本发明针对高光谱图像进行色彩可视化,使焊接点观察结果与焊接点质量均能保持一致性良好,本发明的图像标记方法实施简单,实用,适用性强。
本发明的图像识别方法,提高了图像识别的效率和准确率;提高了焊接点的质量,本发明的图像识别方法有利于焊接点图像的真实采集和识别。
附图说明
图1是本发明实施例提供的三维焊接机器人混合控制方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作进一步描述。
如图1所示,本发明实施例提供的三维焊接机器人混合控制方法包括以下步骤:
S101,对待焊件的焊接点进行图像标记;
S102,建立图像识别系统;
S103,图像识别系统与焊接机器人进匹配;
S104,生成三维模型;
S105,信号传输;
S106,焊接参数修正;
S107,启动操作。
下面结合具体分析对本发明作进一步描述。
S101中,对待焊件的焊接点进行图像标记;
所述图像标记的获取方法包括:通过摄像装置获取待焊件的焊接点的实时图像信息;通过视频采集模块,与所述摄像装置相连,适于将采集得的图像变换为数字图像;与所述视频采集模块相连的图像处理模块,该图像处理模块存储有第一样本数据,所述第一样本数据适于记录各种焊接点的灰度值;与所述图像处理模块相连的用于接收远程控制信号并输出焊接点情况的无线通讯模块;无线通讯模块设置有信任值计算模块;所述图像处理模块适于对所述数字图像进行灰度处理,以获得所述待焊件的焊接点的灰度值,该灰度值与第一样本数据进行比对得出焊接点焊接情况,并进行标记,图像处理模块包括高光谱图像色彩可视化模块;所述高光谱图像色彩可视化模块的实现方法包括以下步骤:
第一步,对于高光谱图像数据的每个像素,由各谱段的灰度值计算出辐亮度值,并进行归一化构成一条光谱曲线;采用各像素在各谱段的灰度值计算出辐亮度值以构成光谱曲线,具体包括以下步骤:
1)对于光谱成像仪器进行定标,选取5个~10个定标灰度值D测量对应的定标辐亮度值F,采用最小二乘法拟合出下式映射表达式的参数α、β、ε,从而对被测区域的每个像素,将各谱段的灰度值代入下式计算辐亮度值;
D=αFβ+ε;
2)以最大灰度值Dmax对应的辐亮度值Fmax为基准,将每个像素在各谱段的辐亮度值进行归一化,构成一条光谱曲线;
第二步,针对每个像素在步骤一所获的光谱曲线,采用Savitzky-Golay滤波器进行平滑处理,在保留较多曲线特征的基础上消除光谱噪声,得到各像素平滑后的光谱曲线
第三步,将步骤二所获各像素平滑后的光谱曲线结合CIE1931标准色度系统的色匹配函数采用下式计算得CIE1931标准色度系统下的CIEXYZ三刺激值
(X,Y,Z),其中Δλ是成像光谱仪器的光谱采样间隔;
第四步,根据标准照明体D65的三刺激值(XD65,YD65,ZD65),通过下式将步骤三所获每个像素的CIEXYZ三刺激值转换至均匀色彩感知空间CIEL*C*h*,获得三个色彩感知参量,即明度彩度及色调h1,
其中,XD65=95.047,YD65=100,ZD65=108.883;
第五步,设置明度系数kL、彩度系数kC和色调系数kh的取值,通过下式调制第四步所获各像素的明度彩度及色调h1,得到调制后的色彩感知参量,即明度彩度及色调h2,使可视化效果满足保真复现需求,则kL=kC=1,kh=0,改变kL实现调节图像明暗的需求,改变kC实现调节图像鲜艳程度的需求,改变kh实现调节图像白平衡的需求;
第六步,根据显示设备的白点三刺激值(XW,YW,ZW),通过下式,将步骤五所获各像素的明度彩度及色调h2转换至在显示设备上待显示的CIEXYZ值(X′,Y′,Z′);
第七步,根据显示设备红、绿、蓝三通道的原色三刺激值(XRmax,YRmax,ZRmax)、(XGmax,YGmax,ZGmax)、(XBmax,YBmax,ZBmax)结合三通道的伽马系数γR、γG、γB,建立起如下式的特征化模型,通过特征化模型,第六步所获各像素的CIEXYZ值(X′,Y′,Z′)计算至对应的数字驱动值(dR,dG,dB),即完成了高光谱图像的色彩可视化,其中N是显示设备单通道的存储位数;
S102中,建立图像识别系统;
将焊接点的图像标记录入图像识别系统,系统设置为识别图像中白色的部分,图像识别系统基于摄像头和DSP芯片,将所需识别的颜色,图案录入图像识别系统,同时,采用OCR识别技术,将颜色进行二值化,将图案录入字符识别库;
S103中,图像识别系统与焊接机器人进匹配;
对图像识别系统与焊接机器人内部的三轴坐标系进行统一标准化,图像识别系统在识别图像的同时可以进行距离测定从而分析待测点的三维坐标。
S104中,生成三维模型;
焊接机器人根据图像识别系统将焊件扫描成三维模型,导入主工控机,然后通过无线装置直接在三维模型上指定焊接信息,包括焊缝的位置,长度,焊枪摆动方式;当焊接工件需要批量生产时,可以通过条形码识别系统,读取工件焊接条形码的焊接信息,然后将信息送到主工控机;由工控机将条形码信息转化成焊接信号;主工控机将扫描出来的三维模型信息和焊接信息生成程序代码,发送给机器人的驱动装置,通过无线装置发出启动信息,机器人开始动作;
S105中,信号传输;
传感器随机器人同时启动,主工控机将接收到的信号进行分析处理并完成人机交互功能、焊接机器人的力学计算,控制系统解算,形成控制误差信号通过通信装置传送给主工控机;主工控机接收传感器测得驱动装置中交流伺服电机的转角与转速信号,并构成反馈;
S106中,焊接参数修正;
当焊枪与工件距离达到已设定值,传感器向主工控机发出焊接启动信号,主工控机控制焊机进行工作,焊接开始后,接近传感器根据焊丝距离工件的距离,对焊枪的姿态摆动进行辅助控制;激光视觉传感系统将接收到熔池图像信息送到图像采集卡,图像采集卡对图像进行预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机,对焊枪的焊接参数进行反馈修改,保证焊接机器人对焊接条件变化后的适应性;
S107中,启动操作。
操作者通过无线装置对机器人的启动,急停进行操作;根据焊件的形状手动进行各种点,直线圆弧的插补。
本发明提供步骤S106中激光视觉传感系统包括激光器、CCD摄像头、滤光片和图样采集卡;通过CCD摄像头成像后,图像采集卡对相应的图像信息进行采集,并且进行图像预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机。
本发明提供步骤S105传感器为光电编码器、测力传感器、接近传感器和激光视觉传感器;所述的光电编码器安装在驱动装置中的交流伺服电机上,在机器人的力臂上下各安装一测力传感器,接近传感器和激光视觉传感器均安装在焊枪上。
本发明的图像识别系统DSP芯片的识别方法包括:
对于每一路图像信号,按照下述公式对所述图像信号中的每一帧图像信号进行噪声跟踪,获取每一帧图像信号的噪声谱N(w,n):
其中,X(w,n)表示所述图像信号的短时傅里叶变换;αu、αd为预设系数且0<αd<αu<1;w表示频域上的频点序号;n表示时域上的帧序号。
按照下述公式对每一帧图像信号的短时傅里叶变换进行二值化处理得到二值谱Xb(w,n):
Tb为预设第一阈值;
将其中一路图像信号对应的Ka个二值谱与另一路图像信号对应的Kb个二值谱进行两两间的相干性匹配得到所述第一匹配结果,所述第一匹配结果包括匹配度最高的一组二值谱对应的匹配位置和匹配度,Ka、Kb均为正整数。
对于每一路图像信号,按照下述公式计算所述图像信号中的每一帧图像信号的功率谱P(w,n):
p(w,n)=αpP(w,n-1)+(1-αp)|X(w,n)|2
其中,X(w,n)表示所述图像信号的短时傅里叶变换;
αp为预设系数且0<αp<1;w表示频域上的频点序号;n表示时域上的帧序号;
按照下述公式计算每一帧图像信号的功率谱的谱间相关性DP(w,n):
DP(w,n)=|P(w+1,n)-P(w,n)|
按照下述公式对所述谱间相关性DP(w,n)进行噪声跟踪,获取每一帧图像信号的噪声功率谱的谱间相关性NDP(w,n):
其中,βu、βd为预设系数且0<βd<βu<1。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种三维焊接机器人混合控制方法,其特征在于,所述三维焊接机器人混合控制方法包括以下步骤:
步骤一,对待焊件的焊接点进行图像标记;所述图像标记的获取方法包括:通过摄像装置获取待焊件的焊接点的实时图像信息;通过视频采集模块,与所述摄像装置相连,适于将采集得的图像变换为数字图像;与所述视频采集模块相连的图像处理模块,该图像处理模块存储有第一样本数据,所述第一样本数据适于记录各种焊接点的灰度值;与所述图像处理模块相连的用于接收远程控制信号并输出焊接点情况的无线通讯模块;无线通讯模块设置有信任值计算模块;所述图像处理模块适于对所述数字图像进行灰度处理,以获得所述待焊件的焊接点的灰度值,该灰度值与第一样本数据进行比对得出焊接点焊接情况,并进行标记,图像处理模块包括高光谱图像色彩可视化模块;所述高光谱图像色彩可视化模块的实现方法包括以下步骤:
第一步,对于高光谱图像数据的每个像素,由各谱段的灰度值计算出辐亮度值,并进行归一化构成一条光谱曲线;采用各像素在各谱段的灰度值计算出辐亮度值以构成光谱曲线,具体包括以下步骤:
1)对于光谱成像仪器进行定标,选取5个~10个定标灰度值D测量对应的定标辐亮度值F,采用最小二乘法拟合出下式映射表达式的参数α、β、ε,从而对被测区域的每个像素,将各谱段的灰度值代入下式计算辐亮度值;
D=αFβ+ε;
2)以最大灰度值Dmax对应的辐亮度值Fmax为基准,将每个像素在各谱段的辐亮度值进行归一化,构成一条光谱曲线;
第二步,针对每个像素在步骤一所获的光谱曲线,采用Savitzky-Golay滤波器进行平滑处理,在保留较多曲线特征的基础上消除光谱噪声,得到各像素平滑后的光谱曲线
第三步,将步骤二所获各像素平滑后的光谱曲线结合CIE1931标准色度系统的色匹配函数采用下式计算得CIE1931标准色度系统下的CIEXYZ三刺激值
(X,Y,Z),其中Δλ是成像光谱仪器的光谱采样间隔;
第四步,根据标准照明体D65的三刺激值(XD65,YD65,ZD65),通过下式将步骤三所获每个像素的CIEXYZ三刺激值转换至均匀色彩感知空间CIEL*C*h*,获得三个色彩感知参量,即明度彩度及色调h1,
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>L</mi> <mn>1</mn> <mo>*</mo> </msubsup> <mo>=</mo> <mn>116</mn> <mi>f</mi> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mn>16</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>=</mo> <mn>500</mn> <mo>&amp;lsqb;</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>=</mo> <mn>200</mn> <mo>&amp;lsqb;</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> </mtd> <mtd> <mrow> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>7.787</mn> <mrow> <mo>(</mo> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> </mrow> </mtd> <mtd> <mrow> <mi>X</mi> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> </mtd> <mtd> <mrow> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>7.787</mn> <mrow> <mo>(</mo> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> </mrow> </mtd> <mtd> <mrow> <mi>Y</mi> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>D</mi> <mn>65</mn> </mrow> </msub> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>64</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>64</mn> </mrow> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> </mtd> <mtd> <mrow> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>64</mn> </mrow> </msub> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>7.787</mn> <mrow> <mo>(</mo> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>64</mn> </mrow> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> </mrow> </mtd> <mtd> <mrow> <mi>Z</mi> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>D</mi> <mn>64</mn> </mrow> </msub> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
<mrow> <mo>{</mo> <mrow> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>C</mi> <mn>1</mn> <mo>*</mo> </msubsup> <mo>=</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>2</mn> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mn>1</mn> </msub> <mo>=</mo> <mi>arctan</mi> <mrow> <mo>(</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>/</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> <mo>;</mo> </mrow> </mrow>
其中,XD65=95.047,YD65=100,ZD65=108.883;
第五步,设置明度系数kL、彩度系数kC和色调系数kh的取值,通过下式调制第四步所获各像素的明度彩度及色调h1,得到调制后的色彩感知参量,即明度彩度及色调h2,使可视化效果满足保真复现需求,则kL=kC=1,kh=0,改变kL实现调节图像明暗的需求,改变kC实现调节图像鲜艳程度的需求,改变kh实现调节图像白平衡的需求;
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>L</mi> <mn>2</mn> <mo>*</mo> </msubsup> <mo>=</mo> <msub> <mi>k</mi> <mi>L</mi> </msub> <msubsup> <mi>C</mi> <mn>1</mn> <mo>*</mo> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>C</mi> <mn>2</mn> <mo>*</mo> </msubsup> <mo>=</mo> <msub> <mi>k</mi> <mi>C</mi> </msub> <msubsup> <mi>C</mi> <mn>1</mn> <mo>*</mo> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>h</mi> <mn>2</mn> </msub> <mo>=</mo> <msub> <mi>h</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>h</mi> <mi>h</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
第六步,根据显示设备的白点三刺激值(XW,YW,ZW),通过下式,将步骤五所获各像素的明度彩度及色调h2转换至在显示设备上待显示的CIEXYZ值(X′,Y′,Z′);
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>L</mi> <mo>*</mo> </msup> <mo>=</mo> <msubsup> <mi>L</mi> <mn>2</mn> <mo>*</mo> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>=</mo> <msubsup> <mi>C</mi> <mn>2</mn> <mo>*</mo> </msubsup> <mo>&amp;CenterDot;</mo> <mi>cos</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;pi;h</mi> <mn>2</mn> </msub> <mo>/</mo> <mn>180</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>=</mo> <msubsup> <mi>C</mi> <mn>2</mn> <mo>*</mo> </msubsup> <mo>&amp;CenterDot;</mo> <mi>sin</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;pi;h</mi> <mn>2</mn> </msub> <mo>/</mo> <mn>180</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <msup> <mi>L</mi> <mo>*</mo> </msup> <mo>+</mo> <mn>16</mn> <mo>)</mo> </mrow> <mo>/</mo> <mn>116</mn> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <msup> <mi>L</mi> <mo>*</mo> </msup> <mo>+</mo> <mn>16</mn> <mo>)</mo> </mrow> <mo>/</mo> <mn>116</mn> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <msup> <mi>L</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>903.3</mn> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mo>(</mo> <msup> <mi>L</mi> <mo>*</mo> </msup> <mo>+</mo> <mn>16</mn> <mo>)</mo> </mrow> <mo>/</mo> <mn>116</mn> <mo>&amp;rsqb;</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <msup> <mrow> <mo>(</mo> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> <mo>/</mo> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <mn>3</mn> </mrow> </msup> </mtd> <mtd> <mrow> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> <mo>/</mo> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>7.787</mn> <mrow> <mo>(</mo> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> <mo>/</mo> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> </mrow> </mtd> <mtd> <mrow> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> <mo>/</mo> <msub> <mi>Y</mi> <mi>W</mi> </msub> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>X</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>X</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>500</mn> <mo>+</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>)</mo> </mrow> <mn>3</mn> </msup> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>(</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>500</mn> <mo>+</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>)</mo> </mrow> <mn>3</mn> </msup> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>X</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <mrow> <mo>(</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>500</mn> <mo>+</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>-</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> <mo>)</mo> </mrow> <mo>/</mo> <mn>7.787</mn> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>(</mo> <msup> <mi>a</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>500</mn> <mo>+</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>)</mo> </mrow> <mn>3</mn> </msup> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>Z</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Z</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>-</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>200</mn> <mo>)</mo> </mrow> <mn>3</mn> </msup> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>-</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>200</mn> <mo>)</mo> </mrow> <mn>3</mn> </msup> <mo>&gt;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Z</mi> <mi>W</mi> </msub> <mo>&amp;CenterDot;</mo> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>-</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>200</mn> <mo>-</mo> <mn>16</mn> <mo>/</mo> <mn>116</mn> <mo>)</mo> </mrow> <mo>/</mo> <mn>7.787</mn> </mrow> </mtd> <mtd> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>f</mi> <mi>Y</mi> </msub> <mo>-</mo> <msup> <mi>b</mi> <mo>*</mo> </msup> <mo>/</mo> <mn>200</mn> <mo>)</mo> </mrow> <mn>3</mn> </msup> <mo>&amp;le;</mo> <mn>0.008856</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
第七步,根据显示设备红、绿、蓝三通道的原色三刺激值(XRmax,YRmax,ZRmax)、(XGmax,YGmax,ZGmax)、(XBmax,YBmax,ZBmax)结合三通道的伽马系数γR、γG、γB,建立起如下式的特征化模型,通过特征化模型,第六步所获各像素的CIEXYZ值(X′,Y′,Z′)计算至对应的数字驱动值(dR,dG,dB),即完成了高光谱图像的色彩可视化,其中N是显示设备单通道的存储位数;
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>T</mi> <mi>R</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>T</mi> <mi>G</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>T</mi> <mi>B</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>X</mi> <mrow> <mi>G</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>G</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mrow> <msub> <mi>X</mi> <mrow> <mi>B</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>B</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Y</mi> <mrow> <mi>R</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>R</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <msub> <mi>Y</mi> <mrow> <mi>B</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>Z</mi> <mrow> <mi>B</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Z</mi> <mrow> <mi>R</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>X</mi> <mrow> <mi>R</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mrow> <msub> <mi>Z</mi> <mrow> <mi>G</mi> <mi>max</mi> </mrow> </msub> <mo>/</mo> <msub> <mi>Y</mi> <mrow> <mi>G</mi> <mi>max</mi> </mrow> </msub> </mrow> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msup> <mi>X</mi> <mo>&amp;prime;</mo> </msup> </mtd> </mtr> <mtr> <mtd> <msup> <mi>Y</mi> <mo>&amp;prime;</mo> </msup> </mtd> </mtr> <mtr> <mtd> <msup> <mi>Z</mi> <mo>&amp;prime;</mo> </msup> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>d</mi> <mi>R</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>d</mi> <mi>G</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>d</mi> <mi>B</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <mo>(</mo> <msup> <mn>2</mn> <mi>N</mi> </msup> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mi>R</mi> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <msub> <mi>&amp;gamma;</mi> <mi>R</mi> </msub> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <msup> <mn>2</mn> <mi>N</mi> </msup> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mi>G</mi> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <msub> <mi>&amp;gamma;</mi> <mi>G</mi> </msub> </mrow> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <msup> <mn>2</mn> <mi>N</mi> </msup> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mi>B</mi> </msub> <mo>)</mo> </mrow> <mrow> <mn>1</mn> <mo>/</mo> <msub> <mi>&amp;gamma;</mi> <mi>B</mi> </msub> </mrow> </msup> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
步骤二,建立图像识别系统;
将焊接点的图像标记录入图像识别系统,系统设置为识别图像中白色的部分,图像识别系统基于摄像头和DSP芯片,将所需识别的颜色,图案录入图像识别系统,同时,采用OCR识别技术,将颜色进行二值化,将图案录入字符识别库;
步骤三,图像识别系统与焊接机器人进匹配;
对图像识别系统与焊接机器人内部的三轴坐标系进行统一标准化,图像识别系统在识别图像的同时进行距离测定从而分析待测点的三维坐标。
步骤四,生成三维模型;
焊接机器人根据图像识别系统将焊件扫描成三维模型,导入主工控机,然后通过无线装置直接在三维模型上指定焊接信息,包括焊缝的位置,长度,焊枪摆动方式;当焊接工件需要批量生产时,可以通过条形码识别系统,读取工件焊接条形码的焊接信息,然后将信息送到主工控机;由工控机将条形码信息转化成焊接信号;主工控机将扫描出来的三维模型信息和焊接信息生成程序代码,发送给机器人的驱动装置,通过无线装置发出启动信息,机器人开始动作;
步骤五,信号传输;
传感器随机器人同时启动,主工控机将接收到的信号进行分析处理并完成人机交互功能、焊接机器人的力学计算,控制系统解算,形成控制误差信号通过通信装置传送给主工控机;主工控机接收传感器测得驱动装置中交流伺服电机的转角与转速信号,并构成反馈;
步骤六,焊接参数修正;
当焊枪与工件距离达到已设定值,传感器向主工控机发出焊接启动信号,主工控机控制焊机进行工作,焊接开始后,接近传感器根据焊丝距离工件的距离,对焊枪的姿态摆动进行辅助控制;激光视觉传感系统将接收到熔池图像信息送到图像采集卡,图像采集卡对图像进行预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机,对焊枪的焊接参数进行反馈修改,保证焊接机器人对焊接条件变化后的适应性;
步骤七,启动操作。
操作者通过无线装置对机器人的启动,急停进行操作;根据焊件的形状手动进行各种点,直线圆弧的插补。
2.如权利要求1所述的三维焊接机器人混合控制方法,其特征在于,所述的激光视觉传感系统包括激光器、CCD摄像头、滤光片和图样采集卡;通过CCD摄像头成像后,图像采集卡对相应的图像信息进行采集,并且进行图像预处理,然后将信息送到主工控机,主工控机对图像进行焊缝识别,提取出所需的焊接信息,软件处理后送到机器人的驱动装置和焊机。
3.如权利要求1所述的三维焊接机器人混合控制方法,其特征在于,所述的传感器为光电编码器、测力传感器、接近传感器和激光视觉传感器;所述的光电编码器安装在驱动装置中的交流伺服电机上,在机器人的力臂上下各安装一测力传感器,接近传感器和激光视觉传感器均安装在焊枪上。
4.如权利要求1所述的三维焊接机器人混合控制方法,其特征在于,所述图像识别系统DSP芯片的识别方法包括:
对于每一路图像信号,按照下述公式对所述图像信号中的每一帧图像信号进行噪声跟踪,获取每一帧图像信号的噪声谱N(w,n):
<mrow> <mi>N</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>u</mi> </msub> <mo>)</mo> <mo>|</mo> <mi>X</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> <mo>|</mo> <mo>+</mo> <msub> <mi>&amp;alpha;</mi> <mi>u</mi> </msub> <mi>N</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <mi>X</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>&amp;GreaterEqual;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>d</mi> </msub> <mo>)</mo> <mo>|</mo> <mi>X</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> <mo>|</mo> <mo>+</mo> <msub> <mi>&amp;alpha;</mi> <mi>d</mi> </msub> <mi>N</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <mi>X</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>&lt;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
其中,X(w,n)表示所述图像信号的短时傅里叶变换;αu、αd为预设系数且0<αd<αu<1;w表示频域上的频点序号;n表示时域上的帧序号。
5.如权利要求4所述的三维焊接机器人混合控制方法,其特征在于,按照下述公式对每一帧图像信号的短时傅里叶变换进行二值化处理得到二值谱Xb(w,n):
<mrow> <mi>X</mi> <mi>b</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <mi>X</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>-</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <msub> <mi>T</mi> <mi>b</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mo>|</mo> <mi>X</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>-</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <msub> <mi>T</mi> <mi>b</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
Tb为预设第一阈值;
将其中一路图像信号对应的Ka个二值谱与另一路图像信号对应的Kb个二值谱进行两两间的相干性匹配得到所述第一匹配结果,所述第一匹配结果包括匹配度最高的一组二值谱对应的匹配位置和匹配度,Ka、Kb均为正整数。
6.如权利要求4所述的三维焊接机器人混合控制方法,其特征在于,对于每一路图像信号,按照下述公式计算所述图像信号中的每一帧图像信号的功率谱P(w,n):
P(w,n)=αpP(w,n-1)+(1-αp)|X(w,n)|2
其中,X(w,n)表示所述图像信号的短时傅里叶变换;
αp为预设系数且0<αp<1;w表示频域上的频点序号;n表示时域上的帧序号;
按照下述公式计算每一帧图像信号的功率谱的谱间相关性DP(w,n):
DP(w,n)=|P(w+1,n)-P(w,n)|
按照下述公式对所述谱间相关性DP(w,n)进行噪声跟踪,获取每一帧图像信号的噪声功率谱的谱间相关性NDP(w,n):
<mrow> <mi>N</mi> <mi>D</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;beta;</mi> <mi>u</mi> </msub> <mo>)</mo> <mi>D</mi> <mi>P</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>u</mi> </msub> <mi>N</mi> <mi>D</mi> <mi>P</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>D</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mi>N</mi> <mi>D</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;beta;</mi> <mi>d</mi> </msub> <mo>)</mo> <mi>D</mi> <mi>P</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>d</mi> </msub> <mi>N</mi> <mi>D</mi> <mi>P</mi> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>D</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <mi>N</mi> <mi>D</mi> <mi>P</mi> <mrow> <mo>(</mo> <mi>w</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,βu、βd为预设系数且0<βd<βu<1。
CN201710967269.0A 2017-10-17 2017-10-17 一种三维焊接机器人混合控制方法 Pending CN107745207A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710967269.0A CN107745207A (zh) 2017-10-17 2017-10-17 一种三维焊接机器人混合控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710967269.0A CN107745207A (zh) 2017-10-17 2017-10-17 一种三维焊接机器人混合控制方法

Publications (1)

Publication Number Publication Date
CN107745207A true CN107745207A (zh) 2018-03-02

Family

ID=61252567

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710967269.0A Pending CN107745207A (zh) 2017-10-17 2017-10-17 一种三维焊接机器人混合控制方法

Country Status (1)

Country Link
CN (1) CN107745207A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549281A (zh) * 2018-04-11 2018-09-18 湖南城市学院 一种建筑设计安全疏散校验方法及系统
CN108735010A (zh) * 2018-04-29 2018-11-02 湖南城市学院 一种用于英语教学的智能型英语教学系统
CN110497121A (zh) * 2019-08-05 2019-11-26 苏州热工研究院有限公司 一种焊接过程中焊道中心跟踪的图像处理模式
CN115122341A (zh) * 2022-08-31 2022-09-30 徐州芯特智能装备有限公司 一种自动化装箱方法及装箱机器人
CN116452586A (zh) * 2023-06-15 2023-07-18 山东飞宏工程机械有限公司 一种隧道小导管余料自动对焊质量检测系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170767A (zh) * 2011-12-20 2013-06-26 徐州工程学院 焊接机器人控制方法
US20150146964A1 (en) * 2013-11-27 2015-05-28 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
CN104700842A (zh) * 2015-02-13 2015-06-10 广州市百果园网络科技有限公司 声音信号的时延估计方法和装置
CN105376321A (zh) * 2015-11-30 2016-03-02 湖南涉外经济学院 一种多功能物联网信息平台
CN105692726A (zh) * 2016-01-28 2016-06-22 山东省环境保护科学研究设计院 一种处理低浓度难降解有机工业废水装置
CN105717050A (zh) * 2013-04-12 2016-06-29 蔡留凤 基于图像视觉处理技术的水环境监测系统的工作方法
CN106514068A (zh) * 2016-11-15 2017-03-22 成都陵川特种工业有限责任公司 一种机器人智能焊接的控制方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103170767A (zh) * 2011-12-20 2013-06-26 徐州工程学院 焊接机器人控制方法
CN105717050A (zh) * 2013-04-12 2016-06-29 蔡留凤 基于图像视觉处理技术的水环境监测系统的工作方法
US20150146964A1 (en) * 2013-11-27 2015-05-28 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
CN104700842A (zh) * 2015-02-13 2015-06-10 广州市百果园网络科技有限公司 声音信号的时延估计方法和装置
CN105376321A (zh) * 2015-11-30 2016-03-02 湖南涉外经济学院 一种多功能物联网信息平台
CN105692726A (zh) * 2016-01-28 2016-06-22 山东省环境保护科学研究设计院 一种处理低浓度难降解有机工业废水装置
CN106514068A (zh) * 2016-11-15 2017-03-22 成都陵川特种工业有限责任公司 一种机器人智能焊接的控制方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549281A (zh) * 2018-04-11 2018-09-18 湖南城市学院 一种建筑设计安全疏散校验方法及系统
CN108735010A (zh) * 2018-04-29 2018-11-02 湖南城市学院 一种用于英语教学的智能型英语教学系统
CN110497121A (zh) * 2019-08-05 2019-11-26 苏州热工研究院有限公司 一种焊接过程中焊道中心跟踪的图像处理模式
CN115122341A (zh) * 2022-08-31 2022-09-30 徐州芯特智能装备有限公司 一种自动化装箱方法及装箱机器人
CN116452586A (zh) * 2023-06-15 2023-07-18 山东飞宏工程机械有限公司 一种隧道小导管余料自动对焊质量检测系统
CN116452586B (zh) * 2023-06-15 2023-09-26 山东飞宏工程机械有限公司 一种隧道小导管余料自动对焊质量检测系统

Similar Documents

Publication Publication Date Title
CN107745207A (zh) 一种三维焊接机器人混合控制方法
US8666141B2 (en) Robot system, robot control device and method for controlling robot
Fuchs et al. Extrinsic and depth calibration of ToF-cameras
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
WO2015120734A1 (zh) 基于机器视觉的焊接轨迹校正专用测试装置及方法
US20190184582A1 (en) Imaging device including vision sensor capturing image of workpiece
CN108971704B (zh) 基于视觉及旋转电弧复合传感的三维焊缝跟踪方法及系统
US20050259868A1 (en) Vision system and method for process monitoring
Michalos et al. Robot path correction using stereo vision system
KR100723967B1 (ko) 윤곽선 검출방식을 이용한 하네스의 검사방법 및 장치
KR102111655B1 (ko) 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
TWI699264B (zh) 視覺導引機器手臂校正方法
CN109035214A (zh) 一种工业机器人物料形状识别方法
CN113822810A (zh) 一种基于机器视觉的三维空间中工件的定位方法
CN115079964B (zh) 一种喷码机误差校正方法及系统
CN107139003A (zh) 模块化视觉系统制作方法
CN114581379A (zh) 一种密封胶的检测方法及装置
CN112238453A (zh) 视觉导引机器手臂校正方法
CN115837520A (zh) 一种自适应打标工件表面属性的激光打标控制方法及系统
CN109035346A (zh) 一种相机颜色标定方法、装置与自动驾驶系统
CN115049726A (zh) 基于视觉定位的pcb焊接方法及系统
JP2021189153A (ja) 画像処理システム及び画像処理方法
CN113189115B (zh) 一种温度场测量及焊接缺陷在线监测装置及监测方法
CN114693679A (zh) 纠偏方法、装置和设备
CN108109172A (zh) 一种基于新视觉的机器人视觉系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180302

RJ01 Rejection of invention patent application after publication