CN112756742A - 一种基于ERFNet网络的激光视觉焊缝跟踪系统 - Google Patents

一种基于ERFNet网络的激光视觉焊缝跟踪系统 Download PDF

Info

Publication number
CN112756742A
CN112756742A CN202110024740.9A CN202110024740A CN112756742A CN 112756742 A CN112756742 A CN 112756742A CN 202110024740 A CN202110024740 A CN 202110024740A CN 112756742 A CN112756742 A CN 112756742A
Authority
CN
China
Prior art keywords
erfnet
welding
network
weld joint
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110024740.9A
Other languages
English (en)
Inventor
赵壮
陆骏
王业宇
罗隽
杨傲东
王兴国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202110024740.9A priority Critical patent/CN112756742A/zh
Publication of CN112756742A publication Critical patent/CN112756742A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/12Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
    • B23K9/127Means for tracking lines during arc welding or cutting
    • B23K9/1272Geometry oriented, e.g. beam optical trading
    • B23K9/1274Using non-contact, optical means, e.g. laser means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/32Accessories

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Plasma & Fusion (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种基于ERFNet网络的激光视觉焊缝跟踪系统,包括线结构光视觉传感器模块,用于采集焊缝图像信息;图像处理与通信模块和机器人及机器控制模块,基于ERFNet网络,处理焊缝图像信息获得焊缝特征点;机器人及机器控制模块,接收焊缝特征点信息,获得焊接路径指令并进行作业。其将深度学习中的分割思想引入到焊缝特征提取中,实现在复杂的焊接条件下准确地提取到多层多道焊缝的焊缝光条中心线和焊接特征点,并且不同于传统算法中先提取中心线再根据中心线计算特征点的方法,ERFNet网络可以同时准确提取多层多道焊中的两类特征,然后将焊接特征点位信息传输给机器人控制模块,控制焊接机器人移动至待焊接处,实现多层多道焊的焊缝跟踪。

Description

一种基于ERFNet网络的激光视觉焊缝跟踪系统
技术领域
本发明涉及一种基于ERFNet网络的激光视觉焊缝跟踪系统,属于焊缝跟踪技术领域。
背景技术
图像分割技术是计算机视觉领域的一个重要的研究方向,是图像语义理解的重要部分。图像分割可以将一幅图像区分成若干个具有相似性质的区域,但是由于图像的复杂性和不确定性,很难存在一种图像分割的算法能够适用于所有类型的图像。近些年来随着深度学习技术的逐步发展,图像分割技术有了巨大的进步,与其相关的场景物体分割、人体前背景分割、三维重建等技术已经在无人驾驶、增强现实、安防监控等领域得到了广泛的应用。
基于深度学习的图像分割技术在较早的时期比较流行的方法是“补丁”分类法,针对每个像素点通过比较该像素点与其一定范围内的像素点之间的差异来对其进行分类。由于分类网络通常会使用全连接层,而全连接层要求输入图像的尺寸固定,所以“补丁”分类法中使用的Patch领域的大小必须统一,存在一定的局限性。因此,在焊缝跟踪领域,需要一种基于ERFNet网络的激光视觉焊缝跟踪系统。
发明内容
为了解决上述技术问题,本发明提供一种基于ERFNet网络的激光视觉焊缝跟踪系统,其具体的技术方案为:包括线结构光视觉传感器模块,用于采集焊缝图像信息;图像处理与通信模块和机器人及机器控制模块,基于ERFNet网络,处理焊缝图像获得焊缝特征点;机器人及机器控制模块,接收焊缝特征点信息,获得焊接路径指令并进行作业。
进一步的,所述ERFNet网络的模型结构基于SegNet与ENet,采用了Encoder-Decoder架构,整个模型包含23层,其中1-16层为Encoder,17-23层为Decoder;其中Encoder中的Non-bottleneck-1D与Downsampler结构实现了特征提取功能, Non-bottleneck-1D结构将两个3×3的二维卷积拆分成两组3×1、1×3一维卷积; Downsampler结构实现了图像的下采样,输入特征图分别经过尺寸为2×2,步长为2的最大池化层和卷积核尺寸为3×3,步长为2的卷积层,并将两个输出特征图相结合作为图像降采样的结果输出。
进一步的,ERFNet网络采用交叉熵损失函数(CrossEntropy Loss)计算loss;在二分类的问题中,交叉熵损失函数的公式如下所示:
Figure 270094DEST_PATH_IMAGE001
其中,y为真实值,
Figure 903201DEST_PATH_IMAGE002
为预测值。当y为1时,
Figure 597356DEST_PATH_IMAGE003
,此时
Figure 341321DEST_PATH_IMAGE004
越接近1,损失值越 小,
Figure 188054DEST_PATH_IMAGE002
越接近0,损失值越大。当y为0时,
Figure 241330DEST_PATH_IMAGE005
,此时
Figure 173514DEST_PATH_IMAGE002
越接近1,损失值越大,
Figure 439279DEST_PATH_IMAGE002
越接近0,损失值越小;
多分类的问题实际上是对二分类问题的拓展,在多分类中交叉熵损失函数的计算公式如下所示:
Figure 406098DEST_PATH_IMAGE006
其中,N表示样本数量,
Figure 115428DEST_PATH_IMAGE007
表示该类别与样本的类别是否相同,相同时
Figure 790035DEST_PATH_IMAGE008
,不同 时
Figure 141382DEST_PATH_IMAGE009
Figure 697128DEST_PATH_IMAGE010
表示样本属于类别i的预测概率;在焊缝特征提取任务中,ERFNet网络需要将 焊缝光条中心线和焊缝特征点从背景中分割出来,本质上是三分类的问题,所以损失函数 应采用多分类中的交叉熵损失函数。
进一步的,系统前端的线结构光视觉传感器模块包括工业相机和线激光器,线激光器照射在工件表面上反映出焊缝的截面轮廓,工业相机采集线激光反映的焊缝信息;工业相机平行装配于靠近焊枪的一侧,线激光器倾斜配置在远离焊枪的一侧并保证光条在相机视场范围内。
进一步的,焊缝激光条纹与焊炬中心的距离d,d选择为25mm。
本发明的有益效果是:本发明中使用的ERFNet网络可以实现实时精准的逐像素语义分割,该架构可以获得非常高的分割精度,同时保持最高的效率,所以在准确性与高效性之间有着极好的平衡。ERFNet网络的核心在于构建了一个以残差连接与分离卷积为组件的特征提取层,目的是最大程度的在提升网络获取特征的能力的同时减小计算量,可以对不同类型的任务进行端到端的训练,在像素层面对图像中的多个类别对象实现准确的分类。
本申请不同于传统算法中先提取中心线再根据中心线计算特征点的方法,ERFNet网络可以同时准确提取多层多道焊中的两类特征,然后将焊接特征点位信息传输给机器人控制模块,控制焊接机器人移动至待焊接处,实现多层多道焊的焊缝跟踪。
附图说明
图1是本发明的线结构光视觉传感器模块结构示意图,
图2是本发明的ERFNet模型结构,
图3是本发明的特征提取模块(a)Non-bottleneck-1D;(b)Downsampler;
图4是本发明的线激光器结构示意图;
图5是本发明的实施例的框架图;
图6是本发明的焊缝跟踪系统软件人机交互界面
图中:1—焊枪,2—工业相机,3—线激光器。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,本文提出了一种基于ERFNet网络的激光视觉焊缝跟踪系统,系统的实物图与原理图分别如图1所示。本系统主要包括三个模块:机器人及其控制模块、图像处理与通信模块和线结构光视觉传感器模块。机器人及其控制模块是进行焊接作业的基础。图像处理与通信模块负责采集到的线结构光焊缝图像的处理,得到焊缝特征点后将机器人的运动信息传输给机器人控制模块,使得机器人按照检测出的路径作业。系统前端的线结构光视觉传感器模块主要包括工业相机和线激光器,工业相机选用的是Basler acA1920-40gm GigE,线激光器系统由保护玻璃、滤光片和中心波长为450nm的蓝光线激光器组成,线激光器照射在工件表面上反映出焊缝的截面轮廓,工业相机采集线激光反映的焊缝信息。该模块是提供焊缝特征点信息的关键,它的装配姿态及位置直接影响到焊缝信息提取的效果。如图4所示,相机1平行装配于靠近焊枪2的一侧,线结构光发生器3倾斜配置在远离焊枪2的一侧并保证光条在相机视场范围内。这样的装配姿态可以保证采集到的结构光图像不被过多的弧光淹没,如果相机是倾斜的姿态,那么采集到的图像就会因为强弧光而存在大量的过曝区域以至失去处理意义。在确定了视觉传感器的装配姿态后,还需要注意的就是焊缝激光条纹与焊炬中心的距离d,当距离d过小时,同样会出现电弧噪声污染激光条纹,使得特征提取失败;当d过大时,虽然噪声干扰变小,特征条纹与点位的提取变得容易,但这样造成焊缝跟踪的位置响应延时增大,不利于在线焊接时因板材形变、固定问题等突发情况造成的焊缝位置偏移的实时路径纠偏。经过多次实验与算法验证,本文中系统的距离d为25mm,既保证了特征提取的高鲁棒性,又能对焊缝偏移做出及时的响应,确保了焊缝跟踪的精度满足焊接要求。
在图像传输与处理模块中,ERFNet网络可以实现实时精准的逐像素语义分割,该架构可以获得非常高的分割精度,同时保持最高的效率,所以在准确性与高效性之间有着极好的平衡。ERFNet网络的核心在于构建了一个以残差连接与分离卷积为组件的特征提取层,目的是最大程度的在提升网络获取特征的能力的同时减小计算量,可以对不同类型的任务进行端到端的训练,在像素层面对图像中的多个类别对象实现准确的分类。
ERFNet网络的模型结构参考SegNet与ENet的思想,采用了如图2所示的Encoder-Decoder架构,整个模型包含23层,其中1-16层为Encoder,17-23层为Decoder。Encoder中的Non-bottleneck-1D与Downsampler结构实现了特征提取功能,如图2所示,Non-bottleneck-1D结构将两个3×3的二维卷积拆分成两组3×1、1×3一维卷积,目的是在保证精度的前提下增加非线性化的层数,减少参数量与计算量,同时采用残差结构将输入特征图与输出特征图相融合,从而提升特征学习能力,消除梯度消失现象。Downsampler结构实现了图像的下采样,输入特征图分别经过尺寸为2×2,步长为2的最大池化层和卷积核尺寸为3×3,步长为2的卷积层,并将两个输出特征图相结合作为图像降采样的结果输出,保证了在降维的同时保留特征信息。Decoder的作用是将小尺寸的特征图恢复到原图的大小。与SegNet、ENet不同,Decoder用反卷积代替最大池化实现特征图的上采样,在保证准确率的同时减少计算量。
ERFNet网络采用交叉熵损失函数(CrossEntropy Loss)计算loss。在二分类的问题中,交叉熵损失函数的公式如下所示:
Figure 92206DEST_PATH_IMAGE001
其中,y为真实值,
Figure 733403DEST_PATH_IMAGE002
为预测值。当y为1时,
Figure 357282DEST_PATH_IMAGE003
,此时
Figure 282382DEST_PATH_IMAGE004
越接近1,损失值越 小,
Figure 333515DEST_PATH_IMAGE002
越接近0,损失值越大。当y为0时,
Figure 727587DEST_PATH_IMAGE005
,此时
Figure 404425DEST_PATH_IMAGE002
越接近1,损失值越大,
Figure 934763DEST_PATH_IMAGE002
越接近0,损失值越小。
多分类的问题实际上是对二分类问题的拓展,在多分类中交叉熵损失函数的计算公式如下所示:
Figure 422376DEST_PATH_IMAGE011
其中,N表示样本数量,
Figure 287433DEST_PATH_IMAGE007
表示该类别与样本的类别是否相同,相同时
Figure 518694DEST_PATH_IMAGE008
,不同 时
Figure 903539DEST_PATH_IMAGE009
Figure 811321DEST_PATH_IMAGE010
表示样本属于类别i的预测概率。在焊缝特征提取任务中,ERFNet网络需要将 焊缝光条中心线和焊缝特征点从背景中分割出来,本质上是三分类的问题,所以损失函数 应采用多分类中的交叉熵损失函数。
图像传输与处理模块中,将深度学习中的分割思想引入到焊缝特征提取中,实现在复杂的焊接条件下准确地提取到多层多道焊缝的焊缝光条中心线和焊接特征点,并且不同于传统算法中先提取中心线再根据中心线计算特征点的方法,ERFNet网络可以同时准确提取多层多道焊中的两类特征,然后将焊接特征点位信息传输给机器人控制模块,控制焊接机器人移动至待焊接处,实现多层多道焊的焊缝跟踪。
实施例1
将本申请应用于焊缝跟踪系统软件,其主要由参数设置、Basler相机控制、特征检测和机器人控制四部分组成,软件的功能框架如图5所示。在自动焊接过程中实现相机参数的设定、图像中焊缝及特征点的检测与定位、二维坐标与三维坐标之间的转换、机器人控制与通信等功能。人机交互界面如图6所示,实时显示相机采集的图片和特征检测结果,并可实现数据存储,焊缝跟踪过程开始及结束等人工控制。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本申请中所述的“和/或”的含义指的是各自单独存在或两者同时存在的情况均包括在内。
本申请中所述的“连接”的含义可以是部件之间的直接连接也可以是部件间通过其它部件的间接连接。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (5)

1.一种基于ERFNet网络的激光视觉焊缝跟踪系统,其特征在于:包括
线结构光视觉传感器模块,用于采集焊缝图像信息;
图像处理与通信模块和机器人及机器控制模块,基于ERFNet网络,处理焊缝图像信息获得焊缝特征点;
机器人及机器控制模块,接收焊缝特征点信息,获得焊接路径指令并进行作业。
2.根据权利要求1所述的基于ERFNet网络的激光视觉焊缝跟踪系统,其特征在于:所述ERFNet网络的模型结构基于SegNet与ENet,采用Encoder-Decoder架构,其整个模型包含23层,其中1-16层为Encoder,17-23层为Decoder;其中Encoder中的Non-bottleneck-1D与Downsampler结构实现特征提取,Non-bottleneck-1D结构将两个3×3的二维卷积拆分成两组3×1、1×3一维卷积;Downsampler结构实现图像的下采样,输入特征图分别经过尺寸为2×2,步长为2的最大池化层和卷积核尺寸为3×3,步长为2的卷积层,并将两个输出特征图相结合作为图像降采样的结果输出。
3.根据权利要求2所述的基于ERFNet网络的激光视觉焊缝跟踪系统,其特征在于:在焊缝特征提取任务中,ERFNet网络需要将焊缝光条中心线和焊缝特征点从背景中分割出来,是三分类的问题,损失函数应采用多分类中的交叉熵损失函数;ERFNet网络采用交叉熵损失函数(CrossEntropy Loss)计算loss;
Figure 310761DEST_PATH_IMAGE001
其中,N表示样本数量,
Figure 917323DEST_PATH_IMAGE002
表示该类别与样本的类别是否相同,相同时
Figure 379528DEST_PATH_IMAGE003
,不同时
Figure 320808DEST_PATH_IMAGE004
Figure 261082DEST_PATH_IMAGE005
表示样本属于类别i的预测概率。
4.根据权利要求1所述的基于ERFNet网络的激光视觉焊缝跟踪系统,其特征在于:所述线结构光视觉传感器模块包括工业相机和线激光器,线激光器照射在工件表面上反映出焊缝的截面轮廓,工业相机采集线激光反映的焊缝信息;工业相机平行装配于靠近焊枪的一侧,线激光器倾斜配置在远离焊枪的一侧并保证光条在相机视场范围内。
5.根据权利要求1所述的基于ERFNet网络的激光视觉焊缝跟踪系统,其特征在于:焊缝激光条纹与焊炬中心的距离d,d选择为25mm。
CN202110024740.9A 2021-01-08 2021-01-08 一种基于ERFNet网络的激光视觉焊缝跟踪系统 Pending CN112756742A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110024740.9A CN112756742A (zh) 2021-01-08 2021-01-08 一种基于ERFNet网络的激光视觉焊缝跟踪系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110024740.9A CN112756742A (zh) 2021-01-08 2021-01-08 一种基于ERFNet网络的激光视觉焊缝跟踪系统

Publications (1)

Publication Number Publication Date
CN112756742A true CN112756742A (zh) 2021-05-07

Family

ID=75701078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110024740.9A Pending CN112756742A (zh) 2021-01-08 2021-01-08 一种基于ERFNet网络的激光视觉焊缝跟踪系统

Country Status (1)

Country Link
CN (1) CN112756742A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115121913A (zh) * 2022-08-30 2022-09-30 北京博清科技有限公司 激光中心线的提取方法
CN115908281A (zh) * 2022-11-03 2023-04-04 中山大学 一种基于ResNeXt网络的焊缝跟踪方法
CN116673597A (zh) * 2023-07-28 2023-09-01 清华大学 用于双v复合型坡口的激光线图像特征提取系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2740335Y (zh) * 2004-12-02 2005-11-16 中国科学院自动化研究所 一种基于激光结构光的焊缝跟踪视觉传感器
CN107824940A (zh) * 2017-12-07 2018-03-23 淮安信息职业技术学院 基于激光结构光的焊缝视觉跟踪系统及方法
CN110188768A (zh) * 2019-05-09 2019-08-30 南京邮电大学 实时图像语义分割方法及系统
CN111008979A (zh) * 2019-12-09 2020-04-14 杭州凌像科技有限公司 一种鲁棒的夜晚图像语义分割方法
CN111080648A (zh) * 2019-12-02 2020-04-28 南京理工大学 基于残差学习的实时图像语义分割算法
CN111299763A (zh) * 2020-02-28 2020-06-19 华南理工大学 一种抗噪声干扰的激光视觉焊缝自动跟踪方法及系统
US20200218948A1 (en) * 2019-01-03 2020-07-09 Beijing Jingdong Shangke Information Technology Co., Ltd. Thundernet: a turbo unified network for real-time semantic segmentation
CN111922483A (zh) * 2019-05-13 2020-11-13 南京理工大学 基于学习的线结构光焊缝跟踪与增材路径纠偏装置及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2740335Y (zh) * 2004-12-02 2005-11-16 中国科学院自动化研究所 一种基于激光结构光的焊缝跟踪视觉传感器
CN107824940A (zh) * 2017-12-07 2018-03-23 淮安信息职业技术学院 基于激光结构光的焊缝视觉跟踪系统及方法
US20200218948A1 (en) * 2019-01-03 2020-07-09 Beijing Jingdong Shangke Information Technology Co., Ltd. Thundernet: a turbo unified network for real-time semantic segmentation
CN110188768A (zh) * 2019-05-09 2019-08-30 南京邮电大学 实时图像语义分割方法及系统
CN111922483A (zh) * 2019-05-13 2020-11-13 南京理工大学 基于学习的线结构光焊缝跟踪与增材路径纠偏装置及方法
CN111080648A (zh) * 2019-12-02 2020-04-28 南京理工大学 基于残差学习的实时图像语义分割算法
CN111008979A (zh) * 2019-12-09 2020-04-14 杭州凌像科技有限公司 一种鲁棒的夜晚图像语义分割方法
CN111299763A (zh) * 2020-02-28 2020-06-19 华南理工大学 一种抗噪声干扰的激光视觉焊缝自动跟踪方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
EDUARDO ROMERA等: "ERFNet: Efficient residual factorized convnet for real-time semantic segmentation", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 *
刘健等: "基于改进ERFNet的无人直升机着舰环境语义分割", 《电讯技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115121913A (zh) * 2022-08-30 2022-09-30 北京博清科技有限公司 激光中心线的提取方法
CN115121913B (zh) * 2022-08-30 2023-01-10 北京博清科技有限公司 激光中心线的提取方法
CN115908281A (zh) * 2022-11-03 2023-04-04 中山大学 一种基于ResNeXt网络的焊缝跟踪方法
CN116673597A (zh) * 2023-07-28 2023-09-01 清华大学 用于双v复合型坡口的激光线图像特征提取系统及方法
CN116673597B (zh) * 2023-07-28 2023-10-13 清华大学 用于双v复合型坡口的激光线图像特征提取系统及方法

Similar Documents

Publication Publication Date Title
CN112756742A (zh) 一种基于ERFNet网络的激光视觉焊缝跟踪系统
US11733386B2 (en) Methods and apparatuses for object detection in a scene based on lidar data and radar data of the scene
CN108982546B (zh) 一种智能机器人涂胶质量检测系统及方法
WO2019154541A1 (en) Methods and apparatuses for object detection in a scene represented by depth data of a range detection sensor and image data of a camera
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
CN111563415A (zh) 一种基于双目视觉的三维目标检测系统及方法
CN110210350A (zh) 一种基于深度学习的快速停车位检测方法
CN105069799A (zh) 一种角点定位方法及装置
CN113093726A (zh) 一种基于Yolo_v4算法的目标检测与跟踪方法
CN114792372A (zh) 一种基于多头两级注意力的三维点云语义分割方法及系统
Grigorescu et al. Robust camera pose and scene structure analysis for service robotics
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN116071315A (zh) 一种基于机器视觉的产品可视缺陷检测方法及系统
CN115958605A (zh) 单目红外热成像视觉机械手抓取物体姿态估计装置及方法
CN112419411B (zh) 一种基于卷积神经网络和光流特征视觉里程计的实现方法
CN117456330A (zh) 一种基于MSFAF-Net的低照度目标检测方法
CN116704304A (zh) 一种混合注意力机制的多模态融合目标检测方法
CN116704554A (zh) 一种基于深度学习的手姿估计与识别的方法、设备及介质
CN114682879B (zh) 一种基于目标跟踪的焊缝跟踪方法
CN116403186A (zh) 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法
CN116182894A (zh) 一种单目视觉里程计方法、装置、系统及存储介质
CN114669932B (zh) 一种智能焊接方法及相关装置
CN111898671B (zh) 激光成像仪和彩色相机编码融合目标识别方法及系统
CN113510691A (zh) 一种抹灰机器人的智能视觉系统
CN113888604A (zh) 一种基于深度光流的目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210507

RJ01 Rejection of invention patent application after publication