CN114723815A - 一种多目融合的图像语义目标检测方法及系统 - Google Patents

一种多目融合的图像语义目标检测方法及系统 Download PDF

Info

Publication number
CN114723815A
CN114723815A CN202110269210.0A CN202110269210A CN114723815A CN 114723815 A CN114723815 A CN 114723815A CN 202110269210 A CN202110269210 A CN 202110269210A CN 114723815 A CN114723815 A CN 114723815A
Authority
CN
China
Prior art keywords
target
image
images
semantic
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110269210.0A
Other languages
English (en)
Inventor
张召峰
亓鹏
孙庆森
武同宝
刘焕聚
谢雨濛
张旭
王万国
王振利
刘斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Intelligent Technology Co Ltd
TaiAn Power Supply Co of State Grid Shandong Electric Power Co Ltd
Original Assignee
State Grid Intelligent Technology Co Ltd
TaiAn Power Supply Co of State Grid Shandong Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Intelligent Technology Co Ltd, TaiAn Power Supply Co of State Grid Shandong Electric Power Co Ltd filed Critical State Grid Intelligent Technology Co Ltd
Priority to CN202110269210.0A priority Critical patent/CN114723815A/zh
Publication of CN114723815A publication Critical patent/CN114723815A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种多目融合的图像语义目标检测方法及系统,包括:对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。本发明实现作业目标的像素级分割与身份识别,基于神经网络的图像语义分割模型识别目标的三维位置,进一步利用机械臂上的摄像机提取更加精确的目标位置,实现机械臂的精准作业。

Description

一种多目融合的图像语义目标检测方法及系统
技术领域
本发明涉及电力巡检机器人目标检测技术领域,尤其涉及一种多目融合的图像语义目标检测方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
自上世纪七十年代起,国内外先后开展了电力机器人的研究,在发电、输电、变电、配电、用电领域,均有相关成果,尤其是在变电领域,变电站巡检机器人、室内轨道巡检机器人等已经大规模推广应用,有力保障了电网设备安全稳定运行。随着电力机器人持续深化应用,暴露了机器人在应用过程中智能化程度弱、环境适应性差、作业能力低等问题,亟需突破机器人精准作业关键机器人,研制作业目标精确定位、机械臂作业精确控制的作业机器人系统,构建安全高效的电力设备智能运检体系。
现有技术中,电力机器人普遍存在如下技术问题:
(1)机器人携带机械臂进行作业,大多基于双目视觉的作业伺服系统指导机械臂进行工作,这种机械臂作业系统由于受到双目图像设备定位精度、机械误差的影响,导致机械臂末端停靠位置与实际作业位置产生误差,影响机械臂作业的质量。
(2)传统的双目视觉伺服系统未获得图像中设备的语义信息,通常依靠设备类型及结构等先验信息确认待作业设备的类型。对于图像中占比较小的目标,采用单一的左右目图像立体匹配进行目标三维重建,影响小目标最终的空间定位精度。
发明内容
有鉴于此,本发明提出了一种多目融合的图像语义目标检测方法及系统,构建作业机器人多目视觉与多传感器融合的空间作业感知体系,开发多特征目标视觉伺服系统,提升作业空间中目标的定位精度,实现机器人对作业场景的全面感知与精准作业。
根据本发明实施例的第一个方面,公开了一种多目融合的图像语义目标检测方法,包括:
对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
作为进一步地方案,还包括:机器人对所述目标进行作业时,控制机械臂末端到达所述目标位置处,利用随臂移动的摄像机获取所述目标的图像信息,采用颜色、纹理、边缘多图像特征检测方法进行目标中心点、边缘信息的检测,得到机械臂末端作业的精确位置。
作为进一步地方案,还包括:在对当前目标执行作业任务的同时,获取下一个目标的三维坐标信息,以在当前目标作业完成后,直接进行下一个目标的作业任务。
作为进一步地方案,机器人的机械臂末端设有压力传感器和超声雷达传感器,以避免机械臂与设备碰触,确保机械臂末端对目标作用力效果。
根据本发明实施例的第二个方面,公开了一种多目融合的图像语义目标检测系统,包括:
图像获取模块,用于对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
设备轮廓提取模块,用于将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
目标位置计算模块,用于分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
根据本发明实施例的第三个方面,公开了一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行上述的多目融合的图像语义目标检测方法。
根据本发明实施例的第四个方面,公开了一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行上述的多目融合的图像语义目标检测方法。
与现有技术相比,本发明的有益效果是:
(1)本发明创新性提出多目融合的图像语义目标检测算法,构建多目视觉与多传感器融合的空间作业感知体系,基于神经网络的图像语义分割模型识别目标的三维位置,进一步利用机械臂上的摄像机提取更加精确的目标位置,解决了机械臂作业系统由于受到双目图像设备定位精度的影响存在作业位置偏差的问题,实现了作业目标的像素级分割与身份识别,提升了作业空间中目标的定位精度,避免了小目标空间定位精度不高对机械臂作业位置的影响。
(2)本发明构建多目视觉与多传感器融合的空间作业感知体系,开发多特征目标视觉伺服系统,提升作业空间中目标的定位精度,实现机器人对作业场景的全面感知与精准作业。
(3)本发明创新性提出基于分类类别权重系数的主导训练类别确定方法,构建图像语义分割模型,增加代表某类的权重因子和代表指定某类的类别编号两个参数来确定类别和当前类别的系数,通过系数来控制当前类别在反向传播中的重要性,解决了不平衡样本会导致训练模型轻视样本数目较少的类别的问题,实现不平衡样本下的精确训练,提升了图像语义分割模型的识别准确度,避免了不平衡样本的训练过程对检测结果的影响。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1为根据本发明实施例中的多目融合的图像语义目标检测方法流程图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例一
根据本发明实施例,提供了一种多目融合的图像语义目标检测方法,参照图1,包括如下步骤:
步骤S101:对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
具体地,利用黑白棋盘作为标定模板,对双面相机进行标定,首先对左右目图像进行畸变校正与单目标定,然后利用单目标定的外参数计算得到双目相机的外参数,即左右相机相互间旋转矩阵和平移矩阵。
步骤S102:将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
具体地,构建基于MaskRcnn的图像语义分割模型,对于图像语义分割模型的训练过程具体如下:
利用双目相机获取机器人作业目标的图像,利用标定的相机参数对图像进行校正,针对校正后的图像分别采用旋转、剪裁、扭曲等方法进行数据增强,同时采用Mixup的数据增强方法进一步扩充样本库中各类目标样本的数量。采用标注工具对图像中不同类型设备轮廓进行标注,构建目标图像样本库;
利用样本库图像构建不同目标的训练集,并采用基于MaskRcnn的图像语义分割算法训练得到目标语义分割模型,该模型可以实现图像中不同目标的分割,得到目标轮廓与类别信息。
由于在样本不均衡分类问题中,样本量大的类别往往会主导训练过程,因为其累积loss会比较大。
作为可选的实施方式,目标语义分割模型在训练过程中,利用带权重的softmaxloss函数,为每一个分类类别分别设置类别编号和类别系数,用以决定主导训练的类别。具体地,增加pos_mult(指定某类的权重乘子)和pos_cid(指定的某类的类别编号)两个参数来确定类别和当前类别的系数(比如:若pos_mult=0.5,就表示类别重要度减半)。
步骤S103:分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
具体地,针对图像中不同的作业目标,利用语义分割模型分别得到不同目标在左右目图像中的位置,取目标轮廓的外接矩形为感兴趣区域。
当作业目标为A时,分别提取左右目图像中目标A的感兴趣区域,记为区域A和A,采用ORB特征点立体匹配算法计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
作为进一步地实施方式,若对目标A进行精细化作业,当机械臂末端到达目标A位置处,开始随臂移动的单目摄像机,对目标A进行图像拍摄,根据拍摄到的图像,进一步的采用颜色、纹理、边缘等多图像特征检测方法进行目标中心点、边缘等信息的检测,得到机械臂末端作业的精确位置。
根据目标A的三维坐标位置,基于视觉伺服系统控制机械臂携带作业工具进行目标A的作业,同时根据上述步骤进行下一个作业目标B的三维坐标计算,方便目标A作业完成后执行目标B的作业任务。
作为进一步地实施方式,机械臂末端携带压力传感器、超声雷达等传感器,避免机械臂与设备碰触,并确保机械臂末端对目标作用力效果。
实施例二
根据本发明实施例,提供了一种多目融合的图像语义目标检测系统的实施例,包括:
图像获取模块,用于对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
设备轮廓提取模块,用于将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
目标位置计算模块,用于分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
需要说明的是,上述各模块的具体实现过程已经在实施例一中详细说明,不再赘述。
实施例三
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例一中的方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
在一个或多个实施方式中,公开了一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并实施例一中所述的方法。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (12)

1.一种多目融合的图像语义目标检测方法,其特征在于,包括:
对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
2.如权利要求1所述的一种多目融合的图像语义目标检测方法,其特征在于,还包括:机器人对所述目标进行作业时,控制机械臂末端到达所述目标位置处,利用随臂移动的摄像机获取所述目标的图像信息,采用颜色、纹理、边缘多图像特征检测方法进行目标中心点、边缘信息的检测,得到机械臂末端作业的精确位置。
3.如权利要求2所述的一种多目融合的图像语义目标检测方法,其特征在于,还包括:在对当前目标执行作业任务的同时,获取下一个目标的三维坐标信息,以在当前目标作业完成后,直接进行下一个目标的作业任务。
4.如权利要求1所述的一种多目融合的图像语义目标检测方法,其特征在于,对双目相机参数进行标定,具体包括:用黑白棋盘作为标定模板,对双面相机进行标定,首先对左右目图像进行畸变校正与单目标定,然后利用单目标定的外参数计算得到双目相机的外参数,即左右相机相互间旋转矩阵和平移矩阵。
5.如权利要求1所述的一种多目融合的图像语义目标检测方法,其特征在于,对于图像语义分割模型的训练过程包括:
构建目标图像样本库;
利用样本库图像构建不同目标的训练集,并采用基于MaskRcnn的图像语义分割算法训练得到目标语义分割模型,以实现图像中不同目标的分割,得到目标轮廓与类别信息。
6.如权利要求5所述的一种多目融合的图像语义目标检测方法,其特征在于,所述构建目标图像样本库的过程具体包括:
利用双目相机获取机器人作业目标的图像,利用标定的相机参数对图像进行校正;
对校正后的图像进行数据增强,采用Mixup的数据增强方法进一步扩充样本库中各类目标样本的数量;
采用标注工具对图像中不同类型设备轮廓进行标注,构建目标图像样本库。
7.如权利要求6所述的一种多目融合的图像语义目标检测方法,其特征在于,采用旋转、裁剪和扭曲的方法对校正后的图像进行数据增强处理。
8.如权利要求5所述的一种多目融合的图像语义目标检测方法,其特征在于,所述目标语义分割模型在训练过程中,为每一个分类类别分别设置类别编号和类别系数,用以决定主导训练的类别。
9.如权利要求1所述的一种多目融合的图像语义目标检测方法,其特征在于,机器人的机械臂末端设有压力传感器和超声雷达传感器,以避免机械臂与设备碰触,确保机械臂末端对目标作用力效果。
10.一种多目融合的图像语义目标检测系统,其特征在于,包括:
图像获取模块,用于对双目相机参数进行标定,利用双目相机获取机器人作业目标的图像;
设备轮廓提取模块,用于将所述机器人作业目标的图像分别输入到训练好的图像语义分割模型,得到左右目图像中不同设备的轮廓信息;
目标位置计算模块,用于分别取左右目图像中目标轮廓的外接矩形为感兴趣区域,计算得到两个区域的左右目视差图,根据视差图得到目标的三维坐标信息。
11.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求1-9任一项所述的多目融合的图像语义目标检测方法。
12.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行权利要求1-9任一项所述的多目融合的图像语义目标检测方法。
CN202110269210.0A 2021-03-12 2021-03-12 一种多目融合的图像语义目标检测方法及系统 Pending CN114723815A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110269210.0A CN114723815A (zh) 2021-03-12 2021-03-12 一种多目融合的图像语义目标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110269210.0A CN114723815A (zh) 2021-03-12 2021-03-12 一种多目融合的图像语义目标检测方法及系统

Publications (1)

Publication Number Publication Date
CN114723815A true CN114723815A (zh) 2022-07-08

Family

ID=82234726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110269210.0A Pending CN114723815A (zh) 2021-03-12 2021-03-12 一种多目融合的图像语义目标检测方法及系统

Country Status (1)

Country Link
CN (1) CN114723815A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116274170A (zh) * 2023-03-27 2023-06-23 中建三局第一建设工程有限责任公司 一种激光清洗设备的控制方法、系统及相关装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116274170A (zh) * 2023-03-27 2023-06-23 中建三局第一建设工程有限责任公司 一种激光清洗设备的控制方法、系统及相关装置
CN116274170B (zh) * 2023-03-27 2023-10-13 中建三局第一建设工程有限责任公司 一种激光清洗设备的控制方法、系统及相关装置

Similar Documents

Publication Publication Date Title
WO2022188379A1 (zh) 服务于电力机器人的人工智能系统及方法
CN111089569B (zh) 一种基于单目视觉的大型箱体测量方法
CN105538345B (zh) 一种基于多镜头的智能机械手及定位装配方法
CN113409384B (zh) 一种目标物体的位姿估计方法和系统、机器人
CN112161619B (zh) 位姿检测方法、三维扫描路径规划方法和检测系统
CN112837371A (zh) 基于3d匹配的物体抓取方法、装置及计算设备
CN110672007A (zh) 一种基于机器视觉的工件表面质量检测方法及系统
CN114119864A (zh) 一种基于三维重建与点云匹配的定位方法和装置
CN112348890B (zh) 一种空间定位方法、装置及计算机可读存储介质
JP2001266130A (ja) 画像処理装置、平面検出方法、及び平面検出プログラムを記録した記録媒体
CN110648362A (zh) 一种双目立体视觉的羽毛球定位识别与姿态计算方法
Zhang et al. Slat-calib: Extrinsic calibration between a sparse 3d lidar and a limited-fov low-resolution thermal camera
CN114723815A (zh) 一种多目融合的图像语义目标检测方法及系统
CN115810133A (zh) 基于图像处理和点云处理的焊接控制方法及相关设备
CN114910891A (zh) 一种基于非重叠视野的多激光雷达外参标定方法
CN113658147B (zh) 一种基于深度学习的工件尺寸测量装置及方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN113221953B (zh) 基于实例分割和双目深度估计的目标姿态识别系统与方法
CN117252928B (zh) 用于电子产品模块化智能组装的视觉图像定位系统
CN110349209A (zh) 基于双目视觉的振捣棒定位方法
CN116909208B (zh) 基于人工智能的壳体加工路径优化方法及系统
JP2007026423A (ja) 画像処理装置および画像処理方法
CN113587829B (zh) 一种边缘厚度测量方法、装置、边缘厚度测量设备及介质
US20190051042A1 (en) Ceiling map building method, ceiling map building device, and ceiling map building program
CN115546314A (zh) 传感器外参校准方法和装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination