CN110815213B - 一种基于多维度特征融合的零件识别装配方法和装置 - Google Patents

一种基于多维度特征融合的零件识别装配方法和装置 Download PDF

Info

Publication number
CN110815213B
CN110815213B CN201910998140.5A CN201910998140A CN110815213B CN 110815213 B CN110815213 B CN 110815213B CN 201910998140 A CN201910998140 A CN 201910998140A CN 110815213 B CN110815213 B CN 110815213B
Authority
CN
China
Prior art keywords
image
dimensional
camera
mechanical arm
steering engine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910998140.5A
Other languages
English (en)
Other versions
CN110815213A (zh
Inventor
王国平
郭彦彬
刘迎宾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201910998140.5A priority Critical patent/CN110815213B/zh
Publication of CN110815213A publication Critical patent/CN110815213A/zh
Application granted granted Critical
Publication of CN110815213B publication Critical patent/CN110815213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及智能机械设备技术领域,提供了一种基于多维度特征融合的零件识别装配方法和装置。方法包括根据待识别目标的特征,进行目标识别;在感兴趣区域对图像进行处理,提取出轮廓,然后利用三角测量法确定出圆环工件相对于相机的三维坐标;根据手眼标定的结果,将该三维坐标转换到机械臂坐标系下,控制机械臂进行抓取。本发明对使用双目视觉很好的识别、定位圆环工件并通过上位机将圆环工件的位置信息发送给基于多维度特征融合的零件识别装配机械臂进行抓取。针对计算机视觉和机械臂相结合的相关技术进行结合,将三维结构光技术和机械臂相结合,实现了机械臂对目标的识别、定位和抓取。

Description

一种基于多维度特征融合的零件识别装配方法和装置
【技术领域】
本发明涉及智能机械设备技术领域,特别是涉及一种基于多维度特征融合的零件识别装配方法和装置。
【背景技术】
传统的工业机械臂只能按照事先规划好的轨迹移动,不能够获取外界信息,限制了应用范围。为了增强机械臂的灵活性,现在已经有研究将机器视觉应用在机械臂控制中,但是现阶段很多机械臂控制中应用的机器视觉是单目的,并且是固定在传送带上某一个确定位置,采用这种形式的机器视觉系统对目标的定位不够精确,灵活性差。
鉴于此,克服该现有技术所存在的缺陷是本技术领域亟待解决的问题。
【发明内容】
本发明要解决的技术问题是现阶段很多机械臂控制中应用的机器视觉是单目的,并且是固定在传送带上某一个确定位置,采用这种形式的机器视觉系统对目标的定位不够精确,灵活性差。
本发明采用如下技术方案:
第一方面,本发明提供了一种基于多维度特征融合的零件识别装配方法,预先对相机、结构光系统分别进行标定,确定相机的参数,并对机械臂和相机进行手眼标定,以及,将不同形状的工件作为待识别目标,通过计算机视觉中的图像处理算法将工件特征提取,所述方法包括:
根据待识别目标的特征,进行目标识别;
在感兴趣区域对图像进行处理,提取出轮廓,然后利用三角测量法确定出圆环工件相对于相机的三维坐标;
根据手眼标定的结果,将该三维坐标转换到机械臂坐标系下,控制机械臂进行抓取。
优选的,所述相机的参数包括:焦距、光轴、径向畸变和切向畸变中的一项或者多项。
优选的,所述待识别目标的特征包括:
三维特征、拓扑特征、二维表面特征点中的一种或者多种,并将包含所述待识别目标的特征区域范围,作为图像的感兴趣区域。
优选的,所述三维特征中,具体包括:
半径、高程差、高程标准差和点密度中的一项或者多项三维几何特征;
线性特征、平面特征、散乱特征、总方差、各向异性、特征熵、特征值和曲率中的一项或者多项三维局部形状特征。
优选的,所述二维表面特征点,具体包括:
将二维滤波器对应的矩阵水平翻转,竖直翻转;
把这个滤波器矩阵,覆盖到图像上方;将滤波器矩阵的每一个元素,同下方图像的每一个元素相乘,再把所有的乘积加起来,并不断移动这个滤波器矩阵;
每移动一格,对应得到一个值;
当滤波器矩阵扫过原来的图像的所有位置的时候,我们就得到了一个新的图像;这个图像就是原来的图像经过该二维滤波器的输出,从而获得二维表面特征点。
优选的,预先对相机进行标定,具体包括:
设定模板平面在世界坐标系Z=0的平面上;
H=[h1 h2 h3]=λK[r1 r2 t],
Figure GDA0002901062540000021
其中,K为相机的内参数矩阵,r1和r2是旋转向量,h1、h2和h3为转化参数,由上式中的λK[r1r2t]求解得到,λ代表相机离标定板距离,
Figure GDA0002901062540000022
为模板平面上点的齐次坐标,X和Y是世界坐标,
Figure GDA0002901062540000023
是像素平面上点的齐次坐标,u和v分别代表x轴和y轴的像素坐标,为模板平面上点投影到图像平面上对应点的齐次坐标,[r1 r2 r3]和t分别是相机坐标系相对于世界坐标系的旋转矩阵和平移向量;
根据旋转矩阵的性质:r1 Tr2=0和||r1||=||r2||=1,每幅图像可以获得以下两个对内参数矩阵的基本约束;
Figure GDA0002901062540000031
Figure GDA0002901062540000032
其中,相机有5个未知内参数,当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K。
优选的,所述结构光系统标定包括:
在平台上放置标定用对象,测量标定用对象到激光器和摄像头连线的一系列实际距离值qi,以及每个距离值对应的由摄像头采集的标定图像;
获取所述标定图像中预设标定点位的间距pxi,带入由相似三角形得到公式
Figure GDA0002901062540000033
中,计算得到各相关参数的标定数据;
其中,f为摄像头中镜头到图像传感器距离,s为摄像头与激光器的间距,PixelSize为图像像素的物理尺寸,offset为图像原点相对于三角测距中图像边缘的偏置距离。
优选的,所述手眼标定包括利用九点标定直接建立相机和机械手之间的坐标变换关系,具体包括:
控制机械手的末端抵达预设的9个点,得到在机器人坐标系中的坐标,同时还要用相机识别9个点得到像素坐标,从而得到了9组对应的坐标,求出标定的矩阵。
优选的,所述机械臂具体为6自由度机械臂,其第零舵机、第一舵机、第二舵机、第三舵机和第四舵机依次相连,第零舵机为水平旋转舵机,第一舵机、第二舵机、第三舵机和第四舵机为竖直旋转舵机,第五舵机为控制机械手抓取的舵机,具体的:
机械臂三连杆长度分别为l1、l2、l3,第零舵机的水平旋转角度为θ0,第一舵机的竖直面旋转角度为θ1,第二舵机的竖直面旋转角度为θ2,第三舵机的竖直面旋转角度为θ3,第四舵机的竖直面旋转角度为θ4,第五舵机的竖直面旋转角度为θ5
以机械臂底座旋转中心为三维坐标系原点,根据目标点三维坐标P(x,y,z)与机械臂原点O(0,0,0)距离|PO|判定,若|PO|≤l1+l2+l3,则机械臂可达;若|PO|>l1+l2+l3,则机械臂不可达;
若可达,则根据目标点三维坐标P(x,y,z)计算出第零舵机的旋转角度为Arctan(m/n),其中m和n为第一舵机所在点坐标。
第二方面,本发明还提供了一种基于多维度特征融合的零件识别装配装置,用于实现第一方面所述的基于多维度特征融合的零件识别装配方法,所述装置包括:
至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被程序设置为执行第一方面所述的基于多维度特征融合的零件识别装配方法。
第三方面,本发明还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,用于完成第一方面所述的基于多维度特征融合的零件识别装配方法。
本发明对使用双目视觉很好的识别、定位圆环工件并通过上位机将圆环工件的位置信息发送给机械臂控制机械臂进行抓取。针对计算机视觉和机械臂相结合的相关技术进行结合,将三维结构光技术和机械臂相结合,实现了机械臂对目标的识别、定位和抓取。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于多维度特征融合的零件识别装配方法流程示意图;
图2是本发明实施例提供的一种基于多维度特征融合的零件识别装配方法中提取二维表面特征点的流程示意图;
图3是本发明实施例提供的一种基于多维度特征融合的零件识别装配方法中结构光系统定标方法流程图;
图4是本发明实施例提供的一种基于多维度特征融合的零件识别装配方法中结构光系统定标架构示意图;
图5是本发明实施例提供的一种基于多维度特征融合的零件识别装配方法中结构光成像中像素距离与实际距离关系图;
图6是本发明实施例提供的一种结构光成像中灰度质心获取方法流程图;
图7是本发明实施例提供的一种结构光成像中步进电机控制方法流程图;
图8是本发明实施例提供的一种结构光成像中原理示意图;
图9是本发明实施例提供的另一种结构光成像中原理示意图;
图10是本发明实施例提供的一种滤波器处理对应的矩阵的示意图;
图11是本发明实施例提供的另一种滤波器处理对应的矩阵的示意图;
图12是本发明实施例提供的还一种滤波器处理对应的矩阵的示意图;
图13是本发明实施例提供的一种机械臂装置的结构示意图;
图14是本发明实施例提供的一种机械臂装置的角度关系示意图;
图15是本发明实施例提供的一种基于多维度特征融合的零件识别装配装置结构示意图。
【具体实施方式】
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明的描述中,术语“内”、“外”、“纵向”、“横向”、“上”、“下”、“顶”、“底”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明而不是要求本发明必须以特定的方位构造和操作,因此不应当理解为对本发明的限制。
首先是系统标定,包括对相机、结构光系统进行标定,确定相机的参数,以及对机械臂和相机进行手眼标定。再次根据待识别目标的特征,进行目标识别。将不同形状的工件作为待识别目标。通过计算机视觉中的图像处理算法将工件特征提取,如三维特征、拓扑特征、二维表面特征点等等,将这一区域范围作为图像的感兴趣区域(ROI),之后在感兴趣区域对图像进行处理,提取出轮廓,然后利用三角测量法确定出圆环工件相对于相机的三维坐标,最后根据手眼标定的结果,将该三维坐标转换到机械臂坐标系下,控制机械臂进行抓取。实验结果表明使用双目视觉很好的识别、定位圆环工件并通过上位机将圆环工件的位置信息发送给机械臂,控制机械臂进行抓取。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例1:
本发明实施例1提供了一种基于多维度特征融合的零件识别装配方法,预先对相机、结构光系统分别进行标定,确定相机的参数(包括:焦距、光轴、径向畸变和切向畸变中的一项或者多项,其为相机的固有参数),并对机械臂和相机进行手眼标定,以及,将不同形状的工件作为待识别目标,通过计算机视觉中的图像处理算法将工件特征提取,如图1所示,所述方法包括:
在步骤201中,根据待识别目标的特征,进行目标识别。
在本发明实施例中,所述待识别目标的特征包括:三维特征、拓扑特征、二维表面特征点中的一种或者多种,并将包含所述待识别目标的特征区域范围,作为图像的感兴趣区域。
在步骤202中,在感兴趣区域对图像进行处理,提取出轮廓,然后利用三角测量法确定出圆环工件相对于相机的三维坐标。
在步骤203中,根据手眼标定的结果,将该三维坐标转换到机械臂坐标系下,控制机械臂进行抓取。
本发明对使用双目视觉很好的识别、定位圆环工件并通过上位机将圆环工件的位置信息发送给机械臂,控制机械臂进行抓取。针对计算机视觉和机械臂相结合的相关技术进行结合,将三维结构光技术和机械臂相结合,实现了机械臂对目标的识别、定位和抓取。
在本发明实施例具体实现方式中,所述三维特征中,具体包括:
半径、高程差、高程标准差和点密度中的一项或者多项三维几何特征;
线性特征、平面特征、散乱特征、总方差、各向异性、特征熵、特征值和曲率中的一项或者多项三维局部形状特征。
在本发明实施例具体实现方式中,提取二维表面特征点,如图2所示,具体包括:
在步骤301中,将二维滤波器对应的矩阵水平翻转,竖直翻转。
在步骤302中,把这个滤波器矩阵,覆盖到图像上方。最后,将滤波器矩阵的每一个元素,同下方图像的每一个元素相乘,再把所有的乘积加起来,并不断移动这个滤波器矩阵。
在步骤303中,每移动一格,对应得到一个值。
在步骤304中,当滤波器矩阵扫过原来的图像的所有位置的时候,我们就得到了一个新的图像;这个图像就是原来的图像经过该二维滤波器的输出,从而获得二维表面特征点。
结合本发明实施例,预先对相机进行标定,存在一种可选的实现方案,具体包括:
设定模板平面在世界坐标系Z=0的平面上;
H=[h1 h2 h3]=λK[r1 r2 t],
Figure GDA0002901062540000071
其中,K为相机的内参数矩阵,r1和r2是旋转向量,h1、h2和h3为转化参数,由上式中的λK[r1r2t]求解得到,λ代表相机离标定板距离,
Figure GDA0002901062540000072
为模板平面上点的齐次坐标,X和Y是世界坐标,
Figure GDA0002901062540000073
是像素平面上点的齐次坐标,u和v分别代表x轴和y轴的像素坐标,为模板平面上点投影到图像平面上对应点的齐次坐标,[r1 r2 r3]和t分别是相机坐标系相对于世界坐标系的旋转矩阵和平移向量;
根据旋转矩阵的性质:r1 Tr2=0和||r1||=||r2||=1,每幅图像可以获得以下两个对内参数矩阵的基本约束;
Figure GDA0002901062540000081
Figure GDA0002901062540000082
其中,相机有5个未知内参数(由3个径向畸变参数和2切向畸变参数构成),当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K。
传统标定方法比较笨拙,需人工放置标定板,依次调整标定板的距离,拍照,通过图像处理手段获取系统参数,最终通过仿真软件拟合出系统参数。本发明实施例提出一种基于伺服系统的全自动标定系统,从初始位置到标定结束位置,全程由伺服系统控制标定板位姿与距离,同步拍摄、图像处理、数据存储、系统标定算法,直至完成标定流程获取标定结果。具体的,在本发明实施中,对于所述结构光系统标定,给予了一种优选的实现方案,如图3是,包括:
在步骤401中,通过摄像头采集激光器投射到待扫描对象上的帧图像,将所述帧图像转换为灰度图。其中,所述激光器设置在机械臂上,用于表征所述机械臂的抓取方向。
本发明实施例正式利用激光具有良好的单色性,很少受到物体表面纹理或颜色的影响特性,进一步,通过灰度处理采集导的各帧图像,简化整个计算过程。
在步骤402中,计算得到各帧图像中,对应一个或者多个激光扫描点的灰度质心。
其中,单帧图像只能得到待扫描对象垂直方向上一条线的位置,并且,所述一条线通常也并非连续的线,而是由一个或者多个离散的激光扫描点构成的,在本发明实施例中,对于每一个激光扫描点在灰度处理后的图像中会呈现一个灰度区域,而所述灰度质心便是根据各灰度区域计算得到的,用于计算该帧图片中有效采集内容的对象。
在步骤403中,根据所述灰度质心在图像中的像素距离和所述标定数据,计算出灰度质心的三维坐标,记录成为第一成像数据;其中,所述像素距离是通过所述数据模型生成的激光器在图像中的映射位置与图像中采集到的对应激光扫描点之间的距离。
而在本发明实施例中,所述点源数据库不一定仅仅是离散的携带三维坐标信息的灰度质心。在本发明实施例后续的扩展方案中,将进一步介绍对所述点源数据库的存储内容的扩展实现。
本发明实施例利用定标后的数据模型,并结合灰度质心的计算手段,达到了高精度三维模型的生成;由于对于每一帧图像的处理简化到线结构光的扫描区域,提高了整个过程中采集图像的处理效率。
在平台(如图4所示的平移平台,通常由步进电机驱动)上放置标定用对象,测量标定用对象到激光器和摄像头连线的一系列实际距离值qi,以及每个距离值对应的由摄像头采集的标定图像;
获取所述标定图像中预设标定点位的间距pxi,带入由相似三角形得到公式
Figure GDA0002901062540000091
中,计算得到各相关参数的标定数据;其中,优选的,所述预设标定点位(以两个点,包括第一标定点位和第二标定点位为例)要求其中第一标定点位与激光器的连线,以及第二标定点位与摄像头镜头的连线平行。上述优选的标定点设置方式,能够很大程度上提高等式的建立速度,从而快速的完成相应标定数据计算过程。
其中,f为摄像头中镜头到图像传感器距离,s为摄像头与激光器的间距,PixelSize为图像像素的物理尺寸,offset为图像原点相对于三角测距中图像边缘的偏置距离。
在实际结合计算机实现所述标定数据的获取方式中,还提供了一种可选的实现思路,具体实现如下:
通过人为的设置一组(如图5所示,对应y轴坐标的为20个)所述第一标定点到激光器和摄像头连接线的距离qi(如图5所示的y轴坐标);而对应每一个所述距离qi,在图像中表现的像素距离pxi(如图5所示的x轴坐标),从而拟合出相应的关系曲线;并根据所述关系曲线和公式(1)求解得到标定数据。所述标定数据包括所述公式(1)中的f、s、PixelSize、offset等等。以便在后续实际3D扫描过程中,能够针对每一灰度质心点,均可用上述公式(1)通过像素点计算得到实际距离值qi
在本发明实施例中,除了提供如图4和图5所示的结构光系统标定方法以外,还提供了另一种可选的手眼标定方法,具体如下:
九点标定直接建立相机和机械手之间的坐标变换关系。
让机械手的末端去走这就9个点得到在机器人坐标系中的坐标,同时还要用相机识别9个点得到像素坐标。这样就得到了9组对应的坐标。
由下面的式子可知至少需要3个点才能求出标定的矩阵。
(1)、标定,Halcon中进行9点标定的算子
%前面求出图像坐标。
area_center(SortedRegions,Area,Row,Column)%
Column_robot:=[275,225,170,280,230,180,295,240,190];
%机器人末端运动到9点的列坐标。
Row_robot:=[55,50,45,5,0,-5,-50,-50,-50];
%机器人末端运动到9点的行坐标。
vector_to_hom_mat2d(Row,Column,Row_robot,Column_robot,HomMat2D);
%求解变换矩阵,HomMat2D是图像坐标和机械手坐标之间的关系。
(2)、求解
affine_trans_point_2d(HomMat2D,Row2,Column2,Qx,Qy);
%由像素坐标和标定矩阵求出机器人基础坐标系中的坐标。
接下来,将对典型的两种相机固定方式进行介绍:
方式一、相机固定在一个地方,然后拍照找到目标,控制机械手去抓取,这种就很好理解,这种方式也叫eye-to-hand。
方式二、相机固定在机械手上面,这种情况的标定过程实际上和相机和机械手分离的标定方法是一样的,因为相机拍照时,机械手会运动到相机标定的时候的位置,然后相机拍照,得到目标的坐标,再控制机械手,所以简单的相机固定在末端的手眼系统很多都是采用这种方法,标定的过程和手眼分离系统的标定是可以相同对待的,这种方式也叫eye-in-hand。
在本发明实施例中,计算得到各帧图像中,对应一个或者多个激光扫描点的灰度质心,如图6所示,具体包括:
在步骤501中,根据预设的灰度阈值,逐一筛选图像中的各像素点,从而确认对应于所述一个或者多个激光扫描点的一个或者多个灰度区域。
在步骤502中,通过公式
Figure GDA0002901062540000111
Figure GDA0002901062540000112
计算得到相应的灰度质心;其中,xi和yi是像素坐标,fij是相应坐标点的灰度值。
结合本发明实施例,还存在一种优选的实现方案,考虑到相机拍摄出来的图片会因为相机的性能差异而存在畸变,因此,在本发明实施例基础上对于各图像进行灰度处理前,优选的,所述方法还包括相机内参的标定,具体的:
通过对所述摄像头进行多次标定得到内参数矩阵和畸变向量;其中,所述内参数矩阵和畸变向量用于对摄像头拍摄下来的帧图像做畸变矫正;所述畸变矫正后的帧图像用于所述转换灰度图处理。
结合本发明实施例,还提供了一种驱动步进电机进行扫描的具体实现方式,可以配合本发明实施例所提出线结构光扫描方案,起到更有效的扫描结果。所述通过摄像头采集激光器投射到待扫描对象上的激光扫描点,如图7所示,具体包括:
在步骤601中,通过串口设定步进电机的工作参数;其中步进电机的工作参数包括:电机运动的加速度、减速度、圆周脉冲数和角速度中的一项或者多项。
其中,设定的步进电机的工作参数,通常是根据采购的步进电机的允许工作范围内选配的,相应的通过串口设定步进电机的工作参数,具体是由构造函数完成数据输入,所述构造函数示例如下:
Figure GDA0002901062540000121
其中,setAcc为设定加速度时间,200是脉冲数;setDec为设定减速的脉冲数;setSubdivision为设定的转一圈所需要的脉冲数;setSpeed为速度,其参数含义是一秒5度;setAngle为工作角度范围,具体为360°。
在步骤602中,根据所述步进电机的工作参数和待扫描对象的纹理细节分辨率,设定步进电机的工作模式,以便步进电机驱动转盘带动待扫描对象和/或激光器-摄像头组件,完成摄像头采集激光器投射到待扫描对象上的激光扫描点过程。
由于本发明实施例采用的是根据灰度质心来生成扫描结果的方式,因此,实际理论的精度是很高的,但是,在具体操作过程中也需要考虑效果和效率上的均衡,因此,在步骤602中提出了待扫描对象的纹理细节分辨率的概念,并结合步进电机的转速和加速度性能,设置一套与当前待扫描对象的纹理细节分辨率相匹配的,最优的扫描旋转速度。其中,电机运动的加速度和减速度,用于系统在涉及需要补充扫描位置时,进行差异性控制;例如:加速转过不需要补充扫描区域,而对于需要补充扫描区域则进行减速操作。
在本发明实施例中,摄像头可以为普通USBRGB摄像头,最高帧率30fps;分辨率大小为640x480;物理焦距为4.3mm;像素大小3um。激光器可以是功率100mw,激光波长650m,最小线宽0.4mm,且可以调节。
实施例2:
本发明实施例是针对实施例1中所描述的标定方法和获得的标定数据,对于步骤303中所涉及的所述根据所述灰度质心在图像中的像素距离和所述标定数据,计算出灰度质心的三维坐标,给予具体的一种实现实例的阐述。其中,所述数据模型包括平面模型(如图8所示)和垂直模型(如图9所示),所述平面模型用于计算激光扫描点A按照其投射角度延伸到转轴时(如图9中标识P所示)与待扫描对象上的所述激光扫描点的间离(具体为图9中所示的PA),并根据偏斜角度θ转换为三维坐标中的X和Y坐标值;所述垂直模型用于为所述平面模型提供相应激光扫描点的光路相对于水平光路的偏斜角度θ,以便平面模型计算相应激光扫描点抵达转轴时(如图8和图9中标识的P所示)与发射点的间离(即线段BP的距离),以及计算出Z轴坐标,则所述根据所述灰度质心在图像中的像素距离和所述标定数据,计算出灰度质心的三维坐标,具体包括:
根据公式
Figure GDA0002901062540000131
计算相应激光扫描点抵达待扫描对象时与发射点的间离。
根据公式(d-qi*cosθ)得到待扫描对象上的激光扫描点A到转轴的垂直距离AP’;其中,d为摄像头和激光器所在直线与转轴的垂直距离,θ为投射相应激光扫描点相对于水平面的偏斜角度;
结合待测目标的旋转角度γ,计算得到激光扫描点的三维坐标为[(d-qi*cosθ)*sinγ,(d-qi*cosθ)*cosnγ,(d-qi*cosθ)*tanθ]。换一种描述,所述三维坐标也可以表述为(AP’*sinγ,AP’*cosnγ,AP’*tanθ),其中,初始状态开始扫描时,相应的旋转角度为初始值0,所述旋转角度即步进电机带动所述待扫描目标旋转的角度值。在上述三维坐标中,原点坐标为转轴与垂直于摄像头和激光器所在平面的交底。
实施例3:
本发明实施例结合具体的滤波器将上述步骤301-304方法内容做具体场景下的描述,把滤波器对应的矩阵翻转后,扣到图像对应的矩阵上。然后,先从左上角开始,将这两个矩阵重叠的元素相乘相加,再不断移动滤波器对应的矩阵,直到所有的点都扫完为止。
左边是输入图像对应的矩阵,经过中间的滤波器后,得到的输出是右边的样子,其过程如图10所示。
(1)先将滤波器上下左右翻转,因为这个滤波器是对称的,所以翻转后和之前一样。
(2)把翻转后的滤波器,对准输入图像的左上角(灰色区域,如图10所示),再把对应的元素相乘相加。这样就得到了105*0+91*(-1)+100*0+105*(-1)+77*8+70*(-1)+101*0+120*(-1)+89*0=230这个值。我们把这个值,放入此刻滤波器中心所在的位置,作为输出图像在该位置的值。
如图11所示,然后按同样的计算方法,得到了91*0+100*(-1)+97*0+77*(-1)+70*8+104*(-1)+120*0+89*(-1)+99*0=190。190就应该位于此刻滤波器的中心位置。然后我们继续从左向右移动滤波器,每移动一格,就得到输出图像的一个值,如图11所示。当移动滤波器到最右边的时候,滤波器返回左边下一行,继续重复,直到滤波器到达右下角。
在计算最边缘的一行和一列的输出结果时,对原矩阵外围补零,再进行矩阵的卷和操作,如图12所示,得到了0*0+0*(-1)+0*0+102*(-1)+100*5+97*(-1)+99*0+103*(-1)+101*0=198。
实施例4:
本发明实施例提供了产品设计中的一种机械臂,具体为6自由度机械臂,如图13所示,其第零舵机、第一舵机、第二舵机、第三舵机和第四舵机依次相连,其中,第零舵机为水平旋转舵机,第一舵机、第二舵机、第三舵机和第四舵机为竖直旋转舵机,第五舵机为控制机械手抓取的舵机,具体的:
机械臂三连杆长度分别为l1、l2、l3,第零舵机的水平旋转角度为θ0,第一舵机的竖直面旋转角度为θ1,第二舵机的竖直面旋转角度为θ2,第三舵机的竖直面旋转角度为θ3,第四舵机的竖直面旋转角度为θ4,第五舵机的竖直面旋转角度为θ5
以机械臂底座旋转中心为三维坐标系原点,根据目标点三维坐标P(x,y,z)与机械臂原点O(0,0,0)距离|PO|判定,若|PO|≤l1+l2+l3,则机械臂可达;若|PO|>l1+l2+l3,则机械臂不可达;
若可达,则根据目标点三维坐标P(x,y,z)计算出第零舵机的旋转角度为Arctan(m/n),其中m和n为第一舵机所在点坐标。
在本发明实施例中,旋转第零舵机,将机械臂连杆机构与目标点位于同一平面上,设该平面为X-Y平面,使得机械臂逆运动学问题进一步简化,将空间路径规划问题简化为同一平面的三连杆路径规划问题。如图14所示,在X-Y平面中,设物体在该坐标系下坐标为P′(a,b),机械臂下臂旋转中心坐标为坐标原点O′(0,0)。以O′为圆心,l1为半径作圆O′,该圆方程为x2+y2=l2 1;在其上取一点M(m,n),使得M、P′两点间距离|MP′|≤l2+l3,以M(m,n)为圆心,l2为半径作圆M,该圆方程为:(x-m)2+(y-n)2=l2 2;以P′(a,b)为圆心,l3为半径作圆P′,该圆方程为:(x-a)2+(y-b)2=l2 3;M、P′两点间距离|MP′|≤l2+l3,故至少存在1个、至多存在2个点,圆M与圆P′相交,设交点坐标为N(i,j)。
由θ3≤π/2可知,|MP′|≤(l2+l3)1/2,
即((a-m)2+(b-n)2)1/2≥(l2+l3)1/2
由机械臂臂长参数l1、l2、l3值可知:(l2+l3)1/2>l1,得|MP′|≥l1
在以O′为圆心,l1+l2+l3为半径的解空间内,除了原点O′以外,对任意一点P′(a,b),都至少存在一组解θ1、θ2、θ3,使得机械臂的三连杆末端可达。
θ1=arcsin(m/l1);|θ2|=π-arccos((l2 1+l2 2-|MJ|2)/2l1l2);|θ3|=π-arccos((l2 2+l2 3-|P′M|2)/2l2l3)。
θ2的正负取值可根据N点与直线O′M的相对关系确定,若N点在直线O′M上或在其上半部,θ2取负值;若M点在直线O′M下半部,θ2取正值。θ3的正负取值可根据P′点与直线MN的相对关系确定,若P′点在直线MN上或在其上半部,θ3取负值;若P′点在直线MN下半部,θ3取正值。由机械臂参数规定,θ1、θ2、θ3取值均在空-90度到90度内。
本发明中可以求解物体位置与姿态、已知机械臂与姿态,通过位姿反求,路径规划,机械臂可通过每一节机械臂的自由度限制,规划出用时最短且路径最优的方案。
实施例5:
如图15所示,是本发明实施例的机械臂控制装置的架构示意图。本实施例的机械臂控制装置包括一个或多个处理器21以及存储器22。其中,图15中以一个处理器21为例。
处理器21和存储器22可以通过总线或者其他方式连接,图15中以通过总线连接为例。
存储器22作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序和非易失性计算机可执行程序,如实施例1中的基于多维度特征融合的零件识别装配方法。处理器21通过运行存储在存储器22中的非易失性软件程序和指令,从而执行基于多维度特征融合的零件识别装配方法。
存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器22可选包括相对于处理器21远程设置的存储器,这些远程存储器可以通过网络连接至处理器21。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述程序指令/模块存储在所述存储器22中,当被所述一个或者多个处理器21执行时,执行上述实施例1中的基于多维度特征融合的零件识别装配方法,例如,执行以上描述的图1、图2、图6、图7所示的各个步骤。
值得说明的是,上述装置和系统内的模块、单元之间的信息交互、执行过程等内容,由于与本发明的处理方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本领域普通技术人员可以理解实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于多维度特征融合的零件识别装配方法,其特征在于,预先对相机、结构光系统分别进行标定,确定相机的参数,并对机械臂和相机进行手眼标定,以及,将不同形状的工件作为待识别目标,通过计算机视觉中的图像处理算法将工件特征提取,所述方法包括:
根据待识别目标的特征,进行目标识别;
在感兴趣区域对图像进行处理,提取出轮廓,然后利用三角测量法确定出圆环工件相对于相机的三维坐标;
根据手眼标定的结果,将该三维坐标转换到机械臂坐标系下,控制机械臂进行抓取;
所述待识别目标的特征包括:
三维特征、拓扑特征、二维表面特征点中的一种或者多种,并将包含所述待识别目标的特征区域范围,作为图像的感兴趣区域;
所述三维特征中,具体包括:
半径、高程差、高程标准差和点密度中的一项或者多项三维几何特征;
线性特征、平面特征、散乱特征、总方差、各向异性、特征熵、特征值和曲率中的一项或者多项三维局部形状特征;
所述二维表面特征点,具体包括:
将二维滤波器对应的矩阵水平翻转,竖直翻转;
把这个滤波器矩阵,覆盖到图像上方;将滤波器矩阵的每一个元素,同下方图像的每一个元素相乘,再把所有的乘积加起来,并不断移动这个滤波器矩阵;
每移动一格,对应得到一个值;
当滤波器矩阵扫过原来的图像的所有位置的时候,我们就得到了一个新的图像;这个图像就是原来的图像经过该二维滤波器的输出,从而获得二维表面特征点。
2.根据权利要求1所述的基于多维度特征融合的零件识别装配方法,其特征在于,预先对相机进行标定,具体包括:
设定模板平面在世界坐标系Z=0的平面上;
H=[h1 h2 h3]=λK[r1 r2 t],
Figure FDA0002901062530000021
其中,K为相机的内参数矩阵,r1和r2是旋转向量,h1、h2和h3为转化参数,由上式中的λK[r1r2t]求解得到,λ代表相机离标定板距离,
Figure FDA0002901062530000022
为模板平面上点的齐次坐标,X和Y是世界坐标,
Figure FDA0002901062530000023
是像素平面上点的齐次坐标,u和v分别代表x轴和y轴的像素坐标,为模板平面上点投影到图像平面上对应点的齐次坐标,[r1 r2 r3]和t分别是相机坐标系相对于世界坐标系的旋转矩阵和平移向量;
根据旋转矩阵的性质:r1 Tr2=0和||r1||=||r2||=1,每幅图像可以获得以下两个对内参数矩阵的基本约束;
Figure FDA0002901062530000024
Figure FDA0002901062530000025
其中,相机有5个未知内参数,当所摄取得的图像数目大于等于3时,就可以线性唯一求解出K。
3.根据权利要求1所述的基于多维度特征融合的零件识别装配方法,其特征在于,所述结构光系统标定包括:
通过摄像头采集激光器投射到待扫描对象上的帧图像,将所述帧图像转换为灰度图;
计算得到各帧图像中,对应一个或者多个激光扫描点的灰度质心;
根据所述灰度质心在图像中的像素距离和标定数据,计算出灰度质心的三维坐标,记录成为第一成像数据;其中,所述像素距离是通过数据模型生成的激光器在图像中的映射位置与图像中采集到的对应激光扫描点之间的距离。
4.根据权利要求3所述的基于多维度特征融合的零件识别装配方法,其特征在于,所述结构光系统标定还包括:
在平台上放置标定用对象,测量标定用对象到激光器和摄像头连线的一系列实际距离值qi,以及每个距离值对应的由摄像头采集的标定图像;其中,所述激光器设置在机械臂上,用于表征所述机械臂的抓取方向;
获取所述标定图像中预设标定点位的间距pxi,带入由相似三角形得到公式
Figure FDA0002901062530000031
中,计算得到各相关参数的标定数据;
其中,f为摄像头中镜头到图像传感器距离,s为摄像头与激光器的间距,PixelSize为图像像素的物理尺寸,offset为图像原点相对于三角测距中图像边缘的偏置距离。
5.根据权利要求1所述的基于多维度特征融合的零件识别装配方法,其特征在于,所述手眼标定包括利用九点标定直接建立相机和机械手之间的坐标变换关系,具体包括:
控制机械手的末端抵达预设的9个点,得到在机器人坐标系中的坐标,同时还要用相机识别9个点得到像素坐标,从而得到了9组对应的坐标,求出标定的矩阵。
6.根据权利要求1-5任一所述的基于多维度特征融合的零件识别装配方法,其特征在于,所述机械臂具体为6自由度机械臂,其第零舵机、第一舵机、第二舵机、第三舵机和第四舵机依次相连,其中,第零舵机为水平旋转舵机,第一舵机、第二舵机、第三舵机和第四舵机为竖直旋转舵机,第五舵机为控制机械手抓取的舵机,具体的:
机械臂三连杆长度分别为l1、l2、l3,第零舵机的水平旋转角度为θ0,第一舵机的竖直面旋转角度为θ1,第二舵机的竖直面旋转角度为θ2,第三舵机的竖直面旋转角度为θ3,第四舵机的竖直面旋转角度为θ4,第五舵机的竖直面旋转角度为θ5
以机械臂底座旋转中心为三维坐标系原点,根据目标点三维坐标P(x,y,z)与机械臂原点O(0,0,0)距离|PO|判定,若|PO|≤l1+l2+l3,则机械臂可达;若|PO|>l1+l2+l3,则机械臂不可达;
若可达,则根据目标点三维坐标P(x,y,z)计算出第零舵机的旋转角度为Arctan(m/n);其中m和n为第一舵机所在点坐标。
7.一种基于多维度特征融合的零件识别装配装置,其特征在于,所述装置包括:
至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被程序设置为执行权利要求1-6任一所述的基于多维度特征融合的零件识别装配方法。
CN201910998140.5A 2019-10-21 2019-10-21 一种基于多维度特征融合的零件识别装配方法和装置 Active CN110815213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910998140.5A CN110815213B (zh) 2019-10-21 2019-10-21 一种基于多维度特征融合的零件识别装配方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910998140.5A CN110815213B (zh) 2019-10-21 2019-10-21 一种基于多维度特征融合的零件识别装配方法和装置

Publications (2)

Publication Number Publication Date
CN110815213A CN110815213A (zh) 2020-02-21
CN110815213B true CN110815213B (zh) 2021-03-19

Family

ID=69549813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910998140.5A Active CN110815213B (zh) 2019-10-21 2019-10-21 一种基于多维度特征融合的零件识别装配方法和装置

Country Status (1)

Country Link
CN (1) CN110815213B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462232B (zh) * 2020-03-13 2023-04-25 广州大学 一种物体抓取方法、装置和存储介质
CN112560704B (zh) * 2020-12-18 2023-07-18 温州大学乐清工业研究院 一种多特征融合的视觉识别方法及系统
CN113156607B (zh) * 2021-04-14 2023-07-14 广景视睿科技(深圳)有限公司 组装棱镜的方法、组装棱镜的装置以及组装棱镜的设备
CN113455864B (zh) * 2021-07-27 2022-08-12 深圳市简如法工程咨询有限公司 一种自动快速三维支模装置及支模方法
CN113751981B (zh) * 2021-08-19 2022-08-19 哈尔滨工业大学(深圳) 基于双目视觉伺服的空间高精度装配方法和系统
CN114111903B (zh) * 2021-11-24 2023-10-13 华中科技大学鄂州工业技术研究院 一种产线零件视觉识别搬运系统及方法
CN114084619B (zh) * 2021-11-24 2023-06-20 华中科技大学鄂州工业技术研究院 一种产线智能控制系统及方法
CN114523470B (zh) * 2021-12-30 2024-05-17 浙江图盛输变电工程有限公司 基于承载平台联动的机器人作业路径规划方法
CN114332231B (zh) * 2022-03-04 2022-06-14 成都创像科技有限公司 视觉检测设备中机械手与相机的定位方法、装置及介质
CN114953548B (zh) * 2022-05-31 2022-12-20 武汉金顿激光科技有限公司 一种轮胎模具清洗方法、系统及存储介质
CN115070779B (zh) * 2022-08-22 2023-03-24 菲特(天津)检测技术有限公司 机器人抓取控制方法、系统及电子设备
CN115122341A (zh) * 2022-08-31 2022-09-30 徐州芯特智能装备有限公司 一种自动化装箱方法及装箱机器人
CN115213721B (zh) * 2022-09-21 2022-12-30 江苏友邦精工实业有限公司 一种用于汽车车架加工的翻转定位机械手
CN117091533B (zh) * 2023-08-25 2024-04-12 上海模高信息科技有限公司 用于三维激光扫描仪器的自动转向适配扫描区域的方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1897663A2 (en) * 2006-09-05 2008-03-12 Adept Technology Inc. Bin-picking system for randomly positioned objects
CN103753585A (zh) * 2014-01-10 2014-04-30 南通大学 一种基于视觉图像分析的机械手及抓紧力智能调节方法
CN106695748A (zh) * 2016-12-09 2017-05-24 南京理工大学 一种双机械臂带电作业机器人
CN106772417A (zh) * 2016-12-31 2017-05-31 华中科技大学 一种动目标多维度多尺度红外光谱特征测量方法及系统
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN207423126U (zh) * 2017-11-28 2018-05-29 上海汇像信息技术有限公司 一种基于多维度运动控制三维重建测量装置
US20180222056A1 (en) * 2017-02-09 2018-08-09 Canon Kabushiki Kaisha Method of teaching robot and robot system
CN109176521A (zh) * 2018-09-19 2019-01-11 北京因时机器人科技有限公司 一种机械臂及其抓取控制方法和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1897663A2 (en) * 2006-09-05 2008-03-12 Adept Technology Inc. Bin-picking system for randomly positioned objects
CN103753585A (zh) * 2014-01-10 2014-04-30 南通大学 一种基于视觉图像分析的机械手及抓紧力智能调节方法
CN106695748A (zh) * 2016-12-09 2017-05-24 南京理工大学 一种双机械臂带电作业机器人
CN106772417A (zh) * 2016-12-31 2017-05-31 华中科技大学 一种动目标多维度多尺度红外光谱特征测量方法及系统
US20180222056A1 (en) * 2017-02-09 2018-08-09 Canon Kabushiki Kaisha Method of teaching robot and robot system
CN107247834A (zh) * 2017-05-31 2017-10-13 华中科技大学 一种基于图像识别的三维环境模型重构方法、设备及系统
CN207423126U (zh) * 2017-11-28 2018-05-29 上海汇像信息技术有限公司 一种基于多维度运动控制三维重建测量装置
CN109176521A (zh) * 2018-09-19 2019-01-11 北京因时机器人科技有限公司 一种机械臂及其抓取控制方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
人机时空共享协作装配技术研究综述;肖明珠等;《航空制造技术》;20190915;第62卷(第18期);全文 *
机械产品再制造装配过程动态工序质量控制系统;刘明周等;《计算机集成制造系统》;20140415;第20卷(第4期);全文 *

Also Published As

Publication number Publication date
CN110815213A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
CN110815213B (zh) 一种基于多维度特征融合的零件识别装配方法和装置
CN108109174B (zh) 一种用于散乱零件随机分拣的机器人单目引导方法和系统
CN110146099B (zh) 一种基于深度学习的同步定位与地图构建方法
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
CN110728715A (zh) 一种智能巡检机器人像机角度自适应调整方法
CN111801198B (zh) 一种手眼标定方法、系统及计算机存储介质
WO2018196303A1 (zh) 多方位投影的投影仪标定方法及装置
CN113963044B (zh) 一种基于rgbd相机的货物箱智能装载方法及系统
CN112396664A (zh) 一种单目摄像机与三维激光雷达联合标定及在线优化方法
CN110926330B (zh) 图像处理装置和图像处理方法
CN110033407B (zh) 一种盾构隧道表面图像标定方法、拼接方法及拼接系统
CN109459984B (zh) 一种基于三维点云的定位抓取系统及其使用方法
JP2014169990A (ja) 位置姿勢計測装置及び方法
CN111612794A (zh) 基于多2d视觉的零部件高精度三维位姿估计方法及系统
CN104469170B (zh) 双目摄像装置、图像处理方法及装置
CN104089628A (zh) 光场相机的自适应几何定标方法
CN111060006A (zh) 一种基于三维模型的视点规划方法
WO2020063058A1 (zh) 一种多自由度可动视觉系统的标定方法
CN109493418B (zh) 一种基于LabVIEW的三维点云获取方法
CN109472778B (zh) 一种基于无人机的高耸结构外观检测方法
CN110796700A (zh) 基于卷积神经网络的多物体抓取区域定位方法
CN113554757A (zh) 基于数字孪生的工件轨迹三维重构方法及系统
CN112818990A (zh) 目标检测框的生成方法、图像数据自动标注方法及系统
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
CN115546289A (zh) 一种基于机器人的复杂结构件三维形貌测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant