CN110000783A - 机器人的视觉抓取方法和装置 - Google Patents

机器人的视觉抓取方法和装置 Download PDF

Info

Publication number
CN110000783A
CN110000783A CN201910275513.6A CN201910275513A CN110000783A CN 110000783 A CN110000783 A CN 110000783A CN 201910275513 A CN201910275513 A CN 201910275513A CN 110000783 A CN110000783 A CN 110000783A
Authority
CN
China
Prior art keywords
picture
coordinate
mapping matrix
obtains
central point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910275513.6A
Other languages
English (en)
Other versions
CN110000783B (zh
Inventor
李明洋
许国树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jieka Robot Co ltd
Original Assignee
Shanghai Joint Card Machine Qi Ren Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Joint Card Machine Qi Ren Science And Technology Ltd filed Critical Shanghai Joint Card Machine Qi Ren Science And Technology Ltd
Priority to CN201910275513.6A priority Critical patent/CN110000783B/zh
Publication of CN110000783A publication Critical patent/CN110000783A/zh
Application granted granted Critical
Publication of CN110000783B publication Critical patent/CN110000783B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本发明实施例提供了机器人的视觉抓取方法和装置,包括:将标定图片进行水平面旋转和中心旋转,得到多张第一图片和多张第二图片;将每张第一图片输入映射矩阵算法,得到映射矩阵;将每张第二图片输入tcp偏移量算法,得到tcp偏移量;根据tcp偏移量确定标定结果的准确度;从待抓取工件的图片中获取图片处理区域;将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度;标定过程中可自动检测出标志物在图像中的位置和自动从机器人端获取机器人当前位置,提高标定准确度;可以对图片处理参数进行调整,提高用户体验。

Description

机器人的视觉抓取方法和装置
技术领域
本发明涉及机器人技术领域,尤其是涉及机器人的视觉抓取方法和装置。
背景技术
目前工业中的2D视觉抓取方法是通过机器人和工业相机来完成的,工业相机在获取图片后,通过VisionPro软件或者Halcon软件对图片进行处理。工业相机在标定过程中,通过手动框出标志物在图片中的位置,并手动输出机器人的位置,从而导致检测不准确。并且在图片处理过程中无法对参数进行调整。
发明内容
有鉴于此,本发明的目的在于提供机器人的视觉抓取方法和装置,标定过程中可自动检测出标志物在图像中的位置和自动从机器人端获取机器人当前的位置坐标,提高标定的准确度;可以对图片处理过程中的参数进行调整,提高用户体验。
第一方面,本发明实施例提供了机器人的视觉抓取方法,应用于客户端,所述方法包括:
获取待抓取工件的图片和标定图片;
将所述标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
将每张第一图片输入映射矩阵算法,得到映射矩阵;
将每张第二图片输入工具坐标点tcp偏移量算法,得到tcp偏移量;
根据所述tcp偏移量确定标定结果的准确度;
从所述待抓取工件的图片中获取图片处理区域;
将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
将所述最小外接矩形的中心点和所述角度通过所述映射矩阵进行坐标转换,得到所述待抓取工件在机器人坐标系下的中心点和角度。
进一步的,所述将每张第一图片输入映射矩阵算法,得到映射矩阵,包括:
获取所述每张第一图片对应的机器人位置坐标;
获取所述每张第一图片中标志物对应的像素坐标;
将所述每张第一图片对应的机器人位置坐标和所述每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到所述映射矩阵。
进一步的,所述将每张第二图片输入工具坐标系统tcp偏移量算法,得到tcp偏移量,包括:
获取所述多张第二图片对应的机器人位置坐标;
获取所述每张第二图片中标志物对应的像素坐标;
将所述每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
根据所述映射矩阵,计算所述圆心坐标对应的机器人位置坐标;
根据所述多张第二图片对应的机器人位置坐标和所述圆心坐标对应的机器人位置坐标,得到所述tcp偏移量。
进一步的,所述将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度,包括:
将所述图片处理区域的图片根据滤波参数进行滤波处理,得到滤波的图片;
将所述滤波的图片进行二值化,得到分离的图片;
将所述分离的图片进行形态学开运算或形态学闭运算,得到轮廓处理后的图片;
从所述轮廓处理后的图片中查找轮廓,并根据轮廓大小筛选出多个轮廓;
计算每个轮廓的最小外接矩形;
根据所述最小外接矩形,得到所述最小外接矩形的中心点和角度;
将所述最小外接矩形的中心点和角度显示在所述待抓取工件的图片上。
进一步的,所述方法还包括:
获取所述待抓取工件的图片的图像亮度值;
将所述图像亮度值与图像的平均灰度值进行比较;
如果所述图像亮度值小于所述平均灰度值,则增加相机的曝光时间;
如果所述图像亮度值大于所述平均灰度值,则减少所述相机的所述曝光时间。
第二方面,本发明实施例提供了机器人的视觉抓取装置,应用于客户端,所述装置包括:
图片获取单元,用于获取待抓取工件的图片和标定图片;
旋转单元,用于将所述标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
映射矩阵获取单元,用于将每张第一图片输入映射矩阵算法,得到映射矩阵;
偏移量获取单元,用于将每张第二图片输入工具坐标系统tcp偏移量算法,得到tcp偏移量;
确定单元,用于根据所述tcp偏移量确定标定结果的准确度;
图片处理区域获取单元,用于从所述待抓取工件的图片中获取图片处理区域;
中心点获取单元,用于将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
坐标转换单元,用于将所述最小外接矩形的中心点和所述角度通过所述映射矩阵进行坐标转换,得到所述待抓取工件在机器人坐标系下的中心点和角度。
进一步的,所述映射矩阵获取单元具体用于:
获取所述每张第一图片对应的机器人位置坐标;
获取所述每张第一图片中标志物对应的像素坐标;
将所述每张第一图片对应的机器人位置坐标和所述每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到所述映射矩阵。
进一步的,所述偏移量获取单元具体用于:
获取所述多张第二图片对应的机器人位置坐标;
获取所述每张第二图片中标志物对应的像素坐标;
将所述每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
根据所述映射矩阵,计算所述圆心坐标对应的机器人位置坐标;
根据所述多张第二图片对应的机器人位置坐标和所述圆心坐标对应的机器人位置坐标,得到所述tcp偏移量。
第三方面,本发明实施例提供了电子设备,包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的方法的步骤。
第四方面,本发明实施例提供了具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行如上所述的方法。
本发明实施例提供了机器人的视觉抓取方法和装置,包括:获取待抓取工件的图片和标定图片;将标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;将每张第一图片输入映射矩阵算法,得到映射矩阵;将每张第二图片输入工具坐标点tcp偏移量算法,得到tcp偏移量;根据tcp偏移量确定标定结果的准确度;从待抓取工件的图片中获取图片处理区域;将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度;标定过程中可自动检测出标志物在图像中的位置和自动从机器人端获取机器人当前的位置坐标,提高标定的准确度;可以对图片处理过程中的参数进行调整,提高用户体验。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的机器人的视觉抓取方法流程图;
图2为本发明实施例二提供的机器人的视觉抓取装置示意图;
图3为本发明实施例三提供的机器人的视觉抓取系统示意图;
图4为本发明实施例三提供的机器人末端法兰和标定板装配示意图;
图5为本发明实施例三提供的机器人末端法兰示意图;
图6为本发明实施例三提供的标定板主视图。
图标:
10-图片获取单元;20-旋转单元;30-映射矩阵获取单元;40-偏移量获取单元;50-确定单元;60-图片处理区域获取单元;70-中心点获取单元;80-坐标转换单元;1-机器人;2-末端吸爪;3-相机;4-相机支架;5-锂电池;6-标定板;7-螺钉;8-末端法兰。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本实施例进行理解,下面对本发明实施例进行详细介绍。
实施例一:
图1为本发明实施例一提供的机器人的视觉抓取方法流程图。
参照图1,执行主体为客户端,本申请是通过客户端上的2D视觉抓取软件实现的,2D视觉抓取软件是基于C++和Qt以及opencv开源库,该方法包括以下步骤:
步骤S101,获取待抓取工件的图片和标定图片,将标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
步骤S102,将每张第一图片输入映射矩阵算法,得到映射矩阵;
步骤S103,将每张第二图片输入tcp(tool coordinate point,工具坐标点)偏移量算法,得到tcp偏移量;
步骤S104,根据tcp偏移量确定标定结果的准确度;
这里,通过多张第一图片的像素点和机器人坐标位置的一一对应关系,得到映射矩阵,映射矩阵反映了像素坐标系和机器人坐标系之间的映射关系;利用映射矩阵,代入到像素点坐标,得到圆心坐标对应的机器人位置坐标,圆心坐标对应的机器人位置坐标和多张第二图片对应的机器人位置坐标间的误差称为重映射误差,重映射误差表明了标定结果的好坏,误差越小,标定结果越准确。
步骤S105,从待抓取工件的图片中获取图片处理区域;
步骤S106,将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
这里,图像处理算法包括滤波器、二值化阈值、形态学开运算或形态学闭运算、x方向上运算算子、y方向上运算算子、轮廓大小阈值,可以对滤波器、形态学开运算或形态学闭运算、x方向上运算算子、y方向上运算算子、轮廓大小阈值中的参数进行调整,并在图像显示界面上看到处理结果。
步骤S107,将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度。
这里,将待抓取工件在机器人坐标系下的中心点和角度发送给机器人,以使机器人进行显示。
进一步的,步骤S102包括以下步骤:
步骤S201,获取每张第一图片对应的机器人位置坐标;
步骤S202,获取每张第一图片中标志物对应的像素坐标;
这里,通过自动检测每张第一图片中的标志物对应的像素坐标,不需要用户框选,并且可以自动接收机器人发送的每张第一图片对应的机器人位置坐标,不需要用户从示教器中读取并输入,从而提高了检测的准确度。
步骤S203,将每张第一图片对应的机器人位置坐标和每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到映射矩阵。
具体地,多张第一图片可以为9张,但不限于9张,多张第一图片的个数不小于4张,此处以9张为例进行说明,9个像素点标定时保存的9张图片,对应的9组机器人位置坐标为(Xi,Yi)i=1,....9;获取每张第一图片中标志物对应的像素坐标(xi,yi)i=1,....9;然后通过单应性矩阵函数(findHomography函数)和RANSAC(Random Sample Consensus,随机采样一致性)算法,计算映射矩阵。
进一步的,步骤S103包括以下步骤:
步骤S301,获取多张第二图片对应的机器人位置坐标;
这里,当多张第二图片的旋转中心标定时,对应的机器人位置坐标为(X,Y)。
步骤S302,获取每张第二图片中标志物对应的像素坐标;
这里,多张第二图片可以为5张,但不限于5张,此处以5张为例,检测5张图片中标志物的像素坐标(xi,yi)i=1,....5。通过最小二乘法拟合圆,得到5个像素点的圆心坐标(xr,yr);
步骤S303,将每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
步骤S304,根据映射矩阵,计算圆心坐标对应的机器人位置坐标;
步骤S305,根据多张第二图片对应的机器人位置坐标和圆心坐标对应的机器人位置坐标,得到tcp偏移量。
具体地,根据映射矩阵,计算圆心坐标(xr,yr)和对应的机器人位置坐标(Xr,Yr),根据圆心坐标(xr,yr)和对应的机器人位置坐标(Xr,Yr)的差值,得到tcp偏移量。
进一步的,步骤S106包括以下步骤:
步骤S401,将图片处理区域的图片根据滤波参数进行滤波处理,得到滤波的图片;
这里,将图片处理区域的图片通过滤波器进行滤波处理,可以降低噪声。
步骤S402,将滤波的图片进行二值化,得到分离的图片;
这里,将滤波的图片进行二值化处理,可以使滤波后的图片与背景板分离,得到分离的图片。
步骤S403,将分离的图片进行形态学开运算或形态学闭运算,得到轮廓处理后的图片;
这里,形态学开运算是指先腐蚀后膨胀,从而平滑物体轮廓,断开较窄的狭颈;形态学闭运算是指消除小孔洞,填充轮廓线中的断裂。
步骤S404,从轮廓处理后的图片中查找轮廓,并根据轮廓大小筛选出多个轮廓;
步骤S405,计算每个轮廓的最小外接矩形;
步骤S406,根据最小外接矩形,得到最小外接矩形的中心点和角度;
步骤S407,将最小外接矩形的中心点和角度显示在待抓取工件的图片上。
这里,如果用户对处理后的图片不满意,则对图像处理算法中的参数进行重新设置,然后再对图片进行处理。
进一步的,该方法还包括以下步骤:
步骤S501,获取待抓取工件的图片的图像亮度值;
步骤S502,将图像亮度值与图像的平均灰度值进行比较;
步骤S503,如果图像亮度值小于平均灰度值,则增加相机的曝光时间;
步骤S504,如果图像亮度值大于平均灰度值,则减少相机的曝光时间。
具体地,考虑到当光源亮度发生变化或者有外界光线干扰的情况下,会导致图片检测的不准确,从而影响正常的图片抓取,故实时获取图片的图像亮度值,将图像亮度值与平均灰度值进行比较,图像亮度值大于平均灰度值时,说明光线过亮,则将相机的曝光时间减少;当图像亮度值大于平均灰度值时,说明光线过暗,则将相机的曝光时间增大,这样就可以通过自调节曝光时间来对应光线的变化,从而保证正常的抓取作业。
另外,在软件上可以集成通信调试模块,方便通信测试。具体为:在网络设置处,协议类型选取TCP Server;在本地IP地址处显示本地的IP地址;在本地端口号处填写端口号,如果有客户端连接上,则接受窗口会显示“新的客户端连接请求”,以及来自该客户端的消息。
本发明实施例提供了机器人的视觉抓取方法,包括:获取待抓取工件的图片和标定图片;将标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;将每张第一图片输入映射矩阵算法,得到映射矩阵;将每张第二图片输入工具坐标点tcp偏移量算法,得到tcp偏移量;根据tcp偏移量确定标定结果的准确度;从待抓取工件的图片中获取图片处理区域;将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度;标定过程中可自动检测出标志物在图像中的位置和自动从机器人端获取机器人当前的位置坐标,提高标定的准确度;可以对图片处理过程中的参数进行调整,提高用户体验。
实施例二:
图2为本发明实施例二提供的机器人的视觉抓取装置示意图。
参照图2,执行主体为客户端,该装置包括:
图片获取单元10,用于获取待抓取工件的图片和标定图片;
旋转单元20,用于将标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
映射矩阵获取单元30,用于将每张第一图片输入映射矩阵算法,得到映射矩阵;
偏移量获取单元40,用于将每张第二图片输入工具坐标系统tcp偏移量算法,得到tcp偏移量;
确定单元50,用于根据tcp偏移量确定标定结果的准确度;
图片处理区域获取单元60,用于从待抓取工件的图片中获取图片处理区域;
中心点获取单元70,用于将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
坐标转换单元80,用于将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度。
进一步的,映射矩阵获取单元30具体用于:
获取每张第一图片对应的机器人位置坐标;
获取每张第一图片中标志物对应的像素坐标;
将每张第一图片对应的机器人位置坐标和每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到映射矩阵。
进一步的,偏移量获取单元40具体用于:
获取多张第二图片对应的机器人位置坐标;
获取每张第二图片中标志物对应的像素坐标;
将每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
根据映射矩阵,计算圆心坐标对应的机器人位置坐标;
根据多张第二图片对应的机器人位置坐标和圆心坐标对应的机器人位置坐标,得到tcp偏移量。
本发明实施例提供了机器人的视觉抓取装置,包括:获取待抓取工件的图片和标定图片;将标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;将每张第一图片输入映射矩阵算法,得到映射矩阵;将每张第二图片输入工具坐标点tcp偏移量算法,得到tcp偏移量;根据tcp偏移量确定标定结果的准确度;从待抓取工件的图片中获取图片处理区域;将图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;将最小外接矩形的中心点和角度通过映射矩阵进行坐标转换,得到待抓取工件在机器人坐标系下的中心点和角度;标定过程中可自动检测出标志物在图像中的位置和自动从机器人端获取机器人当前的位置坐标,提高标定的准确度;可以对图片处理过程中的参数进行调整,提高用户体验。
实施例三:
图3为本发明实施例三提供的机器人的视觉抓取系统示意图。
参照图3,该系统包括:机器人、末端吸爪、相机、相机支架和锂电池。相机用于采集图片信息。如图4至图6所示,将标定板通过螺钉固定在机器人的末端法兰上,以使标定过程中标定板不会相对机器人的末端法兰移动,增加标定的准确度。每张图片中包括标志物,通过标定算法自动检测出标志物在图片中的像素坐标,并不需要用户框选。并且用户在标定过程中,自动从机器人获取机器人位置信息,并不需要用户从示教器上读取。
本发明实施例还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例提供的机器人的视觉抓取方法的步骤。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述实施例的机器人的视觉抓取方法的步骤。
本发明实施例所提供的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种机器人的视觉抓取方法,其特征在于,应用于客户端,所述方法包括:
获取待抓取工件的图片和标定图片;
将所述标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
将每张第一图片输入映射矩阵算法,得到映射矩阵;
将每张第二图片输入工具坐标点tcp偏移量算法,得到tcp偏移量;
根据所述tcp偏移量确定标定结果的准确度;
从所述待抓取工件的图片中获取图片处理区域;
将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
将所述最小外接矩形的中心点和所述角度通过所述映射矩阵进行坐标转换,得到所述待抓取工件在机器人坐标系下的中心点和角度。
2.根据权利要求1所述的机器人的视觉抓取方法,其特征在于,所述将每张第一图片输入映射矩阵算法,得到映射矩阵,包括:
获取所述每张第一图片对应的机器人位置坐标;
获取所述每张第一图片中标志物对应的像素坐标;
将所述每张第一图片对应的机器人位置坐标和所述每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到所述映射矩阵。
3.根据权利要求1所述的机器人的视觉抓取方法,其特征在于,所述将每张第二图片输入工具坐标系统tcp偏移量算法,得到tcp偏移量,包括:
获取所述多张第二图片对应的机器人位置坐标;
获取所述每张第二图片中标志物对应的像素坐标;
将所述每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
根据所述映射矩阵,计算所述圆心坐标对应的机器人位置坐标;
根据所述多张第二图片对应的机器人位置坐标和所述圆心坐标对应的机器人位置坐标,得到所述tcp偏移量。
4.根据权利要求1所述的机器人的视觉抓取方法,其特征在于,所述将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度,包括:
将所述图片处理区域的图片根据滤波参数进行滤波处理,得到滤波的图片;
将所述滤波的图片进行二值化,得到分离的图片;
将所述分离的图片进行形态学开运算或形态学闭运算,得到轮廓处理后的图片;
从所述轮廓处理后的图片中查找轮廓,并根据轮廓大小筛选出多个轮廓;
计算每个轮廓的最小外接矩形;
根据所述最小外接矩形,得到所述最小外接矩形的中心点和角度;
将所述最小外接矩形的中心点和角度显示在所述待抓取工件的图片上。
5.根据权利要求1所述的机器人的视觉抓取方法,其特征在于,所述方法还包括:
获取所述待抓取工件的图片的图像亮度值;
将所述图像亮度值与图像的平均灰度值进行比较;
如果所述图像亮度值小于所述平均灰度值,则增加相机的曝光时间;
如果所述图像亮度值大于所述平均灰度值,则减少所述相机的所述曝光时间。
6.一种机器人的视觉抓取装置,其特征在于,应用于客户端,所述装置包括:
图片获取单元,用于获取待抓取工件的图片和标定图片;
旋转单元,用于将所述标定图片进行水平面旋转和中心旋转,分别得到多张第一图片和多张第二图片;
映射矩阵获取单元,用于将每张第一图片输入映射矩阵算法,得到映射矩阵;
偏移量获取单元,用于将每张第二图片输入工具坐标系统tcp偏移量算法,得到tcp偏移量;
确定单元,用于根据所述tcp偏移量确定标定结果的准确度;
图片处理区域获取单元,用于从所述待抓取工件的图片中获取图片处理区域;
中心点获取单元,用于将所述图片处理区域通过图像处理算法,得到最小外接矩形的中心点和角度;
坐标转换单元,用于将所述最小外接矩形的中心点和所述角度通过所述映射矩阵进行坐标转换,得到所述待抓取工件在机器人坐标系下的中心点和角度。
7.根据权利要求6所述的机器人的视觉抓取装置,其特征在于,所述映射矩阵获取单元具体用于:
获取所述每张第一图片对应的机器人位置坐标;
获取所述每张第一图片中标志物对应的像素坐标;
将所述每张第一图片对应的机器人位置坐标和所述每张第一图片中标志物对应的像素坐标通过映射矩阵算法,得到所述映射矩阵。
8.根据权利要求6所述的机器人的视觉抓取装置,其特征在于,所述偏移量获取单元具体用于:
获取所述多张第二图片对应的机器人位置坐标;
获取所述每张第二图片中标志物对应的像素坐标;
将所述每张第二图片中标志物对应的像素坐标通过最小二乘法拟合圆,得到圆心坐标;
根据所述映射矩阵,计算所述圆心坐标对应的机器人位置坐标;
根据所述多张第二图片对应的机器人位置坐标和所述圆心坐标对应的机器人位置坐标,得到所述tcp偏移量。
9.一种电子设备,包括存储器、处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至5任一项所述的方法的步骤。
10.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1至5任一项所述的方法。
CN201910275513.6A 2019-04-04 2019-04-04 机器人的视觉抓取方法和装置 Active CN110000783B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910275513.6A CN110000783B (zh) 2019-04-04 2019-04-04 机器人的视觉抓取方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910275513.6A CN110000783B (zh) 2019-04-04 2019-04-04 机器人的视觉抓取方法和装置

Publications (2)

Publication Number Publication Date
CN110000783A true CN110000783A (zh) 2019-07-12
CN110000783B CN110000783B (zh) 2021-04-30

Family

ID=67170181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910275513.6A Active CN110000783B (zh) 2019-04-04 2019-04-04 机器人的视觉抓取方法和装置

Country Status (1)

Country Link
CN (1) CN110000783B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231036A (zh) * 2019-07-19 2019-09-13 广东博智林机器人有限公司 一种基于十字激光和机器视觉的机器人定位装置及方法
CN110533681A (zh) * 2019-08-26 2019-12-03 东莞弓叶互联科技有限公司 物品抓取方法、装置、设备及计算机可读存储介质
CN110625644A (zh) * 2019-09-19 2019-12-31 河海大学常州校区 一种基于机器视觉的工件抓取方法
CN111015660A (zh) * 2019-12-24 2020-04-17 江苏生益特种材料有限公司 一种ccl叠制生产机器人视觉系统的使用方法
CN111161343A (zh) * 2019-12-30 2020-05-15 芜湖哈特机器人产业技术研究院有限公司 一种水泵口环视觉识别方法
CN112719627A (zh) * 2020-12-17 2021-04-30 新代科技(苏州)有限公司 激光切割系统及激光切割补料方法
CN112802107A (zh) * 2021-02-05 2021-05-14 梅卡曼德(北京)机器人科技有限公司 基于机器人的夹具组的控制方法及装置
CN112883881A (zh) * 2021-02-25 2021-06-01 中国农业大学 一种条状农产品无序分拣方法及装置
CN112975959A (zh) * 2021-02-10 2021-06-18 山东英信计算机技术有限公司 一种基于机器视觉的散热器装配定位方法、系统及介质
CN113012228A (zh) * 2021-03-23 2021-06-22 华南理工大学 一种工位定位系统及基于深度学习的工件定位方法
CN114322752A (zh) * 2020-09-30 2022-04-12 合肥欣奕华智能机器有限公司 一种玻璃自动化传输的方法、装置及设备
CN114670195A (zh) * 2022-03-25 2022-06-28 北京博联众睿机器人科技有限公司 一种机器人自动校准方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934813A (zh) * 2015-12-31 2017-07-07 沈阳高精数控智能技术股份有限公司 一种基于视觉定位的工业机器人工件抓取实现方法
WO2018072208A1 (en) * 2016-10-21 2018-04-26 Abb Schweiz Ag Method, electronic device and system of picking an object from a container
CN108109154A (zh) * 2016-11-24 2018-06-01 广州映博智能科技有限公司 一种工件的新型定位及数据获取方法
CN108858199A (zh) * 2018-07-27 2018-11-23 中国科学院自动化研究所 基于视觉的服务机器人抓取目标物体的方法
CN109102547A (zh) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 基于物体识别深度学习模型的机器人抓取位姿估计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106934813A (zh) * 2015-12-31 2017-07-07 沈阳高精数控智能技术股份有限公司 一种基于视觉定位的工业机器人工件抓取实现方法
WO2018072208A1 (en) * 2016-10-21 2018-04-26 Abb Schweiz Ag Method, electronic device and system of picking an object from a container
CN108109154A (zh) * 2016-11-24 2018-06-01 广州映博智能科技有限公司 一种工件的新型定位及数据获取方法
CN109102547A (zh) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN108858199A (zh) * 2018-07-27 2018-11-23 中国科学院自动化研究所 基于视觉的服务机器人抓取目标物体的方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231036B (zh) * 2019-07-19 2020-11-24 广东博智林机器人有限公司 一种基于十字激光和机器视觉的机器人定位装置及方法
CN110231036A (zh) * 2019-07-19 2019-09-13 广东博智林机器人有限公司 一种基于十字激光和机器视觉的机器人定位装置及方法
CN110533681A (zh) * 2019-08-26 2019-12-03 东莞弓叶互联科技有限公司 物品抓取方法、装置、设备及计算机可读存储介质
CN110533681B (zh) * 2019-08-26 2023-01-06 广东弓叶科技有限公司 物品抓取方法、装置、设备及计算机可读存储介质
CN110625644B (zh) * 2019-09-19 2022-04-08 河海大学常州校区 一种基于机器视觉的工件抓取方法
CN110625644A (zh) * 2019-09-19 2019-12-31 河海大学常州校区 一种基于机器视觉的工件抓取方法
CN111015660A (zh) * 2019-12-24 2020-04-17 江苏生益特种材料有限公司 一种ccl叠制生产机器人视觉系统的使用方法
CN111161343A (zh) * 2019-12-30 2020-05-15 芜湖哈特机器人产业技术研究院有限公司 一种水泵口环视觉识别方法
CN111161343B (zh) * 2019-12-30 2023-01-31 芜湖哈特机器人产业技术研究院有限公司 一种水泵口环视觉识别方法
CN114322752A (zh) * 2020-09-30 2022-04-12 合肥欣奕华智能机器有限公司 一种玻璃自动化传输的方法、装置及设备
CN114322752B (zh) * 2020-09-30 2024-03-12 合肥欣奕华智能机器股份有限公司 一种玻璃自动化传输的方法、装置及设备
CN112719627A (zh) * 2020-12-17 2021-04-30 新代科技(苏州)有限公司 激光切割系统及激光切割补料方法
CN112802107A (zh) * 2021-02-05 2021-05-14 梅卡曼德(北京)机器人科技有限公司 基于机器人的夹具组的控制方法及装置
CN112975959A (zh) * 2021-02-10 2021-06-18 山东英信计算机技术有限公司 一种基于机器视觉的散热器装配定位方法、系统及介质
CN112883881A (zh) * 2021-02-25 2021-06-01 中国农业大学 一种条状农产品无序分拣方法及装置
CN112883881B (zh) * 2021-02-25 2023-10-31 中国农业大学 一种条状农产品无序分拣方法及装置
CN113012228A (zh) * 2021-03-23 2021-06-22 华南理工大学 一种工位定位系统及基于深度学习的工件定位方法
CN114670195A (zh) * 2022-03-25 2022-06-28 北京博联众睿机器人科技有限公司 一种机器人自动校准方法和系统
CN114670195B (zh) * 2022-03-25 2024-01-12 北京博联众睿机器人科技有限公司 一种机器人自动校准方法和系统

Also Published As

Publication number Publication date
CN110000783B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN110000783A (zh) 机器人的视觉抓取方法和装置
JP6871416B2 (ja) 顔画像品質を決定する方法および装置、電子機器ならびにコンピュータ記憶媒体
CN108636830A (zh) 基于机器视觉的胶囊缺陷检测分拣的方法、装置及设备
CN105785989B (zh) 利用行进中机器人标定分布式网络摄像机的系统和相关方法
CN109671115A (zh) 使用深度值估计的图像处理方法和装置
CN109069132A (zh) 用于辅助型3d扫描的系统和方法
US9959600B2 (en) Motion image compensation method and device, display device
CN102289803A (zh) 图像处理设备、图像处理方法及程序
CN106625673A (zh) 狭小空间装配系统及装配方法
CN110443148A (zh) 一种动作识别方法、系统和存储介质
CN109636849B (zh) 一种工件定位方法、装置、计算机及计算机可读存储介质
CN106709862B (zh) 一种图像处理方法及装置
CN108776965B (zh) 一种图像中直线测量方法、装置、设备及存储介质
CN107122754A (zh) 姿势识别方法和装置
CN105654531B (zh) 一种图像轮廓的绘制方法及装置
CN113985830A (zh) 密封钉的上料控制方法、装置、电子设备及存储介质
CN114092985A (zh) 一种终端控制方法、装置、终端及存储介质
CN107886540B (zh) 制冷设备内物品识别定位方法和制冷设备
US10917559B2 (en) Method for achieving non-selfie-taking effect through selfie-taking and photographing device
EP3143586B1 (en) Perimeter detection
CN113658274B (zh) 用于灵长类动物种群行为分析的个体间距自动计算方法
CN107767461A (zh) 一种全景图像跳转方法
CN113516705A (zh) 一种手部关键点的标定方法及装置
CN109129483A (zh) 一种基于云平台下多机器人协作的方法、装置及机器人
JP2021051022A (ja) 建物構造物診断システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 200240 building 6, 646 Jianchuan Road, Minhang District, Shanghai

Applicant after: SHANGHAI JAKA ROBOTICS Ltd.

Address before: 200120 floor 1, building 1, No. 251, Yaohua Road, pilot Free Trade Zone, Pudong New Area, Shanghai

Applicant before: SHANGHAI JAKA ROBOTICS Ltd.

GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Building 6, 646 Jianchuan Road, Minhang District, Shanghai 201100

Patentee after: Jieka Robot Co.,Ltd.

Address before: 200240 building 6, 646 Jianchuan Road, Minhang District, Shanghai

Patentee before: SHANGHAI JAKA ROBOTICS Ltd.