CN107618030B - 基于视觉的机器人动态跟踪抓取方法及系统 - Google Patents
基于视觉的机器人动态跟踪抓取方法及系统 Download PDFInfo
- Publication number
- CN107618030B CN107618030B CN201610587245.8A CN201610587245A CN107618030B CN 107618030 B CN107618030 B CN 107618030B CN 201610587245 A CN201610587245 A CN 201610587245A CN 107618030 B CN107618030 B CN 107618030B
- Authority
- CN
- China
- Prior art keywords
- target
- robot
- target workpiece
- tracking
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明公开了一种基于视觉的机器人动态跟踪抓取方法及系统,通过图像处理器预测目标工件处于待抓取的位置,机器人控制器选取位于待抓取位置上游的第一位置,使机器人的末端执行器从目标点位置先于待抓取的目标工件运动到第一位置且速度为零,机器人的末端执行器在目标工件的运行方向上加速运动,然后使待抓取的目标工件追击末端执行器使两者在第二位置以相同的速度相遇,之后运动到待抓取位置时末端执行器抓取待抓取的目标工件,完成抓取后最后一起运动到目标点位置,通过识别算法和跟踪算法定位和抓取目标工件,末端执行器按上述设定的抓取路径轨迹可在抓取目标工件的过程中实现平滑性运行,减少机器人在跟踪与抓取目标工件的过程中引起的振动。
Description
【技术领域】
本发明涉及一种机器人抓取技术,尤其是指一种基于视觉的机器人动态跟踪抓取方法及系统。
【背景技术】
工件抓取是生产线上机器人的一项重要技术,目前,生产线上大部分的机器人仅能在严格定义的结构化环境中执行预定的指令,一旦工件的状态发生改变,机器人往往不能做出正确的应变,近年来,视觉引导与定位技术已经成为机器人获得作业周围环境信息的主要手段,它可以使机器人在实际作业中具有自主判断能力,从而使机器人应用灵活性和工作质量大大提高。当前基于视觉的机器人抓取系统已有的研究主要有两种:
(1).基于单目视觉的机器人抓取方法:该类方法一般采用将相机安装在机器人工作空间的上方,目标工件和机械手末端同时出现在相机视野中,通过相机的媒介作用建立起目标与机器人之间的关系。
(2).基于立体视觉的机器人抓取方法:该类方法一般是使用两台相机对目标工件同时进行拍摄,利用视差和立体匹配技术获取目标的空间位姿,从而引导机器人实现抓取动作。
不管是在单目视觉还是立体视觉,怎样能实现机器人精确抓取目标工件及在跟踪及抓取过程中实现平滑性,以及怎样防止机器人在跟踪与抓取目标工件的过程中引起振动,是当前需要解决的问题。
因此,有必要设计一种基于视觉的机器人的动态跟踪抓取方法及系统,以克服上述问题。
【发明内容】
本发明的创作目的在于提供一种基于视觉的机器人动态跟踪抓取方法及系统,通过识别算法和跟踪算法定位和抓取目标工件,使机器人在抓取目标工件的过程中可实现跟踪及抓取平滑性,减少机器人在跟踪与抓取目标工件的过程中引起的振动,且目标工件的定位精度高、实时性好。
为了达到上述目的,本发明采用如下技术方案:
一种基于视觉的机器人动态跟踪抓取方法,包括以下步骤:
步骤S1:根据相机和机器人的位置关系建立两者之间的坐标映射公式,通过相机建立目标工件与机器人之间的相对位姿关系,并确定机器人的末端执行器在传送带上的工作安全范围;
步骤S2:图像处理器对相机采集到的目标工件图像进行处理,并进行特征检测,确定目标工件的特征模板,作为用以识别算法的依据;
步骤S3:传送带以速度V帶携载工件在运行方向平移移动,相机对进入其视场的目标工件进行图像采集传送至图像处理器,采用模板匹配识别算法图像处理器在图像中搜索目标工件,得到目标工件在拍照时刻的位置和偏转角度,根据步骤S1的标定结果将拍照时刻的位置及偏转角度映射到机器人的坐标系中,并将目标工件的位置信息传送给机器人控制器;
步骤S4:机器人控制器根据出现在相机视场中的目标工件位置信息,预测目标工件处于待抓取时的位置与偏转角度,机器人控制器判定预测的待抓取位置位于机器人的工作安全范围内则发出抓取命令,反之则放弃抓取;
步骤S5:对预测出现在工作安全范围内的目标工件,机器人控制器根据计算选取位于待抓取位置上游的第一位置,机器人的末端执行器位于第一位置时,目标工件与第一位置之间的距离S在可追踪距离范围内,机器人控制器根据第一位置和目标点位置规划机器人的末端执行器运动轨迹,机器人的末端执行器按照规划的运动轨迹先于目标工件运动到达第一位置且速度为零,机器人的末端执行器在目标工件的运行方向上加速运动与目标工件在第二位置以相同的速度相遇,并在待抓取位置抓取目标工件后放置到目标点位置。
进一步,在步骤S3中,图像处理器识别、定位出现在相机视场中的一个目标工件作为相机的跟踪目标,并以此跟踪目标作为执行滤波算法的基准,且不断刷新跟踪目标的位姿,跟踪目标确定后在其周围进行目标工件搜索,对搜索识别到的目标工件作为非跟踪目标,建立非跟踪目标与跟踪目标之间的定位关系,并将跟踪目标与非跟踪目标的位姿输出至机器人控制器,图像处理器对此后拍照的图像中满足与跟踪目标之间定位关系的非跟踪目标将被过滤掉,不再重复输出非跟踪目标的位姿信息给机器人控制器,机器人控制器根据已获得的目标工件的位姿信息预测最靠近工作安全范围的目标工件处于待抓取时的位置与偏转角度,跟踪目标移动出了相机视场后,图像处理器重新寻找进入相机视场还未识别的目标工件作为相机的新跟踪目标,重复上述操作。
进一步,相机视场根据目标工件在传送带上的运行方向分为三个不重叠的视场区域,依次为第一视场区域、第二视场区域及第三视场区域,图像处理器在第一视场区域进行跟踪目标确定及其位姿更新,跟踪目标进入第二视场区域后,图像处理器在跟踪目标周围进行多目标工件搜索,建立非跟踪目标与跟踪目标之间的定位关系,并将跟踪目标与非跟踪目标的位姿信息传送给机器人控制器,在进入第三视场区域后,机器人控制器根据已获得的目标工件的位姿信息预测最靠近工作安全范围的目标工件处于待抓取时的位置与偏转角度。
进一步,第一视场区域与第二视场区域的分界线为整个相机视场的二分之一处,第二视场区域与第三视场区域的分界线为整个相机视场的四分之三处。
进一步,在步骤S3之前,测传送带的空间速度V帶矢量,当目标工件刚进入相机视场后,点击拍照记录目标工件在一个点的时刻及其在机器人坐标系下的坐标(t1,X1,Y1),当目标工件即将离开相机视场时,点击拍照记录目标工件在另一个点的时刻及其在机器人坐标系下的坐标(t2,X2,Y2),利用两组坐标计算得到传送带的空间速度V帶矢量。
进一步,在传送带上安装测量传送带速度的编码器,编码器连接于机器人控制器并将编码器测到的传送带速度V帶传送给机器人控制器,在步骤S3中,图像处理器读取机器人控制器中的V帶进行相关滤波计算。
进一步,在步骤S5中,用户根据需求选择机器人的末端执行器以相同的速度在运行方向上跟踪待抓取的目标工件到达待抓取位置的时间,然后使机器人的末端执行器抓取目标工件以后在运行方向上减速地快速运动至第三位置时速度为零,最后一起从后第三位置运动到目标点位置。
进一步,在步骤S5中,当机器人的末端执行器到达第一位置后,机器人控制器根据此时目标工件的位置与第二位置从新优化机器人的末端执行器从第一位置到第二位置所需的时间,使机器人的末端执行器准确抓取目标工件。
一种实现权利要求1所述的基于视觉的机器人动态跟踪抓取方法的系统,包括:传送带、光源、相机、工业计算机、机器人和目标工件,机器人安装于传送带的一端,相机安装于传送带另一端的相机支架上,相机位于机器人的上游且垂直正对传送带上的目标工件,光源安装于相机支架的下方,相机、光源、机器人及工业计算机电气连接,工业计算机包括图像处理器、机器人控制器及存储器,存储器用以保存目标工件的模板图像。
与现有技术相比,本发明通过图像处理器预测目标工件处于待抓取的位置,且机器人控制器先选取位于待抓取位置上游的第一位置,使机器人的末端执行器从目标点位置先于待抓取的目标工件运动到第一位置且速度为零,通过机器人的末端执行器在目标工件的运行方向上加速运动,然后使待抓取的目标工件追击机器人的末端执行器使两者在第二位置以相同的速度相遇,之后运动到待抓取位置时机器人的末端执行器抓取待抓取的目标工件,完成抓取后最后一起运动到目标点位置,通过识别算法和跟踪算法定位和抓取目标工件,末端执行器按上述设定的抓取路径轨迹可在抓取目标工件的过程中实现平滑性运行,减少机器人在跟踪与抓取目标工件的过程中引起的振动,且对目标工件的定位精度高、实时性好。
【附图说明】
图1为本发明基于视觉的机器人动态跟踪抓取系统的立体示意图;
图2为图1的结构框架图;
图3为本发明基于视觉的机器人动态跟踪抓取方法的流程图;
图4为图3机器人的末端执行器在抓取目标工件的运动轨迹示意图;
图5为图3中图像处理器及相机的工作原理示意图。
具体实施方式的附图标号说明:
传送带 1 光源 2 相机 3
工业计算机 4 图像处理器 41 机器人控制器 42
存储器 43 机器人 5 末端执行器 51
目标工件 6 相机支架 7 运行方向 F
相机视场 A 第一视场区域 A1 第二视场区域 A2
第三视场区域 A3 第一分界线 L1 第二分界线 L2
跟踪目标 Gbase 非跟踪目标 Garo 工作安全范围 W
工作上游点 W1 工作下游点 W2 第一位置 P1
第二位置 P2 第三位置 P3 目标点位置 Pend
【具体实施方式】
为便于更好的理解本发明的目的、结构、特征以及功效等,现结合附图和具体实施方式对本发明作进一步说明。
请参阅图1和图2,本发明的一种基于视觉的机器人动态跟踪抓取的系统,包括:传送带1、光源2、相机3、工业计算机4、机器人5和目标工件6。机器人5为六自由度机器人,且安装于传送带1的一端,在机器人5的末端法兰盘上装有末端执行器51,在本实施例中,末端执行器51为一抓手。相机3安装于传送带1的一端的相机支架7上,相机3位于机器人5的上游且垂直正对传送带1上的目标工件6。光源2安装于相机3的下方,在本实施例中,光源2为一种光电开关。光源2、相机3、工业计算机4和机器人5依次电气连接。工业计算机4包括图像处理器41、机器人控制器42及存储器43,存储器43连接图像处理器41,图像处理器41连接机器人控制器42。
请参阅图3,一种基于视觉的机器人动态跟踪抓取方法,包括以下步骤:
请参阅图1、图2和图3,步骤S1:根据相机3和机器人5的位置关系建立两者之间的坐标映射公式,通过相机3建立目标工件6与机器人5之间的相对位姿关系,并确定末端执行器51在传送带1上的工作安全范围W。
请参阅图1,相机3的标定方法有针标定、双相机标定及激光标定等,在本实施例中,对相机3用平面标靶标定法进行标定,并通过其中一副标定板图像在传送带1上建立一个参考坐标系(0ref Xref Yref Zref),得到参考坐标系和相机坐标系之间的相对位姿camHref,同时通过离线测量的方式得到参考坐标系和机器人坐标系(0w Xw Yw Zw)之间的相对位姿baseHref,以参考坐标系(0ref Xref Yref Zref)为中间媒介可得到相机坐标系和机器人坐标系之间的位姿关系:
baseHcam=baseHref·(camHref)-1,
通过目标定位得到baseHobj,则目标工件6与机器人5的相对位姿关系为:
baseHobj=baseHcam·camHobj,
以建立目标工件6和机器人5之间的联系。
请参阅图1,用户根据机器人5的工作环境,定义末端执行器51在传送带1上的工作安全范围为W,其中W1为工作上游点,W2为工作下游点。
请参阅图2和图3,步骤S2:图像处理器41对相机3采集到的目标工件图像进行处理,并进行特征检测,确定目标工件6的特征模板,作为用以识别算法的依据。
请参阅图1和图2,光源2开启,当目标工件6通过时,触发相机3采集经传送带1送入相机视场A的多帧目标工件图像并记录每帧图像的拍照时刻,将图像传送到工业计算机4进行图像平滑滤波操作,系统噪声主要是由传送带1反光、CCD电路和工业现场环境引起的随机噪声。图像滤波采用均值滤波方法,降低噪声的影响,均值滤波方法是将原图中一个像素的灰度值和它周围邻近8个像素的灰度值相加,然后求得的平均值。经过均值滤波后,图像噪声得到平滑。在预处理后的图像中提取目标工件6的灰度特征模板,并进行特征检测,确定目标工件6的特征模板,并将特征模板存放于存储器43中,作为步骤S3中识别算法的依据。当然在自然光充足的情况下,光源2也可不用开,相机3也可对进入相机视场A的目标工件6进行拍照。
请参阅图1、图2和图3,步骤S3:传送带1以速度V帶携载工件以一运行方向F平移移动,相机3对进入相机视场A的目标工件6进行图像采集传送至图像处理器41,采用模板匹配识别算法图像处理器41在图像中搜索目标工件6,得到目标工件6在拍照时刻的位置和偏转角度,根据步骤S1的标定结果将拍照时刻的位置及偏转角度映射到机器人5的坐标系中,并将目标工件6的位置信息传送给机器人控制器42。
请参阅图1、图2和图3,步骤S4:机器人控制器42根据出现在相机视场A中的目标工件6位置信息,预测目标工件6处于待抓取时的位置与偏转角度,机器人控制器42判定预测的位置位于机器人5的工作安全范围W内则发出抓取命令;反之则放弃抓取。
上述步骤S3和步骤S4均是目标工件6在相机视场A中需要完成的处理计算。
请参阅图1、图2和图3,其中,传送带1的速度V帶可通过两种方式:一种是在传送带1上安装测量传送带速度的编码器,编码器连接于机器人控制器42并将编码器测到的传送带速度V帶传送给机器人控制器42,在步骤S3中,图像处理器41读取机器人控制器42中的V帶进行相关滤波计算;另一种是通过目标工件6刚进入相机视场A后,点击拍照记录目标工件6在一个点的时刻及其在机器人坐标系下的坐标(t1,X1,Y1),当目标工件6即将离开相机视场A时,点击拍照记录目标工件6在另一个点的时刻及其在机器人坐标系下的坐标(t2,X2,Y2),利用两组坐标计算得到传送带1的空间速度V帶矢量。在本实施例中,采用第二种方式测得传送带1的速度V帶。
请参阅图1和5,在本实施例中,相机视场A根据目标工件6在传送带1上的运行方向F分为三个不重叠的视场区域,依次为第一视场区域A1、第二视场区域A2及第三视场区域A3,第一视场区域A1与第二视场区域A2的第一分界线L1为整个相机视场A的二分之一处,第二视场区域A2与第三视场区域A3的第二分界线L2为整个相机视场A的四分之三处。
请参阅图1、图2和图5,图像处理器41首先识别定位出现在第一视场区域A1中的一个目标工件6作为相机3的跟踪目标Gbase,跟踪目标Gbase为最靠近第一分界线L1的目标工件6,并以此跟踪目标Gbase作为执行滤波算法的基准,图像处理器41暂不将跟踪目标Gbase的位置信息和偏转角度传给机器人控制器42,且在第一视场区域A1中不断刷新跟踪目标Gbase的位姿,在第一视场区域A1中确定了跟踪目标Gbase,如果有其它目标工件6也进入第一视场区域A1,图像处理器41暂时不识别定位其它目标工件6。
请参阅图1、图2和图5,当跟踪目标Gbase进入第二视场区域A2后,图像处理器41以跟踪目标Gbase为基准在其周围进行目标工件6搜索,对搜索识别到的目标工件6作为非跟踪目标Garo,建立非跟踪目标Garo与跟踪目标Gbase之间的定位关系,例如作为非跟踪目标Garo在跟踪目标Gbase的什么方位及两者之间的距离为多长,图像处理器41对此后拍照的图像中满足与跟踪目标Gbase之间定位关系的非跟踪目标Garo将被过滤掉,不再重复输出非跟踪目标Garo的位姿信息给机器人控制器42,同时根据步骤S1的标定结果将跟踪目标Gbase与跟踪目标Gbase在拍照时刻的位置(X,Y,Z)及偏转角度θ映射到机器人5的坐标系中,得到跟踪目标Gbase与跟踪目标Gbase的位姿在机器人坐标系中的表示(Xb,Yb,Zb)和θb,并将跟踪目标Gbase及非跟踪目标Garo的位姿信息输出至机器人控制器42。在本实施例中,搜索范围可以随着跟踪目标Gbase的移动发生变化,主要以第一分界线L1为界限,如当跟踪目标Gbase完全出了相机视场A的那一刻,对除了第一视场区域A1的其它视场区域的目标工件6都与跟踪目标Gbase确定了定位关系。
请参阅图1、图2和图5,当跟踪目标Gbase进入第三视场区域A3后,机器人控制器42根据已获得的目标工件6的位姿信息预测最靠近工作安全范围W的目标工件6处于待抓取时的位置与偏转角度,若机器人控制器42判定预测的待抓取位置位于机器人5的工作安全范围W内则发出抓取命令;反之则放弃抓取。其中,放弃抓取则有两种情况,第一种情况是待抓取位置位于工作下游点W2的下游,则机器人控制器42不会发出命令去抓取预测的目标工件6,即该预测的目标工件6将会丢失;第二种情况是待抓取位置位于工作上游点W1的上游,则机器人控制器42将会等待,当预测的目标工件6运行一段距离使之后使待抓取位置进入工作安全范围W,再发出命令使末端执行器51开始运动。
请参阅图1、图2和图5,当跟踪目标Gbase移动出了相机视场A后,图像处理器41重新寻找进入相机视场A还未匹配识别的目标工件6作为相机3的新跟踪目标Gbase,重复上述操作。
请参阅图2、图3和图4,步骤S5:对预测出现在工作安全范围W内待抓取的目标工件6,机器人控制器42根据计算选取位于待抓取位置上游的第一位置P1,末端执行器51位于第一位置P1时,待抓取的目标工件6与第一位置P1之间的距离S在可追踪距离范围内,可追踪距离是机器人控制器42根据目标点位置Pend、及末端执行器51在目标点位置Pend准备运动时待抓取的目标工件6的当前位置来计算决定的最优距离。机器人控制器42根据第一位置P1和目标点位置Pend规划末端执行器51运动轨迹,末端执行器51按照规划的运动轨迹先于待抓取的目标工件6到达第一位置P1且速度为零,末端执行器51在运行方向F上加速运动与待抓取的目标工件6在第二位置P2以相同的速度相遇,因此,末端执行器51从第一位置P1运动到第二位置P2的过程中,其与待抓取的目标工件6的关系符合:
Vrobot=at
V帶=Vrobot
其中:a为末端执行器51的加速度,t为末端执行器51从第一位置P1运动到第二位置P2的时间,Vrobot为末端执行器51在第二位置P2的速度。
满足上述条件限制可得:
t=2S/V帶
如此当末端执行器51到达第一位置P1后,机器人控制器42根据此时待抓取的目标工件6的当前位置与第二位置P2得到两者之间的距离S的确定值,从而可重新计算得到末端执行器51从第一位置P1到第二位置P2所需的时间t,进而使末端执行器51准确地在待抓取位置抓取待抓取的目标工件6。
请参阅图3和图4,用户根据需求选择末端执行器51以相同的速度在运行方向F上跟踪待抓取的目标工件6到达待抓取位置的时间,然后使末端执行器51抓取待抓取的目标工件6以后在运行方向F上减速地快速运动至第三位置P3时速度为零,最后一起从后第三位置P3运动到目标点位置Pend。
综上所述,本发明的基于视觉的机器人动态跟踪抓取方法及系统具有以下有益效果:
1、图像处理器41预测目标工件6处于待抓取的位置,且机器人控制器42先选取位于待抓取位置上游的第一位置P1,使末端执行器51从目标点位置Pend先于待抓取的目标工件6运动到第一位置P1且速度为零,通过末端执行器51在目标工件6的运行方向F上加速运动,然后使待抓取的目标工件6追击末端执行器51使两者在第二位置P2以相同的速度相遇,之后运动到待抓取位置时末端执行器51抓取待抓取的目标工件6,完成抓取后最后一起运动到目标点位置Pend,通过识别算法和跟踪算法定位和抓取目标工件6,末端执行器51按上述设定的抓取路径轨迹可在抓取目标工件6的过程中实现平滑性运行,减少机器人5在跟踪与抓取目标工件6的过程中引起的振动,且对目标工件6的定位精度高、实时性好。
2、图像处理器41在相机视场A中选择相机3的跟踪目标作Gbase,并以此跟踪目标Gbase作为执行相关滤波算法的基准,在跟踪目标作Gbase的周围进行目标工件6搜索,对搜索识别到的目标工件作为非跟踪目标Garo,建立非跟踪目标Garo与跟踪目标Gbase之间的定位关系,图像处理器41对此后多次拍照所得图像中满足与跟踪目标Gbase之间定位关系的非跟踪目标Garo将被过滤掉,不再重复输出非跟踪目标Garo的位姿信息给机器人控制器42,如此可避免对同一目标工件6的重复输出给机器人控制器42,进而避免机器人控制器42对同一目标工件6进行重复预测其待抓取位置等计算及机器人5作出重复抓取动作,也可对相机视场A侧边进入的目标工件6进行识别定位,后期满足抓取条件也可对侧边进入相机视场A的目标工件6进行抓取。
以上详细说明仅为本发明之较佳实施例的说明,非因此局限本发明之专利范围,所以,凡运用本创作说明书及图示内容所为之等效技术变化,均包含于本创作之专利范围内。
Claims (8)
1.一种基于视觉的机器人动态跟踪抓取方法,其特征在于,包括以下步骤:
步骤S1:根据相机和机器人的位置关系建立两者之间的坐标映射公式,通过相机建立目标工件与机器人之间的相对位姿关系,并确定机器人的末端执行器在传送带上的工作安全范围;
步骤S2:图像处理器对相机采集到的目标工件图像进行处理,并进行特征检测,确定目标工件的特征模板,作为用以识别算法的依据;
步骤S3:传送带以速度V帶携载工件在运行方向平移移动,相机对进入其视场的目标工件进行图像采集传送至图像处理器,图像处理器采用模板匹配识别算法在图像中搜索目标工件,得到目标工件在拍照时刻的位置和偏转角度,图像处理器识别定位出现在相机视场中的一个目标工件作为相机的跟踪目标,并以此跟踪目标作为执行滤波算法的基准,且不断刷新跟踪目标的位姿,跟踪目标确定后在其周围进行目标工件搜索,对搜索识别到的目标工件作为非跟踪目标,建立非跟踪目标与跟踪目标之间的定位关系,根据步骤S1的标定结果将拍照时刻的位置及偏转角度映射到机器人的坐标系中,并将目标工件的位置信息传送给机器人控制器,图像处理器对此后拍照的图像中满足与跟踪目标之间定位关系的非跟踪目标将被过滤掉,不再重复输出非跟踪目标的位姿信息给机器人控制器,跟踪目标移动出了相机视场后,图像处理器重新寻找进入相机视场还未识别的目标工件作为相机的新跟踪目标,重复上述操作;
步骤S4:机器人控制器根据出现在相机视场中的目标工件位置信息,预测目标工件处于待抓取时的位置与偏转角度,机器人控制器判定预测的待抓取位置位于机器人的工作安全范围内则发出抓取命令,反之则放弃抓取;
步骤S5:对预测出现在工作安全范围内的目标工件,机器人控制器根据计算选取位于待抓取位置上游的第一位置,机器人的末端执行器位于第一位置时,目标工件与第一位置之间的距离S在可追踪距离范围内,机器人控制器根据第一位置和目标点位置规划机器人的末端执行器运动轨迹,机器人的末端执行器按照规划的运动轨迹先于目标工件运动到达第一位置且速度为零,机器人的末端执行器在目标工件的运行方向上加速运动与目标工件在第二位置以相同的速度相遇,并在待抓取位置抓取目标工件后放置到目标点位置。
2.如权利要求1所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:相机视场根据目标工件在传送带上的运行方向分为三个不重叠的视场区域,依次为第一视场区域、第二视场区域及第三视场区域,图像处理器在第一视场区域进行跟踪目标确定及其位姿更新,跟踪目标进入第二视场区域后,图像处理器在跟踪目标周围进行多目标工件搜索,建立非跟踪目标与跟踪目标之间的定位关系,并将跟踪目标与非跟踪目标的位姿信息传送给机器人控制器,在进入第三视场区域后,机器人控制器根据已获得的目标工件的位姿信息预测最靠近工作安全范围的目标工件处于待抓取时的位置与偏转角度。
3.如权利要求2所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:第一视场区域与第二视场区域的分界线为整个相机视场的二分之一处,第二视场区域与第三视场区域的分界线为整个相机视场的四分之三处。
4.如权利要求1所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:在步骤S3之前,测传送带的空间速度V帶矢量,当目标工件刚进入相机视场后,点击拍照记录目标工件在一个点的时刻及其在机器人坐标系下的坐标(t1,X1,Y1),当目标工件即将离开相机视场时,点击拍照记录目标工件在另一个点的时刻及其在机器人坐标系下的坐标(t2,X2,Y2),利用两组坐标计算得到传送带的空间速度V帶矢量。
5.如权利要求1所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:在传送带上安装测量传送带速度的编码器,编码器连接于机器人控制器并将编码器测到的传送带速度V帶传送给机器人控制器,在步骤S3中,图像处理器读取机器人控制器中的V帶进行相关滤波计算。
7.如权利要求6所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:在步骤S5中,用户根据需求选择机器人的末端执行器以相同的速度在运行方向上跟踪待抓取的目标工件到达待抓取位置的时间,然后使机器人的末端执行器抓取目标工件以后在运行方向上减速地快速运动至第三位置时速度为零,最后一起从后第三位置运动到目标点位置。
8.如权利要求1所述的基于视觉的机器人动态跟踪抓取方法,其特征在于:在步骤S5中,当机器人的末端执行器到达第一位置后,机器人控制器根据此时目标工件的位置与第二位置从新优化机器人的末端执行器从第一位置到第二位置所需的时间,使机器人的末端执行器准确抓取目标工件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610587245.8A CN107618030B (zh) | 2016-07-16 | 2016-07-16 | 基于视觉的机器人动态跟踪抓取方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610587245.8A CN107618030B (zh) | 2016-07-16 | 2016-07-16 | 基于视觉的机器人动态跟踪抓取方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107618030A CN107618030A (zh) | 2018-01-23 |
CN107618030B true CN107618030B (zh) | 2021-02-19 |
Family
ID=61086735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610587245.8A Active CN107618030B (zh) | 2016-07-16 | 2016-07-16 | 基于视觉的机器人动态跟踪抓取方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107618030B (zh) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110315525A (zh) * | 2018-03-29 | 2019-10-11 | 天津工业大学 | 一种基于视觉引导的机器人工件抓取方法 |
KR102600893B1 (ko) * | 2018-04-13 | 2023-11-10 | 삼성디스플레이 주식회사 | 패널 이송 장치 및 패널 이송 방법 |
CN108608463B (zh) * | 2018-05-16 | 2021-07-30 | 珞石(山东)智能科技有限公司 | 工业机器人传送带动态跟踪方法 |
CN108674922B (zh) * | 2018-05-16 | 2020-06-12 | 广州视源电子科技股份有限公司 | 一种用于机器人的传送带同步跟踪方法、装置及系统 |
CN108526778B (zh) * | 2018-06-13 | 2019-11-15 | 华南理工大学 | 一种用于机器人仿真系统焊接应用的工件放置规划方法 |
US20210370509A1 (en) * | 2018-07-16 | 2021-12-02 | Fastbrick Ip Pty Ltd | Backup tracking for an interaction system |
WO2020055909A1 (en) * | 2018-09-10 | 2020-03-19 | Fanuc America Corporation | Zero teach for robotic continuous path |
CN109015660B (zh) * | 2018-09-29 | 2023-05-23 | 天津七所高科技有限公司 | 一种基于视觉的机器人位姿调整装置及方法 |
CN109592126B (zh) * | 2018-11-15 | 2021-11-02 | 华南智能机器人创新研究院 | 一种物料装盒生产线及月饼装盒生产线 |
CN109592378B (zh) * | 2018-11-15 | 2021-03-16 | 华南智能机器人创新研究院 | 一种视觉物料输料线 |
CN109625922A (zh) * | 2018-11-30 | 2019-04-16 | 安徽智训机器人技术有限公司 | 一种用于智能制造的自动上下料系统及方法 |
CN109365318B (zh) * | 2018-11-30 | 2021-05-04 | 天津大学 | 一种多机器人协作分拣方法及系统 |
CN109604466B (zh) * | 2018-12-21 | 2020-11-20 | 岚士智能科技(上海)有限公司 | 一种基于视觉识别的冲压件上料机器人及上料方法 |
CN109732604B (zh) * | 2019-01-21 | 2020-06-19 | 成都宇俊盛科技有限公司 | 一种通过电眼进行机械手移动对位的方法 |
CN109911549A (zh) * | 2019-01-25 | 2019-06-21 | 东华大学 | 一种易损物品的机器人动态跟踪抓取系统及方法 |
JP6761194B2 (ja) * | 2019-01-30 | 2020-09-23 | 株式会社安川電機 | ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム |
CN109834712B (zh) * | 2019-03-01 | 2021-03-12 | 广东工业大学 | 一种机器人抓取顺序优化的方法 |
JP2022523968A (ja) * | 2019-03-06 | 2022-04-27 | ライトハンド ロボティックス, インコーポレイテッド | 物品特徴適応 |
CN110255291A (zh) * | 2019-04-30 | 2019-09-20 | 合肥工业大学 | 机器人运送线盘至框绞机的控制方法 |
CN110217648A (zh) * | 2019-04-30 | 2019-09-10 | 合肥工业大学 | 一种包括转动式线盘转运部的机器人的控制方法 |
JP7363098B2 (ja) * | 2019-05-24 | 2023-10-18 | セイコーエプソン株式会社 | ロボットの制御方法 |
CN110480630B (zh) * | 2019-07-16 | 2021-04-06 | 绍兴文理学院 | 一种工业机器人的自适应目标定位系统及方法 |
CN110328669B (zh) * | 2019-08-07 | 2021-03-09 | 江苏汇博机器人技术股份有限公司 | 用于实训的机器人的末端轨迹采集及跟踪方法和装置 |
CN110653826B (zh) * | 2019-10-23 | 2022-06-14 | 苏州艾利特机器人有限公司 | 一种面向传送带目标跟随的机器人实时轨迹规划方法 |
CN110977950B (zh) * | 2019-11-12 | 2021-05-25 | 长沙长泰机器人有限公司 | 一种机器人抓取定位方法 |
CN111014594B (zh) * | 2019-11-19 | 2021-11-26 | 中南大学 | 一种铸锭过程动态除渣的机器人轨迹规划方法 |
CN110936355B (zh) * | 2019-11-25 | 2021-06-22 | 广州微林软件有限公司 | 一种基于视觉测速定位的机械臂引导系统和方法 |
CN111113411A (zh) * | 2019-12-05 | 2020-05-08 | 珠海格力电器股份有限公司 | 一种基于二维码识别的机器人控制方法、系统及机器人 |
CN111216101B (zh) * | 2019-12-06 | 2022-12-02 | 深圳市山龙智控有限公司 | 基于lua脚本的机器人二次编程示教的方法及其装置 |
CN110963298A (zh) * | 2019-12-21 | 2020-04-07 | 深圳市华成工业控制有限公司 | 基于视觉跟随的取料装置及方法 |
CN113134829B (zh) * | 2020-01-17 | 2022-10-18 | 北京配天技术有限公司 | 机器人跟踪传送带上的工件的方法以及机器人跟踪系统 |
CN111302108A (zh) * | 2020-03-16 | 2020-06-19 | 江苏奇一科技有限公司 | 单向预浸带材的自动布料设备及其工艺 |
CN111570332B (zh) * | 2020-05-21 | 2021-12-24 | 广东弓叶科技有限公司 | 人机协作分选系统及其作业方法 |
CN113752009A (zh) * | 2020-06-03 | 2021-12-07 | 青岛海尔工业智能研究院有限公司 | 一种地脚板的装配系统、地脚板的装配方法及存储介质 |
CN111899629B (zh) * | 2020-08-04 | 2022-06-10 | 菲尼克斯(南京)智能制造技术工程有限公司 | 柔性机器人教学系统和方法 |
CN111966041B (zh) * | 2020-08-26 | 2021-10-08 | 珠海格力电器股份有限公司 | 机器人的控制方法和装置 |
CN112276908A (zh) * | 2020-10-23 | 2021-01-29 | 北京配天技术有限公司 | 工业机器人设备及其工件位置获取方法、系统和装置 |
CN112518746A (zh) * | 2020-11-26 | 2021-03-19 | 江苏电子信息职业学院 | 适用于Delta并联机器人的传送带运动方向及轨迹的标定方法 |
CN112518748B (zh) * | 2020-11-30 | 2024-01-30 | 广东工业大学 | 面向运动物品的视觉机械臂自动抓取方法与系统 |
CN113435483A (zh) * | 2021-06-10 | 2021-09-24 | 宁波帅特龙集团有限公司 | 一种定点抓拍方法及系统 |
CN114055438A (zh) * | 2022-01-17 | 2022-02-18 | 湖南视比特机器人有限公司 | 视觉引导工件随动分拣系统及方法 |
CN114888851A (zh) * | 2022-05-30 | 2022-08-12 | 北京航空航天大学杭州创新研究院 | 一种基于视觉感知的运动物体机器人抓取装置 |
WO2024113216A1 (zh) * | 2022-11-30 | 2024-06-06 | 青岛理工大学(临沂) | 一种工业模具智能制造机器人高精度抓取方法 |
CN115837985B (zh) * | 2023-02-28 | 2023-05-09 | 纳博特南京科技有限公司 | 一种基于机器视觉的无序抓取方法 |
CN118061205B (zh) * | 2024-04-25 | 2024-06-25 | 福勤智能科技(昆山)有限公司 | 一种移动机器人控制方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872423A (zh) * | 2010-05-27 | 2010-10-27 | 天津大学 | 一种生产线上运动目标追踪方法 |
JP5803124B2 (ja) * | 2011-02-10 | 2015-11-04 | セイコーエプソン株式会社 | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 |
CN203390936U (zh) * | 2013-04-26 | 2014-01-15 | 上海锡明光电科技有限公司 | 实现动态实时抓取功能的自适应自动化机器人系统 |
CN203317430U (zh) * | 2013-06-25 | 2013-12-04 | 南通职业大学 | 一种工业机器人视觉拾取控制系统 |
CN103895042A (zh) * | 2014-02-28 | 2014-07-02 | 华南理工大学 | 一种基于视觉引导的工业机器人工件定位抓取方法及系统 |
CN104786226A (zh) * | 2015-03-26 | 2015-07-22 | 华南理工大学 | 抓取在线工件的机器人位姿及运动轨迹定位系统与方法 |
CN105598939B (zh) * | 2016-03-14 | 2017-09-15 | 徐知非 | 一种基于霍尔定位系统的智能并联机构搬运机器人 |
CN105700530B (zh) * | 2016-04-11 | 2018-04-03 | 南京埃斯顿自动化股份有限公司 | 一种机器人关节空间传送带跟随运动的轨迹规划方法 |
-
2016
- 2016-07-16 CN CN201610587245.8A patent/CN107618030B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107618030A (zh) | 2018-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107618030B (zh) | 基于视觉的机器人动态跟踪抓取方法及系统 | |
CN110509281B (zh) | 基于双目视觉的位姿识别与抓取的装置与方法 | |
CN109483554B (zh) | 基于全局和局部视觉语义的机器人动态抓取方法及系统 | |
CN103895042A (zh) | 一种基于视觉引导的工业机器人工件定位抓取方法及系统 | |
CN108161931A (zh) | 基于视觉的工件自动识别及智能抓取系统 | |
JP5778311B1 (ja) | ピッキング装置およびピッキング方法 | |
JP5282717B2 (ja) | ロボットシステム | |
CN113276106B (zh) | 一种攀爬机器人空间定位方法及空间定位系统 | |
CN111645074A (zh) | 一种机器人抓取定位方法 | |
JP2018176334A (ja) | 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 | |
CN109454638A (zh) | 一种基于视觉引导的机器人抓取系统 | |
Ahlin et al. | Autonomous leaf picking using deep learning and visual-servoing | |
Huang et al. | Dynamic compensation robot with a new high-speed vision system for flexible manufacturing | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
CN112775959A (zh) | 机械手的抓取位姿确定方法及系统、存储介质 | |
CN114770461B (zh) | 一种基于单目视觉的移动机器人及其自动抓取方法 | |
CN116749198A (zh) | 一种基于双目立体视觉引导机械臂抓取方法 | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
JP5609760B2 (ja) | ロボット、ロボットの動作方法、及びプログラム | |
CN117841041A (zh) | 基于多臂协同的机械臂组合装置 | |
CN110533717A (zh) | 一种基于双目视觉的目标抓取方法及装置 | |
CN114055501A (zh) | 一种机器人抓取系统及其控制方法 | |
JP2007171018A (ja) | 物体位置認識方法及び物体位置認識装置 | |
Sileo et al. | Vision based robot-to-robot object handover | |
JP2020041862A (ja) | 帯状物の3次元計測方法および帯状物の3次元計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |