CN115026828B - 一种机器人手臂抓取控制方法及系统 - Google Patents
一种机器人手臂抓取控制方法及系统 Download PDFInfo
- Publication number
- CN115026828B CN115026828B CN202210719519.XA CN202210719519A CN115026828B CN 115026828 B CN115026828 B CN 115026828B CN 202210719519 A CN202210719519 A CN 202210719519A CN 115026828 B CN115026828 B CN 115026828B
- Authority
- CN
- China
- Prior art keywords
- parameters
- grabbing
- robot
- calibration
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 20
- 238000004088 simulation Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 238000005266 casting Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 229910000838 Al alloy Inorganic materials 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- PPBRXRYQALVLMV-UHFFFAOYSA-N Styrene Chemical compound C=CC1=CC=CC=C1 PPBRXRYQALVLMV-UHFFFAOYSA-N 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000000465 moulding Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004381 surface treatment Methods 0.000 description 2
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004512 die casting Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种机器人手臂抓取控制方法,首先获得当前机器人状态对应的重要参数是否在线,根据所述重要参数选择所述机器视觉的标定方式;再检测所述重要参数是否包括实现机器视觉的设备的具体参数,若不包含所述具体参数,则检测是否存在确定大小参数的标定模板,若所述重要参数既不包括所述具体参数也不包含所述标定模板,则确定所述实现机器视觉的设备的移动轨迹,在完成视觉标定后,对带抓取的目标物体进行图像攫取,并对获得的图像进行预处理,所述图像预处理包括图像滤波、图像增强和特征提取;获取处理后的目标物体的图像的轮廓信息,并对所述轮廓进行坐标转换计算抓取的三维空间坐标和角度以完成目标物体的抓取。
Description
技术领域
本发明涉及机械控制技术领域,尤其涉及一种机器人手臂抓取控制方法及系统。
背景技术
近两年,机器人协作方式广泛应用于模具设计、模具制造、模具热处理等一系列完整的模具制造生产线中,由于生产厂家采用高精密的加工设备和进口的模具材料,并且掌握铝合金挤压、压铸、深加工以及铝合金表面处理等工艺,特别需要在生产线中采用高精度的机器人控制。
协作机器人发展迅速,因协作机器人的应用可降低生产成本、提高劳动效率和生产系统整体柔性,已逐步应用于汽车、3C、IT电子行业等诸多精密行业领域,尤其是小型零部件的装配应用。
例如,大规模生产是汽车相关技术的主流,但是近来,车辆的类型已经变得多样化,并且型号变化频繁。在这种情况下,作为用于在汽车内部部件中模制由塑料材料形成的较大形状的模具,例如,诸如汽车座椅的聚氨酯填充物(座垫),成本,交货日期,所需的精度等。从这个角度来看,许多模具是通过铸造制成的。
作为制造这种模具的方法,通常采用以下方法。
(1)模型切割工艺:使用合成树脂材料(例如氨基甲酸酯或苯乙烯),通过手工切割或NC加工来制造模型(通常称为主模型)。
(2)表面处理步骤:处理模型表面以提高所创建模型的表面精度。
(3)母模制造工艺:通过提供凸缘,辅助肋,用于提供模子壁厚的壁厚薄板等来制备主模,以便通过铸造制造原型。
(4)制模步骤:在上述主模中填充沙子以制模。
(5)原型铸造步骤:将熔融的原型材料(例如铝合金)注入模具中以铸造原型。
(6)精加工工序:通过放电加工等对通过铸造而制作的原型进行精加工。
通过协作机器人作为人工的替代以达到更高的精度是现有技术发展的趋势,协作机器人手臂在高速动作过程中不能产生晃动,是实现了高速而且平滑的动作性能关键,同时协作机器人手臂很苗条但是承载载荷很大,所以即使被安装在狭小的空间进行使用,同时可以让机器人手臂与周围设备发生碰撞的可能性控制在最低限度。随着智能化和人机协同工作,传感器电缆、附加轴电缆、电磁阀、空气导管和用来控制工具的I/O电缆都内置于狭小的手臂中。所以轻量化、高刚性、内腔高精度、外表面美观精致的手臂是协作机器人未来核心竞争的关键。
机器人手臂抓取产品大量运用于工业生产,大大提高了产业效率,节约了资源。仿人服务机器人也在特殊行业得到很大发展,对于服务机器人的运用来说,其抓取识别系统是主要关键。基本原理是通过视觉识别产品轮廓获得物体位置与抓取位置控制机械手臂内的伺服电机去完成抓取动作。
然而,现在的机器人视觉抓取通常对视觉要求很好,其摄像设备经常需要进行校准,同时,如果更换更高精度的摄像头则需要重新标定,标定的方式也不够灵活,需要管理者根据情况人工处理。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明公开一种机器人手臂抓取控制方法,方法包括:步骤1,机器人对自身状态进行初始化,获得当前机器人状态对应的重要参数是否在线,根据所述重要参数选择所述机器视觉的标定方式;步骤2,首先检测所述重要参数是否包括实现机器视觉的设备的具体参数,若存在着执行步骤3,若不包含所述具体参数,则检测是否存在确定大小参数的标定模板,若存在则执行步骤4;若所述重要参数既不包括所述具体参数也不包含所述标定模板,则确定所述实现机器视觉的设备的移动轨迹,并执行步骤5;
步骤3,通过所述实现机器视觉的设备的具体参数之间的关系进行标定;步骤4,若所述重要参数包括确定大小参数的标定模板可以作为当前所述机器视觉设备的基础参照物,则根据所述的标定模板构建图像点与标定模板已知坐标信息的关系,建立出几何关系模型,再根据预设算法得到机器视觉的内外参数进行标定;步骤5,根据所述移动轨迹上的不同坐标点上攫取的图像,通过对比不同点坐标攫取的图像确定所述实现机器视觉的设备的参数,并根据确定的参数实现标定;步骤6,在完成视觉标定后,对带抓取的目标物体进行图像攫取,并对获得的图像进行预处理,所述图像预处理包括图像滤波、图像增强和特征提取;步骤7,获取处理后的目标物体的图像的轮廓信息,并对所述轮廓进行坐标转换计算抓取的三维空间坐标和角度以完成目标物体的抓取。
更进一步地,所述获得当前机器人状态对应的重要参数是否在线进一步包括:检测第三方的视觉获取的设备与机器人的连接状态,并确定该设备的参数是否进行校准更新,若该设备处于离线状态,则调用机器人本申请的摄像装置获取视觉;若第三方的视觉获取的设备在线且参数并未校准更新或者校准更新的时间超过预设时间长度,判定该设备的重要参数需要进行标定。
更进一步地,所述步骤3进一步包括通过单应性矩阵计算所述实现机器视觉的设备的参数值。
更进一步地,所述步骤7进一步包括:在进行物体的抓取时,确定所述目标物体上的两个及两个以上的抓取点,机器人根据抓取点的确定模拟的抓取动作。
更进一步地,当确定抓取点的数量为二时,将所述抓取点设置为所述目标体的边缘位置。
更进一步地,所述步骤6进一步包括所述图像滤波的滤波器函数的输出灰度值为:
其中,a,b为在像素点中心建立的矩形窗口大小的一半,K(s,t)为滤波器核函数,f(x-s,y-t)为所述矩形窗口内像素点的灰度值。
更进一步地,机器人根据抓取点的确定模拟的抓取动作进一步包括:在确定了模拟结果后,调用Matlab仿真中的Robotics Toolbox中的正解函数和逆解函数可以对机器人的运动学正逆解进行仿真教研确定模拟结果的可行性。
更进一步地,所述模拟结果包括:二指抓取、三指抓取、多指抓取。
本发明进一步公开了一种电子系统,包括存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行上述的机器人手臂抓取控制方法。
本发明进一步公开了一种计算机可读存储介质,所述计算机可读存储介质中包括实时风险控制程序,该实时风险控制程序被处理器执行时实现上述的机器人手臂抓取控制方法的步骤。
本发明与现有技术相比,本发明的有益效果是:①标定完全自动化,对所有的标定情况都可以自动进行标定;②机器人抓取的方式可以根据抓取物体的不同自动选择多个抓取方式,并在选择后进行验证,实现人工的完全自由,管理者在进行管理时不需要浪费过多的关注。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在图中,在不同的视图中,相同的附图标记指定对应的部分。
图1是本发明的一种机器人手臂抓取控制好方法的流程图。
具体实施方式
下面将结合附图及实施例对本发明的技术方案进行更详细的说明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
如图1所示的一种机器人手臂抓取控制方法,方法包括:步骤1,机器人对自身状态进行初始化,获得当前机器人状态对应的重要参数是否在线的结果,根据所述重要参数选择所述机器视觉的标定方式;
在该实施例中,机器人对应的重要参数为可以标定机器人视觉的参数,例如具体摄像模组的参数,或者是在机器人视觉范围内的确定大小的模板,例如已知长宽高的长方体参照物;
在执行机器人视觉的手臂抓取控制时,需要检测当前机器人的视觉标定参数是否在线,若在线执行在线参数的标定,若离线,则采用离线标定方法进行标定。
步骤2,首先检测所述重要参数是否包括实现机器视觉的设备的具体参数,若存在,则执行步骤3,若不包含所述具体参数,则检测是否存在确定大小参数的标定模板,若存在则执行步骤4;若所述重要参数既不包括所述具体参数也不包含所述标定模板,则确定所述实现机器视觉的设备的移动轨迹,并执行步骤5;
在该步骤中,重要参数包括机器视觉装置的内容参数和外部参数,摄像机的内参数由摄像机本身决定,只与摄像机本身有关。其参数有:参数矩阵(fx,fy,cx,cy)和畸变系数(三个径向k1,k2,k3;两个切向p1,p2),摄像机的外参数是摄像机在世界坐标系中的位姿,由摄像机与世界坐标系的相对位姿关系决定。其参数有:旋转向量R(大小为1x3的矢量或旋转矩阵3x3)和平移向量T(Tx,Ty,Tz),标定模板也是重要参数的一部分,具体参数就是摄像机本身的可以直接标定摄像机的参数,确定大小参数标定模板为已知长宽高大小的明确具体空间大小的标定模板,一般为正方体或者其他矩形结构体。所述检测是否存在确定大小参数的标定模板为在机器视觉范围内是否存在上述的标定模板,通过标定模板完成对机器视觉的标定。即如果不能直接通过内外参数标定,再通过标定模板进行标定。
步骤3,通过所述实现机器视觉的设备的具体参数之间的关系进行标定;步骤4,若所述重要参数包括明确确定大小参数的标定模板可以作为当前所述机器视觉设备的基础参照物,则根据所述的标定模板构建图像点与标定模板已知坐标信息的关系,建立出几何关系模型,再根据预设算法得到机器视觉的内外参数进行标定;步骤5,根据所述移动轨迹上的不同坐标点上攫取的图像,通过对比不同点坐标攫取的图像确定所述实现机器视觉的设备的参数,并根据确定的参数实现标定;步骤6,在完成视觉标定后,对带抓取的目标物体进行图像攫取,并对获得的图像进行预处理,所述图像预处理包括图像滤波、图像增强和特征提取;步骤7,获取处理后的目标物体的图像的轮廓信息,并对所述轮廓进行坐标转换计算抓取的三维空间坐标和角度以完成目标物体的抓取。
在本实施例中,机器人初始化,对计算器视觉标定之后,对待抓取的部件进行图像采集,然后对采集的图像进行图像处理操作,通过对处理后的图像与标准部件的图像进行对比,初步判断待抓取部件的外观是否完整,也就是判断外观缺陷,采用SURF(Speeded UpRobust Features)算法对处理后的图像进行部件图像的特征提取,这里选择该算法进行特征提取的目的,在于可以快速的获取目标特征。
同时,以摄像机的坐标系和图像坐标系转换为例,摄像机坐标系与图像坐标系之间的关系可以用中心投影来表示。其转换关系如下所示:
其中,摄像机的坐标系通过OcXcYcZc表示,而图像坐标系为x0y,f表示摄像机的焦距,大小为0到0c的距离。对采集的视觉图像需要进行坐标转换才可以进一步确定空间位置。
在实施例中,对提取的图像进行坐标转换可以包括转换为世界坐标系,转换为像素坐标系等,这是现有技术中具有的技术,这里不做过度赘述。
在转换坐标系后,计算三维空间上的坐标点和抓取的角度,控制机器人执行按照计算得到的抓取参数执行抓取动作。
本实施例可以应用于汽车生产的环节中,具有视觉引导功能的汽车部件抓手,该抓手设置有两个抓取部和多个视觉定位装置,实现了视觉引导下的机器人准确抓取,可以准确定位并抓取不同汽车部件。
更进一步地,所述获得当前机器人状态对应的重要参数是否在线进一步包括:检测第三方的视觉获取的设备与机器人的连接状态,并确定该设备的参数是否进行校准更新,若该设备处于离线状态,则调用机器人本申请的摄像装置获取视觉;若第三方的视觉获取的设备在线且参数并未校准更新或者校准更新的时间超过预设时间长度,判定该设备的重要参数需要进行标定。
更进一步地,所述步骤3进一步包括通过单应性矩阵计算所述实现机器视觉的设备的参数值。
更进一步地,所述步骤7进一步包括:在进行物体的抓取时,确定所述目标物体上的两个及两个以上的抓取点,机器人根据抓取点的确定模拟的抓取动作。
更进一步地,当确定抓取点的数量为二时,将所述抓取点设置为所述目标体的边缘位置。
更进一步地,所述步骤6进一步包括所述图像滤波的滤波器函数的输出灰度值为:
其中,a,b为在像素点中心建立的矩形窗口大小的一半,K(s,t)为滤波器核函数,f(x-s,y-t)为所述矩形窗口内像素点的灰度值。
在本实施例中,对采集的图像进行处理,这里选择设置滤波函数去除机器人视觉采集装置的噪声,例如图像中的噪点,光影影响等,因此,通过设置的滤波函数进行图像滤波得到去除干扰的灰度图像。
图像信号在形成、传输和记录的过程中,不可避免地产生各种类型的噪声,降低了图像的质量,影响图像识别的效果或准确性,通过采用该滤波函数很好的解决了特定的机器人抓取控制中采集图像的质量问题。
更进一步地,机器人根据抓取点的确定模拟的抓取动作进一步包括:在确定了模拟结果后,调用Matlab仿真中的Robotics Toolbox中的正解函数和逆解函数可以对机器人的运动学正逆解进行仿真教研确定模拟结果的可行性。
在该步骤中,通过matlab的函数对之前决定的模拟动作进行分解,并相应的函数实现执行动作的可行性分析。
更进一步地,所述模拟结果包括:二指抓取、三指抓取、多指抓取。
控制机器人靠近目标物体位置并确认好目标物体类型后,通过激光位移传感器对目标物体进行测量,测量信息发送到控制中心,经运算得出目标物体的倾斜旋转偏差量,控制中心控制机器人根据偏倾斜旋转差量进行姿态调整,使抓手抓取平面平行于目标物体面,然后通过相机摄取目标物体平面图像,找到目标物体上定位孔中心位置并将位置信息发送到控制中心,控制中心进行水平偏差运算,再控制机器人根据水平偏差量水平位移,同时,通过机械定位模块进行目标物体的机械定位,将定位销置入目标物体定位孔内,并通过目标物体抓取模块将目标物体固定于固定夹指和活动夹指间,可选择决定活动夹指的数量以完成目标物体抓取。
本发明进一步公开了一种电子系统,包括存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行上述的机器人手臂抓取控制方法。
本发明进一步公开了一种计算机可读存储介质,所述计算机可读存储介质中包括实时风险控制程序,该实时风险控制程序被处理器执行时实现上述的机器人手臂抓取控制方法的步骤。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。因此,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以下权利要求(包括所有等同物)旨在限定本发明的精神和范围。以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (7)
1.一种机器人手臂抓取控制方法,其特征在于,所述方法包括如下步骤:
步骤1,机器人对自身状态进行初始化,判断当前机器人状态对应的参数是否在线,根据所述参数选择机器视觉的标定方式,其中所述判断当前机器人状态对应的参数是否在线进一步包括,检测第三方的视觉获取的设备与机器人的连接状态,并确定该第三方的视觉获取的设备的参数是否进行了校准更新,若该第三方的视觉获取的设备处于离线状态,则调用机器人的摄像装置获取视觉;若第三方的视觉获取的设备在线且参数并未校准更新或者校准更新的时间超过预设时间长度,判定该第三方的视觉获取的设备的参数需要进行标定;
步骤2,首先检测所述参数是否包括实现机器视觉的设备的具体参数,若存在则执行步骤3,若不包含所述具体参数,则检测是否存在确定大小参数的标定模板,若存在则执行步骤4;若所述参数既不包括所述具体参数也不包含所述标定模板,则确定所述实现机器视觉的设备的移动轨迹,并执行步骤5;
步骤3,通过所述实现机器视觉的设备的具体参数之间的关系进行标定,通过单应性矩阵计算所述实现机器视觉的设备的参数值;
步骤4,若所述参数包括确定大小参数的标定模板能够作为当前所述实现机器视觉的设备的基础参照物,则根据所述的标定模板构建图像点与标定模板已知坐标信息的关系,建立出几何关系模型,再根据预设算法得到机器视觉的内外参数进行标定;
步骤5,根据所述移动轨迹上的不同坐标点上攫取的图像,通过对比不同点坐标攫取的图像确定所述实现机器视觉的设备的参数,并根据确定的参数实现标定;
步骤6,在完成视觉标定后,对待抓取的目标物体进行图像攫取,并对获得的图像进行预处理,所述图像预处理包括图像滤波、图像增强和特征提取;
步骤7,获取处理后的目标物体的图像的轮廓信息,并对所述轮廓进行坐标转换计算抓取的三维空间坐标和角度以完成目标物体的抓取,其中,在进行物体的抓取时,确定所述目标物体上的两个或两个以上的抓取点,机器人根据确定的抓取点模拟抓取动作。
2.如权利要求1所述的一种机器人手臂抓取控制方法,其特征在于,当确定抓取点的数量为二时,将所述抓取点设置为所述目标物体的边缘位置。
3.如权利要求1所述的一种机器人手臂抓取控制方法,其特征在于,所述步骤6进一步包括所述图像滤波的滤波器函数的输出灰度值为:
其中,a,b为在像素点中心建立的矩形窗口的长宽大小的一半,K(s,t)为滤波器核函数,f(x-s,y-t)为所述矩形窗口内像素点的灰度值。
4.如权利要求3所述的一种机器人手臂抓取控制方法,其特征在于,机器人根据确定的抓取点模拟抓取动作进一步包括:在确定了模拟结果后,调用Matlab仿真中的RoboticsToolbox中的正解函数和逆解函数能够对机器人的运动学正逆解进行仿真校验确定模拟结果的可行性。
5.如权利要求4所述的一种机器人手臂抓取控制方法,其特征在于,所述模拟结果包括:二指抓取、三指抓取。
6.一种电子系统,其特征在于,包括存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行如权利要求1至5中任意一项中的机器人手臂抓取控制方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括实时风险控制程序,该实时风险控制程序被处理器执行时实现如权利要求1至5中任意一项所述的机器人手臂抓取控制方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210719519.XA CN115026828B (zh) | 2022-06-23 | 2022-06-23 | 一种机器人手臂抓取控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210719519.XA CN115026828B (zh) | 2022-06-23 | 2022-06-23 | 一种机器人手臂抓取控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115026828A CN115026828A (zh) | 2022-09-09 |
CN115026828B true CN115026828B (zh) | 2023-07-28 |
Family
ID=83126093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210719519.XA Active CN115026828B (zh) | 2022-06-23 | 2022-06-23 | 一种机器人手臂抓取控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115026828B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107766855B (zh) * | 2017-10-25 | 2021-09-07 | 南京阿凡达机器人科技有限公司 | 基于机器视觉的棋子定位方法、系统、存储介质及机器人 |
CN109035320B (zh) * | 2018-08-12 | 2021-08-10 | 浙江农林大学 | 基于单目视觉的深度提取方法 |
CN110788863B (zh) * | 2019-11-22 | 2020-11-10 | 上海原能细胞生物低温设备有限公司 | 一种机器视觉的标定方法及机械臂定位抓取方法 |
CN112476434B (zh) * | 2020-11-24 | 2021-12-28 | 新拓三维技术(深圳)有限公司 | 一种基于协作机器人的视觉3d取放方法及系统 |
CN112528974B (zh) * | 2021-02-08 | 2021-05-14 | 成都睿沿科技有限公司 | 测距方法、装置、电子设备及可读存储介质 |
CN113524194B (zh) * | 2021-04-28 | 2023-03-21 | 重庆理工大学 | 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法 |
-
2022
- 2022-06-23 CN CN202210719519.XA patent/CN115026828B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115026828A (zh) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110634161B (zh) | 一种基于点云数据的工件位姿快速高精度估算方法及装置 | |
CN114355953B (zh) | 一种基于机器视觉的多轴伺服系统的高精度控制方法及系统 | |
CN109872355B (zh) | 一种基于深度相机的最短距离获取方法及装置 | |
Dharmara et al. | Robotic assembly of threaded fasteners in a non-structured environment | |
CN109344498B (zh) | 一种斜楔模块的设计实现方法 | |
CA2583780C (en) | Virtual programming of formed component trajectories | |
CN113269723A (zh) | 三维视觉定位与机械手协同工作的零部件无序抓取系统 | |
CN115810133A (zh) | 基于图像处理和点云处理的焊接控制方法及相关设备 | |
US6738507B2 (en) | Apparatus and method for correlating part design geometry, manufacturing tool geometry, and manufactured part geometry | |
CN115358965A (zh) | 焊接变形量自适应的直线焊缝打磨轨迹生成方法及装置 | |
CN115026828B (zh) | 一种机器人手臂抓取控制方法及系统 | |
Wan et al. | A robotic grinding station based on an industrial manipulator and vision system | |
CN114310880A (zh) | 一种机械臂标定方法及装置 | |
Öziç et al. | An autonomous system design for mold loading on press brake machines using a camera platform, deep learning, and image processing | |
Onstein et al. | Automated tool trajectory generation for robotized deburring of cast parts based on 3d scans | |
Rousseau et al. | Machine vision system for the automatic identification of robot kinematic parameters | |
CN116079732A (zh) | 基于激光跟踪仪和双目视觉混合引导的舱内组件装配方法 | |
CN112720449A (zh) | 一种机器人定位装置及其控制系统 | |
Jung et al. | Control of the manipulator position with the kinect sensor | |
CN110060330B (zh) | 一种基于点云图像的三维建模方法、装置和机器人 | |
Lai et al. | Localization of parts with irregular shape for CMM inspection | |
JPH08141881A (ja) | バリ取り装置及び方法 | |
JPH09290383A (ja) | 画像情報によるマニピュレータ制御方法 | |
CN114589704B (zh) | 去毛边轨迹提取方法及其系统 | |
CN117078681B (zh) | 一种点胶轨迹的三维仿真模拟方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 247100 in An'an Industrial Park, Jiangnan industrial concentration zone, Chizhou City, Anhui Province Patentee after: Chizhou An'an New Materials Technology Co.,Ltd. Country or region after: China Address before: 247100 in An'an Industrial Park, Jiangnan industrial concentration zone, Chizhou City, Anhui Province Patentee before: CHIZHOU AN'AN NEW MATERIAL TECHNOLOGY Co.,Ltd. Country or region before: China |