CN106078748B - 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 - Google Patents
一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 Download PDFInfo
- Publication number
- CN106078748B CN106078748B CN201610411173.1A CN201610411173A CN106078748B CN 106078748 B CN106078748 B CN 106078748B CN 201610411173 A CN201610411173 A CN 201610411173A CN 106078748 B CN106078748 B CN 106078748B
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- planning
- control method
- crawl
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39539—Plan hand shape
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Orthopedic Medicine & Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种基于手、眼、臂协调操作的机器人抓取物体的控制方法,通过视觉获得物体相关信息,并建立手抓取模式,确定抓取位置,然后结合手的抓取位姿进行机械臂的运动规划,最后控制手和机械臂按规划曲线动作实现对物体的抓取。该控制方法能够将手眼臂三者真正协调起来,从而使抓取动作更加柔顺与准确,并在一定程度上具有容错性。
Description
技术领域
本发明涉及一种机器人抓取物体的控制方法,尤其涉及基于手、眼、臂协调操作的机器人抓取物体的控制方法,利用机器人的手、眼、臂相互协调,使抓取操作更加顺畅、准确。
背景技术
当前的机器人的用途越来越广,也越来越灵活,不仅局限于固定动作路径的运动与简单自适应,而是向智能化方面发展。智能化要求机器人具有识别和推理的能力,并做出判断和决策。
而传统机器人存在灵活性差、效率低下、力控不够精确等缺点。并且,现有机器人控制仅限于基于视觉机械臂控制(Mohebbi A,Keshmiri M,Xie W F.An eye-in-handstereo visual servoing for tracking and catching moving objects[C]//ControlConference(CCC),2014 33rd Chinese.IEEE,2014:8570-8577.)或者手与臂的控制(HuangM B,Huang H P,Cheng C C,et al.Efficient grasp synthesis and control strategyfor robot hand-arm system[C]//Automation Science and Engineering(CASE),2015IEEE International Conference on.IEEE,2015:1256-1257.)。而目前包含机械臂、机械手和视觉的机器人系统中,视觉系统仅用于操作目标的定位(Cheon S,Ryu K,OhY.Object manipulation using robot arm-hand system[C]//2013 10th InternationalConference on Ubiquitous Robots and Ambient Intelligence(URAI).2013.),而并没有将手、眼、臂三者真正结合起来,进行动作协调。
发明内容
为解决上述问题,将手眼臂三者结合起来,首先机器人通过视觉获得物体相关信息,并建立手抓取模式,确定抓取位置,然后结合手的抓取模式(抓取位姿)进行机械臂的运动规划,最后控制手和机械臂按规划曲线动作实现对物体的抓取。该方案能够将手眼臂三者真正协调起来,从而使抓取动作更加柔顺与准确,并在一定程度上具有容错性。
本发明提供了一种机器人稳定攀爬控制方法,一种基于手、眼、臂协调操作的机器人抓取物体的控制方法,其中,所述机器人具有机械手、机械臂、机器人外部环境传感器系统、神经网络系统、控制系统;所述控制方法包括如下步骤:
(1)通过所述机器人外部环境传感器系统获得物体相关信息;
(2)获取用户所输入的对于抓取操作的任务要求;
(3)将步骤(1)中所获得的物体相关信息以及步骤(2)中所述任务要求传给神经网络系统,得到握持模式规划、机械臂轨迹规划、抓取力规划;
(4)所述控制系统控制机械手和机械臂按所述规划的曲线动作/路径对物体实施动作协调的抓取。
对于上述控制方法,在所述步骤(1)中,所述物体相关信息包括物理信息和位置信息,所述物理信息又包括物体的形状信息、质量信息;所述位置信息包括位置信息、姿态信息;在所述步骤(2)中,所述任务要求包括稳定性要求、灵巧性要求。
对于上述控制方法,在所述步骤(1)中,所述机器人外部环境传感器系统为双目视觉系统,所述双目视觉系统基于Retinex方法对所采集的物体的图像进行图像增强,以进行所述物体的识别与定位。
对于上述控制方法,在所述图像增强过程中,通过将入射光照L(x,y)解析出来,由R(x,y)=S(x,y)/L(x,y)得到所述物体本身的反射光线的属性R(x,y),从而获得相应的所述物体相关信息;其中,S(x,y)为所采集图像的光照情况。
对于上述控制方法,其中,在所述解析的过程中,通过所采集的所述图像中每个像素点与阿基米德螺旋线上的像素点进行比较,进而估计出图像中光照度的变化情况。
对于上述控制方法,在所述步骤(3)中,由所述神经网络系统进行所述物体相关信息的分类以进行所述握持模式规划、机械臂轨迹规划、抓取力规划:所述形状信息、姿态信息以及任务要求用于所述神经网络系统中的机械手握持模式规划模块进行机械手的握持模式规划;所述位置信息用于所述神经网络系统中的机械臂轨迹规划模块进行机械臂轨迹规划从而用于调整接近所述物体的距离;所述质量信息用于所述神经网络系统中的抓取力规划模块进行抓取力的规划。
对于上述控制方法,在所述握持模式规划、抓取力规划、机械臂轨迹规划过程中,所述神经网络系统依据所述物理信息与内部知识库中锁存物体的信息进行比较、匹配,依照所匹配的所述锁存物体的抓取规划,确定所述握持模式规划、抓取力规划、机械臂轨迹规划。
对于上述控制方法,在所述步骤(3)中,所述神经网络系统将抓取操作进行细分以应用于所述握持模式规划以实现抓取操作的柔顺与准确,具体为:将抓取操作分为包络抓取、精密抓取;所述包络抓取又包括平托、包络抓握,所述包络抓握又包括细长棱柱抓握、紧凑圆环抓握、单薄包络抓握;所述细长棱柱抓握又包括强力缠绕;所述精密抓取又包括细长棱柱抓握、紧凑圆环抓握。
对于上述控制方法,在所述步骤(4)中,所述控制系统将所述握持模式规划应用于机械手,将机械臂轨迹规划、抓取力规划应用于机械臂,并且对机械臂采用基于动力学前馈的机械臂运动控制。
对于上述控制方法,在对基于动力学前馈的机械臂运动控制过程中,所述控制系统采用基于遗忘因子函数的阻抗控制率对机械臂进行控制,通过扩展经典阻抗控制方法中的虚拟弹簧项,对机械臂阻抗控制的平衡位置进行自适应调节,用于降低机械臂移动过程中的内力并减小或避免振动。
对于上述控制方法,在采用基于遗忘因子函数的所述控制过程中,针对骤停过程采用基于遗忘因子的自适应调整算法函数,将机械臂阻抗控制中虚拟弹簧的平衡位置由期望位置不断向机械臂上一个步长的实际位置而改变;所述遗忘因子函数为:
其中r(n)∈[0,1)为自适应调整算法函数,n为迭代次数,en(t)为控制量误差;设定:
利用遗忘因子函数,将经典阻抗控制改为:
其中Ms、Bs与Ks分别为目标惯量、阻尼和刚度矩阵,Qdes为机械臂末端期望受力,Qext为机械臂末端实际受力,其中,为机械臂实际位置与其期望位置之差:
其中χp(n)为机械臂实际位置,为基于遗忘因子函数的期望位置:
其中χ# des(n)为机械臂规划位姿,χ# a(n)为机械臂上一个步长的实际位姿;
其中,r(n)∈[0,1)为自适应调整算法函数,并在机械臂运动周期内单调递减。
对于上述控制方法,在运动初始阶段,r(n)接近与1,机械臂阻抗控制中虚拟弹簧的平衡位置偏向于期望位置;随着抓取运动的进行,为减小内力,平衡位置逐渐向机械臂上一个步长的实际位置靠拢;而后,r(n)逐渐向0递减;机械臂阻抗控制中虚拟弹簧平衡位置绝大部分由机械臂上一个步长的实际位置决定,从而降低机械臂移动过程中的内力并减小或避免振动。
附图说明
图1是本发明实施例的所述基于手、眼、臂协调操作的机器人抓取物体的控制方法的流程图。
图2是Retinex方法的图示。
图3是现有技术中Retinex方法的直线螺旋路径的图示。
图4是本发明实施例的Retinex方法的阿基米德螺旋线路径的图示。
图5是本发明实施例的神经网络系统对抓取操作的细分的图示。
图6是本发明实施例的基于动力学前馈的机械臂运动控制流程图。
具体实施方式
参照图1,一种基于手、眼、臂协调操作的机器人抓取物体的控制方法,其中,所述机器人具有机械手、机械臂、双目视觉系统、神经网络系统、控制系统;所述控制方法包括如下步骤:
(1)通过所述双目视觉系统获得物体相关信息。
所述物体相关信息包括物理信息和位置信息,所述物理信息又包括物体的形状信息、质量信息;所述位置信息包括位置信息、姿态信息。
在光照强度剧烈变化的情况下,所述双目视觉系统基于Retinex方法对所采集的物体的图像进行图像增强,以进行所述物体的识别与定位。
Retinex理论的基础是物体的颜色是由物体对光线的反射能力来决定的,而不是由反射光强度的绝对值来决定的,物体的色彩不受光照非均匀性的影响。
如图2所示,使用Retinex方法的目的是将入射光照L(x,y)解析出来,从而得到检测物体本身的反射光线的属性,解得R(x,y)=S(x,y)/L(x,y),从而获得所述物体相关信息;其中,S(x,y)为所采集的光照情况。
为将原有光照情况入射光照L(x,y)解析出来,获得光照情况,一般通过图像中每个像素点与特定路径上的像素点进行比较,进而估计出图像中照度的变化情况。如图3所示,现有的算法类似于在图像中画一条直线螺旋结构的路径,在此路径上的点用于像素之间明暗关系的比较。现有方法若需要获得较详细的光照情况,增大测量面积,会增加大螺旋线的密度,从而大量增加要对比的像素个数,使处理时间显著增加。
本申请拟采用阿基米德螺旋线,如图4所示,利用螺旋线“在柱面内过柱面上两点的各种曲线中螺线长度最短”这一特性,可使得采用同样的像素个数能够获得最详细的光照情况。
(2)获取用户所输入的抓取操作的任务要求。所述任务要求包括稳定性要求、灵巧性要求。
(3)将步骤(1)中所获得的物体相关信息以及将步骤(2)中所述任务要求传给神经网络系统,由所述神经网络系统进行所述物体相关信息的分类以进行所述握持模式规划、机械臂轨迹规划、抓取力规划:所述形状信息、姿态信息以及任务要求用于所述神经网络系统中的机械手握持模式规划模块进行机械手的握持模式规划。
所述位置信息用于所述神经网络系统中的机械臂轨迹规划模块进行机械臂轨迹规划从而用于调整接近所述物体的距离;所述质量信息用于所述神经网络系统中的抓取力规划模块进行抓取力的规划。
在所述握持模式规划、抓取力规划、机械臂轨迹规划过程中,所述神经网络系统依据所述物理信息与知识库中锁存物体的信息进行比较、匹配,依照所匹配的锁存物体的抓取规划,确定所述握持模式规划、抓取力规划、机械臂轨迹规划。
如图5所示,通过对人手的抓取操作研究,可将抓取分为“包络抓取”和“精密抓取”两种。“包络抓取”特点是手掌、手指与被抓取物体的大面积接触,手指抓取物体后运动的灵活性小抓取力大,稳定性高;“精密抓取”特点是以指尖或手指前端接触被抓取的物体,手指与物体的接触面积较小,基本为指尖接触,手指的操作灵活性较大。
在此基础上,对人手习惯采用过的各种抓取姿态进行更细致的分析、归纳。因此,该抓取分类揭示了人手在进行抓取操作姿态时选取的一般趋势、影响因素以及各种类型的抓取操作姿态之间的区别和联系。
所述神经网络系统将抓取操作进行细分以应用于所述握持模式规划以实现抓取操作得柔顺与准确,具体为:将抓取操作分为包络抓取、精密抓取。
所述包络抓取又包括平托、包络抓握;所述包络抓握又包括细长棱柱抓握、紧凑圆环抓握、单薄包络抓握;所述细长棱柱抓握又包括强力缠绕;所述精密抓取又包括细长棱柱抓握、紧凑圆环抓握。
(4)所述控制系统控制机械手和机械臂按所述规划的曲线动作/路径实现对物体的抓取。
在机械臂抓取运动过程中,由于定位误差或机械振动等原因,仅仅使用位置规划运动不能够满足抓取需求。因此,所述控制系统将所述握持模式规划应用于机械手,将机械臂轨迹规划、抓取力规划应用于机械臂,并且对机械臂采用基于动力学前馈的机械臂运动控制。
如图6所示,在对基于动力学前馈的机械臂运动控制过程中,所述控制系统采用基于遗忘因子函数的阻抗控制率对机械臂进行控制,通过扩展经典阻抗控制方法中的虚拟弹簧项,对机械臂阻抗控制的平衡位置进行自适应调节,用于降低机械臂移动过程中的内力并减小或避免振动。其中,q为机械臂关节角度,为关节角速度,为关节角加速度,f为机器人受力,τ为机器人所受力矩。
在用基于遗忘因子函数的所述控制过程,针对骤停过程采用基于遗忘因子的自适应调整算法函数,将机械臂阻抗控制中虚拟弹簧的平衡位置由期望位置不断向机械臂上一个步长的实际位置而改变;所述遗忘因子函数为:
其中r(n)∈[0,1)为自适应调整算法函数,n为迭代次数,en(t)为控制量误差;设定:
利用遗忘因子函数,将经典阻抗控制改为:
其中Ms、Bs与Ks分别为目标惯量、阻尼和刚度矩阵,Qdes为机械臂末端期望受力,Qext为机械臂末端实际受力,其中,为机械臂实际位置与其期望位置之差:
其中χp(n)为机械臂实际位置,为基于遗忘因子函数的期望位置:
其中χ# des(n)为机械臂规划位姿,χ# a(n)为机械臂上一个步长的实际位姿。
其中,r(n)∈[0,1)为自适应调整算法函数,并在机械臂运动周期内单调递减。在运动初始阶段,r(n)接近与1,机械臂阻抗控制中虚拟弹簧的平衡位置偏向于期望位置;随着抓取运动的进行,为减小内力,平衡位置逐渐向机械臂上一个步长的实际位置靠拢;而后,r(n)逐渐向0递减;机械臂阻抗控制中虚拟弹簧平衡位置绝大部分由机械臂上一个步长的实际位置决定,从而降低机械臂移动过程中的内力并减小或避免振动。
当然,本发明创造并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出等同变形或替换,这些等同的变型或替换均包含在本申请权利要求所限定的范围内。
Claims (11)
1.一种基于手、眼、臂协调操作的机器人抓取物体的控制方法,其中,所述机器人具有机械手、机械臂、机器人外部环境传感器系统、神经网络系统、控制系统;所述控制方法包括如下步骤:
(1)通过所述机器人外部环境传感器系统获得物体相关信息;
(2)获取用户所输入的对于抓取操作的任务要求;
(3)将步骤(1)中所获得的物体相关信息以及步骤(2)中所述任务要求传给神经网络系统,得到握持模式规划、机械臂轨迹规划、抓取力规划;
(4)所述控制系统控制机械手和机械臂按所述规划的曲线动作/路径对物体实施动作协调的抓取。
2.根据权利要求1的所述控制方法,其特征在于:在所述步骤(1)中,所述物体相关信息包括物理信息和位置信息、姿态信息,所述物理信息又包括物体的形状信息、质量信息;在所述步骤(2)中,所述任务要求包括稳定性要求、灵巧性要求。
3.根据权利要求1的所述控制方法,其特征在于:在所述步骤(1)中,所述机器人外部环境传感器系统为双目视觉系统,所述双目视觉系统基于Retinex方法对所采集的物体的图像进行图像增强,以进行所述物体的识别与定位。
4.根据权利要求3的所述控制方法,其特征在于:在所述图像增强过程中,通过将入射光照L(x,y)解析出来,由R(x,y)=S(x,y)/L(x,y)得到所述物体本身的反射光线的属性R(x,y),从而获得相应的所述物体相关信息;其中,S(x,y)为所采集图像的光照情况;其中,在所述解析的过程中,通过所采集的所述图像中每个像素点与阿基米德螺旋线上的像素点进行比较,进而估计出图像中光照度的变化情况。
5.根据权利要求2的所述控制方法,其特征在于:在所述步骤(1)中,所述机器人外部环境传感器系统为双目视觉系统,所述双目视觉系统基于Retinex方法对所采集的物体的图像进行图像增强,以进行所述物体的识别与定位。
6.根据权利要求5的所述控制方法,其特征在于:在所述图像增强过程中,通过将入射光照L(x,y)解析出来,由R(x,y)=S(x,y)/L(x,y)得到所述物体本身的反射光线的属性R(x,y),从而获得相应的所述物体相关信息;其中,S(x,y)为所采集图像的光照情况;其中,在所述解析的过程中,通过所采集的所述图像中每个像素点与阿基米德螺旋线上的像素点进行比较,进而估计出图像中光照度的变化情况。
7.根据权利要求2、5或6的所述控制方法,其特征在于:在所述步骤(3)中,由所述神经网络系统进行所述物体相关信息的分类以进行所述握持模式规划、机械臂轨迹规划、抓取力规划:
所述形状信息、姿态信息以及任务要求用于所述神经网络系统中的机械手握持模式规划模块进行机械手的握持模式规划;
所述位置信息用于所述神经网络系统中的机械臂轨迹规划模块进行机械臂轨迹规划从而用于调整接近所述物体的距离;
所述质量信息用于所述神经网络系统中的抓取力规划模块进行抓取力的规划。
8.根据权利要求2、5或6的所述控制方法,其特征在于:在所述握持模式规划、抓取力规划、机械臂轨迹规划过程中,所述神经网络系统依据所述物理信息与内部知识库中锁存物体的信息进行比较、匹配,依照所匹配的所述锁存物体的抓取规划,确定所述握持模式规划、抓取力规划、机械臂轨迹规划。
9.根据权利要求1-6之一的所述控制方法,其特征在于:在所述步骤(3)中,所述神经网络系统将抓取操作进行细分以应用于所述握持模式规划以实现抓取操作的柔顺与准确,具体为:将抓取操作分为包络抓取、精密抓取;所述包络抓取又包括平托、包络抓握,所述包络抓握又包括细长棱柱抓握、紧凑圆环抓握、单薄包络抓握;所述细长棱柱抓握又包括强力缠绕;所述精密抓取又包括细长棱柱抓握、紧凑圆环抓握。
10.根据权利要求1或2的所述控制方法,其特征在于:在所述步骤(4)中,所述控制系统将所述握持模式规划应用于机械手,将机械臂轨迹规划、抓取力规划应用于机械臂,并且对机械臂采用基于动力学前馈的机械臂运动控制。
11.根据权利要求10的所述控制方法,其特征在于:在对基于动力学前馈的机械臂运动控制过程中,所述控制系统采用基于遗忘因子函数的阻抗控制率对机械臂进行控制,通过扩展经典阻抗控制方法中的虚拟弹簧项,对机械臂阻抗控制的平衡位置进行自适应调节,用于降低机械臂移动过程中的内力并减小或避免振动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610411173.1A CN106078748B (zh) | 2016-06-13 | 2016-06-13 | 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610411173.1A CN106078748B (zh) | 2016-06-13 | 2016-06-13 | 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106078748A CN106078748A (zh) | 2016-11-09 |
CN106078748B true CN106078748B (zh) | 2018-09-14 |
Family
ID=57845331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610411173.1A Active CN106078748B (zh) | 2016-06-13 | 2016-06-13 | 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106078748B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6438512B2 (ja) * | 2017-03-13 | 2018-12-12 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
CN107009358B (zh) * | 2017-04-13 | 2020-06-02 | 武汉库柏特科技有限公司 | 一种基于单相机的机器人无序抓取装置及方法 |
CN108340367A (zh) * | 2017-12-13 | 2018-07-31 | 深圳市鸿益达供应链科技有限公司 | 用于机械臂抓取的机器学习方法 |
CN108127666B (zh) * | 2017-12-29 | 2020-12-25 | 深圳市越疆科技有限公司 | 一种机械臂的抓取方法、系统及机械臂 |
CN108381550B (zh) * | 2018-02-28 | 2021-06-22 | 江苏楚门机器人科技有限公司 | 一种基于模板的快速机器人抓取姿态的规划方法 |
CN108638054B (zh) * | 2018-04-08 | 2021-05-04 | 河南科技学院 | 一种智能排爆机器人五指灵巧手控制方法 |
CN108550124B (zh) * | 2018-04-17 | 2021-03-02 | 重庆邮电大学 | 一种基于仿生螺线的光照补偿及图像增强方法 |
CN108527371A (zh) * | 2018-04-17 | 2018-09-14 | 重庆邮电大学 | 一种基于bp神经网络的灵巧手规划方法 |
CN110980061A (zh) * | 2019-12-12 | 2020-04-10 | 重庆铁马专用车有限公司 | 一种新型智能大件垃圾处理系统 |
CN111319042B (zh) * | 2020-02-06 | 2023-03-07 | 北京凡川智能机器人科技有限公司 | 一种基于遗忘因子动态参数的机器人柔顺装配控制方法 |
CN111230874B (zh) * | 2020-02-06 | 2023-07-21 | 北京凡川智能机器人科技有限公司 | 一种启发式规则的灵巧手作业规划方法 |
CN113103227B (zh) * | 2021-03-26 | 2022-12-02 | 北京航空航天大学 | 抓握姿态采集方法及抓握姿态采集系统 |
CN114536333B (zh) * | 2022-02-18 | 2023-10-31 | 南京邮电大学 | 一种基于行为树的机械臂任务规划系统及应用方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1757490A (zh) * | 2004-10-08 | 2006-04-12 | 发那科株式会社 | 把持型机械手 |
CN103302673A (zh) * | 2013-05-17 | 2013-09-18 | 东莞市伯朗特自动化科技有限公司 | 自动化机械手臂的控制方法及系统 |
-
2016
- 2016-06-13 CN CN201610411173.1A patent/CN106078748B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1757490A (zh) * | 2004-10-08 | 2006-04-12 | 发那科株式会社 | 把持型机械手 |
CN103302673A (zh) * | 2013-05-17 | 2013-09-18 | 东莞市伯朗特自动化科技有限公司 | 自动化机械手臂的控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106078748A (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106078748B (zh) | 一种基于手、眼、臂协调操作的机器人抓取物体的控制方法 | |
Losey et al. | Controlling assistive robots with learned latent actions | |
CN114080583B (zh) | 视觉教导和重复移动操纵系统 | |
Breyer et al. | Comparing task simplifications to learn closed-loop object picking using deep reinforcement learning | |
CN108972494A (zh) | 一种仿人机械手抓取控制系统及其数据处理方法 | |
Alonso et al. | Current research trends in robot grasping and bin picking | |
CN109483534A (zh) | 一种物体抓取方法、装置和系统 | |
EP3862148A1 (en) | Information processing device, control method, and program | |
He et al. | Development of distributed control system for vision-based myoelectric prosthetic hand | |
CN108572586B (zh) | 信息处理装置和信息处理系统 | |
Lee | The study of mechanical arm and intelligent robot | |
Skoglund et al. | Programming-by-Demonstration of reaching motions—A next-state-planner approach | |
Kyota et al. | Fast grasp synthesis for various shaped objects | |
Yang et al. | Real-time human-robot interaction in complex environment using kinect v2 image recognition | |
Thalmann et al. | Nadine: A social robot that can localize objects and grasp them in a human way | |
Platt Jr | Learning and generalizing control-based grasping and manipulation skills | |
Xue et al. | Gesture-and vision-based automatic grasping and flexible placement in teleoperation | |
Gielniak et al. | Stylized motion generalization through adaptation of velocity profiles | |
CN113436293B (zh) | 一种基于条件生成式对抗网络的智能抓取图像生成方法 | |
Rasch et al. | An evaluation of robot-to-human handover configurations for commercial robots | |
Hillenbrand et al. | The robutler: a vision-controlled hand-arm system for manipulating bottles and glasses | |
Tang et al. | A reinforcement learning method for rearranging scattered irregular objects inside a crate | |
Xu et al. | Vision‐Based Intelligent Perceiving and Planning System of a 7‐DoF Collaborative Robot | |
Patzelt et al. | Conditional stylegan for grasp generation | |
Li et al. | Object dexterous manipulation in hand based on finite state machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |