CN116079746A - 一种柔性抓取方法 - Google Patents
一种柔性抓取方法 Download PDFInfo
- Publication number
- CN116079746A CN116079746A CN202310314899.3A CN202310314899A CN116079746A CN 116079746 A CN116079746 A CN 116079746A CN 202310314899 A CN202310314899 A CN 202310314899A CN 116079746 A CN116079746 A CN 116079746A
- Authority
- CN
- China
- Prior art keywords
- grabbing
- fuzzy
- end effector
- grabbing object
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明涉及一种柔性抓取方法,具体为一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其包括:对抓取对象进行初步识别,控制末端执行器执行抓取;将抓取对象抬升并移动到识别位置,识别并跟踪所抓持的抓取对象的分辨向量;对夹持的抓取对象进行建模和预测,确定抓取对象质心位置的空间映射函数;建立包含抓取对象时变函数的运动模型;通过改进的模糊算法,控制末端执行器运动,运动过程中末端执行器对抓取对象的夹持力矩保持稳定。改进的模糊算法,可采用并行模糊控制或者模糊滑膜控制。该方法可克服抓取过程中抓取对象质心变化的扰动,在保证抓取效率和成功率的基础上,提高了运动控制的稳定性。
Description
技术领域
本发明属于运动控制领域,具体涉及一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法。
背景技术
无序抓取,可采用机械爪控制、气压控制或视觉引导控制等控制方法。机械爪控制是最常见的方法,通常使用电信号来直接控制机械爪的机械运动,常用的机械爪如吸盘、夹爪、磁铁式夹爪等,该控制方法的优点是控制方便,夹取力强,适用范围广,但是对于柔性物体来说,容易造成变形和损坏。气压控制是利用气压控制夹爪的夹合力,该控制方法可以减小物体的形变和损伤,但气压控制方法需要比较高的气压,并且气压稳定性不够,容易造成夹爪抓取力较小且不稳定。视觉引导控制法是通过摄像头识别目标物体的形状和位置,然后控制末端执行器抓取,该方法需要使用高分辨率的相机进行识别,成本较高,且对光线和物体颜色敏感,容易受到环境的影响。
此外,抓取对象特别是柔性物体,通常容纳内容物,如装有液体的瓶子或装有固体的包裹等,甚至某些被抓取的对象为相互连接或相互接触的组件,组件的各部件之间可发生相对移动或滑动。抓取对象比较轻,并且对于操作精度和速度的要求都不高的情况下,可以不考虑负载参数的切换。但是,如果抓取对象的重量、体积相对较大时,随着抓持该类对象的末端执行器运动时,由于内容物的存在,或者各部件之间的相对移动或滑动,抓取对象的质心会发生变动,这导致运动不稳定,控制难度增加,也会导致末端执行器难以保持对抓取对象的牢固的抓取,容易导致抓取对象掉落或者发生意外。
为了克服前述影响,常见的控制方法包括提高抓取力,以保持抓取的稳定,或降低末端执行器的运动速度,减少质心变化对运动控制的影响。然而提高抓取力容易损坏抓取对象,而降低的运动速度会导致作业效率的下降。模糊控制(Fuzzy Control)是适合抓取对象不确定的控制方法,其容错性强,操作简便,但是对于高精度要求的抓取,控制精度可能不如传统的精确控制算法,而且扩展性相对较差,对于复杂的系统,需要设计非常繁杂的模糊控制算法来实现控制。
以上背景技术内容的公开仅用于辅助理解本申请的发明构思及技术方案,其并不必然属于本申请的现有技术,在没有明确的证据表明上述内容在本申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明提供一种柔性抓取方法,具体为一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其在常规的运动控制中引入改进的模糊算法,可克服抓取过程中抓取对象变化的扰动,在保证抓取效率和成功率的基础上,提高对于抓取操作的运动控制的稳定性。该方法的具体步骤包括:
步骤10:对抓取对象进行初步识别,确定抓取对象的特征向量,控制末端执行器执行抓取;
步骤20:将抓取对象抬升并移动到识别位置,识别并跟踪所抓持的抓取对象的分辨向量;
步骤30:对夹持的抓取对象进行建模和预测,确定抓取对象质心位置与末端执行器位置、位姿的空间映射函数;
步骤40:建立包含抓取对象时变函数的运动模型;
步骤50:通过改进的模糊算法,控制末端执行器运动,运动过程中末端执行器对抓取对象的夹持力矩保持稳定,直至将抓取对象移动至目标位置。
根据本发明的一方面,建立包含抓取对象时变函数的运动模型,包括:根据空间映射函数,确定抓取对象的质心位置随着末端执行器运动的抓取对象时变函数,随后使用扰动建模,将抓取对象时变函数作为运动控制的扰动源。
根据本发明的一方面,改进的模糊算法为并行模糊控制方法。
根据本发明的一方面,并行模糊控制方法具体包括:
步骤51:设计并行模糊控制模型,包括作为主模糊控制器的夹持力矩模糊控制器和作为从模糊控制器的抓取对象位姿控制器;
步骤52:设计隶属函数,将主模糊控制器和从模糊控制器的输入和输出进行模糊化;
步骤53:将主模糊控制器和从模糊控制器的输入和输出进行分解并划分等级,建立规则库;
步骤54:根据实时测量的模拟量,对照规则库,进行模糊推理,得到模糊输出,最后将模糊输出转化为实际控制器参数值。
根据本发明的一方面,主模糊控制器的输入为夹持力矩偏差和夹持力矩偏差变化率,输出为电机输出调节量,从模糊控制器的输入为抓取对象位姿偏移量和偏移量变化率,输出为末端执行器位姿调节量。
根据本发明的一方面,改进的模糊算法为模糊滑膜控制方法。
根据本发明的一方面,模糊滑膜控制方法具体可包括:
步骤510:通过模糊控制,对运动控制器的参数进行实时调整;
步骤520:将调整后的运动控制器的参数作为输入,使用滑模控制算法进行实时控制,使末端执行器对抓取对象的夹持力矩或抓取对象的倾角保持稳定;
步骤530:计算输出控制信号。
根据本发明的一方面,滑模控制算法的滑膜面s的构建如下::
其中sign为符号函数,ε、δ、α、β均为控制器参数,ε>0,δ>0, α>0, 0<β<1。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行前述任一所述方法的步骤。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1是本发明实施例所述的控制抓取时的抓取对象的姿态示意图;
图2是本发明实施例所述的抓取后的抓取对象的姿态的示意图;
图3是本发明实施例所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法的流程图。
实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明的自动运动主体是指能够自主执行任务的机械设备,其包括无人机、AGV(自动引导车)、巡逻机器人、工业机器人、服务机器人等。典型的自动运动主体包括多个连杆和多个关节,多个连杆中的一个通过关节来连接到另一个连杆,通过控制关节的运动实现自动运动主体的自动运动。本发明的末端执行器位于自动运动主体的末端,是执行作业任务的终端工具。本发明的抓取是指通过夹具或其他末端执行器来抓住或支撑物体的操作的统称,用于将物体从一个位置移动到另一个位置,或者对其进行加工或装配等,抓取操作可独立进行,或属于装配、焊接、搬运、装卸等操作的一部分。
当末端执行器运动到指定位置后,末端执行器可根据需要进一步调整位置和位姿,并通过进一步的动作完成抓取。末端执行器优选为夹爪型,末端执行器可在与抓取对象的接触部位根据需要设置触觉传感器,用于获取抓取对象的相关信息,例如抓取对象的表面纹理、粗糙程度与物体中心等相关信息。初始状态下的末端执行器闭合,与抓取对象存在安全距离,在末端执行器运行到抓取对象的操作位置时,打开末端执行器,通过关节运动,调整末端执行器的位置和姿态,避免和抓取对象产生碰撞,当末端执行器到达最佳抓取区域但没有接触时,末端执行器以一定的力闭合并停留一定的时间。
抓取对象包括表面刚性的对象和表面柔性的对象,表面刚性的对象可例如机械工件、相互连接的机械组件,表面柔性的对象可例如包裹、包装物,包裹和包装物可装有内容物。如图1、2所示,在抓取操作前后,随着球形内容物的移动,方形抓取对象的质心发生变化。
根据附图3,本发明提供一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其具体步骤如下:
步骤10:对抓取对象进行初步识别,确定抓取对象的特征向量,控制末端执行器执行抓取。步骤10包括:
步骤11:对抓取场景中的对象进行感知和检测,确定抓取对象的特征向量,初步识别抓取对象的类别、位置、姿态信息。初步识别可采用模板匹配的方法,即将待识别图像与已知的抓取对象的模板进行比较,找到最相似的模板并识别出待识别图像中与模板相似的区域。具体可包括:判定感知图像中抓取对象的边缘,对抓取对象的边缘进行非极大值抑制,并利用霍夫变换获得与边缘对应的边缘线,沿边缘线检测图像中具有区域极值的区域,并采用小区域模板匹配算法对多个具有区域极值的区域分别进行模板匹配识别。
步骤12:根据抓取对象的类别、位置、姿态信息,初始化运动控制参数,如末端执行器位置、夹爪的开合程度、末端执行器的姿态等,控制末端执行器执行抓取。
初步识别采用模板匹配的方法,其优点为算法实现简单,容易实现,并且不需要复杂的参数调节,对于范围确定的识别对象,计算量不大,可满足实际应用的需要,在形状规则、背景干扰较小的情况下,可以实现较高的识别准确度。
步骤20:将抓取对象抬升并移动到识别位置,识别并跟踪所抓持的抓取对象的分辨向量。步骤20具体包括:根据初步识别的抓取对象的特征向量,将抓取对象抬升并移动到识别位置,在前述抬升并移动的同时,或者移动到识别位置后,识别并跟踪包括初步识别的抓取对象的特征向量的分辨向量,将分辨向量的间隔一定数量的像素内设定正样本,以分辨向量为中心,向外扩展的边缘区域设定为负样本,对各样本进行投影变换,并更新分布参数,从而实现移动过程中分辨向量的跟踪,同时计算即时分辨向量与正向的分辨向量的余弦值,根据余弦值的最大收敛方向修正运动单元的运动路径,直至运动至余弦值最大的识别位置。通过分辨向量,可确定抓取对象的类别,并对抓取对象的位置、位姿信息进行修正。分辨向量可预先存入存储器,或者通过示教的方法,对抓取对象的分辨特征进行标注、存储。通过对抓取对象的分辨向量的准确识别,将识别与抓取并行,可进一步提高抓取效率,同时可以消除环境、光线、纹理等因素的干扰,提高识别的准确度和精度,确认抓取对象的种类、大小、形状等信息,为后续的运动控制和操作提供基础。
步骤30:对夹持的抓取对象进行建模和预测,确定抓取对象质心位置与末端执行器位置、位姿的空间映射函数。空间映射函数通常需要根据实际情况进行推导和确定,具体可通过记录步骤20中,记录末端执行器在不同位置、位姿下夹持抓取对象时,抓取对象和末端执行器的相关数据,例如末端执行器的位置、位姿、运动状态,抓取对象的质心位置、位置、位姿、运动状态等。根据收集到的数据,使用数学模型建立抓取对象质心和末端执行器位姿之间的关系。引入空间映射函数,可方便预测与夹持抓取对象的末端执行器的实时位姿所对应的抓取对象的质心位置,更高效地控制末端执行器的运动。
步骤40:建立包含抓取对象时变函数的运动模型。根据步骤30确定的空间映射函数,确定抓取对象的质心位置随着末端执行器运动的抓取对象时变函数,随后使用扰动建模,将抓取对象时变函数作为扰动源,并根据扰动源的力和力矩来计算响应。
步骤50:通过改进的模糊算法,控制末端执行器运动,运动过程中末端执行器对抓取对象的夹持力矩保持稳定,直至将抓取对象移动至目标位置。末端执行器对抓取对象的夹持力矩应根据抓取对象的质量、材质、形状、抓取位置等确定,从而保证对抓取对象的稳定抓取,而不损伤抓取对象。
改进的模糊算法为并行模糊控制方法,并行模糊控制方法具体可包括:
步骤51:设计并行模糊控制模型,包括作为主模糊控制器的夹持力矩模糊控制器和作为从模糊控制器的抓取对象位姿控制器。主模糊控制器的输入为夹持力矩偏差和夹持力矩偏差变化率,输出为电机输出调节量,从模糊控制器的输入为抓取对象位姿偏移量和偏移量变化率,输出为末端执行器位姿调节量。
步骤52:设计隶属函数,将主模糊控制器和从模糊控制器的输入和输出进行模糊化。
步骤53:将主模糊控制器和从模糊控制器的输入和输出进行分解并划分等级,建立规则库。根据主模糊控制器的模糊控制规则,得到电机输出调节量与夹持力矩偏差、夹持力矩偏差变化率的对应矩阵,根据从模糊控制器的模糊控制规则,得到末端执行器位姿调节量与抓取对象位姿偏移量和偏移量变化率的对应矩阵。
步骤54:根据实时测量的模拟量,对照规则库,进行模糊推理,得到模糊输出,最后将模糊输出转化为实际控制器参数值。
末端执行器对抓取对象的夹持力矩通常会受到末端执行器位姿的影响,这导致了夹持力矩控制难度的进一步增大,影响抓取的稳定可靠性,采用并行模糊控制,可调整因抓取位姿的变动造成的夹持力矩的剧烈波动,保证运行的稳定。
本发明还提供一种柔性抓取方法,具体为一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其具体步骤如下:
步骤100:对抓取对象进行初步识别,确定抓取对象的特征向量,控制末端执行器执行抓取。步骤100包括:
步骤110:对抓取场景中的对象进行感知和检测,确定抓取对象的特征向量,初步识别抓取对象的类别、位置、姿态信息。初步识别可采用模板匹配的方法,即将待识别图像与已知的抓取对象的模板进行比较,找到最相似的模板并识别出待识别图像中与模板相似的区域。具体可包括:判定感知图像中抓取对象的边缘,对抓取对象的边缘进行非极大值抑制,并利用霍夫变换获得与边缘对应的边缘线,沿边缘线检测图像中具有区域极值的区域,并采用小区域模板匹配算法对多个具有区域极值的区域分别进行模板匹配识别。
步骤120:根据抓取对象的类别、位置、姿态信息,初始化运动控制参数,如末端执行器位置、夹爪的开合程度、末端执行器的姿态等,控制末端执行器执行抓取。
初步识别采用模板匹配的方法,其优点为算法实现简单,容易实现,并且不需要复杂的参数调节,对于范围确定的识别对象,计算量不大,可满足实际应用的需要,在形状规则、背景干扰较小的情况下,可以实现较高的识别准确度。
步骤200:将抓取对象抬升并移动到识别位置,识别并跟踪所抓持的抓取对象的分辨向量。步骤200具体包括:根据初步识别的抓取对象的特征向量,将抓取对象抬升并移动到识别位置,在前述抬升并移动的同时,或者移动到识别位置后,识别并跟踪包括初步识别的抓取对象的特征向量的分辨向量,将分辨向量的间隔一定数量的像素内设定正样本,以分辨向量为中心,向外扩展的边缘区域设定为负样本,对各样本进行投影变换,并更新分布参数,从而实现移动过程中分辨向量的跟踪,同时计算即时分辨向量与正向的分辨向量的余弦值,根据余弦值的最大收敛方向修正运动单元的运动路径,直至运动至余弦值最大的识别位置。通过分辨向量,可确定抓取对象的类别,并对抓取对象的位置、位姿信息进行修正。分辨向量可预先存入存储器,或者通过示教的方法,对抓取对象的分辨特征进行标注、存储。通过对抓取对象的分辨向量的准确识别,将识别与抓取并行,可进一步提高抓取效率,同时可以消除环境、光线、纹理等因素的干扰,提高识别的准确度和精度,确认抓取对象的种类、大小、形状等信息,为后续的运动控制和操作提供基础。
步骤300:对夹持的抓取对象进行建模和预测,确定抓取对象质心位置与末端执行器位置、位姿的空间映射函数。空间映射函数通常需要根据实际情况进行推导和确定,具体可通过记录步骤200中,记录末端执行器在不同位置、位姿下夹持抓取对象时,抓取对象和末端执行器的相关数据,例如末端执行器的位置、位姿、运动状态,抓取对象的质心位置、位置、位姿、运动状态等。根据收集到的数据,使用数学模型建立抓取对象质心和末端执行器位姿之间的关系。引入空间映射函数,可方便预测与夹持抓取对象的末端执行器的实时位姿所对应的抓取对象的质心位置,更高效地控制末端执行器的运动。
步骤400:建立包含抓取对象时变函数的运动模型。根据步骤300确定的空间映射函数,确定抓取对象的质心位置随着末端执行器运动的抓取对象时变函数,随后使用扰动建模,将抓取对象时变函数作为扰动源,并根据扰动源的力和力矩来计算响应。
步骤500:通过改进的模糊算法,控制末端执行器运动,运动过程中末端执行器对抓取对象的夹持力矩保持稳定,直至将抓取对象移动至目标位置。末端执行器对抓取对象的夹持力矩应根据抓取对象的质量、材质、形状、抓取位置等确定,从而保证对抓取对象的稳定抓取,而不损伤抓取对象。
改进的模糊算法为模糊滑膜控制方法,模糊滑膜控制方法具体可包括:
步骤510:通过模糊控制,对运动控制器的参数进行实时调整。这里的参数包括控制器的增益、阈值、采样周期等。例如,可以通过增加控制器的增益来提高控制器的响应速度,或者通过降低控制器的阈值来增加控制器的灵敏度,从而改善控制器的性能。
步骤520:将调整后的运动控制器的参数作为输入,使用滑模控制算法进行实时控制,使末端执行器对抓取对象的夹持力矩或抓取对象的倾角保持稳定。滑模控制算法的滑膜面s的构建是滑膜控制算法的核心,滑模控制的收敛速度和精度主要取决于滑模面的选择。本发明对滑膜面的构建进行优化,引入∣s∣0.5并采用幂次函数,可充分提高控制精度。滑膜面s的构建如下:
其中sign为符号函数,ε、δ、α、β均为控制器参数,ε>0,δ>0, α>0, 0<β<1。
步骤530:根据控制输入计算输出控制信号。
滑膜控制是运动控制的常用算法,其算法相对简单,而且对参数变化和扰动具有较强的鲁棒性,可以改善模糊算法控制不精确的缺点,而且模糊算法结合滑膜控制可克服单一滑膜控制带来的高频抖振的问题,采用改进的模糊控制,并结合滑膜控制,可以有效消除常规滑膜控制产生的抖振,实现准确、稳定地控制。
上文所描述的各种方法,在一些实施例中,可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元。在一些实施例中,计算机程序的部分或者全部可以经由ROM和/或通信单元而被载入和/或安装到设备上。当计算机程序被加载到RAM并由CPU执行时,可以执行上文描述的方法中的一个或多个动作或步骤。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。
以上内容是结合具体/优选的实施方式对本申请所作的进一步详细说明,不能认定本申请的具体实施只局限于这些说明。对于本申请所属技术领域的普通技术人员来说,在不脱离本申请构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本申请的保护范围。
Claims (9)
1.一种用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其具体步骤包括:
步骤10:对抓取对象进行初步识别,确定抓取对象的特征向量,控制末端执行器执行抓取;
步骤20:将抓取对象抬升并移动到识别位置,识别并跟踪所抓持的抓取对象的分辨向量;
步骤30:对夹持的抓取对象进行建模和预测,确定抓取对象质心位置与末端执行器位置、位姿的空间映射函数;
步骤40:建立包含抓取对象时变函数的运动模型;
步骤50:通过改进的模糊算法,控制末端执行器运动,运动过程中末端执行器对抓取对象的夹持力矩保持稳定,直至将抓取对象移动至目标位置。
2.根据权利要求1所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,建立包含抓取对象时变函数的运动模型,包括:根据空间映射函数,确定抓取对象的质心位置随着末端执行器运动的抓取对象时变函数,随后使用扰动建模,将抓取对象时变函数作为运动控制的扰动源。
3.根据权利要求1所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,改进的模糊算法为并行模糊控制方法。
4.根据权利要求3所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,并行模糊控制方法具体包括:
步骤51:设计并行模糊控制模型,包括作为主模糊控制器的夹持力矩模糊控制器和作为从模糊控制器的抓取对象位姿控制器;
步骤52:设计隶属函数,将主模糊控制器和从模糊控制器的输入和输出进行模糊化;
步骤53:将主模糊控制器和从模糊控制器的输入和输出进行分解并划分等级,建立规则库;
步骤54:根据实时测量的模拟量,对照规则库,进行模糊推理,得到模糊输出,最后将模糊输出转化为实际控制器参数值。
5.根据权利要求4所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,主模糊控制器的输入为夹持力矩偏差和夹持力矩偏差变化率,输出为电机输出调节量,从模糊控制器的输入为抓取对象位姿偏移量和偏移量变化率,输出为末端执行器位姿调节量。
6.根据权利要求1所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,改进的模糊算法为模糊滑膜控制方法。
7.根据权利要求6所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,模糊滑膜控制方法具体可包括:
步骤510:通过模糊控制,对运动控制器的参数进行实时调整;
步骤520:将调整后的运动控制器的参数作为输入,使用滑模控制算法进行实时控制,使末端执行器对抓取对象的夹持力矩或抓取对象的倾角保持稳定;
步骤530:计算输出控制信号。
8.根据权利要求7所述的用于柔性抓取的、基于改进的模糊算法的抗扰动控制方法,其特征在于,滑模控制算法的滑膜面s的构建如下:
,其中sign为符号函数,ε、δ、α、β均为控制器参数,ε>0,δ>0, α>0, 0<β<1。
9.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行根据权利要求1-8中任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310314899.3A CN116079746B (zh) | 2023-03-29 | 2023-03-29 | 一种柔性抓取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310314899.3A CN116079746B (zh) | 2023-03-29 | 2023-03-29 | 一种柔性抓取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116079746A true CN116079746A (zh) | 2023-05-09 |
CN116079746B CN116079746B (zh) | 2023-06-23 |
Family
ID=86188199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310314899.3A Active CN116079746B (zh) | 2023-03-29 | 2023-03-29 | 一种柔性抓取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116079746B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117055361A (zh) * | 2023-10-12 | 2023-11-14 | 纳博特南京科技有限公司 | 基于滑膜模型预测控制的移动机器人控制方法 |
CN117549338A (zh) * | 2024-01-09 | 2024-02-13 | 北京李尔现代坦迪斯汽车系统有限公司 | 一种用于汽车坐垫生产车间的抓取机器人 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0235501A (ja) * | 1988-07-26 | 1990-02-06 | Toshiba Corp | ファジィ制御方式 |
JPH10320004A (ja) * | 1997-05-22 | 1998-12-04 | Kawasaki Steel Corp | ファジィ制御構築方法 |
US20140316573A1 (en) * | 2013-04-18 | 2014-10-23 | Fanuc Corporation | Robot system having a robot for conveying a workpiece |
US20180154526A1 (en) * | 2016-12-02 | 2018-06-07 | Fanuc Corporation | Robot control device for controlling robot and method for estimating disturbance value applied to robot |
CN111185907A (zh) * | 2020-01-13 | 2020-05-22 | 福州大学 | 一种作业型飞行机器人抓取后的位姿稳定控制方法 |
CN113433827A (zh) * | 2021-07-08 | 2021-09-24 | 江苏大学 | 一种质心变化喷砂除锈并联机器人移动平台轨迹跟踪控制方法 |
CN113601509A (zh) * | 2021-08-16 | 2021-11-05 | 安徽元古纪智能科技有限公司 | 一种多自由度机械臂柔性控制方法和系统 |
CN114265318A (zh) * | 2022-03-02 | 2022-04-01 | 北京航空航天大学 | 一种基于滑模控制和模糊算法的协作机器人轨迹跟踪方法 |
CN114700951A (zh) * | 2022-04-25 | 2022-07-05 | 浙江工业大学 | 一种用于医护机器人的柔顺控制方法 |
CN115229792A (zh) * | 2022-07-27 | 2022-10-25 | 福州大学 | 一种飞行作业机器人动态抓取的终端滑模自适应控制方法 |
-
2023
- 2023-03-29 CN CN202310314899.3A patent/CN116079746B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0235501A (ja) * | 1988-07-26 | 1990-02-06 | Toshiba Corp | ファジィ制御方式 |
JPH10320004A (ja) * | 1997-05-22 | 1998-12-04 | Kawasaki Steel Corp | ファジィ制御構築方法 |
US20140316573A1 (en) * | 2013-04-18 | 2014-10-23 | Fanuc Corporation | Robot system having a robot for conveying a workpiece |
US20180154526A1 (en) * | 2016-12-02 | 2018-06-07 | Fanuc Corporation | Robot control device for controlling robot and method for estimating disturbance value applied to robot |
CN111185907A (zh) * | 2020-01-13 | 2020-05-22 | 福州大学 | 一种作业型飞行机器人抓取后的位姿稳定控制方法 |
CN113433827A (zh) * | 2021-07-08 | 2021-09-24 | 江苏大学 | 一种质心变化喷砂除锈并联机器人移动平台轨迹跟踪控制方法 |
CN113601509A (zh) * | 2021-08-16 | 2021-11-05 | 安徽元古纪智能科技有限公司 | 一种多自由度机械臂柔性控制方法和系统 |
CN114265318A (zh) * | 2022-03-02 | 2022-04-01 | 北京航空航天大学 | 一种基于滑模控制和模糊算法的协作机器人轨迹跟踪方法 |
CN114700951A (zh) * | 2022-04-25 | 2022-07-05 | 浙江工业大学 | 一种用于医护机器人的柔顺控制方法 |
CN115229792A (zh) * | 2022-07-27 | 2022-10-25 | 福州大学 | 一种飞行作业机器人动态抓取的终端滑模自适应控制方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117055361A (zh) * | 2023-10-12 | 2023-11-14 | 纳博特南京科技有限公司 | 基于滑膜模型预测控制的移动机器人控制方法 |
CN117055361B (zh) * | 2023-10-12 | 2023-12-19 | 纳博特南京科技有限公司 | 基于滑模模型预测控制的移动机器人控制方法 |
CN117549338A (zh) * | 2024-01-09 | 2024-02-13 | 北京李尔现代坦迪斯汽车系统有限公司 | 一种用于汽车坐垫生产车间的抓取机器人 |
CN117549338B (zh) * | 2024-01-09 | 2024-03-29 | 北京李尔现代坦迪斯汽车系统有限公司 | 一种用于汽车坐垫生产车间的抓取机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN116079746B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116079746B (zh) | 一种柔性抓取方法 | |
JP4265088B2 (ja) | ロボット装置及びその制御方法 | |
CN111251295A (zh) | 一种应用于参数化零件的视觉机械臂抓取方法及装置 | |
Sayour et al. | Autonomous robotic manipulation: Real-time, deep-learning approach for grasping of unknown objects | |
US20230166398A1 (en) | Collision handling methods in grasp generation | |
CN114770461B (zh) | 一种基于单目视觉的移动机器人及其自动抓取方法 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN113664826A (zh) | 一种未知环境中的机器人抓取方法及系统 | |
CN117340929A (zh) | 一种基于三维点云数据的柔性夹爪抓取处置装置及方法 | |
Tong et al. | Neural network based visual servo control under the condition of heavy loading | |
Long et al. | Robotic cutting of soft materials using force control & image moments | |
CN109542094B (zh) | 无期望图像的移动机器人视觉镇定控制 | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
Kim et al. | Improvement of Door Recognition Algorithm using Lidar and RGB-D camera for Mobile Manipulator | |
Luo et al. | Robotic conveyor tracking with dynamic object fetching for industrial automation | |
Wei et al. | Multisensory visual servoing by a neural network | |
Li et al. | The grasping force control for force sensor-less robot through point clouds mask segmentation | |
KR102452315B1 (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
CN115837985B (zh) | 一种基于机器视觉的无序抓取方法 | |
CN115556102B (zh) | 一种基于视觉识别的机器人分拣规划方法及规划设备 | |
Jeon et al. | Object contour following task based on integrated information of vision and force sensor | |
An et al. | An Autonomous Grasping Control System Based on Visual Object Recognition and Tactile Perception | |
CN112340435B (zh) | 一种物流搬运机器人的抓取感知及控制方法 | |
US20230114306A1 (en) | Method for picking up an object by means of a robotic device | |
JP2013129005A (ja) | 把持ロボット装置、把持動作制御方法、および、把持動作制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |