CN114932537A - 一种机器人轨迹规划方法及装置 - Google Patents
一种机器人轨迹规划方法及装置 Download PDFInfo
- Publication number
- CN114932537A CN114932537A CN202210737393.9A CN202210737393A CN114932537A CN 114932537 A CN114932537 A CN 114932537A CN 202210737393 A CN202210737393 A CN 202210737393A CN 114932537 A CN114932537 A CN 114932537A
- Authority
- CN
- China
- Prior art keywords
- robot
- target
- model
- target robot
- pose information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
Abstract
本申请公开了一种机器人轨迹规划方法及装置,包括:确定出目标机器人的运动学算法,并为机器人模型添加交互组件,以得到机器人运动学模型;确定出机器人位姿信息,基于机器人位姿信息进行机器人的三维注册,以确定出机器人基坐标系的位姿信息;实时确定出目标夹具位姿信息,根据夹具位姿信息叠加夹具模型,并根据矩阵转化关系计算出夹具在机器人运动学模型基坐标系下的位姿信息;利用运动学算法,实时计算夹具在机器人运动学模型基坐标系下的位姿信息,以得到机器人运动学模型的运动控制参数;存储运动控制参数,生成机器人运动控制程序。通过本申请上述技术方案,能够提高机器人轨迹规划效率和加工质量,降低对机器人轨迹规划的专业要求。
Description
技术领域
本发明涉及工业机器人加工领域,特别涉及一种机器人轨迹规划方法及装置。
背景技术
目前,机器人轨迹规划方法主要分为两种:在线示教和离线编程。其中,在线示教通常由有经验的操作者通过示教器手动的移动机器人末端执行器到达期望的位置和姿态,机器人控制器会将这些位置和姿态生成控制机器人的运动命令。离线编程方法利用计算机图形学对机器人及工件进行三维建模,在离线的情况下对虚拟场景中的工件表面进行轨迹规划,再将表面轨迹线离散成点位,编写程序命令机器人末端执行器依次到达所有轨迹点。在线示教的精度完全依赖于示教者的经验和技巧,对于示教完成的路径还需要进行一系列的测试以满足可靠性和安全性,在线示教通常只适用于简单几何形状和无复杂加工过程的工件示教。离线编程对特定作业机器人和工件的三维建模和规划轨迹需要花费大量的时间和高水平的编程能力,而这些对于通常执行示教的操作者来说是不具备的。同时,离线编程依赖于精确的机器人和工作单元模型,需要使用额外的传感器进行标定和工件定位。
由上可见,在机器人轨迹规划的过程中,如何提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求是本领域有待解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种机器人轨迹规划方法及装置,能够有效提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求。其具体方案如下:
第一方面,本申请公开了一种机器人轨迹规划方法,包括:
确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;
确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;
实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;
利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;
对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
可选的,所述确定出针对预先建立的机器人三维模型的运动学算法之前,还包括:
获取目标机器人参数信息;
基于所述目标机器人参数信息,在混合现实环境中建立所述机器人三维模型,并根据所述机器人三维模型确定出所述目标机器人的DH模型。
可选的,所述确定出针对预先建立的机器人三维模型的运动学算法,包括:
利用所述DH模型确定出针对预先建立的所述机器人三维模型的正逆运动学解析算法和基于最小行程原则的逆运动学最优解选取算法。
可选的,所述利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数,包括:
利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型中各个轴的旋转角度信息。
可选的,所述确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,包括:
建立混合现实空间坐标系,确定出在所述混合现实空间坐标系下所述目标机器人位姿信息;
基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以完成所述目标机器人运动学模型与所述目标机器人之间的三维注册。
可选的,所述基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,包括:
判断所述目标机器人运动学模型与所述目标机器人是否完全重合;
若所述目标机器人运动学模型与所述目标机器人不完全重合,则基于所述目标机器人位姿信息,并利用在混合现实空间中预设的操作界面对所述目标机器人运动学模型进行调整,以便所述目标机器人运动学模型与所述目标机器人完全重合。
可选的,所述基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动,包括:
基于所有的所述运动控制参数生成所述目标机器人的运动控制程序;
将所述运动控制程序发送至所述目标机器人,以便所述目标机器人根据所述运动控制程序进行运动。
第二方面,本申请公开了一种机器人轨迹规划装置,包括:
机器人运动学模型模块,用于确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;
三维注册模块,用于确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;
位姿信息确定模块,用于实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;
运动控制参数确定模块,用于利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;
运动控制程序生成模块,用于对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
可见,本申请提供了一种机器人轨迹规划方法,包括确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。本申请通过目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息,然后根据目标夹具位姿信息将目标夹具模型与目标夹具进行叠加,并根据目标夹具位姿信息和在空间坐标系下目标机器人运动学模型的基坐标系的位姿信息计算出在目标机器人运动学模型的基坐标系下目标夹具的位姿信息,然后对在目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到运动控制参数,从而提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请公开的一种机器人轨迹规划方法流程图;
图2为本申请公开的一种机器人轨迹规划方法流程图;
图3为本申请公开的一种运动学算法具体流程图;
图4为本申请公开的一种最优解选取算法具体流程图;
图5为本申请公开的一种机器人轨迹规划装置结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在当前背景下,机器人轨迹规划方法主要分为两种:在线示教和离线编程。其中,在线示教通常由有经验的操作者通过示教器手动的移动机器人末端执行器到达期望的位置和姿态,机器人控制器会将这些位置和姿态生成控制机器人的运动命令。离线编程方法利用计算机图形学对机器人及工件进行三维建模,在离线的情况下对虚拟场景中的工件表面进行轨迹规划,再将表面轨迹线离散成点位,编写程序命令机器人末端执行器依次到达所有轨迹点。在线示教的精度完全依赖于示教者的经验和技巧,对于示教完成的路径还需要进行一系列的测试以满足可靠性和安全性,在线示教通常只适用于简单几何形状和无复杂加工过程的工件示教。离线编程对特定作业机器人和工件的三维建模和规划轨迹需要花费大量的时间和高水平的编程能力,而这些对于通常执行示教的操作者来说是不具备的。同时,离线编程依赖于精确的机器人和工作单元模型,需要使用额外的传感器进行标定和工件定位。由上可见,在机器人轨迹规划的过程中,如何提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求是本领域有待解决的问题。
参见图1所示,本发明实施例公开了一种机器人轨迹规划方法,具体可以包括:
步骤S11:确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型。
本实施例中,在确定出针对预先建立的机器人三维模型的运动学算法之前,还包括:获取目标机器人参数信息;基于所述目标机器人参数信息,在混合现实环境中建立所述机器人三维模型,并根据所述机器人三维模型确定出所述目标机器人的DH模型。
可以理解的是,获取目标机器人参数信息,然后基于所述目标机器人参数信息,在混合现实环境中建立所述机器人三维模型,并根据所述机器人三维模型确定出所述目标机器人的DH模型,然后利用所述DH模型确定出针对预先建立的所述机器人三维模型的正逆运动学解析算法和基于最小行程原则的逆运动学最优解选取算法,并为所述机器人三维模型添加混合现实交互组件,其中,所述混合现实交互组件包括但不限于Box Collider(盒碰撞器组件)、Object Manipulator(对象操纵组件)以及NearInteractionGrabbable;盒碰撞器组件能够使三维模型具有一定的物理特性,对象操纵组件能够使该脚本直接操作三维模型,使用户能够直接用手触摸全息图,使三维模型可以通过人手进行移动、缩放和旋转,NearInteractionGrabbable可以使三维模型对手势输入的响应更精准,在添加完交互组件之后,得到目标机器人运动学模型。
步骤S12:确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息。
本实施例中,确定出目标机器人位姿信息,并基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以完成所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息。
可以理解的是,用户将包含Vuforia(Vuforia Model Target)软件开发工具包的软件安装至Hololens2设备,启动Hololens2设备,然后通过调用Vuforia软件开发工具包的模型目标技术,从而识别目标机器人廓形,以确定出所述目标机器人在真实环境中的位姿信息,并通过目标机器人位姿信息放置目标机器人运动学模型,使所述目标机器人运动学模型与所述目标机器人重合,以实现所述目标机器人运动学模型与所述目标机器人之间的三维注册,最后得到在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息。
步骤S13:实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息。
步骤S14:利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数。
步骤S15:对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
本实施例中,对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,然后将所述运动控制程序发送至所述目标机器人,以便所述目标机器人根据所述运动控制程序进行运动。
本实施例中,确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。本申请通过目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息,然后根据目标夹具位姿信息将目标夹具模型与目标夹具进行叠加,并根据目标夹具位姿信息和在空间坐标系下目标机器人运动学模型的基坐标系的位姿信息计算出在目标机器人运动学模型的基坐标系下目标夹具的位姿信息,然后对在目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到运动控制参数,从而提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求。
参见图2所示,本发明实施例公开了一种机器人轨迹规划方法,具体可以包括:
步骤S21:确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型。
步骤S22:建立混合现实空间坐标系,确定出在所述混合现实空间坐标系下所述目标机器人位姿信息,基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息。
本实施例中,基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以完成所述目标机器人运动学模型与所述目标机器人之间的三维注册,然后判断所述目标机器人运动学模型与所述目标机器人是否完全重合,若所述目标机器人运动学模型与所述目标机器人不完全重合,则基于所述目标机器人位姿信息,并利用在混合现实空间中预设的操作界面对所述目标机器人运动学模型进行调整,以便所述目标机器人运动学模型与所述目标机器人完全重合。
步骤S23:实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息。
本实施例中,在获取模型控制信息之后,并利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对所述模型控制信息进行实时计算,以得到当前注册后的所述机器人运动学模型中各个轴的旋转角度信息,并基于各个轴的旋转角度信息对注册后的所述目标机器人运动学模型进行控制,以得到目标机器人控制参数信息,并记录。
步骤S24:利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型中各个轴的旋转角度信息。
本实施例中,利用了正逆运动学解析算法和基于最小行程原则的逆运动学最优解选取算法,具体如下:
所述正运动学解析算法具体如下:
其中,
nx=C1C23C4C5C6-S1S4C5C6+C1S23S5C6-C1C23S4S6-S1S4S6
ny=S1C23C4C5C6+C1S4C5C6+S1S23S5C6-S1S23S4S6+C1C4S6
nz=-S23C4C5C6+C23S5C6+S23S4S6
ox=C1C23C4C5S6-S1S4C5S6+C1S23S5S6+C1C23S4C6+S1S4C6
oy=S1C23C4C5S6+C1S4C5S6+S1S23S5S6+S1C23S4C6-C1C4C6
nz=-S23C4C5S6+C23S5S6-S23S4C6
ax=C1C23C4S5-S1S4S5-C1S23C5
ay=S1C23C4S5+C1S4S5-S1S23C5
az=-S23C4S5-C23C5
px=-d6C1C23C4S5+d6S1S4S5+d6C1S23C5+d4C1S23+a3C1C23+a2C1C2+a1C1
py=-d6S1C23C4S5-d6C1S4S5+d6S1S23C5+d4S1S23+a3S1C23+a2S1C2+a1S1
pz=d6S23C4S5+d6C23C5+d4C23-a3S23-a2S2
上述表达式中,Si=Sinθi,Ci=Cosθi,Sij=Sin(θi-θj),Cij=Cos(θi-θj)
其中,θi为各轴旋转角度,di为各轴偏距,ai为各轴连杆长度,nxnynz、oxoyoz、axayaz分别表示目标机器人运动学模型空间坐标系下X、Y、Z轴的位姿信息,pxpypz分别表示目标机器人运动学模型空间坐标系下的坐标。
所述逆运动学解析算法具体如下:
θ1=Atan2(d6ay+py,d6ax+px)
θ4=Atan2(axS1-ayC1,-axC1C23-ayS1C23+azS23)
θ5=Atan2(ax(C1C23C4-S1S4)+ay(S1C23C4+C1S4)-azS23C4,-axC1S23-ayS1S23-azC23)
θ6=Atan2(-nx(C1C23S4+S1C4)-ny(S1C23S4-C1C4)+nzS23S4,ox(C1C23S4+S1C4)+oy(S1C23S4-C1C4)-ozS23S4)
其中,
所述基于最小行程原则的逆运动学最优解选取算法具体流程如图3所示,具体以FANUC M710ic/50机器人DH(Denavit-Hartenberg)模型为例,该机器人为满足Pieper准则的六轴机器人,一共存在八组逆运动学解。第一步,任选起始点位作为所述目标机器人运动学模型运动轨迹起始点位,第二步,计算出所述目标机器人运动学模型到达起始点位时各轴需要旋转的角度,根据上述逆运动学解析算法可以计算出八组逆解,也就是说目标机器人运动学模型可以通过八种不同的方式或姿态到达起始点位。(图中θ的左上标i为起始点的序号,即起始第一个点i=1,第二个点i=2等等,图中θ的右上标k为目标机器人运动学模型中各轴的序号,即θ1为目标机器人运动学模型中一轴旋转角度,θ2为二轴旋转角度等等。图中θ右下标j为逆解组号,即θ1为某点的第一组逆解,θ2为某点的第二组逆解等等,具体如图4所示。因此,表示目标机器人运动学模型中k轴的第i个起始点、第j组逆解的旋转角度;iθj表示第i个起始点、第j组的逆解,第三步,根据配置要求和业务需求从八组逆解中选取一组作为最优逆解,将iθk作为第i个点最优的一组解,第四步,确定出目标机器人运动学模型运动下一时刻的运动点位,并利用上述算法计算出下一时刻运动点位的八组逆解,第五步,利用图中的计算公式计算出目标机器人运动学模型的所有轴第i+1个起始点、第j组逆解的旋转角度与第i个起始点最优解旋转角度差值的绝对值,第六步,判断上述第J组逆解是否为最小旋转角度,若不是,则进入循环,直到确定出逆解为最小旋转角度并且其他组逆解的旋转角度均大于0.001,第七步,将第六步中确定出的逆解为最小旋转角度i+1θm存储到i+1θ中,第八步,判断第七步的运动点位是否为最后一个运动点位,若不是则进入第四步循环,直到确定出最后一个运动点位,第九步,记录目标机器人运动学模型中各轴的旋转角度。
步骤S25:对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
本实施例中,融合在线示教与离线示教的优点,将图形交互式仿真的优势直接应用于真实的生产环境。由于机器人运动学模型与目标机器人具有相同的工作环境,在演示过程中,专家用户可实时查看虚拟机器人的工作情况,是否存在干涉与限位等问题,示教路径程序可直接使用,无需进行调试与测试,提高生产效率与安全性,其次,降低操作人员对工业机器人及其轨迹规划的专业要求。不需要进行单独建模来规划轨迹,可以较好的解决建模复杂曲面的加工问题。
本实施例中,确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;建立混合现实空间坐标系,确定出在所述混合现实空间坐标系下所述目标机器人位姿信息,基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型中各个轴的旋转角度信息;对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。本申请通过目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息,然后根据目标夹具位姿信息将目标夹具模型与目标夹具进行叠加,并根据目标夹具位姿信息和在空间坐标系下目标机器人运动学模型的基坐标系的位姿信息计算出在目标机器人运动学模型的基坐标系下目标夹具的位姿信息,然后对在目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到运动控制参数,从而提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求。
参见图5所示,本发明实施例公开了一种机器人轨迹规划装置,具体可以包括:
机器人运动学模型模块11,用于确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;
三维注册模块12,用于确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;
位姿信息确定模块13,用于实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;
运动控制参数确定模块14,用于利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;
运动控制程序生成模块15,用于对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
本实施例中,确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。本申请通过目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息,然后根据目标夹具位姿信息将目标夹具模型与目标夹具进行叠加,并根据目标夹具位姿信息和在空间坐标系下目标机器人运动学模型的基坐标系的位姿信息计算出在目标机器人运动学模型的基坐标系下目标夹具的位姿信息,然后对在目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到运动控制参数,从而提高机器人轨迹规划效率,克服传统轨迹规划方式的弊端,在保留机加工优势的同时,还能赋予其人工加工的优点,并降低操作人员对机器人轨迹规划的专业要求。
在一些具体实施例中,所述机器人运动学模型模块11,具体可以包括:
目标机器人参数信息获取模块,用于获取目标机器人参数信息;
DH模型确定模块,用于基于所述目标机器人参数信息,在混合现实环境中建立所述机器人三维模型,并根据所述机器人三维模型确定出所述目标机器人的DH模型。
在一些具体实施例中,所述机器人运动学模型模块11,具体可以包括:
运动学算法确定模块,用于利用所述DH模型确定出针对预先建立的所述机器人三维模型的正逆运动学解析算法和基于最小行程原则的逆运动学最优解选取算法。
在一些具体实施例中,所述运动控制参数确定模块14,具体可以包括:
运动控制参数确定模块,用于利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型中各个轴的旋转角度信息。
在一些具体实施例中,所述三维注册模块12,具体可以包括:
目标机器人位姿信息确定模块,用于建立混合现实空间坐标系,确定出在所述混合现实空间坐标系下所述目标机器人位姿信息;
三维注册模块,用于基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以完成所述目标机器人运动学模型与所述目标机器人之间的三维注册。
在一些具体实施例中,所述三维注册模块12,具体可以包括:
判断模块,用于判断所述目标机器人运动学模型与所述目标机器人是否完全重合;
调整模块,用于若所述目标机器人运动学模型与所述目标机器人不完全重合,则基于所述目标机器人位姿信息,并利用在混合现实空间中预设的操作界面对所述目标机器人运动学模型进行调整,以便所述目标机器人运动学模型与所述目标机器人完全重合。
在一些具体实施例中,所述运动控制程序生成模块15,具体可以包括:
运动控制程序生成模块,用于基于所有的所述运动控制参数生成所述目标机器人的运动控制程序;
运动控制程序发送模块,用于将所述运动控制程序发送至所述目标机器人,以便所述目标机器人根据所述运动控制程序进行运动。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种机器人轨迹规划方法及装置进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种机器人轨迹规划方法,其特征在于,包括:
确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;
确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;
实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;
利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;
对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
2.根据权利要求1所述的机器人轨迹规划方法,其特征在于,所述确定出针对预先建立的机器人三维模型的运动学算法之前,还包括:
获取目标机器人参数信息;
基于所述目标机器人参数信息,在混合现实环境中建立所述机器人三维模型,并根据所述机器人三维模型确定出所述目标机器人的DH模型。
3.根据权利要求2所述的机器人轨迹规划方法,其特征在于,所述确定出针对预先建立的机器人三维模型的运动学算法,包括:
利用所述DH模型确定出针对预先建立的所述机器人三维模型的正逆运动学解析算法和基于最小行程原则的逆运动学最优解选取算法。
4.根据权利要求3所述的机器人轨迹规划方法,其特征在于,所述利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数,包括:
利用所述正逆运动学解析算法和所述基于最小行程原则的逆运动学最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型中各个轴的旋转角度信息。
5.根据权利要求1所述的机器人轨迹规划方法,其特征在于,所述确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,包括:
建立混合现实空间坐标系,确定出在所述混合现实空间坐标系下所述目标机器人位姿信息;
基于所述目标机器人位姿信息将所述目标机器人运动学模型与所述目标机器人重合,以完成所述目标机器人运动学模型与所述目标机器人之间的三维注册。
6.根据权利要求5所述的机器人轨迹规划方法,其特征在于,所述基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,包括:
判断所述目标机器人运动学模型与所述目标机器人是否完全重合;
若所述目标机器人运动学模型与所述目标机器人不完全重合,则基于所述目标机器人位姿信息,并利用在混合现实空间中预设的操作界面对所述目标机器人运动学模型进行调整,以便所述目标机器人运动学模型与所述目标机器人完全重合。
7.根据权利要求1至6任一项所述的机器人轨迹规划方法,其特征在于,所述基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动,包括:
基于所有的所述运动控制参数生成所述目标机器人的运动控制程序;
将所述运动控制程序发送至所述目标机器人,以便所述目标机器人根据所述运动控制程序进行运动。
8.一种机器人轨迹规划装置,其特征在于,包括:
机器人运动学模型模块,用于确定出针对预先建立的机器人三维模型的运动学算法,并为所述机器人三维模型添加混合现实交互组件,以得到目标机器人运动学模型;
三维注册模块,用于确定出目标机器人位姿信息,基于所述目标机器人位姿信息进行所述目标机器人运动学模型与所述目标机器人之间的三维注册,以确定出在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息;
位姿信息确定模块,用于实时确定出目标夹具位姿信息,根据所述目标夹具位姿信息将预先建立的目标夹具模型与目标夹具进行叠加,并根据所述目标夹具位姿信息和所述在空间坐标系下所述目标机器人运动学模型的基坐标系的位姿信息计算出在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息;
运动控制参数确定模块,用于利用所述运动学算法和最优解选取算法对在所述目标机器人运动学模型的基坐标系下目标夹具的位姿信息进行实时计算,以得到所述目标机器人运动学模型的运动控制参数;
运动控制程序生成模块,用于对所述运动控制参数进行实时存储之后,基于所有的所述运动控制参数生成所述目标机器人的运动控制程序,以便所述目标机器人根据所述运动控制程序进行运动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210737393.9A CN114932537A (zh) | 2022-06-27 | 2022-06-27 | 一种机器人轨迹规划方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210737393.9A CN114932537A (zh) | 2022-06-27 | 2022-06-27 | 一种机器人轨迹规划方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114932537A true CN114932537A (zh) | 2022-08-23 |
Family
ID=82867793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210737393.9A Pending CN114932537A (zh) | 2022-06-27 | 2022-06-27 | 一种机器人轨迹规划方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114932537A (zh) |
-
2022
- 2022-06-27 CN CN202210737393.9A patent/CN114932537A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ong et al. | Augmented reality-assisted robot programming system for industrial applications | |
CN110238831B (zh) | 基于rgb-d图像及示教器的机器人示教系统及方法 | |
US11331803B2 (en) | Mixed reality assisted spatial programming of robotic systems | |
US9731419B2 (en) | System and method for programming robots | |
Zheng et al. | Hybrid offline programming method for robotic welding systems | |
Neto et al. | High‐level robot programming based on CAD: dealing with unpredictable environments | |
CN109531577B (zh) | 机械臂标定方法、装置、系统、介质、控制器及机械臂 | |
Fang et al. | Orientation planning of robot end-effector using augmented reality | |
Fang et al. | Robot path and end-effector orientation planning using augmented reality | |
JP2010211726A (ja) | シミュレーション方法 | |
Manou et al. | Off-line programming of an industrial robot in a virtual reality environment | |
Fang et al. | Robot programming using augmented reality | |
Rückert et al. | Augmented Reality for teaching collaborative robots based on a physical simulation | |
Ali et al. | A lead through approach for programming a welding arm robot using machine vision | |
Ogbemhe et al. | Application of robotics in rail car manufacturing learning factory: A case of welding complex joints | |
Ong et al. | Methodologies for immersive robot programming in an augmented reality environment | |
CN112958974A (zh) | 一种基于三维视觉的可交互自动化焊接系统 | |
Tsukahara et al. | An experimental robot system for power distribution line maintenance robots-system architecture and bolt insertion experiment | |
CN106881717A (zh) | 一种机器人定距的表面跟随喷漆方法 | |
Loredo-Flores et al. | Optimization of industrial, vision-based, intuitively generated robot point-allocating tasks using genetic algorithms | |
CN114932537A (zh) | 一种机器人轨迹规划方法及装置 | |
CN109664273B (zh) | 一种工业机器人光标拖动示教方法及系统 | |
CN109531579B (zh) | 机械臂示教方法、装置、系统、介质、控制器及机械臂 | |
CN110561387B (zh) | 工业机器人系统中可旋转工件的测定方法 | |
Pinto et al. | Enhanced performance real-time industrial robot programming by demonstration using stereoscopic vision and an IMU sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |