CN112847301B - 基于便携终端的机器人增强现实示教编程方法 - Google Patents

基于便携终端的机器人增强现实示教编程方法 Download PDF

Info

Publication number
CN112847301B
CN112847301B CN202011519955.XA CN202011519955A CN112847301B CN 112847301 B CN112847301 B CN 112847301B CN 202011519955 A CN202011519955 A CN 202011519955A CN 112847301 B CN112847301 B CN 112847301B
Authority
CN
China
Prior art keywords
robot
data
virtual
input terminal
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011519955.XA
Other languages
English (en)
Other versions
CN112847301A (zh
Inventor
范业鹏
迟玉森
李钰坤
张凌峰
陈文博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tengzhou Huashu Intelligent Manufacturing Research Institute
Shandong Huashu Intelligent Technology Co ltd
Original Assignee
Tengzhou Huashu Intelligent Manufacturing Research Institute
Shandong Huashu Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tengzhou Huashu Intelligent Manufacturing Research Institute, Shandong Huashu Intelligent Technology Co ltd filed Critical Tengzhou Huashu Intelligent Manufacturing Research Institute
Priority to CN202011519955.XA priority Critical patent/CN112847301B/zh
Publication of CN112847301A publication Critical patent/CN112847301A/zh
Application granted granted Critical
Publication of CN112847301B publication Critical patent/CN112847301B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

本发明属于工业机器人领域,公开了一种基于便携终端的机器人增强现实示教编程方法,包括以下步骤:搭建并训练AR误差预测与补偿模型、A数据采集和数据处理、数据差预测补偿、驱动虚拟机器人数字样机模型运动、驱动真实机器人运动等步骤。本发明降低了编程门槛,提高了编程的直观性,突破了由于安装辅助定位跟踪摄像机的位置束缚,降低了编程成本,提高了编程效率。本发明适用于机器人示教。

Description

基于便携终端的机器人增强现实示教编程方法
技术领域
本发明属于工业机器人领域,涉及增强现实技术,具体地说是一种基于便携终端的机器人增强现实示教编程方法。
背景技术
机器人是集机械、电子、控制、传感、人工智能等多学科先进技术于一体的自动化装备。自1956年机器人产业诞生后,经过近60年发展,机器人已经被广泛应用在装备制造、新材料、生物医药、智慧新能源等高新产业。机器人与人工智能技术、先进制造技术和移动互联网技术的融合发展,推动了人类社会生活方式的变革。
机器人示教的目的是为了获得机器人完成作业所需的位姿,其示教方法可分为在线示教和离线示教。传统的在线示教编程方式只适用于简单的机器人系统以及简单的任务,编程过程不直观,操作繁琐,编程效率低,对于复杂轨迹编程需求力不从心;离线编程需要的技术程度较高、编程开销大且需要精细的生产现场3D模型严重限制了其在中小型企业中的生产应用。目前,数字化技术融合成为机器人发展的一个重要方向,它为机器人编程方式注入了新的活力。数字化技术中的增强现实技术将虚拟环境信息与实际环境交互覆盖,它可以将虚拟机器人数字样机叠加至现实空间中进行虚拟运动,并且可以通过增强现实技术将机器人运动的轨迹直接地在三维现实空间中进行显示,使得用户直观地与空间信息进行交互,因此,探索利用增强现实技术来改进目前的机器人编程方式,对于提高机器人编程效率,降低机器人编程的技术门槛,提高机器人编程直观性以及进一步推进工业机器人在智能制造中的广泛应用具有重要的工程和科研价值。
目前,基于增强现实进行机器人示教编程的方法多采用Vuforia增强现实框架搭建增强系统,且多采用专业的多个运动摄像机对现实中物体进行动态跟踪定位,其增强现实框架受支持该框架的设备终端平台的限制,且其适用空间容易受到用于跟踪定位的摄像机的安装位置限制,再者运动相机及辅助显示设备,如HoloLens,成本高昂,因此,难以广泛应用。
发明内容
本发明的目的,是要提供一种基于便携终端的机器人增强现实示教编程方法,以降低变编程成本,提高编程效率。
本发明为实现上述目的,所采用的技术方法如下:
一种基于便携终端的机器人增强现实示教编程方法,包括以下步骤:
S1、搭建并训练AR误差预测与补偿模型;
S2、利用AR手持式输入终端进行轨迹示教,对机器人的运动轨迹进行规划,采集AR手持式输入终端中示教的轨迹数据和机器人末端执行器的位置姿态数据,进行数据处理,并发送至训练好的AR误差预测与补偿模型;
S3、训练好的AR误差预测与补偿模型对采AR手持式输入终端中示教的轨迹数据进行误差预测补偿,生成优化轨迹数据;
S4、将优化轨迹数据通过机器人运动学正反解求解得出机器人各关节数据,驱动虚拟机器人数字样机模型运动;
S5、在AR手持式输入终端观察虚拟机器人数字样机模型叠加进真实环境中的虚拟运动,验证其虚拟运动的轨迹,当虚拟机器人数字样机模型的虚拟运动到达指定位置后,验证通过,则将虚拟机器人数字样机模型已经验证好的轨迹数据解析生成的代码,驱动真实机器人运动。
作为限定:步骤S1中,AR误差预测与补偿模型采用三层BP神经网络模型,包括输入层、输出层和隐含层,训练过程为:
1)将AR识别码贴在真实物理空间的特定位置;
2)将AR手持式输入终端绑定在机器人末端执行器上,AR手持式输入终端扫描出AR识别码进行增强现实系统的注册,计算虚拟空间坐标系与真实物理空间坐标系之间的虚实变换关系;
3)运行预先设置好的机器人控制程序,机器人与绑定在机器人末端执行器上的AR手持式输入终端同步运动;
4)采集机器人末端执行器的位置姿态数据和AR手持式输入终端采集自身在虚拟空间中所对应的位置,上传至数据孪生聚合服务器进行数据平滑处理,消除数据误差。
作为进一步限定:步骤S1的2)中,虚拟空间坐标系与真实物理空间坐标系之间的虚实变换关系的计算公式为:Probot=A*Pvirtual,其中,Probot为AR识别码贴在真实物理空间的特定位置,Pvirtual为AR手持式输入终端传回的虚拟空间中AR识别码的虚拟空间位置,A为真实物理空间坐标系和虚拟空间坐标系的转换关系值。
作为再进一步限定:步骤S1的4)中,机器人末端执行器的位置姿态数据的采集为通过机器人的二次开发接口直接读取;S1的4)中,数据平滑处理采用的方法为滑动平均法,具体计算步骤为:采集的机器人末端执行器的位置姿态数据带有噪声,取末端执行器的位置姿态的x坐标值作为分析对象,即
Ti=xi+ei
上式中,Ti为真实值,xi为观测值,ei为噪声;
将相邻时刻的观测值进行相加后平均,得到:
Figure BDA0002849177570000031
上式中,pt为t时刻的滤波结果,n表示滑动窗口半径大小;
根据上述两式可得:
Figure BDA0002849177570000032
Figure BDA0002849177570000041
为0,噪声影响减少的效果好;对于机器人来说,将机器人的位置姿态在一段时间内视之位平稳的,取每m个相邻数据的平均值,来表示该m个数据中任意一个的取值,并视其为消除了噪声的信号,m取值为5,得到其滑动平均法公式为:
Figure BDA0002849177570000042
作为另一种限定:步骤S2中,其示教方法为:操作员手持AR手持式输入终端扫描特定位置处的AR识别码,并记录下AR识别码在虚拟空间中的位置;机器人末端执行器的位置姿态数据的采集方法基于ARkit框架,采用视觉惯性测距对末端执行器进行动态跟踪;采集数据的数据处理为通过数据孪生聚合服务器转换成真实物理空间坐标系的数据。
作为再一种限定:步骤S4中,优化轨迹数据先进行三次样条平滑插值处理,再进行密化处理,之后再通过机器人运动学正反解求解得出机器人各关节数据,驱动虚拟机器人数字样机运动。
作为进一步限定:步骤S4中,虚拟机器人数字样机模型的搭建过程为:通过Solidworks建立.stp格式三维模型,然后在3dMax中对机器人的表面进行简化,并转化为.fbx格式,最后将生成的.fbx格式模型导入Unity 3D中进行模型渲染及关节构建。
作为最后一种限定:AR手持式输入终端为IOS终端设备。
本发明由于采用了上述方案,与现有技术相比,所取得的有益效果是:
(1)本发明提供的基于便携终端的机器人增强现实示教编程方法,采用手持式的支持增强现实功能的智能终端设备作为机器人位置姿态的AR手持式输入终端,用AR手持式输入终端代替机器人示教器进行轨迹规划工作,降低了编程门槛,提高了编程效率;
(2)本发明提供的基于便携终端的机器人增强现实示教编程方法,通过ARKit框架对物体动态跟踪,不需运动相机辅助定位跟踪即可对机器人进行示教工作,并将虚拟的机器人叠加进现实中对轨迹进行验证,提高了编程的直观性,突破了由于安装辅助定位跟踪摄像机的位置束缚,降低了编程成本,提高了编程效率;
综上所述,本发明提供的基于便携终端的机器人增强现实示教编程方法,降低了编程门槛,提高了编程的直观性,突破了由于安装辅助定位跟踪摄像机的位置束缚,降低了编程成本,提高了编程效率。
本发明适用于机器人示教。
附图说明
下面结合附图及具体实施例对本发明作更进一步详细说明。
图1为本发明实施例的流程图;
图2为本发明实施例的AR识别码。
具体实施方式
下面结合实施例对本发明作进一步说明,但本领域的技术人员应当理解,本发明并不限于以下实施例,任何在本发明具体实施例基础上做出的改进和等效变化,都在本发明权利要求保护的范围之内。
实施例基于便携终端的机器人增强现实示教编程方法
一种基于便携终端的机器人增强现实示教编程方法,其流程图如图1所示,包括以下步骤:
S1、搭建并训练AR误差预测与补偿模型,AR误差预测与补偿模型采用三层BP神经网络模型,包括输入层、输出层和隐含层,输入层和输出层节点数量均取6,隐含层节点数量取10,初始权值在(-1,1)内选取,阈值在(-1,1)内选取,学习率取0.8,训练过程为:
1)将如图2所示的AR识别码贴在真实物理空间的特定位置记为Probot;
2)将AR手持式输入终端绑定在机器人末端执行器上,打开AR手持式输入终端中的机器人AR编程软件,AR手持式输入终端扫描出AR识别码进行增强现实系统的注册,AR手持式输入终端在扫描识别出AR识别码之后就建立了虚拟空间坐标系与真实物理空间坐标系之间转换关系从而完成增强现实系统的注册过程,并且自动实时动态地计算虚拟空间中虚拟物体的位置姿态实现跟踪过程,在完成注册过程时,记录下AR手持式输入终端传回的虚拟空间中AR识别码的虚拟空间位置,记作Pvirtual,AR识别码在真实物理空间坐标系的位置以及虚拟空间坐标系中间的位置已知,则虚拟空间坐标系与真实物理空间坐标系之间的虚实变换关系的计算公式为:Probot=A*Pvirtual,其中,Probot为AR识别码贴在真实物理空间的特定位置,Pvirtual为AR手持式输入终端传回的虚拟空间中AR识别码的虚拟空间位置,A为真实物理空间坐标系和虚拟空间坐标系的转换关系值;
3)运行预先设置好的机器人控制程序,机器人与绑定在机器人末端执行器上的AR手持式输入终端同步运动;
4)通过机器人的二次开发接口直接读取机器人末端执行器的位置姿态数据和AR手持式输入终端采集自身在虚拟空间中所对应的位置,上传至数据孪生聚合服务器进行数据平滑处理,消除数据误差,数据平滑处理采用的方法为滑动平均法,具体计算步骤为:采集的机器人末端执行器的位置姿态数据带有噪声,取末端执行器的位置姿态的x坐标值作为分析对象,即
Ti=xi+ei
上式中,Ti为真实值,xi为观测值,ei为噪声;
将相邻时刻的观测值进行相加后平均,得到:
Figure BDA0002849177570000061
上式中,pt为t时刻的滤波结果,n表示滑动窗口半径大小;
根据上述两式可得:
Figure BDA0002849177570000071
Figure BDA0002849177570000072
为0,即噪声e的均值小时,噪声影响减少的效果越好;对于机器人来说,将机器人的位置姿态在一段时间内视之位平稳的,取每m个相邻数据的平均值,来表示该m个数据中任意一个的取值,并视其为消除了噪声的信号,m取值为5,得到其滑动平均法公式为:
Figure BDA0002849177570000073
S2、利用AR手持式输入终端进行轨迹示教,对机器人的运动轨迹进行规划,其示教方法为:操作员手持AR手持式输入终端扫描特定位置处的AR识别码,并记录下AR识别码在虚拟空间中的位置;采集AR手持式输入终端中示教的轨迹数据,基于ARkit框架,采用视觉惯性测距对末端执行器进行动态跟踪识别场景图像过程中将从视频的每一帧中追踪特征位置的差异,完成末端执行器六自由度运动姿态的检测跟踪;由于AR手持式输入终端示教时AR识别码在虚拟空间中的位置与AR误差预测与补偿模型训练时AR识别码在虚拟空间中的位置不一致,真实物理空间坐标系中的AR识别码的位置固定,根据虚实空间变换,可以计算得出示教时机器人笛卡尔坐标系与增强现实虚拟空间之间的齐次转换关系,采集的数据通过数据孪生聚合服务器转换成真实物理空间坐标系的数据,并发送至训练好的AR误差预测与补偿模型;
S3、训练好的AR误差预测与补偿模型对采AR手持式输入终端中示教的轨迹数据进行误差预测补偿,生成优化轨迹数据;
S4、由于示教完成的数据传进AR误差预测与补偿模型中,生成的轨迹数据是离散的且存在波折的,为了保证机器人的各关节平滑稳定运行,将优化轨迹数据先进行三次样条平滑插值处理,再进行密化处理,之后再通过机器人运动学正反解求解得出机器人各关节数据,驱动虚拟机器人数字样机模型运动,搭建虚拟机器人数字样机模型是为了建立起机器人在虚拟的增强现实空间中的数字化表示,它是将虚拟机器人叠加进现实中进行虚拟运动的模型,虚拟机器人数字样机模型的搭建过程为:通过Solidworks建立.stp格式三维模型,然后在3d Max中对机器人的表面进行简化以减少机器人本身数字模型的内存大小,并转化为.fbx格式,最后将生成的.fbx格式模型导入Unity 3D中进行模型渲染及关节构建。
S5、在AR手持式输入终端观察虚拟机器人数字样机模型叠加进真实环境中的虚拟运动,验证其虚拟运动的轨迹,当虚拟机器人数字样机模型的虚拟运动到达指定位置后,验证通过,则将虚拟机器人数字样机模型已经验证好的轨迹数据解析生成的代码,驱动真实机器人运动。
本实施例中AR手持式输入终端为IOS终端设备。

Claims (7)

1.一种基于便携终端的机器人增强现实示教编程方法,其特征在于,包括以下步骤:
S1、搭建并训练AR误差预测与补偿模型;AR误差预测与补偿模型采用三层BP神经网络模型,包括输入层、输出层和隐含层,训练过程为:
1)将AR识别码贴在真实物理空间的特定位置;
2)将AR手持式输入终端绑定在机器人末端执行器上,AR手持式输入终端扫描出AR识别码进行增强现实系统的注册,计算虚拟空间坐标系与真实物理空间坐标系之间的虚实变换关系;
3)运行预先设置好的机器人控制程序,机器人与绑定在机器人末端执行器上的AR手持式输入终端同步运动;
4)采集机器人末端执行器的位置姿态数据和AR手持式输入终端采集自身在虚拟空间中所对应的位置,上传至数据孪生聚合服务器进行数据平滑处理,消除数据误差;
S2、利用AR手持式输入终端进行轨迹示教,对机器人的运动轨迹进行规划,采集AR手持式输入终端中示教的轨迹数据和机器人末端执行器的位置姿态数据,进行数据处理,并发送至训练好的AR误差预测与补偿模型;
S3、训练好的AR误差预测与补偿模型对AR手持式输入终端中示教的轨迹数据进行误差预测补偿,生成优化轨迹数据;
S4、将优化轨迹数据通过机器人运动学正反解求解得出机器人各关节数据,驱动虚拟机器人数字样机模型运动;
S5、在AR手持式输入终端观察虚拟机器人数字样机模型叠加进真实环境中的虚拟运动,验证其虚拟运动的轨迹,当虚拟机器人数字样机模型的虚拟运动到达指定位置后,验证通过,则将虚拟机器人数字样机模型已经验证好的轨迹数据解析生成的代码,驱动真实机器人运动。
2.根据权利要求1所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,步骤S1的2)中,虚拟空间坐标系与真实物理空间坐标系之间的虚实变换关系的计算公式为:Probot=A*Pvirtual,其中,Probot为AR识别码贴在真实物理空间的特定位置,Pvirtual为AR手持式输入终端传回的虚拟空间中AR识别码的虚拟空间位置,A为真实物理空间坐标系和虚拟空间坐标系的转换关系值。
3.根据权利要求2所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,步骤S1的4)中,机器人末端执行器的位置姿态数据的采集为通过机器人的二次开发接口直接读取;S1的4)中,数据平滑处理采用的方法为滑动平均法,具体计算步骤为:采集的机器人末端执行器的位置姿态数据带有噪声,取末端执行器的位置姿态的x坐标值作为分析对象,即
Ti=xi+ei
上式中,Ti为真实值,xi为观测值,ei为噪声;
将相邻时刻的观测值进行相加后平均,得到:
Figure FDA0004109426560000031
上式中,pt为t时刻的滤波结果,n表示滑动窗口半径大小;
根据上述两式可得:
Figure FDA0004109426560000032
Figure FDA0004109426560000033
为0,噪声影响减少的效果好;对于机器人来说,将机器人的位置姿态在一段时间内视之位平稳的,取每m个相邻数据的平均值,来表示该m个数据中任意一个的取值,并视其为消除了噪声的信号,m取值为5,得到其滑动平均法公式为:
Figure FDA0004109426560000034
4.根据权利要求3所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,步骤S2中,其示教方法为:操作员手持AR手持式输入终端扫描特定位置处的AR识别码,并记录下AR识别码在虚拟空间中的位置;机器人末端执行器的位置姿态数据的采集方法基于ARkit框架,采用视觉惯性测距对末端执行器进行动态跟踪;采集数据的数据处理为通过数据孪生聚合服务器转换成真实物理空间坐标系的数据。
5.根据权利要求4所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,步骤S4中,优化轨迹数据先进行三次样条平滑插值处理,再进行密化处理,之后再通过机器人运动学正反解求解得出机器人各关节数据,驱动虚拟机器人数字样机运动。
6.根据权利要求5所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,步骤S4中,虚拟机器人数字样机模型的搭建过程为:通过Solidworks建立.stp格式三维模型,然后在3d Max中对机器人的表面进行简化,并转化为.fbx格式,最后将生成的.fbx格式模型导入Unity 3D中进行模型渲染及关节构建。
7.根据权利要求1-6中任意一项所述的基于便携终端的机器人增强现实示教编程方法,其特征在于,AR手持式输入终端为IOS终端设备。
CN202011519955.XA 2020-12-21 2020-12-21 基于便携终端的机器人增强现实示教编程方法 Active CN112847301B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011519955.XA CN112847301B (zh) 2020-12-21 2020-12-21 基于便携终端的机器人增强现实示教编程方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011519955.XA CN112847301B (zh) 2020-12-21 2020-12-21 基于便携终端的机器人增强现实示教编程方法

Publications (2)

Publication Number Publication Date
CN112847301A CN112847301A (zh) 2021-05-28
CN112847301B true CN112847301B (zh) 2023-05-19

Family

ID=75997811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011519955.XA Active CN112847301B (zh) 2020-12-21 2020-12-21 基于便携终端的机器人增强现实示教编程方法

Country Status (1)

Country Link
CN (1) CN112847301B (zh)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108481323A (zh) * 2018-03-14 2018-09-04 清华大学天津高端装备研究院洛阳先进制造产业研发基地 基于增强现实的机器人运动轨迹自动编程系统及方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106853638A (zh) * 2016-12-30 2017-06-16 深圳大学 一种基于增强现实的人体生物信号远程控制系统及方法
WO2018165038A1 (en) * 2017-03-06 2018-09-13 Miso Robotics, Inc. Augmented reality-enhanced food preparation system and related methods
CN107351058A (zh) * 2017-06-08 2017-11-17 华南理工大学 基于增强现实的机器人示教方法
CN108161882B (zh) * 2017-12-08 2021-06-08 华南理工大学 一种基于增强现实的机器人示教再现方法及装置
CN108415386A (zh) * 2018-03-12 2018-08-17 范业鹏 用于智能车间的增强现实系统及其工作方法
CN110238831B (zh) * 2019-07-23 2020-09-18 青岛理工大学 基于rgb-d图像及示教器的机器人示教系统及方法
CN111267073B (zh) * 2020-03-24 2022-11-15 青岛理工大学 一种基于增强现实技术的工业机器人示教系统及方法
CN111581832B (zh) * 2020-05-12 2023-01-03 哈尔滨工程大学 一种基于ARMA模型修正的改进灰色Elman神经网络气垫船运动预报方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108481323A (zh) * 2018-03-14 2018-09-04 清华大学天津高端装备研究院洛阳先进制造产业研发基地 基于增强现实的机器人运动轨迹自动编程系统及方法

Also Published As

Publication number Publication date
CN112847301A (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
CN110026987B (zh) 一种机械臂抓取轨迹的生成方法、装置、设备及存储介质
CN110948492B (zh) 一种基于深度学习的三维抓取平台和抓取方法
CN109079794B (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN109571487B (zh) 一种基于视觉的机器人演示学习方法
CN111633644A (zh) 一种结合智能视觉的工业机器人数字孪生系统及其运行方法
CN101574586B (zh) 毽球机器人及控制方法
CN108284436B (zh) 具有模仿学习机制的远程机械双臂系统及方法
CN112917516B (zh) 用于自主装配机器人的知识学习与推理执行系统
CN104647388A (zh) 基于机器视觉的工业机器人智能控制方法及系统
WO2020110505A1 (ja) 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム
CN110223382B (zh) 基于深度学习的单帧图像自由视点三维模型重建方法
CN112207835B (zh) 一种基于示教学习实现双臂协同作业任务的方法
CN112454333B (zh) 基于图像分割及表面肌电信号的机器人示教系统及方法
Huang et al. A case study of cyber-physical system design: Autonomous pick-and-place robot
CN111813126A (zh) 一种基于神经网络的智能避障控制系统及其方法
CN113219926A (zh) 基于数字孪生系统的人机共融制造单元安全风险评估方法
CN109227524A (zh) 一种无动力臂多关节仿形示教机器人及示教方法
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
CN112847301B (zh) 基于便携终端的机器人增强现实示教编程方法
CN108340352A (zh) 基于示教关节臂的工业机器人远程实时操控方法
CN113894779B (zh) 一种应用于机器人交互的多模态数据处理方法
CN114683251A (zh) 机器人抓取方法、装置、电子设备及可读取存储介质
Zhao Multifeature video modularized arm movement algorithm evaluation and simulation
Lei et al. Multi-stage 3d pose estimation method of robot arm based on RGB image
Batra et al. Real-Time Object Detection and Localization for Vision-Based Robot Manipulator

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant