CN106094575B - 一种机器人运输虚拟可视化控制方法及系统 - Google Patents
一种机器人运输虚拟可视化控制方法及系统 Download PDFInfo
- Publication number
- CN106094575B CN106094575B CN201610743319.2A CN201610743319A CN106094575B CN 106094575 B CN106094575 B CN 106094575B CN 201610743319 A CN201610743319 A CN 201610743319A CN 106094575 B CN106094575 B CN 106094575B
- Authority
- CN
- China
- Prior art keywords
- robot
- 3dcreate
- visual
- information
- hardware
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B17/00—Systems involving the use of models or simulators of said systems
- G05B17/02—Systems involving the use of models or simulators of said systems electric
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人运输虚拟可视化控制方法及系统,运用Solidworks对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate中;通过3DCreate平台中的Python API编程进行可视化仿真参数定义;将机器人以及仿真环境中部件的运动状态信息发送至可视化远程服务器;对收到的信息进行过滤和匹配,将过滤和匹配后的信息利用3DCreate的COM API加载给3DCreate可视化环境中的对应三维模型上,驱动各个三维模型同步显示。通过对信息的过滤和匹配,滤去了大量的与可视化无关的硬件指令信息,将可视化仿真中的信息处理速度得到了质的提升,准确将机器人动作进行可视化仿真。
Description
技术领域
本发明涉及一种机器人运输虚拟可视化控制方法及系统。
背景技术
近年来,机器人被大量应用于各类室内环境,用于实现各类运输任务。例如,KUKA工业机器人被用于汽车制造中实现喷漆、切割等运动;日本各类仿生机器人被用于学校、博物馆和大型超市等场合实现导购、引导等任务;各类服务机器人用于家庭室内执行各种家务活;医用机器人用于精密手术、废料运输或机器人护理等工作。在进行实际的机器人控制流程开发前,如果能够对拟应用的机器人及对应的各类复杂运动进行高逼真度的实时可视化仿真,不仅能有效地降低前期的开发成本,而且能够避免在实际硬件开发中可能出现的各类开发缺陷。
对机器人的各类实时运动实现高质量的可视化自身也一直是研发现代机器人的核心技术之一。截至目前为止,没有任何一个控制系统能够将软件的三维高逼真可视化功能与实际的机器人实时硬件动作融合起来,做到实时同步的、软硬件相结合的三维可视化效果。例如,Solidworks软件虽然三维造型功能强大,但只能进行简单的机构运动仿真,无法自动读取和融合仿真对象的硬件信息实现软硬件信息共享的三维可视化。Pro/E、UG等其他三维造型软件也有这个问题。反之,3DCreate软件虽能快速地定义机器人已建三维模型的关节自由度和三维环境或模型的运动轨迹,但它不具有三维建模功能,而且也无法读取可视化对象的硬件信息融入到机器人三维模型中。诸如Unity3D等虚拟可视化软件也都有这个问题。
因此,为实现软硬件相结合的、实时的、高逼真的机器人运输行为的可视化功能,需要发明一种同时具备机器人三维模型建模、机器人硬件信息读取和三维模型软件虚拟可视化功能的控制方法与系统。
发明内容
本发明提供了一种机器人运输虚拟可视化控制方法及系统,其目的在于,克服现有技术中机器人运输过程中无法进行同步可视化仿真的问题。
一种机器人运输虚拟可视化控制方法,包括以下步骤:
步骤1:运用Solidworks对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate中;
采用Solidworks建立三维模型的原因是它所生产的三维文件能够方便地导入到3DCreate实时仿真平台。Solidworks与3DCreate之间的模型接口文件的定义格式为STL。
步骤2:对步骤1导入3DCreate中的三维模型,通过3DCreate平台中的Python API编程进行可视化仿真参数定义;
所述三维模型的可视化仿真参数包括机器人各部件关节的运动自由度、旋转速度,仿真环境中人体行走速度、人体各部位的运动参数、与机器人接触的部件的运动参数以及机器人和人体的可运动轨迹;
仿真环境中与机器人接触的部件上设置有网络通信模块;
即每个部件均有IP地址和独立的端口号,通过网络通信,Kinect可以获得其视野范围内各部件的动作状态信息;
步骤3:当机器人执行硬件动作指令时,利用无线通信将机器人的硬件动作指令同步发送至可视化远程服务器;
同时,将机器人上的Kinect采集的基于Kinect传感器测量的仿真环境中人和部件的实时动作信息通过无线通信发送至可视化远程服务器;
步骤4:可视化远程服务器对步骤3接收到的信息进行过滤和匹配,将过滤和匹配后的信息利用3DCreate的COM API加载给3DCreate可视化环境中的对应三维模型上,驱动各个三维模型同步显示。
所述步骤4中可视化远程服务器对步骤3接收到的信息进行过滤是指只保留机器人的手臂抓放操作、头部旋转操作和机器人整体前后左右运动操作指令,以及仿真环境中与机器人发生接触的部件的动作指令。
所述步骤4中可视化远程服务器对步骤3接收到的信息进行匹配是指将过滤后的指令按照执行指令的硬件名称匹配至对应的硬件上。
通过在3DCreate中利用Python API设置一个可视化时间控制器,判断机器人模型是否完成了对应步骤的机器人运动可视化操作。
一种机器人运输虚拟可视化控制系统,包括通信模块、可视化远程服务器、3DCreate软件模块和Solidworks软件模块;
机器人车载控制器与可视化远程服务器之间通过通信模块进行通信连接;
机器人车载控制器通过通信模块读取机器人以及与机器人接触的部件的运动状态信息;
利用Solidworks软件模块对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate软件模块中;
采用上述的方法,对可视化远程服务器获取的信息进行同步可视化显示。
采用基于无线网桥的无线通讯网络模块作为通信模块。
相比于基于普通无线路由器构建的WIFI无线通讯网络,基于无线网桥的无线通讯网络可 以覆盖更广的范围,而且其网络稳定性更好。通过利用无线网桥,即使在长距离的数据传输情况下,机器人车载笔记本仍然能够实时地将机器人的动作控制指令传输到可视化远程服务器。
虽然现有的3DCreate软件中并没有针对机器人运输虚拟可视化的模型库或是类库,即使3DCreate软件有部分机器人的封装模型,但种类非常有限,而且这些机器人的运动非常简单。为了保证可视化控制系统能够覆盖任何一种机器人,不管是移动机器人或是桌面机器人。本发明所述的控制方法,通过获取硬件机器人的物理参数尺寸,利用SolidWorks建立这些机器人的三维模型,导入到3DCreate软件中,根据机器人在硬件中运动的指令对三维模型的某几个部分(点、线和面)通过Python编程合并到一起,然后对合并后的三维模型的部件定义直线或旋转运动轨迹,并赋予每个对象和每个对象所包含的动作以唯一的关键字名称,从而完成可视化仿真;相对于现有的3DCreate软件仅仅提供了最基础的点、线和面对象实现移动或旋转等简单操作的指令,付出了大量的创造性劳动才能获得。
有益效果
本发明提供了一种机器人运输虚拟可视化控制方法及系统,运用Solidworks对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate中;通过3DCreate平台中的Python API编程进行可视化仿真参数定义;利用无线通信将机器人以及仿真环境中部件的运动状态信息发送至可视化远程服务器;可视化远程服务器对收到的信息进行过滤和匹配,将过滤和匹配后的信息利用3DCreate的COM API加载给3DCreate可视化环境中的对应三维模型上,驱动各个三维模型同步显示。通过对信息的过滤和匹配,滤去了大量的与可视化无关的硬件指令信息,将可视化仿真中的信息处理速度得到了质的提升,而且准确将机器人动作进行可视化仿真。整个控制系统结构简答,操作方便,为机器人仿真实验带来了革命性的改变。
附图说明
图1为本发明所述方法的流程示意图;
图2为本发明所述控制系统的结构示意图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明。
对一般的可视化系统而言,仅仅在软件上面实现了可视化仿真。一般只能用于宣传,没有实际的功能。而在机器人运输领域中,设计人员在设计各类复杂的机器人运输方案的时候非常希望能够有一个平台不仅仅对各个机器人的独立动作进行可视化仿真,更希望的是能够对整个机器人运输的效果进行可视化仿真。比如看看机器人完成全部的多楼层运输任务需要多次时间,当机器人采用一定速度运行的时候会不会跟前方来的人撞在一起,等等。为了实现这种真实的可视化仿真,就需要实时读取被可视化对象的实际硬件参数,来驱动各类已经建好的是三维模型。
如图1所示,一种机器人运输虚拟可视化控制方法,包括以下步骤:
步骤1:运用Solidworks对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate中;
采用Solidworks建立三维模型的原因是它所生产的三维文件能够方便地导入到3DCreate实时仿真平台。Solidworks与3DCreate之间的模型接口文件的定义格式为STL。
步骤2:对步骤1导入3DCreate中的三维模型,通过3DCreate平台中的Python API编程进行可视化仿真参数定义;
所述三维模型的可视化仿真参数包括机器人各部件关节的运动自由度、旋转速度,仿真环境中人体行走速度、人体各部位的运动参数、与机器人接触的部件的运动参数以及机器人和人体的可运动轨迹;
仿真环境中与机器人接触的部件上设置有网络通信模块;
即每个部件均有IP地址和独立的端口号,通过网络通信,Kinect可以获得其视野范围内各部件的动作状态信息;
(1)因为Solidworks只能实现三维造型,所以在3DCreate中需要对全部机器人的三维模型定义全部的自由度参数。目的是正确地描述机器人各组成部分之间的相对运动关系。比如定义机器人模型轮对的运动自由度,定义机器人模型的手臂各关节的运动自由度。
(2)当完成机器人各关节的自由度参数定义后,在3DCreate中对机器人全部关节的耦合正向/反向动力学方程进行求解。由于在3DCreate中无法直接定义机器人的运行速度,因此通过定义机器人各关节的旋转速度来替代机器人的运行速度。
(3)在3DCreate中,当机器人拥有各个关节的自由度参数和完成全部的动力学求解后,机器人就拥有了约束条件下的各类动作行为能力(包括手臂抓着和轮对移动)。对包括机器人三维模型在内的全部三维模型进一步定义可执行运动轨迹。
(4)在3DCreate中,除了定义机器人的全部运动参数外,对人体三维模型定义动作参数,包括人体三维模型的行走速度和人体三维模型各个部位的运动参数;再者,定义运输环 境的直线或曲线运动参数;
步骤3:当机器人执行硬件动作指令时,利用无线通信将机器人的硬件动作指令同步发送至可视化远程服务器;
同时,将机器人上的Kinect采集的基于Kinect传感器测量的仿真环境中人和部件的实时动作信息通过无线通信发送至可视化远程服务器;
步骤4:可视化远程服务器对步骤3接收到的信息进行过滤和匹配,将过滤和匹配后的信息利用3DCreate的COM API加载给3DCreate可视化环境中的对应三维模型上,驱动各个三维模型同步显示。
所述步骤4中可视化远程服务器对步骤3接收到的信息进行过滤是指只保留机器人的手臂抓放操作、头部旋转操作和机器人整体前后左右运动操作指令,以及仿真环境中与机器人发生接触的部件的动作指令。
所述步骤4中可视化远程服务器对步骤3接收到的信息进行匹配是指将过滤后的指令按照执行指令的硬件名称匹配至对应的硬件上。
在本实例中,移动机器人的硬件动作关键字定位为:移动机器人手臂抓动作“GRASP”,移动机器人手臂放动作“PLACE”,移动机器人头部旋转动作“ROTATE”和移动机器人前后左右运动动作“MOVE”。
跟移动机器人定义硬件动作关键字的思路一样,桌面机器人根据桌面运输活动所定义的硬件动作关键字为:桌面机器人手臂抓动作“GET”,桌面机器人手臂放动作“PUT”,桌面机器人沿着导轨的点对点运动“TRANSPORT”。
机器人运输环境中的其他设备和对象的绝大多数的硬件控制指令可以忽略,只对其中涉及到与机器人运输任务相关的硬件控制指令实现可视化操作。在本专利中,只对机器人运输环境中的门和实现直线运动的设备的硬件控制指令进行抽取和可视化。具体包括:门的打开动作“OPEN”,门的关闭动作“CLOSE”,设备对象的直线移动“SHIFT”。涉及到跟机器人运输任务相关的人的硬件动作关键字无非就是人的前后左右运动、人的手臂活动和人的头部活动。人的硬件活动通过机器人车载安装的Kinect进行实时捕捉。基于Kinect人体骨骼类库,可以很方便就可以把人的上述四类硬件动作提取出来。人的硬件动作关键字定义为:人的前后左右运动“GO”,人的手臂活动“ARM”,人的头部活动“HEAD”。
除了包含上述硬件动作关键字的硬件控制指令信息都将被自动滤掉。按照动作关键字过滤后的剩下的硬件控制指令(保留时间参数)将被保存到MySQL数据库的“硬件动作表”中。
至于对硬件对象关键字的定义,取决于每次本可视化系统所模拟的对象硬件系统。硬件对象关键字包括移动机器人的名称、桌面机器人的名称、机器人运输环境所包括的门的名称/ 房间号以及环境中实现直线运动的设备的名称。比如,针对某个可视化硬件对象,对硬件指令参数过滤模型给予定义的硬件对象关键字为“M30(移动机器人名称),MOTOMAN(桌面机器人名称),R231(房间号),BIOMEKFX(机器人运输背景中进行直线运动的设备名称),LABWARE(机器人运输背景中进行直线运动的设备名称),等等”。即除了包含上述硬件对象关键字的硬件控制指令信息也都将被自动过滤。按照对象关键字过滤后的剩下的硬件控制指令(保留时间参数)将被保存到MySQL数据库的“硬件对象表”中。
通过在3DCreate中利用Python API设置一个可视化时间控制器,判断机器人模型是否完成了对应步骤的机器人运动可视化操作。
通过机器人、仿真环境的参数定义,可以从快速从众多三维模型中找到跟硬件对应的软件模型。然而,除了找到三维模型,还需要驱动这些某些完成跟硬件动作一致的诸如旋转、移动等模型动作。而这些动作仅仅通过模型动作表中的名称是不够的,需要更加具体的内容。比如说要某移动机器人模型1进行MOVE,那么这个MOVE是从哪个点到哪个点,是哪个方向的移动,还有MOVE多快的速度,这些参数都会提前保存在模型动作表中的保存“MOVE”关键字的后面一栏中。这样,当硬件系统根据时间,在某一时刻执行了某个硬件动作,经过过滤,只要把机器人模型1的名称和MOVE这个关键字发给控制系统即可,控制系统就去找对应模型对象表和模型动作表,然后读取模型动作表中的MOVE这个动作关键字,然后读取它后面那一栏的具体参数指标。
如图2所示,一种机器人运输虚拟可视化控制系统,包括通信模块、可视化远程服务器、3DCreate软件模块和Solidworks软件模块;
机器人车载控制器与可视化远程服务器之间通过通信模块进行通信连接;
机器人车载控制器通过通信模块读取机器人以及与机器人接触的部件的运动状态信息;
利用Solidworks软件模块对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate软件模块中;
采用上述的方法,对可视化远程服务器获取的信息进行同步可视化显示。
采用基于无线网桥的无线通讯网络模块作为通信模块。
相比于基于普通无线路由器构建的WIFI无线通讯网络,基于无线网桥的无线通讯网络可以覆盖更广的范围,而且其网络稳定性更好。通过利用无线网桥,即使在长距离的数据传输情况下,机器人车载笔记本仍然能够实时地将机器人的动作控制指令传输到可视化远程服务器。
虽然现有的3DCreate软件中并没有针对机器人运输虚拟可视化的模型库或是类库,即使3DCreate软件有部分机器人的封装模型,但种类非常有限,而且这些机器人的运动非常简单。 为了保证可视化控制系统能够覆盖任何一种机器人,不管是移动机器人或是桌面机器人。本发明所述的控制方法,通过获取硬件机器人的物理参数尺寸,利用SolidWorks建立这些机器人的三维模型,导入到3DCreate软件中,根据机器人在硬件中运动的指令对三维模型的某几个部分(点、线和面)通过Python编程合并到一起,然后对合并后的三维模型的部件定义直线或旋转运动轨迹,并赋予每个对象和每个对象所包含的动作以唯一的关键字名称,从而完成可视化仿真;相对于现有的3DCreate软件仅仅提供了最基础的点、线和面对象实现移动或旋转等简单操作的指令,付出了大量的创造性劳动才能获得。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种机器人运输虚拟可视化控制方法,其特征在于,包括以下步骤:
步骤1:运用Solidworks对机器人及所在的仿真环境建立三维模型,并将建立的三维模型导入3DCreate中;
步骤2:对步骤1导入3DCreate中的三维模型,通过3DCreate平台中的Python API编程进行可视化仿真参数定义;
所述三维模型的可视化仿真参数包括机器人各部件关节的运动自由度、旋转速度,仿真环境中人体行走速度、人体各部位的运动参数、与机器人接触的部件的运动参数以及机器人和人体的可运动轨迹;
仿真环境中与机器人接触的部件上设置有网络通信模块,通过网络通信,Kinect可以获得其视野范围内各部件的动作状态信息;
步骤3:当机器人执行硬件动作指令时,利用无线通信将机器人的硬件动作指令同步发送至可视化远程服务器;
同时,将机器人上的Kinect采集的基于Kinect传感器测量的仿真环境中人和部件的实时动作信息通过无线通信发送至可视化远程服务器;
步骤4:可视化远程服务器对步骤3接收到的信息进行过滤和匹配,将过滤和匹配后的信息利用3DCreate的COM API加载给3DCreate可视化环境中的对应三维模型上,驱动各个三维模型同步显示。
2.根据权利要求1所述的方法,其特征在于,所述步骤4中可视化远程服务器对步骤3接收到的信息进行过滤是指只保留机器人的手臂抓放操作、头部旋转操作和机器人整体前后左右运动操作指令,以及仿真环境中与机器人发生接触的部件的动作指令。
3.根据权利要求2所述的方法,其特征在于,所述步骤4中可视化远程服务器对步骤3接收到的信息进行匹配是指将过滤后的指令按照执行指令的硬件名称匹配至对应的硬件上。
4.根据权利要求1-3任一项所述的方法,其特征在于,通过在3DCreate中利用PythonAPI设置一个可视化时间控制器,判断机器人模型是否完成了对应步骤的机器人运动可视化操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610743319.2A CN106094575B (zh) | 2016-08-26 | 2016-08-26 | 一种机器人运输虚拟可视化控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610743319.2A CN106094575B (zh) | 2016-08-26 | 2016-08-26 | 一种机器人运输虚拟可视化控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106094575A CN106094575A (zh) | 2016-11-09 |
CN106094575B true CN106094575B (zh) | 2017-05-17 |
Family
ID=57223823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610743319.2A Active CN106094575B (zh) | 2016-08-26 | 2016-08-26 | 一种机器人运输虚拟可视化控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106094575B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110045740A (zh) * | 2019-05-15 | 2019-07-23 | 长春师范大学 | 一种基于人类行为模拟的移动机器人实时运动规划方法 |
CN114035447B (zh) * | 2021-10-20 | 2022-05-31 | 华南师范大学 | 用于中小学人工智能教育图形化编程软件的硬件仿真器 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04269185A (ja) * | 1991-02-20 | 1992-09-25 | Fujitsu Ltd | ロボットの遠隔制御装置 |
CN104007664A (zh) * | 2014-05-20 | 2014-08-27 | 中科华核电技术研究院有限公司 | 一种核电站爬壁机器人三维视景仿真模拟运动方法 |
CN105319991A (zh) * | 2015-11-25 | 2016-02-10 | 哈尔滨工业大学 | 一种基于Kinect视觉信息的机器人环境识别与作业控制方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9910935B2 (en) * | 2013-10-11 | 2018-03-06 | Advanced Solutions Life Sciences, Llc | System and workstation for the design, fabrication and assembly of bio-material constructs |
-
2016
- 2016-08-26 CN CN201610743319.2A patent/CN106094575B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04269185A (ja) * | 1991-02-20 | 1992-09-25 | Fujitsu Ltd | ロボットの遠隔制御装置 |
CN104007664A (zh) * | 2014-05-20 | 2014-08-27 | 中科华核电技术研究院有限公司 | 一种核电站爬壁机器人三维视景仿真模拟运动方法 |
CN105319991A (zh) * | 2015-11-25 | 2016-02-10 | 哈尔滨工业大学 | 一种基于Kinect视觉信息的机器人环境识别与作业控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106094575A (zh) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220009100A1 (en) | Software Interface for Authoring Robotic Manufacturing Process | |
US11409260B2 (en) | Runtime controller for robotic manufacturing system | |
CN107671857B (zh) | 用于服务机器人操作演示与算法验证的三维仿真平台 | |
CN108568818B (zh) | 机器人的控制系统和方法 | |
CN107220099A (zh) | 一种基于三维模型的机器人可视化虚拟示教系统及方法 | |
CN110389656A (zh) | 由用户借助移动显示装置使用多节式致动运动机构的方法 | |
US20160176051A1 (en) | Systems and Methods for Instructing Robotic Operation | |
CN109262609A (zh) | 基于虚拟现实技术的机械臂远程控制系统及方法 | |
CN107885336A (zh) | 映射真实生产情况的虚拟车间模型与信息融合显示方法 | |
CN109064820A (zh) | 一种智能制造综合实训系统 | |
CN105551334A (zh) | 贴片机仿真教学系统及教学方法 | |
CN107577159A (zh) | 扩增实境仿真系统 | |
EP3974920A1 (en) | Unifying multiple simulation models | |
CN106094575B (zh) | 一种机器人运输虚拟可视化控制方法及系统 | |
US20030090490A1 (en) | Simulation device | |
CN109388096A (zh) | 信息处理装置及方法及非易失性的计算机可读记录介质 | |
Gogouvitis et al. | Construction of a virtual reality environment for robotic manufacturing cells | |
Zivanovic et al. | Configuring a mini-laboratory and desktop 3-axis parallel kinematic milling machine | |
CN106087262A (zh) | 机器人缝纫系统及其操作方法和系统的研发方法 | |
Pedersen et al. | Using human gestures and generic skills to instruct a mobile robot arm in a feeder filling scenario | |
CN111113426A (zh) | 一种基于cad平台的机器人离线编程系统 | |
US10719070B2 (en) | System and method for modeling signal flows in automation technology equipment | |
Dede et al. | Virtual rapid robot prototyping | |
García-Sedano et al. | Stamping line optimization using genetic algorithms and virtual 3d line simulation | |
Vosniakos et al. | Streamlining virtual manufacturing cell modelling by behaviour modules |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |