CN108972593A - 一种工业机器人系统下的控制方法及系统 - Google Patents
一种工业机器人系统下的控制方法及系统 Download PDFInfo
- Publication number
- CN108972593A CN108972593A CN201811050532.0A CN201811050532A CN108972593A CN 108972593 A CN108972593 A CN 108972593A CN 201811050532 A CN201811050532 A CN 201811050532A CN 108972593 A CN108972593 A CN 108972593A
- Authority
- CN
- China
- Prior art keywords
- industrial robot
- control system
- control
- key frame
- plc module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种工业机器人系统下的控制方法及系统,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接。通过本发明实施例基于PLC模块快速向触摸屏反馈关键帧图像内容,从而可针对工业机器人上实现针对性的误差分析,将这些差异化图像存储在控制系统作为样本库,为后续分析提供了素材来源。
Description
技术领域
本发明涉及机器人技术领域,具体涉及一种工业机器人系统下的控制方法及系统。
背景技术
随着机器人技术的不断发展,越来越多的机器人开始替代人类执行各种任务。机器人是自动控制机器(Robot)的俗称,自动控制机器包括一切模拟人类行为或思想与模拟其他生物的机械(如机器狗,机器猫等)。狭义上对机器人的定义还有很多分类法及争议,有些电脑程序甚至也被称为机器人。在当代工业中,机器人指能自动执行任务的人造机器装置,用以取代或协助人类工作。理想中的高仿真机器人是高级整合控制论、机械电子、计算机与人工智能、材料学和仿生学的产物,目前科学界正在向此方向研究开发,但是机器人远程控制还不完善,大数据的应用还没有普及,机器人的数据采集还处于离线状态,机器人深度学习也来自于本机数据的储存。
工业机器人是面向工业领域的多关节机械手或多自由度的机器装置,它能自动执行工作,是靠自身动力和控制能力来实现各种功能的一种机器。它可以接受人类指挥,也可以按照预先编排的程序运行,现代的工业机器人还可以根据人工智能技术制定的原则纲领行动。
工业机器人与机器视觉结合已经应用于各种工业自动化生产过程中,但针对机器视觉如何实现对工业机器人的自适应检测关键帧图像,而实现后续数据存储和分析,目前还无法针对性实现误差分析,需要针对现有的工业机器人系统提出一种合适于控制的方法和系统才可以实现。
发明内容
本发明提供了一种工业机器人系统下的控制方法,通过PLC模块实现工业机器人、控制系统、视觉控制器的交互,实现对操作平台上的操作对象检测功能。
本发明提供了一种工业机器人系统下的控制方法,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,所述方法包括:
控制系统基于PLC模块向位于工业机器人上的视觉控制器发送控制命令,所述控制命令用于触发视觉控制器进行工作;
视觉控制器基于所述控制命令基于视觉控制器上的摄像头拍摄工业机器人操作对象的视频流,使用深度学习算法训练专用神经网络模型实时提取出操作对象在视频流中关键帧图像中的位置、姿态;
判断所述关键帧图像中的操作对象位置、姿态是否与模型库中的背景图像存在动作差异,并将所述存在动作差异的关键帧图像基于以太网模块发送至控制系统中的处理器;
控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像。
所述方法还包括:
控制系统基于PLC模块向所述工业机器人发送操作指令;
所述工业工业机器人基于所述操作指令完成相应的操作。
所述控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像包括:
基于所述关键帧进行位置和姿态相似度分析,并基于位置和姿态匹配出相似度百分比图;
将所述关键图图像和所述关键帧图像所对应的位置和姿态的相似度百分比图基于触摸屏向用户显示。
所述方法还包括:
基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;
控制系统基于所述用户指令将所述存在动作差异的关键帧图像存在控制系统中的存储模块中。
所述方法还包括:
基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;
控制系统基于所述用户指令向所述工业机器人发送控制调整指令;
所述工业机器人基于所述控制调整指令在视觉控制器的作用下调整至与模型库中的背景图像相一致的操作过程。
所述方法还包括:
PLC模块对触摸屏上所触发的控制指令进行数据分析处理,向工业机器人发送相应的指令信息,工业机器人根据触控状态变换所转换的指令信息执行相应步骤;
工业机器人在执行完毕后向PLC模块发送完成信号,等待PLC模块返回信号后再发出进一步的响应指令。
所述深度学习算法采用随机梯度下降法。
所述专用神经网络模型采用卷积神经网络模型AlexNet网络模型。
相应的,本发明还提供了一种工业机器人控制系统,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,所述工业机器人控制系统执行如权利1至6任一项所述的方法。
实施本发明实施例,控制系统基于PLC模块与视觉控制器、以及各个模块间实现交互,扩展了PLC模块在控制系统上各种功能性接口,本发明实施例中采用PLC模块与触摸屏执行工业机器人操作系统,在触摸屏界面可以对工业机器人相关参数进行设置及监视其运行情况,操作更人性化,适应物件频繁变化的工作需求。采用模块化编程方法,易于调用,编程逻辑清晰,各功能模块相对独立,同样的I/O接口可以赋予不同的作用,减少接线,提高利用率,提高系统运行的稳定性。视觉控制器在收到控制系统的指令之后,可以基于相应的神经网络模型快速提取出操作对象的关键帧图像,从而实现差异化动作检测过程,并可以基于PLC模块快速向触摸屏反馈关键帧图像内容,从而可针对工业机器人上实现针对性的误差分析,将这些差异化图像存储在控制系统作为样本库,为后续分析提供了素材来源。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的工业机器人控制系统结构示意图;
图2是本发明实施例中的工业机器人系统下的控制方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例中的工业机器人系统下的控制方法,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,所述方法包括:控制系统基于PLC模块向位于工业机器人上的视觉控制器发送控制命令,所述控制命令用于触发视觉控制器进行工作;视觉控制器基于所述控制命令基于视觉控制器上的摄像头拍摄工业机器人操作对象的视频流,使用深度学习算法训练专用神经网络模型实时提取出操作对象在视频流中关键帧图像中的位置、姿态;判断所述关键帧图像中的操作对象位置、姿态是否与模型库中的背景图像存在动作差异,并将所述存在动作差异的关键帧图像基于以太网模块发送至控制系统中的处理器;控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像。
图1示出了本发明实施例中的工业机器人系统结构示意图,该工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接。
这里的控制系统基于PLC模块向位于工业机器人上的视觉控制器发送控制命令,所述控制命令用于触发视觉控制器进行工作。
这里的视觉控制器基于所述控制命令基于视觉控制器上的摄像头拍摄工业机器人操作对象的视频流,使用深度学习算法训练专用神经网络模型实时提取出操作对象在视频流中关键帧图像中的位置、姿态;判断所述关键帧图像中的操作对象位置、姿态是否与模型库中的背景图像存在动作差异,并将所述存在动作差异的关键帧图像基于以太网模块发送至控制系统中的处理器。
这里的控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像。
具体实施过程中,控制系统基于PLC模块向所述工业机器人发送操作指令;所述工业工业机器人基于所述操作指令完成相应的操作。
具体实施过程中,所述控制系统中的处理器收到所述关键帧图像之后,基于所述关键帧进行位置和姿态相似度分析,并基于位置和姿态匹配出相似度百分比图;将所述关键图图像和所述关键帧图像所对应的位置和姿态的相似度百分比图基于触摸屏向用户显示。
具体实施过程中,控制系统基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;控制系统基于所述用户指令将所述存在动作差异的关键帧图像存在控制系统中的存储模块中。
具体实施过程中,控制系统基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;控制系统基于所述用户指令向所述工业机器人发送控制调整指令;所述工业机器人基于所述控制调整指令在视觉控制器的作用下调整至与模型库中的背景图像相一致的操作过程。
具体实施过程中,控制系统中的PLC模块对触摸屏上所触发的控制指令进行数据分析处理,向工业机器人发送相应的指令信息,工业机器人根据触控状态变换所转换的指令信息执行相应步骤;工业机器人在执行完毕后向PLC模块发送完成信号,等待PLC模块返回信号后再发出进一步的响应指令。
具体的,图2示出了本发明实施例中的工业机器人系统下的控制方法流程图,工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,具体步骤如下:
S201、控制系统基于PLC模块向位于工业机器人上的视觉控制器发送控制命令,所述控制命令用于触发视觉控制器进行工作;
S202、视觉控制器基于所述控制命令基于视觉控制器上的摄像头拍摄工业机器人操作对象的视频流,使用深度学习算法训练专用神经网络模型实时提取出操作对象在视频流中关键帧图像中的位置、姿态;
需要说明的是,这里的深度学习算法采用随机梯度下降法;这里的专用神经网络模型采用卷积神经网络模型AlexNet网络模型。
S203、判断所述关键帧图像中的操作对象位置、姿态是否与模型库中的背景图像存在动作差异,若存在动作差异则进入S204,否则继续执行S202步骤过程;
S204、将所述存在动作差异的关键帧图像基于以太网模块发送至控制系统中的处理器;
S205、控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像。
步骤S205中,基于所述关键帧进行位置和姿态相似度分析,并基于位置和姿态匹配出相似度百分比图;将所述关键图图像和所述关键帧图像所对应的位置和姿态的相似度百分比图基于触摸屏向用户显示。
相应的,基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;控制系统基于所述用户指令将所述存在动作差异的关键帧图像存在控制系统中的存储模块。
具体实施过程中,控制系统基于PLC模块向所述工业机器人发送操作指令;所述工业工业机器人基于所述操作指令完成相应的操作。该操作指令可以是在S201之前触发,也可以是同时触发,也可以是在S201之后触发。
具体实施过程中,可以基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;控制系统基于所述用户指令向所述工业机器人发送控制调整指令;所述工业机器人基于所述控制调整指令在视觉控制器的作用下调整至与模型库中的背景图像相一致的操作过程。
本发明实施例中的PLC模块对触摸屏上所触发的控制指令进行数据分析处理,向工业机器人发送相应的指令信息,工业机器人根据触控状态变换所转换的指令信息执行相应步骤;工业机器人在执行完毕后向PLC模块发送完成信号,等待PLC模块返回信号后再发出进一步的响应指令。
整个视觉控制器采集、标准、训练和识别整合在一起,降低了系统复杂度,现场部署的难度,便利的为工业机器人加入视觉识别能力,降低了为工业机器人配套机器视觉产品在操作对象模式下的识别、位置检测的运用难度。使用电信的卷积神经网络模型作为视觉控制器的主要识别算法,具有更高的准确性和更好的鲁棒性。本发明所涉及的深度学习算法使用随机梯度下降法,随机梯度下降法每次迭代从训练集中随机选择一个样本来进行学习,具有运算量小、训练收敛快的优点,可以在较短时间内对神经网络模型的训练收敛。采用关键帧提取的方式实现视频帧数据流中的某些关键图像的提取,也减少后续控制系统的处理数据量,减少信息流的臃肿。
通过以上方法,控制系统基于PLC模块与视觉控制器、以及各个模块间实现交互,扩展了PLC模块在控制系统上各种功能性接口,本发明实施例中采用PLC模块与触摸屏执行工业机器人操作系统,在触摸屏界面可以对工业机器人相关参数进行设置及监视其运行情况,操作更人性化,适应物件频繁变化的工作需求。采用模块化编程方法,易于调用,编程逻辑清晰,各功能模块相对独立,同样的I/O接口可以赋予不同的作用,减少接线,提高利用率,提高系统运行的稳定性。视觉控制器在收到PLC模块的指令之后,可以基于相应的神经网络模型快速提取出操作对象的关键帧图像,从而实现差异化动作检测过程,并可以基于PLC模块快速向触摸屏反馈关键帧图像内容,从而可针对工业机器人上实现针对性的误差分析,将这些差异化图像存储在控制系统作为样本库,为后续分析提供了素材来源。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
以上对本发明实施例所提供的工业机器人系统下的控制方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.一种工业机器人系统下的控制方法,其特征在于,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,所述方法包括:
控制系统基于PLC模块向位于工业机器人上的视觉控制器发送控制命令,所述控制命令用于触发视觉控制器进行工作;
视觉控制器基于所述控制命令基于视觉控制器上的摄像头拍摄工业机器人操作对象的视频流,使用深度学习算法训练专用神经网络模型实时提取出操作对象在视频流中关键帧图像中的位置、姿态;
判断所述关键帧图像中的操作对象位置、姿态是否与模型库中的背景图像存在动作差异,并将所述存在动作差异的关键帧图像基于以太网模块发送至控制系统中的处理器;
控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像。
2.如权利要求1所述的工业机器人系统下的控制方法,其特征在于,所述方法还包括:
控制系统基于PLC模块向所述工业机器人发送操作指令;
所述工业工业机器人基于所述操作指令完成相应的操作。
3.如权利要求1所述的工业机器人系统下的控制方法,其特征在于,所述控制系统中的处理器收到所述关键帧图像之后,基于触摸屏向用户显示所述关键帧图像包括:
基于所述关键帧进行位置和姿态相似度分析,并基于位置和姿态匹配出相似度百分比图;
将所述关键图图像和所述关键帧图像所对应的位置和姿态的相似度百分比图基于触摸屏向用户显示。
4.如权利要求3所述的工业机器人系统下的控制方法,其特征在于,所述方法还包括:
基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;
控制系统基于所述用户指令将所述存在动作差异的关键帧图像存在控制系统中的存储模块中。
5.如权利要求3所述的工业机器人系统下的控制方法,其特征在于,所述方法还包括:
基于触摸屏接收用户基于所述相似度百分比所触发的用户指令;
控制系统基于所述用户指令向所述工业机器人发送控制调整指令;
所述工业机器人基于所述控制调整指令在视觉控制器的作用下调整至与模型库中的背景图像相一致的操作过程。
6.如权利要求1至5任一项所述的工业机器人系统下的控制方法,其特征在于,所述方法还包括:
PLC模块对触摸屏上所触发的控制指令进行数据分析处理,向工业机器人发送相应的指令信息,工业机器人根据触控状态变换所转换的指令信息执行相应步骤;
工业机器人在执行完毕后向PLC模块发送完成信号,等待PLC模块返回信号后再发出进一步的响应指令。
7.如权利要求6所述的工业机器人系统下的控制方法,其特征在于,所述深度学习算法采用随机梯度下降法。
8.如权利要求6所述的工业机器人系统下的控制方法,其特征在于,所述专用神经网络模型采用卷积神经网络模型AlexNet网络模型。
9.一种工业机器人控制系统,其特征在于,所述工业机器人系统包括:工业机器人、以及位于工业机器人上的视觉控制器、以及控制系统,所述控制系统包括以太网模块、触摸屏、处理器、其他模块和PLC模块,所述控制系统基于以太网模块与所述视觉控制器连接,所述控制系统基于PLC模块与工业机器人连接,所述工业机器人控制系统执行如权利1至8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811050532.0A CN108972593A (zh) | 2018-09-07 | 2018-09-07 | 一种工业机器人系统下的控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811050532.0A CN108972593A (zh) | 2018-09-07 | 2018-09-07 | 一种工业机器人系统下的控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108972593A true CN108972593A (zh) | 2018-12-11 |
Family
ID=64545922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811050532.0A Pending CN108972593A (zh) | 2018-09-07 | 2018-09-07 | 一种工业机器人系统下的控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108972593A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840598A (zh) * | 2019-04-29 | 2019-06-04 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种深度学习网络模型的建立方法及装置 |
CN110796005A (zh) * | 2019-09-27 | 2020-02-14 | 北京大米科技有限公司 | 在线教学监控的方法、装置、电子设备及介质 |
CN111144401A (zh) * | 2019-11-06 | 2020-05-12 | 华能国际电力股份有限公司海门电厂 | 一种电厂集控室深度学习和视觉伺服的触屏控制操作方法 |
CN111531581A (zh) * | 2020-04-27 | 2020-08-14 | 武汉工程大学 | 一种基于视觉的工业机器人故障动作检测方法及系统 |
CN112508047A (zh) * | 2019-09-13 | 2021-03-16 | 国际商业机器公司 | 生成模拟图像训练数据 |
CN113814986A (zh) * | 2021-11-23 | 2021-12-21 | 广东隆崎机器人有限公司 | 一种基于机器视觉控制scara机器人的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102541253A (zh) * | 2010-12-30 | 2012-07-04 | 德信互动科技(北京)有限公司 | 模拟控制系统和模拟控制方法 |
CN107169519A (zh) * | 2017-05-18 | 2017-09-15 | 重庆卓来科技有限责任公司 | 一种工业机器人视觉系统及其示教方法 |
CN109213101A (zh) * | 2018-09-05 | 2019-01-15 | 顺德职业技术学院 | 一种机器人系统下预处理的方法及系统 |
-
2018
- 2018-09-07 CN CN201811050532.0A patent/CN108972593A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102541253A (zh) * | 2010-12-30 | 2012-07-04 | 德信互动科技(北京)有限公司 | 模拟控制系统和模拟控制方法 |
CN107169519A (zh) * | 2017-05-18 | 2017-09-15 | 重庆卓来科技有限责任公司 | 一种工业机器人视觉系统及其示教方法 |
CN109213101A (zh) * | 2018-09-05 | 2019-01-15 | 顺德职业技术学院 | 一种机器人系统下预处理的方法及系统 |
Non-Patent Citations (1)
Title |
---|
杨碧玉: "基于PLC、视觉系统和机器人的全自动化生产线设计", 《科技资讯》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840598A (zh) * | 2019-04-29 | 2019-06-04 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种深度学习网络模型的建立方法及装置 |
CN109840598B (zh) * | 2019-04-29 | 2019-08-09 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种深度学习网络模型的建立方法及装置 |
CN112508047A (zh) * | 2019-09-13 | 2021-03-16 | 国际商业机器公司 | 生成模拟图像训练数据 |
CN110796005A (zh) * | 2019-09-27 | 2020-02-14 | 北京大米科技有限公司 | 在线教学监控的方法、装置、电子设备及介质 |
CN111144401A (zh) * | 2019-11-06 | 2020-05-12 | 华能国际电力股份有限公司海门电厂 | 一种电厂集控室深度学习和视觉伺服的触屏控制操作方法 |
CN111144401B (zh) * | 2019-11-06 | 2024-01-26 | 华能国际电力股份有限公司海门电厂 | 一种电厂集控室深度学习和视觉伺服的触屏控制操作方法 |
CN111531581A (zh) * | 2020-04-27 | 2020-08-14 | 武汉工程大学 | 一种基于视觉的工业机器人故障动作检测方法及系统 |
CN111531581B (zh) * | 2020-04-27 | 2023-02-03 | 武汉工程大学 | 一种基于视觉的工业机器人故障动作检测方法及系统 |
CN113814986A (zh) * | 2021-11-23 | 2021-12-21 | 广东隆崎机器人有限公司 | 一种基于机器视觉控制scara机器人的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108972593A (zh) | 一种工业机器人系统下的控制方法及系统 | |
JP4333364B2 (ja) | ロボット装置、顔認識方法及び顔認識装置 | |
El Zaatari et al. | iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot | |
Zhang et al. | Industrial robot programming by demonstration | |
Brecher et al. | Towards anthropomorphic movements for industrial robots | |
Zhang et al. | Enabling collaborative assembly between humans and robots using a digital twin system | |
Zhong et al. | A collaborative telerobotics network framework with hand gesture interface and conflict prevention | |
Male et al. | Deep learning based robot cognitive architecture for collaborative assembly tasks | |
CN109213101A (zh) | 一种机器人系统下预处理的方法及系统 | |
CN109040688A (zh) | 一种对获取的工业机器人操作视频进行存储的方法及系统 | |
Bolin et al. | Gesture-based control of autonomous UAVs | |
CN111784850A (zh) | 基于虚幻引擎的物体抓取仿真方法及相关设备 | |
Deng et al. | A motion sensing-based framework for robotic manipulation | |
Ogawara et al. | Acquiring hand-action models in task and behavior levels by a learning robot through observing human demonstrations | |
Zhong et al. | HUB-CI model for collaborative telerobotics in manufacturing | |
Steil et al. | Guiding attention for grasping tasks by gestural instruction: The gravis-robot architecture | |
CN106779047B (zh) | 一种信息处理方法和装置 | |
KR20230100101A (ko) | 로봇 제어 시스템 및 이를 이용한 로봇 설정 방법 및 로봇 제어 방법 | |
Haffner et al. | Gesture Recognition System Based on Motion Capture Suit and LSTM Neural Network | |
Li et al. | Perception-enhancement based task learning and action scheduling for robotic limb in CPS environment | |
Liu et al. | Manipulating complex robot behavior for autonomous and continuous operations | |
CN109079789A (zh) | 一种远程获取工业机器人操作视频的方法及系统 | |
Gomes et al. | Deep Reinforcement learning applied to a robotic pick-and-place application | |
Kopp et al. | Imitation learning and response facilitation in embodied agents | |
KR102711405B1 (ko) | 웹캠을 이용한 동작 추적 기반 아바타 모션 제어시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181211 |