CN110154017B - 输送机跟踪系统以及校准方法 - Google Patents
输送机跟踪系统以及校准方法 Download PDFInfo
- Publication number
- CN110154017B CN110154017B CN201811353841.5A CN201811353841A CN110154017B CN 110154017 B CN110154017 B CN 110154017B CN 201811353841 A CN201811353841 A CN 201811353841A CN 110154017 B CN110154017 B CN 110154017B
- Authority
- CN
- China
- Prior art keywords
- mobile device
- robot
- calibration
- patterns
- parameter set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000003384 imaging method Methods 0.000 claims abstract description 50
- 238000005259 measurement Methods 0.000 claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 238000004891 communication Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 23
- 238000006243 chemical reaction Methods 0.000 description 18
- 230000014509 gene expression Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000011144 upstream manufacturing Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G43/00—Control devices, e.g. for safety, warning or fault-correcting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G2203/00—Indexing code relating to control or detection of the articles or the load carriers during conveying
- B65G2203/04—Detection means
- B65G2203/042—Sensors
- B65G2203/044—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种输送机跟踪系统及其校准方法,即便是机器人操作的经验少的用户,也可以正确地进行校准。移动设备在预定位置上显示一个或多个图案,并对应于在显示所述一个或多个图案的状态下被触摸,朝控制装置中发送表示此被触摸的触摸位置的信息。控制装置根据移动设备以显示有图案的状态配置在拍摄视场中时的由视觉传感器所得的图像测量结果、移动设备由机器人触摸时的触摸位置、以及移动设备配置在拍摄视场中的状态的位置与由机器人触摸时的位置之间的距离,算出参数集。
Description
技术领域
本发明涉及一种输送机跟踪系统(conveyor tracking system)中的校准(calibration)。
背景技术
在工厂自动化(Factory Automation,FA)领域中,为了省力化,常用利用图像处理来控制各种步骤的技术。作为此种图像处理技术的适用例之一,有如下的作业步骤:通过带式输送机(belt conveyor)等搬送装置来搬送工件(work),并且通过机器人(robot)来追踪(跟踪)及拾取(pick up)所述搬送中的工件。此种作业步骤被称为输送机跟踪等。
在此输送机跟踪的技术中,使用摄像机(camera)对搬送装置上的工件进行拍摄,并使用图像处理装置对通过所述拍摄所获得的图像进行图案匹配(pattern matching)或二值化处理等图像测量,由此来确定各工件的位置。而且,机器人根据所述经确定的各工件的位置,追踪及拾取各工件。
通常,通过对于摄像机图像的图像测量来确定的工件的位置是将摄像机图像作为基准的坐标系(以下,也称为“摄像机坐标系”)的坐标值,无法直接用于机器人的控制。因此,需要将在摄像机坐标系中所算出的坐标值转换成用于控制机器人的坐标系(以下,也称为“机器人坐标系”)上的坐标值的处理。
将此种摄像机坐标系的坐标值与机器人坐标系的坐标值建立对应的关系,是通过被称为校准的操作来决定。例如,日本专利特开2012-187651号公报(专利文献1)揭示如下的方法:使用包含校准用的图案的片材(sheet),算出用于将拍摄部的拍摄范围内的坐标值转换成移动机械的坐标系的坐标值的参数集(parameter set)。
[现有技术文献]
[专利文献]
专利文献1:日本专利特开2012-187651号公报
专利文献2:日本专利特开2009-290852号公报
发明内容
[发明所要解决的问题]
在专利文献1中揭示的方法中,必须将机器人的手前端正确地定位在校准用的图案上。为了将机器人的手前端正确地定位在图案上,需要某种程度的经验。为了即便是缺乏经验的用户,也可以正确地进行校准,例如也可以使用如日本专利特开2009-290852号公报(专利文献2)中揭示的技术,通过摄像机来对机器人的手前端位于哪个位置上进行拍摄,由此进行测量。
但是,为了校准而新设置摄像机并不现实,另外,新设置的摄像机自身也需要校准。
因此,将提供一种即便是机器人操作的经验少的用户,也可以正确地进行校准的方法作为一个目的。
[解决问题的技术手段]
根据本揭示的一例,提供一种输送机跟踪系统。输送机跟踪系统包括:搬送装置,搬送工件;机器人,与搬送装置建立关联来配置,并拾取由搬送装置所搬送的工件;拍摄部,在搬送装置的搬送路径中具有拍摄视场;视觉传感器,执行对于由拍摄部所拍摄的图像的图像测量;控制装置,根据由视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于机器人的动作指令;以及移动设备,用于参数集的算出处理,并具有触控面板(touchpanel)。移动设备包括:在预定位置上显示一个或多个图案的部件;以及对应于在显示有所述一个或多个图案的状态下被触摸,朝控制装置中发送表示此被触摸的触摸位置的信息的部件。控制装置包括如下的部件:根据移动设备以显示有一个或多个图案的状态配置在拍摄视场中时的由视觉传感器所得的图像测量结果、移动设备由机器人触摸时的触摸位置、以及移动设备配置在拍摄视场中的状态的位置与由机器人触摸时的位置之间的距离,算出参数集。
根据此揭示,在移动设备中,可检测显示一个或多个图案的位置与由机器人实际触摸的触摸位置,因此即便在用户的操作技能低的情况下,也可以在修正其位置偏离后,算出校准用的参数集。
在所述揭示中,移动设备也可以在配置在拍摄视场中并由拍摄部进行拍摄后,接受机器人的触摸动作。
根据此揭示,在搬送装置中搬送移动设备来代替工件,由此可算出校准用的参数集。
在所述揭示中,控制装置也可以进而根据显示在移动设备中的一个或多个图案中的一个图案与触摸位置的偏离量,算出参数集。
根据此揭示,即便是缺乏操作技能的用户,也可以实现误差少的校准。
在所述揭示中,控制装置也可以根据移动设备的相对于搬送装置的方向对偏离量进行修正后,算出参数集。
根据此揭示,即便移动设备相对于搬送装置倾斜地配置,也可以适当地算出参数集。
在所述揭示中,移动设备也可以对应于机器人的触摸位置,显示至少一个图案,且在接受机器人的触摸动作后,被配置在拍摄视场中。
根据此揭示,可在对应于触摸位置的位置上显示图案,因此不会产生图案与触摸位置的偏离量,因此可减少校准的误差。
在所述揭示中,移动设备以与其他图案不同的形态显示一个或多个图案中的应触摸的图案。
根据此揭示,即便是经验少的用户,也可以无操作失误地实现校准。
在所述揭示中,移动设备也可以将一个或多个图案与触摸位置一同显示。
根据此揭示,用户可确认实际操作机器人来触摸移动设备的位置,因此用户可客观地掌握自身的操作的正确性等,由此可提升操作技能。
在所述揭示中,移动设备也可以显示由控制装置所算出的参数集的精度。
根据此揭示,在算出校准用的参数集后,用户可掌握所算出的参数集的精度,因此可客观地掌握重新进行校准的必要性。
在所述揭示中,控制装置与移动设备之间也可以通过无线通信来交换数据。
根据此揭示,可在将移动设备配置在搬送装置上的状态下完成一连串的校准的工序。
根据本揭示的另一例,提供一种输送机跟踪系统中的校准方法。输送机跟踪系统包括:搬送装置,搬送工件;机器人,与搬送装置建立关联来配置,并拾取由搬送装置所搬送的工件;拍摄部,在搬送装置的搬送路径中具有拍摄视场;视觉传感器,执行对于由拍摄部所拍摄的图像的图像测量;以及控制装置,根据由视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于机器人的动作指令。校准方法包括:在具有触控面板的移动设备的显示器的预定位置上,显示一个或多个图案的步骤;以在移动设备的显示器中显示有一个或多个图案的状态,将移动设备配置在拍摄视场中,并且通过视觉传感器来获取对于对移动设备进行拍摄所获得的图像的图像测量结果;获取移动设备以在移动设备的显示器中显示有一个或多个图案的状态由机器人触摸时的触摸位置;以及根据图像测量结果、触摸位置、及移动设备配置在拍摄视场中的状态的位置与由机器人触摸时的位置之间的距离,算出参数集。
根据此揭示,在移动设备中,可检测显示一个或多个图案的位置与由机器人实际触摸的触摸位置,因此即便在用户的操作技能低的情况下,也可以在修正其位置偏离后,算出校准用的参数集。
[发明的效果]
根据本发明,可提供一种即便是机器人操作的经验少的用户,也可以正确地进行校准的方法。
附图说明
图1是表示本实施方式的输送机跟踪系统的整体结构的概略图。
图2是用于说明本实施方式的输送机跟踪系统中的校准处理的一例的图。
图3是表示本实施方式的输送机跟踪系统中所包含的与工件的位置确定相关的装置的硬件结构的一例的示意图。
图4是表示本实施方式的输送机跟踪系统中所包含的与工件的拾取相关的装置的硬件结构的一例的示意图。
图5是表示本实施方式的输送机跟踪系统中所使用的移动设备的硬件结构的一例的示意图。
图6的(A)及(B)是用于说明本实施方式的输送机跟踪系统中的坐标转换及跟踪的图。
图7是用于说明本实施方式的校准处理(其一)的示意图。
图8是表示本实施方式的校准处理(其一)的处理工序的流程图。
图9是表示图8的步骤S9的处理工序的流程图。
图10是用于说明图9中所示的与校准相关的参数集的算出处理的图。
图11是用于说明本实施方式的校准处理(其二)的示意图。
图12是表示本实施方式的校准处理(其二)的处理工序的图。
图13是表示本实施方式的移动设备中所提供的用户接口画面的一例的图。
图14是表示本实施方式的移动设备中所提供的用户接口画面的另一例的图。
图15是表示本实施方式的移动设备中所提供的用户接口画面的另一例的图。
图16是表示本实施方式的移动设备中所提供的用户接口画面的另一例的图。
[符号的说明]
1:输送机跟踪系统
10:输送机
12:驱动辊
18:现场网络
20:信息系统网络
100:PLC
102、502:处理器
104、504:主存储器
105:跟踪记录
106、206、406:现场网络接口
108、516:无线网络接口
110:局域通信接口
112、352:信息系统网络接口
120、510:存储器
122:PLC系统模块
124:用户程序
126:跟踪程序
128:校准参数
130:校准程序
132:机器人位置指令生成程序
140、518:总线
200:视觉传感器
202:物体识别引擎
204:摄像机接口
250:摄像机
300:机器人
310-1~310-n:马达
320:手前端
350:机器人控制器
354:位置控制器
356-1~356-n:驱动器
380:示教盒
400:计数器
402:脉冲计数器
404:运算处理部
450:编码器
500:移动设备
514:校准应用
520:触控面板
522:显示器
524:位置检测元件
550:图案
560:强调显示
570:触摸位置显示
580:数值显示
582:消息
584、586:按钮
590:支援消息
600:支持装置
700:HMI装置
Enc:移动量
Fx、Fy:转换函数
L:距离
W:工件
具体实施方式
参照附图来详细说明本发明的实施方式。另外,对于图中的相同或相当的部分标注相同的符号,并不再重复其说明。
<A.适用例>
首先,参照图1及图2来说明适用本发明的场景的一例。
图1是表示本实施方式的输送机跟踪系统1的整体结构的概略图。参照图1,输送机跟踪系统1包含作为搬送工件W的搬送装置的一例的输送机10。输送机10通过驱动辊12及驱动辊14来旋转驱动,从纸面左侧朝纸面右侧依次搬送在任意的时机供给的工件W。
配置在输送机10的附近的机器人300拾取输送机10上的工件W,并朝未图示的其他生产线等上进行配置(取放(pick and place)动作)。机器人300与输送机10建立关联来配置,并拾取由输送机10所搬送的工件W。机器人300在拾取工件W时,有时也使工件W的方向一致成事先指定的方向。典型的是设想工件W为点心等食品或各种药片等。
配置作为在输送机10的搬送路径中具有拍摄视场的拍摄部的摄像机250。摄像机250的拍摄视场设定在输送机10的上游侧。由摄像机250所拍摄的图像被输出至视觉传感器200中。图1中表示视觉传感器200与摄像机250相互独立的结构例,但也可以采用将两者一体化的结构。
视觉传感器200执行对于由摄像机250所拍摄的图像的图像测量。在本实施方式中,视觉传感器200对由摄像机250依次拍摄的图像进行图案匹配等图像测量处理,由此测量输送机10上的各工件W的位置(更具体而言,重心位置)。
在输送机10中设置有编码器(encoder)450,编码器450对应于输送机10的移动量输出脉冲(pulse)信号。来自编码器450的脉冲信号由计数器(counter)400接收,并算出表示输送机10的移动量的值和/或表示移动速度的值。
作为控制装置的一例的可编程逻辑控制器(Programmable Logic Controller,PLC)100对输送机跟踪系统1中的处理进行综合。PLC100经由现场网络18而与视觉传感器200及计数器400连接。
PLC100根据由视觉传感器200所得的图像测量结果,使用事先算出的参数集来生成对于机器人300的动作指令。更具体而言,PLC100获取由视觉传感器200所测量的各工件W的位置、及由计数器400所算出的表示输送机10的移动量的值(和/或表示移动速度的值)。PLC100对应于输送机10的移动而适宜更新存在于输送机10上的各工件W的位置,并根据更新后的各工件W的位置,对机器人300输出动作指令。
机器人300按照来自PLC100的动作指令,拾取输送机10上的成为对象的工件W,并朝经指定的位置进行移动及配置。在图1中,作为典型例,图示了并联机器人(parallelrobot),但并不限定于此,也可以使用水平多关节机器人(SCARA robot)或垂直多关节机器人等。
机器人控制器350接受来自PLC100的动作指令,并按照此接收的动作指令来驱动构成机器人300的各轴。机器人控制器350经由信息系统网络20而与PLC100连接。
在机器人控制器350上连接有用于对机器人300进行手动操作的示教盒(teachingpendant)380。用户对示教盒380进行操作,由此机器人300对应于用户的操作(示教)进行动作。
在信息系统网络20中,除PLC100及机器人控制器350以外,也可以连接人机接口(Human Machine Interface,HMI)700。HMI700向用户提示PLC100等所管理的信息,并且接受来自用户的操作后朝PLC100中输出。
在PLC100上可连接用于进行由PLC100所执行的用户程序的源代码(source code)编辑、目标代码转换、调试(debug)等的支持装置600。
如图1所示,在输送机跟踪系统1中,对将摄像机250的拍摄视场作为基准的坐标系(以下,也称为“摄像机坐标系”)进行定义。摄像机坐标系可设为将由摄像机250所拍摄的图像的顶点作为基准的二维坐标系。在图1所示的示例中,规定有将图像的左上方作为基准的Xc轴-Yc轴的坐标系。即,当针对通过摄像机250在拍摄视场中进行拍摄所输出的图像,通过图案匹配等来测量工件W的位置时,将所测量的工件W的位置以摄像机坐标系(Xc轴-Yc轴的坐标系)的坐标值的形式输出。
另外,在输送机跟踪系统1中,对规定机器人300的手前端(拾取)位置的坐标系(以下,也称为“机器人坐标系”)进行定义。在图1所示的示例中,沿着与输送机10的搬送面平行的面规定Xrb轴及Yrb轴,将Xrb轴设为与输送机10的搬送方向平行,将Yrb轴设为与输送机10的搬送方向正交。另外,在与输送机10的搬送面正交的方向上规定Zrb轴。因此,机器人坐标系包含Xrb轴、Yrb轴、Zrb轴这三轴。但是,构成摄像机坐标系的Xc轴及Yc轴也与输送机10的搬送面平行,因此摄像机坐标系与机器人坐标系之间的校准只要着眼于摄像机坐标系的Xc轴及Yc轴与机器人坐标系的Xrb轴及Yrb轴的关系即可。
本实施方式的校准包含决定用于实现摄像机坐标系的坐标值与机器人坐标系的坐标值之间的相互转换的参数集。
图2是用于说明本实施方式的输送机跟踪系统1中的校准处理的一例的图。参照图2,在本实施方式中,使用具有触控面板的移动设备500实施校准。移动设备500具有触控面板,使用由触控面板所得的检测结果等来算出参数集。作为移动设备500,例如设想平板计算机(tablet computer)、笔记型计算机、智能电话(smartphone)等。
具体而言,在移动设备500的触控面板中显示事先规定的校准用的一个或多个图案550,并且将移动设备500配置在摄像机250的拍摄视场中。如此,移动设备500具有在预定位置上显示一个或多个图案的功能。
在此状态下,针对由摄像机250所拍摄的图像,视觉传感器200测量图案550的位置,并朝PLC100中发送此测量的位置(摄像机坐标系的坐标值)。
移动设备500与PLC100之间优选通过无线通信来交换数据。具体而言,也可以在PLC100中设置用于与移动设备500进行无线通信的接口。或者,也可以在现场网络18或信息系统网络20中配置用于与移动设备500进行无线通信的接口,PLC100经由此接口而与移动设备500交换数据。
继而,移动设备500在输送机10上仅朝下游侧移动预定的距离L。此时,显示在移动设备500的触控面板中的校准用的图案550被同样地维持。然后,用户操作机器人300,将机器人300的手前端定位在移动设备500的触控面板中所显示的各图案550上。
此时,移动设备500可检测机器人300的手前端被定位在触控面板上的何处。移动设备500朝PLC100中发送机器人300的手前端定位在触控面板上的位置(机器人坐标系的坐标值)。如此,移动设备500具有对应于在显示有一个或多个图案550的状态下被触摸,朝PLC100中发送表示此被触摸的触摸位置的信息的功能。
PLC100可经由编码器450及计数器400而获取输送机10移动的距离L(或者,相当于距离L的计数数)。
PLC100使用图案550的位置(摄像机坐标系的坐标值)、移动设备500移动的距离L、及移动设备500所检测到的手前端的位置(机器人坐标系的坐标值),决定与校准相关的参数集。
如此,PLC100根据移动设备500以显示有一个或多个图案的状态配置在拍摄视场中时的由视觉传感器200所得的图像测量结果、移动设备500由机器人300触摸时的触摸位置、以及移动设备500配置在拍摄视场中的状态的位置与由机器人300触摸时的位置之间的距离L,算出参数集。
如后述般,摄像机250对于移动设备500的拍摄与机器人300对于移动设备500的触摸能够以任何顺序来实施。在以下的说明中,分别说明先实施移动设备500的拍摄的示例、及先实施机器人300对于移动设备500的触摸的示例。
在本实施方式中,通过PLC100来实施用于将摄像机坐标系的测量结果(坐标值)转换成机器人坐标系的参数集的决定、及使用此参数集的摄像机坐标系与机器人坐标系之间的坐标转换运算。通过采用此种结构,可由PLC100一并执行输送机跟踪中所需要的运算。
<B.硬件结构>
继而,对构成本实施方式的输送机跟踪系统1的各装置的硬件结构进行说明。
(b1:PLC100)
图3是表示本实施方式的输送机跟踪系统1中所包含的与工件W的位置确定相关的装置的硬件结构的一例的示意图。参照图3,PLC100是一种计算机,通过处理器来执行各种程序,由此实现各种处理。
PLC100包括:处理器102、主存储器104、现场网络接口106、无线网络接口108、局域通信接口110、信息系统网络接口112、以及存储器120。这些组件连接于总线(bus)140。
处理器102将存储在存储器120等中的程序读出至主存储器104中来执行。处理器102例如包含中央处理器(Central Processing Unit,CPU)、微处理器(Micro ProcessingUnit)、图形处理器(Graphics Processing Unit,GPU)等。作为处理器102,可以采用具有多个内核的结构,也可以配置多个处理器102。
主存储器104包含动态随机存取存储器(Dynamic Random Access Memory,DRAM)或静态随机存取存储器(Static Random Access Memory,SRAM)等易失性存储装置等。
现场网络接口106是经由现场网络18而与视觉传感器200及计数器400之间交换数据的控制器。作为现场网络18,优选采用以太网控制自动化技术(EtherCAT)(注册商标)等固定周期网络。
无线网络接口108是通过无线通信而与移动设备500之间交换数据的控制器。作为无线通信,例如可使用:按照电气和电子工程师协会(Institute of Electrical andElectronics Engineers,IEEE)802.11的无线局域网(Local Area Network,LAN)或蓝牙(Bluetooth)(注册商标)等。
局域通信接口110是与支持装置600等之间交换数据的控制器。作为局域通信,例如可使用通用串行总线(Universal Serial Bus,USB)等。
信息系统网络接口112是经由信息系统网络20而与机器人控制器350及HMI700等之间交换数据的控制器。作为信息系统网络20,例如可使用作为一般的网络协议的以太网(注册商标)、或工业以太网协议(EtherNet/IP)(注册商标)等。
存储器120非易失地存储PLC100中所执行的程序或各种数据。存储器120例如包含快闪存储器或硬盘等非易失性存储装置等。
在图3所示的结构中,在存储器120中包含PLC系统模块122、用户程序124、跟踪程序126、校准参数128、校准程序130、以及机器人位置指令生成程序132。
PLC系统模块122包含程序库(library)等,提供通过执行用户程序124而实现的基本的控制功能。用户程序124是对应于PLC100的控制对象而任意地制作的程序,包含序列程序及运动程序等。
跟踪程序126包含用于实现如逐步更新用于实现输送机跟踪的工件W的位置的处理的代码。通过执行跟踪程序126,而在主存储器104中生成管理各工件W的位置的跟踪记录105。校准参数128是通过如后述般的工序来决定的与校准相关的参数集。校准程序130包含用于实现如后述般的工序的代码。机器人位置指令生成程序132根据通过跟踪程序126的执行来管理的各工件W的位置,生成对于机器人300而言必要的指令(例如工件追随速度、拾取动作的开始位置、工件W的移动目的地等)。
图3中表示通过处理器102执行程序来提供必要的处理的结构例,但也可以使用专用的硬件电路(例如,专用集成电路(Application Specific Integrated Circuit,ASIC)或现场可编程门阵列(Field-Programmable Gate Array,FPGA)等)来安装这些被提供的处理的一部分或全部。
(b2:视觉传感器200及摄像机250)
参照图3,视觉传感器200是一种计算机,对由摄像机250依次拍摄的图像进行图案匹配等图像测量处理,由此测量输送机10上的各工件W的位置。
更具体而言,视觉传感器200包含物体识别引擎202、摄像机接口204、及现场网络接口206。
物体识别引擎202对来自摄像机250的输入图像进行图案匹配等图像测量处理。物体识别引擎202将摄像机坐标系的坐标值(Xci、Yci)作为经识别的工件的位置而输出。摄像机接口204获取来自摄像机250的图像,并对摄像机250赋予各种设定。现场网络接口206是经由现场网络18而与PLC100之间交换数据(在本例中为工件W的坐标值)的控制器。
视觉传感器200可以通过处理器执行程序来实现,也可以使用专用的硬件电路(例如,ASIC或FPGA等)来安装。
摄像机250包含透镜或光圈等光学系统、及电荷耦合元件(Charge CoupledDevice,CCD)影像传感器或互补金属氧化物半导体(Complementary Metal OxideSemiconductor,CMOS)影像传感器等光接收元件。摄像机250按照来自视觉传感器200的指令进行拍摄,并且朝视觉传感器200中输出通过所述拍摄而获得的图像。
(b3:机器人300及机器人控制器350)
图4是表示本实施方式的输送机跟踪系统1中所包含的与工件W的拾取相关的装置的硬件结构的一例的示意图。参照图4,机器人控制器350驱动构成机器人300的马达310-1、马达310-2、…、马达310-n,由此使机器人300进行经指定的动作。
机器人控制器350包含信息系统网络接口352、,位置控制器354,及驱动器356-1、驱动器356-2、…、驱动器356-n。
信息系统网络接口352是经由信息系统网络20而与PLC100之间交换数据(在本例中为动作指令)的控制器。位置控制器354按照来自PLC100的动作指令,对驱动器356-1、驱动器356-2、…、驱动器356-n输出位置指令(例如,对应于移动量的数量的脉冲)。驱动器356-1、驱动器356-2、…、驱动器356-n按照来自位置控制器354的指令,产生用于驱动机器人300的马达310-1、马达310-2、…、马达310-n的电力信号。
机器人控制器350可以通过处理器执行程序来实现,也可以使用专用的硬件电路(例如,ASIC或FPGA等)来安装。
(b4:计数器400及编码器450)
再次参照图3,计数器400对从编码器450输出的脉冲信号进行计数,由此检测编码器450的检测对象(在本实施方式中为输送机10)的移动量。
更具体而言,计数器400包含脉冲计数器402、运算处理部404、及现场网络接口406。
脉冲计数器402接受来自编码器450的脉冲信号的输入,并对脉冲信号的上升或下降的产生次数进行累计。运算处理部404使由脉冲计数器402所得的计数数乘以规定的系数,而算出检测对象(输送机10)的移动量。或者,运算处理部404也可以直接输出由脉冲计数器402所得的计数数。现场网络接口406是经由现场网络18而与PLC100之间交换数据(在本例中为计数数)的控制器。
(b5:移动设备500)
图5是表示本实施方式的输送机跟踪系统1中所使用的移动设备500的硬件结构的一例的示意图。参照图5,移动设备500包含处理器502、主存储器504、贮存器510、无线网络接口516、及触控面板520。这些组件连接在总线518上。
处理器502将存储在贮存器510中的操作系统(Operating System,OS)512及校准应用514等程序读出至主存储器504中来执行。处理器502例如包含CPU、MPU、GPU等。作为处理器502,可以采用具有多个内核的结构,也可以配置多个处理器502。主存储器504例如包含DRAM或SRAM等易失性存储装置等。贮存器510例如包含快闪存储器或硬盘等非易失性存储装置等。
无线网络接口516是通过无线通信而与PLC100等之间交换数据的控制器。
触控面板520接受来自外部的触摸操作,并检测其被触摸的位置。触控面板520包含用于显示各种信息的显示器522、及用于检测触摸位置的位置检测元件524。另外,作为位置检测元件524,可使用静电电容式、感压式、超声波式等的公知的元件。
校准应用514实现如下的处理:将如后述般的校准用的图案显示在显示器522中,并且检测由机器人300等所触摸的位置后朝PLC100中发送。
(b6:支持装置600)
支持装置600提供由PLC100所执行的用户程序的源代码编辑、目标代码转换、调试等功能。典型的是,支持装置600是通过由遵循公知架构(architecture)的通用计算机执行支持程序来实现。通用计算机的硬件结构为公知,因此不进行详细的说明。
(b7:HMI700)
HMI700向用户提示PLC100等所管理的信息,并且接受来自用户的操作后朝PLC100中输出。典型的是,HMI装置700是通过由遵循公知架构的通用计算机执行支持程序来实现。通用计算机的硬件结构为公知,因此不进行详细的说明。
<C.坐标转换及校准>
继而,对本实施方式的输送机跟踪系统1中的坐标转换及针对其的校准进行说明。
图6的(A)及(B)是用于说明本实施方式的输送机跟踪系统1中的坐标转换及跟踪的图。参照图6的(A),在设定在摄像机250的拍摄视场中的摄像机坐标系(Xc轴-Yc轴的坐标系)中,测量了工件W的位置。此经测量的位置可表示成摄像机坐标系的坐标值(Xc1、Yc1)。将摄像机坐标系的坐标值(Xc1、Yc1)作为机器人坐标系(Xrb轴-Yrb轴的坐标系)的坐标值(Xrb1、Yrb1)来表达的处理为坐标转换。本实施方式的坐标转换除将摄像机坐标系的坐标值(Xc1、Yc1)转换成机器人坐标系的坐标值(Xrb1、Yrb1)的处理以外,也可以包含其逆转换的处理。
作为坐标转换的一例,例如可使用以下的(1-1)式及(1-2)式中所示的转换式。
Xrb1=A·Xc1+B·Yc1+C…(1-1)
Yrb1=D·Xc1+E·Yc1+F…(1-2)
在上式中,系数A、系数B、系数C、系数D、系数E、系数F相当于与校准相关的参数集。
另外,作为坐标转换式,并不限定于如上所述的转换式,可使用任意的转换式。与校准相关的参数集变成对应于所使用的转换式者。
参照图6的(B),若在输送机10上搬送工件W,则位置仅变化工件W被搬送的距离,因此若将利用摄像机坐标系(Xc轴-Yc轴的坐标系)的各成分表达输送机10的每单位计数数的移动量(移动速度)者设为dX、dY,则任意的时刻t处的工件W的位置可按照以下的(2-1)式及(2-2)式中所示的换算式来算出。
Xrb1(t)=Xrb1(0)+dX·Enc(t)…(2-1)
Yrb1(t)=Yrb1(0)+dY·Enc(t)…(2-1)
其中,Enc(t)表示从工件W的位置已被测量的时机(时刻t0)的计数数起的计数数的增量。
在输送机跟踪系统1中,PLC100将由视觉传感器200测量了任意的工件W的位置的时机的计数数作为此工件W的初期计数数来保持。而且,PLC100根据关于各工件W的计数数的增量,逐步更新(即,跟踪)各工件W的位置。
PLC100根据通过由输送机10所进行的搬送而逐步更新的各工件W的位置,对机器人300输出动作指令。
若对本实施方式的输送机跟踪系统1中的处理进行概括,则如以下般。
从输送机10的上游侧依次搬送作为搬送对象的工件W。通过配置在输送机10的上游侧的摄像机250来对工件W进行拍摄,由此视觉传感器200测量成为搬送对象的工件W的位置(通常为工件W的重心位置)。PLC100将由视觉传感器200所测量的工件W的位置(摄像机坐标系的坐标值)转换成机器人坐标系的坐标值,并且对应于输送机10的移动量,依次更新各工件W的位置,并且对机器人300提供动作指令。
机器人300按照来自PLC100的动作指令,依次拾取及搬送来到规定的跟踪范围(动作范围)内的工件W。
在本实施方式的输送机跟踪系统1中,使用具有触控面板的移动设备500实施校准。以下,对校准的工序等进行说明。
<D.校准处理(其一)>
首先,对校准处理(其一)进行说明。在此校准处理(其一)中,使用移动设备500来代替先前的包含校准用的图案的片材。
(d1:概略)
图7是用于说明本实施方式的校准处理(其一)的示意图。图8是表示本实施方式的校准处理(其一)的处理工序的流程图。
参照图7及图8,首先使移动设备500处于显示校准用的一个或多个图案550的状态(步骤S1),在此状态下将移动设备500配置在摄像机250的拍摄视场的输送机10上(步骤S2)。
继而,通过摄像机250来对显示一个或多个图案550的移动设备500进行拍摄(步骤S3),并且视觉传感器200对经拍摄的图像进行图案匹配等,由此测量图案550的位置(例如,中心位置或重心位置)(步骤S4)。
其后,驱动输送机10,将移动设备500搬送至跟踪范围(机器人300的动作范围)内(步骤S5)。然后,用户使用示教盒380等,将机器人300的手前端320定位在移动设备500上所显示的图案550上(步骤S6)。如此,移动设备500在配置在拍摄视场中并由摄像机250进行拍摄后,接受机器人300的触摸动作。
移动设备500检测机器人300的手前端320已被定位的位置,并朝PLC100中发送表示此位置的信息(步骤S7)。
然后,判断是否在预定的数量的图案550上进行了定位(步骤S8)。若未在预的数量的图案550上进行定位(步骤S8中,否(NO)),则重复步骤S6以下的处理。若在预定的数量的图案550上进行了定位(步骤S8中,是(YES)),则执行步骤S9以下的处理。
另外,机器人300的手前端320的定位对象也可以仅为一个图案550,但优选针对三个图案550进行定位。
PLC100根据(1)显示在移动设备500的显示器中的图案550的位置测量结果、(2)移动设备500的显示器上的各图案550的显示位置、(3)在移动设备500中所检测到的手前端320的位置、(4)机器人300的示教结果(机器人坐标系的手前端320的位置)、(5)输送机10的移动量,算出与校准相关的参数集(步骤S9)。然后,PLC100存储所算出的参数集(步骤S10)。通过如以上般的工序而完成校准。
(d2:参数集的算出)
继而,对图8的步骤S9中所示的算出与校准相关的参数集的更详细的工序进行说明。
图9是表示图8的步骤S9的处理工序的流程图。图10是用于说明图9中所示的与校准相关的参数集的算出处理的图。图9中所示的各步骤典型的是通过PLC100的处理器102执行校准程序130(参照图3)来实现。
参照图9,PLC100根据(1)显示在移动设备500的显示器中的图案550的位置测量结果,算出移动设备500的相对于输送机10的斜度θt(步骤S91)。另外,移动设备500的相对于输送机10的斜度θt的处理也可以由视觉传感器200来执行。在此情况下,PLC100从视觉传感器200获取移动设备500的相对于输送机10的斜度θt。
如图10所示,移动设备500的相对于输送机10的斜度θt是根据通过视觉传感器200对移动设备500进行拍摄所测量的各图案550的位置关系,作为相对于输送机10的移动设备500的斜度来算出。
另外,也一并获取定位对象的图案550的摄像机坐标系的坐标值(Xc1、Yc1)。
再次参照图9,PLC100继而根据(2)移动设备500的显示器上的各图案550的显示位置(移动设备500的显示器上的坐标值)、及(3)在移动设备500中所检测到的手前端320的位置(移动设备500中的显示器上的坐标值),算出与定位对象的图案550的偏离量(步骤S92)。将所算出的偏离量作为移动设备500的显示器中的坐标值的差来规定。为了后述的处理,作为沿着移动设备500的显示器的显示区域所规定的两个轴成分的组合来规定(图10中的diff_x及diff_y)。
更具体而言,如图10所示,移动设备500知道在显示器上的哪个位置上显示有图案550,因此可向PLC100通知定位对象的图案550在显示器上的坐标值(Xd1'、Yd1')。另外,移动设备500可向PLC100通知显示器上的机器人300的手前端320接触了移动设备500的坐标值(Xd1、Yd1)。
PLC100进而根据显示在移动设备500中的一个或多个图案550中的一个定位对象的图案550与触摸位置的偏离量,算出参数集。
更具体而言,PLC100根据移动设备500的相对于输送机10的方向来修正从移动设备500获取的偏离量后,算出参数集。以下,表示此处理工序。
PLC100根据定位对象的图案550的坐标值(Xd1'、Yd1')与手前端320的坐标值(Xd1、Yd1),算出将定位对象的图案550与手前端320连结的偏离量矢量diff_L(diff_x、diff_y)。另外,PLC100算出相对于移动设备500的显示器的偏离量矢量diff_L的斜度θ1(=atan(diff_y/diff_x)[rad])。
再次参照图9,PLC100根据在步骤S91中所算出的斜度θt,将在步骤S92中所算出的偏离量转换成机器人坐标系中的偏离量(步骤S93)。
更具体而言,如图10所示,PLC100使用斜度θt及斜度θ1,按照以下的(3-1)式及(3-2)式中所示的关系式,算出定位对象的图案550与手前端320之间的偏离量矢量(ΔXrb1、ΔYrb1(机器人坐标系))。
ΔXrb1=k×diff_L×cos(θt+θ1)…(3-1)
ΔYrb1=k×diff_L×sin(θt+θ1)…(3-2)
其中,系数k是用于使移动设备500的显示器的像素值的大小适合于机器人坐标系的大小的修正系数,根据显示器的大小及分辨率等而事先获取。
再次参照图9,PLC100使用机器人坐标系中的偏离量,对(4)机器人300的示教结果(Xrb1、Yrb1)进行修正,由此算出定位对象的图案550的机器人坐标系(步骤S94)。另外,PLC100根据(5)输送机10的移动量,算出定位对象的图案550在机器人坐标系中的移动量(步骤S95)。然后,PLC100使用对(1)显示在移动设备500的显示器中的图案550的位置测量结果(摄像机坐标系的坐标值)进行转换所获得的机器人坐标系的坐标值、及在步骤S95中所算出的移动量,决定关于定位对象的图案550的与校准相关的关系式(步骤S96)。在步骤S96中所决定的关系式使用转换函数Fx、转换函数Fy而变成如以下的(4-1)式及(4-2)式般。
Xrb1'=Fx(Xc1)+dX·Enc
=Xrb1+k×diff_L×cos(θt+θ1)
=Xrb1+ΔXrb1…(4-1)
Yrb1'=Fx(Yc1)+dY·Enc
=Yrb1+k×diff_L×sin(θt+θ1)
=Yrb1+ΔYrb1…(4-2)
其中,Enc表示使移动设备500移动时所计数的计数数。
再次参照图9,PLC100判断是否针对所有定位对象的图案550,完成了与校准相关的参数集的算出(步骤S97)。当残留有与校准相关的参数集的算出未完成的定位对象的图案550时(步骤S97中,否),PLC100对其他定位对象的图案550重复步骤S92以下的处理。
另一方面,当针对所有定位对象的图案550,完成了与校准相关的参数集的算出时(步骤S97中,是),PLC100根据在步骤S96中所决定的每个定位对象的图案550的关系式(所述(4-1)式及(4-2)式),算出与校准相关的参数集(步骤S98)。此参数集的算出变成解联立一次方程式。
通过如以上般的处理而完成与校准相关的参数集的算出,处理返回至图8的步骤S10。
<E.校准处理(其二)>
继而,对校准处理(其二)进行说明。在此校准处理(其二)中,先通过移动设备500来检测机器人300的手前端320的位置,然后通过摄像机250来对所检测到的位置进行拍摄,由此算出与校准相关的参数集。
(e1:概略)
图11是用于说明本实施方式的校准处理(其二)的示意图。图12是表示本实施方式的校准处理(其二)的处理工序的流程图。
参照图11及图12,首先将移动设备500配置在跟踪范围(机器人300的动作范围)内(步骤S11)。然后,用户使用示教盒380等,使机器人300的手前端320触摸移动设备500上的任意的位置(步骤S12)。移动设备500检测机器人300的手前端320已被定位的位置,并在此位置上显示图案550(步骤S13)。
其后,朝反方向驱动输送机10,将移动设备500搬送至摄像机250的拍摄视场中(步骤S14)。继而,通过摄像机250来对显示图案550的移动设备500进行拍摄(步骤S15),并且视觉传感器200对经拍摄的图像进行图案匹配等,由此测量图案550的位置(例如,中心位置或重心位置)(步骤S16)。
如此,移动设备500对应于机器人300的触摸位置,显示至少一个图案550。而且,移动设备500在接受机器人300的触摸动作后,被配置在拍摄视场中。根据通过利用摄像机250对配置在此拍摄视场中的移动设备500进行拍摄所获取的图像测量结果,算出参数集。
PLC100根据(1)显示在移动设备500的显示器中的图案550的位置测量结果、(2)在移动设备500中所检测到的手前端320的位置、(3)机器人300的示教结果(机器人坐标系的手前端320的位置)、(4)输送机10的移动量,算出与校准相关的参数集(步骤S17)。然后,PLC100存储所算出的参数集(步骤S18)。通过如以上般的工序而完成校准。
(e2:参数集的算出)
继而,对图10所示的算出与校准相关的参数集的更详细的工序进行说明。
参照图11,移动设备500检测机器人300的手前端触摸了触控面板的位置,并且在其检测到的位置上显示图案550。机器人300的示教结果(Xrb1、Yrb1)变成与所显示的图案550对应者。
其后,使移动设备500移动至摄像机250的拍摄视场为止,但此移动量Enc(使移动设备500移动时所计数的计数数)也已知。
在将移动设备500配置在摄像机250的拍摄视场中的状态下,摄像机250对移动设备500进行拍摄,由此可获取图案550的位置(Xc1、Yc1)。
最终使用转换函数Fx、转换函数Fy,变成如以下的(5-1)式及(5-2)式般。
Fx(Xc1)+dX·Enc=Xrb1…(5-1)
Fy(Xc1)+dY·Enc=Yrb1…(5-2)
PLC100根据此(5-1)式及(5-2)式,算出与校准相关的参数集。
<F.用户接口>
继而,对本实施方式的移动设备500中所提供的用户接口的一例进行说明。
(f1:朝触摸位置的引导)
在移动设备500中,也能够以与其他图案550不同的形态显示一个或多个图案550中的应触摸的图案550。
图13是表示本实施方式的移动设备500中所提供的用户接口画面的一例的图。参照图13,在移动设备500的显示器中显示校准用的一个或多个图案550。除这些图案550的显示以外,也可以在校准的各阶段中,强调显示应对机器人300的手前端320进行定位的图案550。即,在定位对象的图案550中附加表示其是定位对象的强调显示560。
用户按照此种强调显示560,对机器人300的手前端320进行定位。当必须将机器人300的手前端320依次定位在多个图案550上时,依次切换强调显示560的显示位置。
通过使用表示利用机器人300的手前端320触摸哪一个图案550才好的强调显示560,可减少由用户所进行的校准的操作的繁杂性。即,可避免如用户利用手前端320触摸错误的图案550般的事态。
由此,即便是缺乏经验的用户,也可以适当地执行校准。
(f2:触摸位置的确认)
在移动设备500中,也可以将一个或多个图案550与实际被触摸的触摸位置一同显示。
图14是表示本实施方式的移动设备500中所提供的用户接口画面的另一例的图。参照图14,在移动设备500的显示器中显示校准用的一个或多个图案550。除这些图案550的显示以外,也可以提供机器人300的手前端320被定位后,移动设备500显示手前端320的触摸已被检测到的位置的触摸位置显示570。
在图14中,作为一例,例示圆形的触摸位置显示570,但也可以使用点、椭圆、多边形、星形、波纹等任意的形状。另外,触摸位置显示570的显示颜色也可以采用任意的颜色,为了提高辨认性,也可以采用闪烁或显示颜色的变化等。
用户对机器人300的手前端320进行定位后参照触摸位置显示570,由此可确认是否已正确地定位在定位对象的图案550上。另外,通过识别定位对象的图案550与作为实际被触摸的位置的触摸位置显示570的差,可发现机器人300的习惯或倾向,而可提升用于校准的机器人300的操作技能。
(f3:校准精度的显示)
在本实施方式的校准中,可根据参数集的算出过程中的与回归方程式的差异等,算出校准精度。此校准精度典型的是在PLC100中算出。也可以朝移动设备500中发送在PLC100中算出的校准精度。在采用此种结构的情况下,可经由移动设备500而向用户通知校准精度。
即,在移动设备500中,也可以显示由PLC100所算出的参数集的精度。
在本实施方式的输送机跟踪系统1中,通过无线通信等而朝PLC100中发送由移动设备500所检测到的触摸位置。而且,在PLC100中算出与校准相关的参数集,并且也算出所算出的校准的校准精度。而且,所算出的校准精度被发送回移动设备500中,由此用户可立即确认进行校准的操作的结果,若在判断为未获得充分的校准精度的情况下,则可立即重新进行校准的操作。
图15是表示本实施方式的移动设备500中所提供的用户接口画面的另一例的图。参照图15,在移动设备500的显示器中显示从PLC100所接收的校准精度的数值(数值显示580),并且也显示询问校准的重新进行的消息582。
针对此种消息582,用户在重新进行校准的情况下,选择“是”的按钮584,在并非如此的情况下,选择“否”的按钮586。
或者,也可以在校准精度未达到预定的值的情况下,向用户指示重新进行校准的意思。
如此,根据本实施方式的移动设备500,若进行校准的操作,则可立即确认校准精度,因此可确实地判断是否适当地进行了校准。另外,由用户自身考虑适当地进行了校准时的原因等,由此可提升用于校准的机器人300的操作技能。
(f4:机器人操作支援)
在本实施方式的输送机跟踪系统1中,在移动设备500中,可算出所显示的图案550的位置与手前端320实际触摸的位置的差,因此可根据所算出的差,获取由用户所进行的校准操作的习惯或倾向。也可以对应于此种用户的习惯或倾向,对用户支援机器人300的操作方法。
图16是表示本实施方式的移动设备500中所提供的用户接口画面的另一例的图。参照图16,在移动设备500的显示器中,例如也可以显示所获取的由用户进行的校准操作的习惯或倾向的内容,并且显示包含对应于此习惯或倾向的指导的支援消息590。
具体而言,在支援消息590中提示用户操作的倾向,并且提示如用于用户对机器人300的手前端320进行操作的窍门般的内容。通过向用户提示此种支援消息590,例如在如用户重新进行校准般的情况下,可更适当地对机器人300的手前端320进行定位。通过向用户提示此种支援消息590,可提升用于校准的机器人300的操作技能。
<G.附注>
如上所述的本实施方式包含如下的技术思想。
[结构1]
一种输送机跟踪系统,其包括:
搬送装置10,搬送工件W;
机器人300,与所述搬送装置建立关联来配置,并拾取由所述搬送装置所搬送的工件;
拍摄部250,在所述搬送装置的搬送路径中具有拍摄视场;
视觉传感器200,执行对于由所述拍摄部所拍摄的图像的图像测量;
控制装置100,根据由所述视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于所述机器人的动作指令;以及
移动设备500,用于所述参数集的算出处理,并具有触控面板520;
所述移动设备包含:
在预位置上显示一个或多个图案550的部件520;以及
对应于在显示有所述一个或多个图案的状态下被触摸,朝所述控制装置中发送表示此被触摸的触摸位置的信息的部件516;
所述控制装置包含如下的部件130:
根据所述移动设备以显示有所述一个或多个图案的状态配置在所述拍摄视场中时的由所述视觉传感器所得的图像测量结果、所述移动设备由所述机器人触摸时的所述触摸位置、以及所述移动设备配置在所述拍摄视场中的状态的位置与由所述机器人触摸时的位置之间的距离,算出所述参数集。
[结构2]
根据结构1中记载的输送机跟踪系统,所述移动设备在配置在所述拍摄视场中并由所述拍摄部进行拍摄后,接受所述机器人的触摸动作。
[结构3]
根据结构1或结构2中记载的输送机跟踪系统,所述控制装置进而根据显示在所述移动设备中的所述一个或多个图案中的一个图案与所述触摸位置的偏离量,算出所述参数集。
[结构4]
根据结构3中记载的输送机跟踪系统,所述控制装置根据所述移动设备的相对于所述搬送装置的方向对所述偏离量进行修正后,算出所述参数集。
[结构5]
根据结构1中记载的输送机跟踪系统,所述移动设备对应于所述机器人的触摸位置,显示至少一个图案,且
在接受所述机器人的触摸动作后,被配置在所述拍摄视场中。
[结构6]
根据结构1至结构5的任一项中记载的输送机跟踪系统,所述移动设备以与其他图案不同的形态560显示所述一个或多个图案中的应触摸的图案。
[结构7]
根据结构1至结构6的任一项中记载的输送机跟踪系统,所述移动设备将所述一个或多个图案与所述触摸位置570一同显示。
[结构8]
根据结构1至结构7的任一项中记载的输送机跟踪系统,所述移动设备显示由所述控制装置所算出的参数集的精度580。
[结构9]
根据结构1至结构8的任一项中记载的输送机跟踪系统,所述控制装置与所述移动设备之间通过无线通信来交换数据。
[结构10]
一种输送机跟踪系统中的校准方法,其是输送机跟踪系统1中的校准方法,
所述输送机跟踪系统包括:
搬送装置10,搬送工件W;
机器人300,与所述搬送装置建立关联来配置,并拾取由所述搬送装置所搬送的工件;
拍摄部250,在所述搬送装置的搬送路径中具有拍摄视场;
视觉传感器200,执行对于由所述拍摄部所拍摄的图像的图像测量;以及
控制装置100,根据由所述视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于所述机器人的动作指令;
所述校准方法包括:
在具有触控面板的移动设备的显示器的预定位置上显示一个或多个图案的步骤(S1);
以在所述移动设备的显示器中显示有所述一个或多个图案的状态将所述移动设备配置在所述拍摄视场中,并且通过所述视觉传感器来获取对于对所述移动设备进行拍摄所获得的图像的图像测量结果的步骤(S2~S4);
获取所述移动设备以在所述移动设备的显示器中显示有所述一个或多个图案的状态由所述机器人触摸时的触摸位置的步骤(S5~S7);以及
根据所述图像测量结果、所述触摸位置、及所述移动设备配置在所述拍摄视场中的状态的位置与由所述机器人触摸时的位置之间的距离,算出所述参数集的步骤(S9)。
<H.总结>
当运用如本实施方式的输送机跟踪是,必须通过校准来算出用于进行摄像机坐标系与机器人坐标系之间的转换的参数集。
作为先前的校准方法,将包含校准用的图案的片材配置在输送机上,并且利用摄像机进行拍摄,由此以摄像机坐标系的坐标值的形式获取图案的重心位置。然后,使输送机动作,而使校准用的图案移动至机器人拾取工件的位置为止。然后,将机器人的手前端定位在校准用的各图案的重心位置上,由此示教其位置(机器人坐标系的坐标值)。最终,根据摄像机坐标系的坐标值(由摄像机所得的测量结果)、机器人坐标系的坐标值(机器人的示教结果)、及输送机的移动距离,算出参数集。此时,机器人的示教至少需要三处。
在如上所述的先前的方法中,若不将机器人的示教位置与校准用的图案正确地对位,则坐标转换式变成包含误差者。若使用此种包含误差的坐标转换式来生成用于进行拾取动作的指令,则机器人吸附或抓住工件会失败。
相对于此,在本实施方式中,使用具有触控面板的移动设备500,以在移动设备500的显示器中显示有校准用的图案的状态,利用摄像机对移动设备500进行拍摄,由此获取各图案的重心位置。
另外,利用机器人300的手前端320触摸移动设备500,由此获取此时的示教位置与显示在移动设备500的显示器中的校准用的图案的位置。朝PLC100中发送这些由移动设备500所获取的信息,由此在PLC100中算出校准用的参数集。
根据本实施方式,可获取对于机器人300的示教位置(机器人坐标系的坐标值)、及此时移动设备500实际检测到的坐标值的信息,因此可修正示教位置的误差。由此,与先前的使用包含校准用的图案的片材的情况相比,可提高校准的精度。
另外,根据本实施方式,可缓和先前的方法中所要求的必须在至少三处位置上对机器人进行示教的限制,由此可缩短校准所需要的时间。
在本实施方式中,可在移动设备500中显示实际被触摸的位置、或所算出的参数集的校准精度等,因此可提高与校准相关的用户的操作性。
本次所揭示的实施方式应认为于所有方面均为例示而非进行限制者。本发明的范围由权利要求而非所述说明来表示,且意图包含与权利要求均等的含义及范围内的所有变更。
Claims (9)
1.一种输送机跟踪系统,其特征在于包括:
搬送装置,搬送工件;
机器人,与所述搬送装置建立关联来配置,并拾取由所述搬送装置所搬送的工件;
拍摄部,在所述搬送装置的搬送路径中具有拍摄视场;
视觉传感器,执行对于由所述拍摄部所拍摄的图像的图像测量;
控制装置,根据由所述视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于所述机器人的动作指令;以及
移动设备,用于所述参数集的算出处理,并具有触控面板;
所述移动设备包含:
显示部件,在预定位置上显示一个或多个图案;以及
发送部件,对应于在显示有所述一个或多个图案的状态下被触摸,朝所述控制装置中发送表示所述被触摸的触摸位置的信息;
所述控制装置包含:
算出部件,根据所述移动设备以显示有所述一个或多个图案的状态配置在所述拍摄视场中时的由所述视觉传感器所得的图像测量结果、所述移动设备由所述机器人触摸时的所述触摸位置、以及所述移动设备配置在所述拍摄视场中的状态的位置与由所述机器人触摸时的位置之间的距离,算出所述参数集,所述参数集用于摄像机坐标系与机器人坐标系之间的校准,
所述控制装置进而根据显示在所述移动设备中的所述一个或多个图案中的一个图案与所述触摸位置的偏离量,算出所述参数集。
2.根据权利要求1所述的输送机跟踪系统,其特征在于,
所述移动设备在配置在所述拍摄视场中并由所述拍摄部进行拍摄后,接受所述机器人的触摸动作。
3.根据权利要求1所述的输送机跟踪系统,其特征在于,
所述控制装置根据所述移动设备的相对于所述搬送装置的方向对所述偏离量进行修正后,算出所述参数集。
4.根据权利要求1所述的输送机跟踪系统,其特征在于,
所述移动设备对应于所述机器人的触摸位置,显示至少一个图案,且
在接受所述机器人的触摸动作后,被配置在所述拍摄视场中。
5.根据权利要求1或2所述的输送机跟踪系统,其特征在于,
所述移动设备以与其他图案不同的形态显示所述一个或多个图案中的应触摸的图案。
6.根据权利要求1或2所述的输送机跟踪系统,其特征在于,
所述移动设备将所述一个或多个图案与所述触摸位置一同显示。
7.根据权利要求1或2所述的输送机跟踪系统,其特征在于,
所述移动设备显示由所述控制装置所算出的参数集的精度。
8.根据权利要求1或2所述的输送机跟踪系统,其特征在于,
所述控制装置与所述移动设备之间通过无线通信来交换数据。
9.一种输送机跟踪系统中的校准方法,其特征在于,
所述输送机跟踪系统包括:
搬送装置,搬送工件;
机器人,与所述搬送装置建立关联来配置,并拾取由所述搬送装置所搬送的工件;
拍摄部,在所述搬送装置的搬送路径中具有拍摄视场;
视觉传感器,执行对于由所述拍摄部所拍摄的图像的图像测量;以及
控制装置,根据由所述视觉传感器所得的图像测量结果,使用事先算出的参数集来生成对于所述机器人的动作指令;
所述校准方法包括:
在具有触控面板的移动设备的显示器的预定的位置上,显示一个或多个图案;
以在所述移动设备的显示器中显示有所述一个或多个图案的状态,将所述移动设备配置在所述拍摄视场中,并且通过所述视觉传感器来获取对于对所述移动设备进行拍摄所获得的图像的图像测量结果;
获取所述移动设备以在所述移动设备的显示器中显示有所述一个或多个图案的状态由所述机器人触摸时的触摸位置;以及
根据所述图像测量结果、所述触摸位置、及所述移动设备配置在所述拍摄视场中的状态的位置与由所述机器人触摸时的位置之间的距离,算出所述参数集,所述参数集用于摄像机坐标系与机器人坐标系之间的校准,
所述控制装置进而根据显示在所述移动设备中的所述一个或多个图案中的一个图案与所述触摸位置的偏离量,算出所述参数集。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018026357A JP6859967B2 (ja) | 2018-02-16 | 2018-02-16 | コンベアトラッキングシステムおよびキャリブレーション方法 |
JP2018-026357 | 2018-02-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110154017A CN110154017A (zh) | 2019-08-23 |
CN110154017B true CN110154017B (zh) | 2022-07-26 |
Family
ID=64277601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811353841.5A Active CN110154017B (zh) | 2018-02-16 | 2018-11-14 | 输送机跟踪系统以及校准方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11021333B2 (zh) |
EP (1) | EP3527335B1 (zh) |
JP (1) | JP6859967B2 (zh) |
CN (1) | CN110154017B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6579498B2 (ja) * | 2017-10-20 | 2019-09-25 | 株式会社安川電機 | 自動化装置及び位置検出装置 |
US11745354B2 (en) | 2018-08-16 | 2023-09-05 | Mitutoyo Corporation | Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot |
US10751883B2 (en) * | 2018-08-16 | 2020-08-25 | Mitutoyo Corporation | Robot system with supplementary metrology position coordinates determination system |
US10871366B2 (en) | 2018-08-16 | 2020-12-22 | Mitutoyo Corporation | Supplementary metrology position coordinates determination system for use with a robot |
US11002529B2 (en) | 2018-08-16 | 2021-05-11 | Mitutoyo Corporation | Robot system with supplementary metrology position determination system |
US10913156B2 (en) | 2018-09-24 | 2021-02-09 | Mitutoyo Corporation | Robot system with end tool metrology position coordinates determination system |
US11707842B2 (en) * | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
US11605177B2 (en) * | 2019-06-11 | 2023-03-14 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
US11335021B1 (en) | 2019-06-11 | 2022-05-17 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
CN110936355B (zh) * | 2019-11-25 | 2021-06-22 | 广州微林软件有限公司 | 一种基于视觉测速定位的机械臂引导系统和方法 |
CN113134829B (zh) * | 2020-01-17 | 2022-10-18 | 北京配天技术有限公司 | 机器人跟踪传送带上的工件的方法以及机器人跟踪系统 |
CN114929436B (zh) * | 2020-01-22 | 2024-09-20 | Abb瑞士股份有限公司 | 用于控制机器人的系统和方法、电子设备和计算机可读介质 |
US11584013B2 (en) * | 2020-03-31 | 2023-02-21 | Wipro Limited | System, device and method for determining error in robotic manipulator-to-camera calibration |
JP2022052995A (ja) * | 2020-09-24 | 2022-04-05 | セイコーエプソン株式会社 | ロボットの制御方法およびロボットシステム |
US11300940B1 (en) * | 2020-09-29 | 2022-04-12 | Rockwell Automation Technologies, Inc. | Application code manager and intellicenter integration |
JP2022061700A (ja) * | 2020-10-07 | 2022-04-19 | セイコーエプソン株式会社 | ベルトコンベアキャリブレーション方法、ロボット制御方法、ロボットシステム、プログラム |
CN112249642A (zh) * | 2020-10-22 | 2021-01-22 | 广州文冲船厂有限责任公司 | 一种法兰放置方法及系统 |
KR102384648B1 (ko) * | 2020-10-30 | 2022-04-11 | 한국전자기술연구원 | 터치를 이용한 로봇의 캘리브레이션 시스템 및 방법 |
EP4289572A1 (en) | 2021-02-08 | 2023-12-13 | G-Tekt Corporation | Palletizing system, and external appearance inspecting device |
JPWO2023067645A1 (zh) * | 2021-10-18 | 2023-04-27 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008012604A (ja) * | 2006-07-03 | 2008-01-24 | Fanuc Ltd | 計測装置及びキャリブレーション方法 |
CN102233579A (zh) * | 2010-04-28 | 2011-11-09 | 株式会社安川电机 | 机器人作业成败判定系统以及方法 |
CN102233587A (zh) * | 2010-04-28 | 2011-11-09 | 株式会社安川电机 | 用于检测机器人的接触位置的装置及方法 |
JP2012187651A (ja) * | 2011-03-09 | 2012-10-04 | Omron Corp | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3479969B2 (ja) * | 1999-09-06 | 2003-12-15 | 村田機械株式会社 | 搬送システムのティーチング方法とその装置 |
JP3703411B2 (ja) * | 2001-07-19 | 2005-10-05 | ファナック株式会社 | ワーク取り出し装置 |
US6822412B1 (en) * | 2003-06-11 | 2004-11-23 | Zhongxue Gan | Method for calibrating and programming of a robot application |
JP2009290852A (ja) | 2008-04-30 | 2009-12-10 | Japan Novel Corp | 機器、装置の機能チェック装置 |
EP2255930A1 (de) * | 2009-05-27 | 2010-12-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
JP5316563B2 (ja) * | 2011-02-15 | 2013-10-16 | オムロン株式会社 | 画像処理装置および画像処理システム |
JP5810562B2 (ja) * | 2011-03-15 | 2015-11-11 | オムロン株式会社 | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 |
JP5464177B2 (ja) * | 2011-06-20 | 2014-04-09 | 株式会社安川電機 | ピッキングシステム |
EP2537645B1 (en) * | 2011-06-20 | 2017-10-25 | Kabushiki Kaisha Yaskawa Denki | Robot System |
US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
GB201311600D0 (en) * | 2013-06-28 | 2013-08-14 | Renishaw Plc | Calibration of a contact probe |
JP6264967B2 (ja) * | 2014-03-14 | 2018-01-24 | オムロン株式会社 | ロボット制御装置 |
JP6415190B2 (ja) * | 2014-09-03 | 2018-10-31 | キヤノン株式会社 | ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法 |
US9656390B2 (en) * | 2014-11-10 | 2017-05-23 | Faro Technologies, Inc. | Human-centric robot with noncontact measurement device |
EP3277468A4 (en) * | 2015-04-02 | 2019-10-16 | ABB Schweiz AG | METHOD FOR COMMISSIONING AN INDUSTRIAL ROBOT, INDUSTRIAL ROBOT SYSTEM AND CONTROL SYSTEM USING THE SAME |
JP2016215319A (ja) * | 2015-05-20 | 2016-12-22 | ライフロボティクス株式会社 | ロボットシステム及びロボット装置 |
JP6458713B2 (ja) * | 2015-11-18 | 2019-01-30 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
JP6551184B2 (ja) * | 2015-11-18 | 2019-07-31 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
JP6308248B2 (ja) * | 2016-06-22 | 2018-04-11 | オムロン株式会社 | コンベアトラッキング等に向けられたガイダンス装置 |
-
2018
- 2018-02-16 JP JP2018026357A patent/JP6859967B2/ja active Active
- 2018-11-12 EP EP18205720.8A patent/EP3527335B1/en active Active
- 2018-11-13 US US16/188,281 patent/US11021333B2/en active Active
- 2018-11-14 CN CN201811353841.5A patent/CN110154017B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008012604A (ja) * | 2006-07-03 | 2008-01-24 | Fanuc Ltd | 計測装置及びキャリブレーション方法 |
CN102233579A (zh) * | 2010-04-28 | 2011-11-09 | 株式会社安川电机 | 机器人作业成败判定系统以及方法 |
CN102233587A (zh) * | 2010-04-28 | 2011-11-09 | 株式会社安川电机 | 用于检测机器人的接触位置的装置及方法 |
JP2012187651A (ja) * | 2011-03-09 | 2012-10-04 | Omron Corp | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6859967B2 (ja) | 2021-04-14 |
CN110154017A (zh) | 2019-08-23 |
EP3527335B1 (en) | 2020-12-30 |
JP2019141935A (ja) | 2019-08-29 |
US20190256300A1 (en) | 2019-08-22 |
EP3527335A1 (en) | 2019-08-21 |
US11021333B2 (en) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110154017B (zh) | 输送机跟踪系统以及校准方法 | |
JP5316563B2 (ja) | 画像処理装置および画像処理システム | |
JP5810562B2 (ja) | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 | |
CN105269578B (zh) | 指示装置以及机器人系统 | |
JP4021413B2 (ja) | 計測装置 | |
JP5370398B2 (ja) | 画像処理装置および画像処理プログラム | |
US10571254B2 (en) | Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method | |
JP6308248B2 (ja) | コンベアトラッキング等に向けられたガイダンス装置 | |
JP2012187651A (ja) | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 | |
JP2008021092A (ja) | ロボットシステムのシミュレーション装置 | |
JP2020055096A (ja) | 情報処理装置、情報処理方法及びシステム | |
CN109556510B (zh) | 位置检测装置以及计算机可读存储介质 | |
JP2016185572A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP2019115974A (ja) | ビジョンベース操作システムのキャリブレーション及びオペレーション | |
US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
CN114080590A (zh) | 使用先进扫描技术的机器人料箱拾取系统和方法 | |
JP2019098409A (ja) | ロボットシステムおよびキャリブレーション方法 | |
KR20130075712A (ko) | 레이저비전 센서 및 그 보정방법 | |
JP2011104759A (ja) | ロボット制御システムの教示用補助具、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システム | |
JP6915288B2 (ja) | 画像処理システム、画像処理装置、FPGA(Field Programmable Gate Array)における回路の再構成方法、および、FPGAにおける回路の再構成プログラム | |
JP2022122648A (ja) | 制御装置 | |
JP2022080992A (ja) | 測定装置、制御装置、制御方法及びプログラム | |
JP5740649B2 (ja) | 画像測定装置、オートフォーカス制御方法及びオートフォーカス制御プログラム | |
EP4155037A1 (en) | Work program production system and work program production method | |
CN115397626A (zh) | 坐标系设定系统和位置姿势测量系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |