CN112008690A - 机器人系统及便携式示教装置 - Google Patents
机器人系统及便携式示教装置 Download PDFInfo
- Publication number
- CN112008690A CN112008690A CN202010470068.1A CN202010470068A CN112008690A CN 112008690 A CN112008690 A CN 112008690A CN 202010470068 A CN202010470068 A CN 202010470068A CN 112008690 A CN112008690 A CN 112008690A
- Authority
- CN
- China
- Prior art keywords
- robot
- display
- mobile robot
- unit
- teaching device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 104
- 238000004891 communication Methods 0.000 claims description 95
- 230000033001 locomotion Effects 0.000 claims description 39
- 239000003550 marker Substances 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 38
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 29
- 238000005516 engineering process Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 238000009434 installation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 210000000078 claw Anatomy 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- JCYWCSGERIELPG-UHFFFAOYSA-N imes Chemical compound CC1=CC(C)=CC(C)=C1N1C=CN(C=2C(=CC(C)=CC=2C)C)[C]1 JCYWCSGERIELPG-UHFFFAOYSA-N 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/087—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0084—Programme-controlled manipulators comprising a plurality of manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1615—Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
- B25J9/162—Mobile manipulator, movable base with manipulator arm mounted on it
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
本申请提供机器人系统及便携式示教装置,即便是在机器人能够移动的情况下,也能够直观地选择应选择的机器人以进行示教。一种机器人系统,其特征在于,具有:移动型机器人,能够移动;便携式示教装置,对所述移动型机器人进行示教,并具有显示信息的显示部;第一检测部,检测所述便携式示教装置的当前位置;第二检测部,检测所述移动型机器人的当前位置;以及显示控制部,基于所述第一检测部的检测结果以及所述第二检测部的检测结果,使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置显示于所述显示部。
Description
技术领域
本发明涉及机器人系统及便携式示教装置。
背景技术
已提出一种系统,其通过无线通信连接一台便携式示教装置即所谓的示教盒和多台机器人来操作机器人。
例如,专利文献1中公开了一种机器人系统,其具有多台机器人、控制各机器人的控制器以及通过无线通信与控制器连接的示教装置。另外,该机器人系统具有设置于示教装置的示教装置位置测量部。该示教装置位置测量部使用像室内GPS(Global PositioningSystem:全球定位系统)这样的位置识别系统来求出示教装置在工厂内的位置,并将其显示于示教装置的显示器。另一方面,在显示器中预先显示机器人在工厂内的配置图。由此,能够在显示器上显示机器人的配置图以及示教装置的位置双方,所以例如在使用示教装置选择想要操作的机器人时,能够直观地进行选择。
专利文献1:日本专利特开2008-197856号公报
以往的机器人由于固定在工厂的地板等处,所以机器人彼此之间的位置关系不会变化。但是,近年来开发出了像自主移动机器人这样地能够移动的机器人。关于自主移动机器人,由于机器人的位置时刻变化,所以示教装置与机器人的位置关系也不断地变化。其结果,当使用示教装置选择想要操作的机器人时,有可能选中与应选择的机器人不同的机器人。
发明内容
本发明的应用例涉及的机器人系统其特征在于,具有:移动型机器人,能够移动;便携式示教装置,对所述移动型机器人进行示教,并具有显示信息的显示部;第一检测部,检测所述便携式示教装置的当前位置;第二检测部,检测所述移动型机器人的当前位置;以及显示控制部,基于所述第一检测部的检测结果以及所述第二检测部的检测结果,使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置显示于所述显示部。
本发明的应用例涉及的便携式示教装置其特征在于,对能够移动的移动型机器人进行示教,并具备:显示部,显示信息;以及显示控制部,基于第一检测部的检测结果以及第二检测部的检测结果,使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置显示于所述显示部,所述第一检测部检测所述便携式示教装置的当前位置,所述第二检测部检测所述移动型机器人的当前位置。
附图说明
图1是示意性示出第一实施方式涉及的机器人系统的图。
图2是图1所示的机器人系统的功能框图。
图3是示意性示出图2所示的第一检测部的结构的功能框图。
图4是示意性示出图2所示的第二检测部的结构的功能框图。
图5是示出实现机器人系统的各部的功能的硬件结构的一例的图。
图6是为了说明第一实施方式涉及的机器人系统的工作内容而示出便携式示教装置和移动型机器人的配置例的概念图。
图7是示出显示有与图6所示的配置例对应的内容的便携式示教装置的显示部的图。
图8是示出一个移动型机器人进行了移动时的轨迹的例子的图。
图9是示出在显示部中将图8所示的移动型机器人的轨迹显示为线的例子的图。
图10是示出显示有移动型机器人的外部环境的便携式示教装置的显示部的图。
图11是示出处于从多个移动型机器人之中选择了一个移动型机器人的状态的显示部的图。
图12是示出表明移动型机器人与便携式示教装置的通信状态的显示部的图。
图13是示出显示有移动型机器人预定的移动轨迹的显示部的图。
图14是示出第二实施方式涉及的机器人系统的概念图。
附图标记说明
1…机器人系统;8…头戴显示器;9…设置区域;20…移动型机器人;20A…图标;22…通信部;30…控制装置;31…机器人控制部;32…存储部;33…路径获取部;40…便携式示教装置;40A…图标;41…通信部;42…显示控制部;43…显示部;44…第一检测部;45…输入接收部;46…示教装置控制部;47…指示灯部;49…作业内容;50…台车;52…机器人控制部;60…机械臂;61…臂;62…臂;63…臂;64…臂;65…臂;66…臂;67…把持手爪;70…第二检测部;71…惯性传感器;72…标识检测部;73…运算部;74…位置发送部;81…透镜;82…框;85…显示内容;91…柱子;201…移动型机器人;201A…图标;202…移动型机器人;202A…图标;203…移动型机器人;203A…图标;204…移动型机器人;204A…图标;205…移动型机器人;205A…图标;206…移动型机器人;206A…图标;441…惯性传感器;442…标识检测部;443…运算部;444…位置接收部;BD…方向;C…光标;H…人;L1…线;L2…线;L3…线;M1…标识;M2…标识;T1…轨迹;T2…轨迹;U…用户;UD…向上方向。
具体实施方式
以下,使用附图来详细说明本发明的机器人系统以及便携式示教装置的优选实施方式。
1.第一实施方式
图1是示意性示出第一实施方式涉及的机器人系统的图。图2是图1所示的机器人系统的功能框图。
图1所示的机器人系统1具备移动型机器人20、控制装置30以及便携式示教装置40。
移动型机器人20具备可移动的台车50和搭载于台车50的机械臂60。另外,控制装置30也可以是与移动型机器人20分体的,但在本实施方式中控制装置30收纳在台车50的内部。由此,控制装置30能够与移动型机器人20一起移动。
另外,机器人系统1也可以具备一台移动型机器人20,但在图1中,机器人系统1具备多台移动型机器人20。
便携式示教装置40是对各移动型机器人20进行示教的装置,具有即便是在由用户把持的状态下也能够移动的便携性。在各图中,便携式示教装置40与各移动型机器人20之间通过无线通信来连接,但也可以通过有线通信来连接。
1.1便携式示教装置
图2所示的便携式示教装置40具备通信部41、显示控制部42、显示部43、第一检测部44、输入接收部45、示教装置控制部46以及指示灯部47。
通信部41包括通过无线通信或者有线通信来连接便携式示教装置40和各移动型机器人20的收发器。
显示控制部42基于第一检测部44的检测结果以及后述的移动型机器人20所具备的第二检测部70的检测结果,使便携式示教装置40的当前位置以及移动型机器人20的当前位置显示于显示部43。另外,当建立了通信部41与特定的移动型机器人20的通信时,通过使该移动型机器人20的显示与其它移动型机器人20不同而以视觉的方式显示通信状态。
显示部43基于来自显示控制部42的信号,显示便携式示教装置40的当前位置以及移动型机器人20的当前位置。作为显示部43,例如可以举出液晶显示装置、有机EL(ElectroLuminescence:电致发光)显示装置等。由显示部43进行的显示既可以是二维显示也可以是三维显示。在三维的情况下,具有易于使用户识别深度方向上的位置的优点。
第一检测部44在移动型机器人20所在的空间中检测便携式示教装置40的位置。在位置检测中使用在室内检测位置的公知定位技术。作为一例,可以举出基于无线LAN(LocalArea Network:局域网)的定位技术、基于RFID(Radio Frequency Identifier:无线射频识别)的定位技术、基于同时进行位置推断和地图构建的SLAM(Simultaneous Localizationand Mapping:即时定位与地图构建)的定位技术、基于IMES(Indoor Messaging System:室内定位系统)的定位技术、基于行人自主导航的定位技术、信标定位技术、基于图像识别的定位技术、基于超声波的定位技术等。另外,也可以组合两种以上的这些定位技术来谋求高精度化。进而,还可以使用像可见光、地磁这样的测距或者方向检测的技术来谋求定位技术的高精度化。
需要说明的是,第一检测部44虽然也可以设置于便携式示教装置40,但只要能够检测便携式示教装置40的位置,也可以设置在便携式示教装置40的外部。
如上所述,第一检测部44可以采用各种方式的定位技术,但在本实施方式中,作为一例,采用了并用测量便携式示教装置40相对于外部环境的位置的技术和检测存在于外部环境中的标识的技术的定位技术。
图3是示意性示出图2所示的第一检测部44的结构的功能框图。
如图3所示,在本实施方式中,在已知位置处设置有标识M1。标识M1相对于具备第一检测部44的便携式示教装置40设置在外部环境中。另外,图3所示的第一检测部44具备测量便携式示教装置40的运动状态的惯性传感器441、能够检测标识M1的标识检测部442和基于惯性传感器441的检测结果以及标识检测部442的检测结果计算便携式示教装置40的当前位置的运算部443、以及从位置发送部74接收后述的移动型机器人20的当前位置的位置接收部444。也可以将位置接收部444与通信部41集成。
惯性传感器441例如是组合有加速度传感器和角速度传感器的传感器。通过对惯性传感器441的检测结果即相对运动信息进行积分,从而能够推断移动方向和移动量。也将这样的推断技术称为航位推测法。通过航位推测法,如果能够推断出移动方向和移动量,则能够推断出当前位置,但另一方面,误差累积是一个问题。
因此,第一检测部44具备标识检测部442。标识检测部442在由航位推测法导致的误差的累积超过允许范围之前检测标识M1。由于标识M1的位置是已知的,所以通过检测标识M1,从而能够校准便携式示教装置40相对于外部环境的位置。也就是说,根据标识检测部442的检测结果求出便携式示教装置40的基准位置,消除航位推测法的误差。
另外,通过标识检测部442检测标识M1的检测方法例如可以举出用到照相机的基于视觉的检测。基于通过照相机拍摄得到的图像,能够计算从便携式示教装置40到标识M1的距离和方向。需要说明的是,基于视觉的检测例如可以用基于超声波的方法、基于激光的测距方法来代替。
如后所述,由便携式示教装置40的第一检测部44所具有的运算部443计算出的便携式示教装置40的当前位置在通过显示控制部42显示于显示部43时使用。
输入接收部45基于显示于显示部43的内容,接收用户进行的选择操作等输入操作。输入接收部45所接收到的输入操作的信号被输出到示教装置控制部46。作为输入接收部45,例如可以举出触摸面板、滑垫、小键盘、键盘等。其中,关于触摸面板,优选与显示部43的显示面重叠设置。
示教装置控制部46基于输入接收部45所接收到的输入操作,选择一个移动型机器人20,并使通信部41建立与该移动型机器人20的通信。然后,向建立了通信的移动型机器人20输出各种操作信号。由此,对移动型机器人20进行示教作业。另外,根据通信部41中的通信状况,变更指示灯部47的点亮模式。
指示灯部47例如由LED(Light Emitting Diode:发光二极管)灯等构成。在指示灯部47中,例如通过点亮模式来表示通信部41与移动型机器人20的通信状态。由此,能够使用户更加直观地识别通信状态。另外,LED灯也可以采用能够独立地点亮多种颜色的光的灯。由此,还能够根据点亮颜色来表示通信状态。
也可以对便携式示教装置40设置其它任意的设备等。
1.2移动型机器人
图2所示的移动型机器人20具备台车50、机械臂60、通信部22以及第二检测部70。
图1所示的机械臂60是所谓的六轴垂直多关节机械臂。该机械臂60具有臂61、臂62、臂63、臂64、臂65以及臂66。这些臂61~66从基端侧朝向前端侧被依次连结。各臂61~66能够相对于相邻的臂或台车50进行转动。
如图1所示,在机械臂60的前端连接有把持作业对象物的把持手爪67。需要说明的是,把持手爪67可更换,也可以使用吸附手、磁手、拧紧工具、接合工具等来代替把持手爪67。
移动型机器人20具有驱动部,该驱动部具备使一个臂相对于另一个臂或者台车50进行转动的未图示的电机和未图示的减速器。另外,移动型机器人20具有检测电机或者减速器的旋转轴的旋转角度的未图示的位置传感器。驱动部和位置传感器例如设置于台车50和各臂61~66,并且能够相互独立地驱动各臂。需要说明的是,各驱动部和各位置传感器能够分别与控制装置30可通信地连接。
需要说明的是,机械臂60的臂的数量也可以是1~5条或者7条以上。另外,机械臂60既可以是SCARA机器人,也可以是具备两个或其以上的机械臂60的双臂机器人。
台车50只要是能够移动到目标位置的台车,则无特别限定,例如可以举出AMR(Autonomous Mobile Robot:自主移动机器人)、AGV(Automated Guided Vehicles:自动导引车)等。通过在控制装置30中执行作业程序而从控制装置30对台车50输出驱动控制信号。基于该驱动控制信号控制台车50的驱动,台车50移动到目标位置。
该移动虽然也可以是沿着磁带、磁棒等导向件被引导至目的地的自动引导,但本实施方式涉及的移动型机器人20是读取周围的状况自主移动到目的地的能够自主移动的机器人。即、本实施方式涉及的移动型机器人20是自主移动型机器人。这样的自主移动型机器人不需要用于进行引导的导向件就能够移动到目的地。因此,能够根据作业内容容易地变更目的地。另外,设置容易,且设置成本也比较廉价。
本实施方式涉及的移动型机器人20的自主移动通过台车50所具备的公知的自主移动系统而实现。需要说明的是,台车50所具备的自主移动系统也可以与控制装置30集成。另外,台车50优选靠动力进行移动,但也可以靠手动进行活动。
通信部22包括通过无线通信来连接移动型机器人20和便携式示教装置40的收发器。移动型机器人20与便携式示教装置40的无线通信的通信方式既可以是基础建设模式,也可以是点对点模式。
需要说明的是,移动型机器人20与便携式示教装置40也可以通过有线通信连接,但在本实施方式中通过无线通信连接。由此,没有伴随着布线的移动限制,所以移动型机器人20的机动性提高,能够提高作业效率。同样地,便携式示教装置40的便携性也进一步提高。
第二检测部70在移动型机器人20所位于的空间中检测移动型机器人20的位置。在位置检测中,与第一检测部44同样地,使用在室内检测位置的公知定位技术。作为一例,可以举出基于无线LAN的定位技术、基于RFID的定位技术、基于IMES的定位技术、基于SLAM的定位技术、基于行人自主导航的定位技术、信标定位技术、基于图像识别的定位技术、基于超声波的定位技术等。另外,也可以组合两种以上的这些定位技术来谋求高精度化。进而,还可以使用像可见光、地磁这样的测距、方向检测的技术来谋求定位技术的高精度化。
如上所述,第二检测部70能够采用各种方式的定位技术,但在本实施方式中,作为一例,采用了并用测量移动型机器人20相对于外部环境的位置姿势的技术和检测存在于外部环境中的标识的技术的定位技术。
图4是示意性示出图2所示的第二检测部70的结构的功能框图。
如图4所示,在本实施方式中,在已知位置处设置有标识M2。标识M2相对于具备第二检测部70的移动型机器人20设置在外部环境中。另外,图4所示的第二检测部70具备测量移动型机器人20的运动状态的惯性传感器71、能够检测标识M2的标识检测部72和基于惯性传感器71的检测结果以及标识检测部72的检测结果计算移动型机器人20的当前位置的运算部73、以及将计算出的移动型机器人20的当前位置向便携式示教装置40的位置接收部444发送的位置发送部74。从位置发送部74向位置接收部444的通信可以使用公知的无线通信技术。
惯性传感器71例如是组合有加速度传感器和角速度传感器的传感器。通过对惯性传感器71的检测结果即相对运动信息进行积分,从而能够推断移动方向和移动量。也将这样的推断技术称为航位推测法。通过航位推测法,如果能够推断出移动方向和移动量,则能够推断出当前位置,但另一方面,误差累积是一个问题。
因此,第二检测部70具备标识检测部72。标识检测部72在由航位推测法导致的误差的累积超过允许范围之前检测标识M2。由于标识M2的位置是已知的,所以通过检测标识M2,从而能够校准移动型机器人20相对于外部环境的位置。也就是说,根据标识检测部72的检测结果求出移动型机器人20的基准位置,消除航位推测法的误差。
需要说明的是,惯性传感器71可以用组合有角速度传感器与检测台车50的车轮的旋转量的传感器的传感器来代替。
另外,通过标识检测部72检测标识M2的检测方法例如可以举出用到照相机的基于视觉的检测。基于通过照相机拍摄得到的图像,能够计算从移动型机器人20到标识M2的距离和方向。需要说明的是,基于视觉的检测例如可以用基于超声波的方法、基于激光的测距方法来代替。
如上所述,第二检测部70具有:标识检测部72,设置于移动型机器人20,检测配置在移动型机器人20的外部环境中的标识M2;惯性传感器71,设置于移动型机器人20;以及运算部73,包括通过标识检测部72检测标识M2而求出移动型机器人20的基准位置的功能以及通过惯性传感器71求出从基准位置到移动型机器人20的当前位置为止的距离和方向的功能。
根据这样的第二检测部70,即便是比较简单的结构,也能够定位移动型机器人20的当前位置。因此,能够谋求第二检测部70的低成本化和小型化。
需要说明的是,运算部73也可以与后述的控制装置30集成。
另外,位置发送部74既可以与通信部22集成,也可以与控制装置30集成。
另外,第二检测部70也可以设置在移动型机器人20的外部。在这种情况下,只要能够通过来自外部的测量获取移动型机器人20的个体识别和进行定位即可。
另外,标识M2既可以是与标识M1相同的标识,也可以是不同的标识,不限于一个,也可以配置多个。
另外,虽然示出了从各移动型机器人20所具有的位置发送部74直接向便携式示教装置40所具有的位置接收部444发送各移动型机器人20的当前位置的例子,但不限定于此。例如,也可以构成为,向设置在各移动型机器人20和便携式示教装置40的外部环境中的诸如服务器那样的中继装置发送各移动型机器人20的当前位置,并从中继装置向便携式示教装置40发送各移动型机器人20的当前位置。在该情况下,中继装置具有通信部,通信部能够与位置接收部444和位置发送部74通信。
进而,也可以是,移动型机器人20彼此之间用照相机等摄像传感器确认相互的位置,并将确认结果反映在移动型机器人20的定位结果中。
也可以对移动型机器人20设置其它任意的设备等。具体地,可以举出对作业对象物、移动型机器人20或其周边进行拍摄的摄像部、检测施加于机械臂60的外力的诸如力传感器这样的各种传感器等。
另外,在机器人系统1具备多个移动型机器人20的情况下,各移动型机器人20的结构与上述相同。需要说明的是,各移动型机器人20具有固有的ID(识别符号)。在便携式示教装置40与各移动型机器人20的通信时,通过发送和接收附有该ID的数据,从而能够建立特定的移动型机器人20与便携式示教装置40的通信。
1.3控制装置
控制装置30具备机器人控制部31、存储部32以及路径获取部33。
机器人控制部31通过读出并执行保存在存储部32中的程序来控制机械臂60的驱动,使其进行作业。需要说明的是,对程序的选择基于来自便携式示教装置40的操作信号而进行。
另外,路径获取部33具有获取台车50预定的移动轨迹的功能。移动轨迹基于移动型机器人20的当前位置和保存在存储部32中的程序确定。
1.4机器人系统的硬件结构
前述的机器人系统1的各部的功能例如可以通过图5所示的硬件结构来实现。
图5是示出实现机器人系统1的各部的功能的硬件结构的一例的图。
图5所示的便携式示教装置40具备能够互相通信地连接的处理器、存储器、外部接口、输入装置以及输出装置。
其中,作为图5所示的处理器,例如可以举出CPU(Central Processing Unit:中央处理器)等。
另外,作为图5所示的存储器,例如可以举出RAM(Random Access Memory:随机存取存储器)等易失性存储器、ROM(Read Only Memory:只读存储器)等非易失性存储器等。需要说明的是,存储器不限于不可装卸式,也可以是可装卸式的外部存储装置。
进而,作为图5所示的外部接口,可以举出各种通信用连接器。作为一例,可以举出USB(Universal Serial Bus:通用串行总线)连接器、RS-232C连接器、有线LAN(Local AreaNetwork:局域网)等。另外,外部接口例如包括无线LAN、蓝牙(Bluetooth)(注册商标)、能够进行特定低功率无线通信等基于各种无线通信标准的无线通信的收发器。
另外,作为图5所示的输入装置,例如可以举出键盘、触摸面板等,作为输出装置,例如可以举出监视器等。
需要说明的是,便携式示教装置40除了前述的构成要素,也可以还具备其它的硬件构成要素。例如,取决于第一检测部44的结构,也可以具备无线天线、RFID标签、信标接收器、超声波收发器、光电二极管、激光二极管、照相机、地磁传感器等。
图5所示的控制装置30具备能够互相通信地连接的处理器、存储器以及外部接口。
其中,作为图5所示的处理器,例如可以举出CPU等。
另外,作为图5所示的存储器,例如可以举出RAM等易失性存储器、ROM等非易失性存储器等。需要说明的是,存储器不限于不可装卸式,也可以是可装卸式的外部存储装置。
进而,作为图5所示的外部接口,可以举出各种通信用连接器。作为一例,可以举出USB(Universal Serial Bus:通用串行总线)连接器、RS-232C连接器等。
另外,图2所示的通信部22包括收发器,该收发器能够进行基于前述的各种无线通信标准的无线通信。需要说明的是,当在无线通信中介由接入点时,接入点与通信部22之间也可以以有线的方式可通信地连接。
另外,控制装置30除了前述的构成要素之外,也可以还具备其它的硬件构成要素。
例如,便携式示教装置40也可以具备一次电池或二次电池。由此,更为提高便携性。需要说明的是,在电池余量降低了的情况下,也可以使用显示部43或者指示灯部47进行告知。在该情况下,只要暂时通过通信线和电源线连接便携式示教装置40和移动型机器人20即可。另外,也可以通过通信线连接便携式示教装置40和移动型机器人20,通过电源线连接便携式示教装置40和别的电源。
1.5便携式示教装置的工作内容
接下来,就便携式示教装置40的工作内容进行说明。
1.5.1当前位置的显示
图6是为了说明第一实施方式涉及的机器人系统1的工作内容而示出便携式示教装置40和移动型机器人20的配置例的概念图。图7是示出显示有与图6所示的配置例对应的内容的便携式示教装置40的显示部43的图。
如前所述,本实施方式涉及的机器人系统1具有可移动的移动型机器人20、具有显示信息的显示部43并对移动型机器人20进行示教的便携式示教装置40、检测便携式示教装置40的当前位置的第一检测部44、检测移动型机器人20的当前位置的第二检测部70以及基于第一检测部44的检测结果和第二检测部70的检测结果使便携式示教装置40的当前位置和移动型机器人20的当前位置显示于显示部43的显示控制部42。
根据这样的机器人系统1,例如,如图6所示,在将六台移动型机器人20设置在了设置区域9中时,能够将这六台移动型机器人20的当前位置显示于便携式示教装置40的显示部43。另外,若便携式示教装置40位于该设置区域9,则能够同样地将该便携式示教装置40的当前位置显示于显示部43。也就是说,能够将相当于通过俯瞰配置有便携式示教装置40和移动型机器人20的设置区域9而得到的配置图的信息显示于显示部43。由此,用户U不易误识别应进行示教作业的移动型机器人20,能够更可靠地对该移动型机器人20进行示教作业。
另外,本实施方式涉及的便携式示教装置40是对可移动的移动型机器人20进行示教的装置,具有显示信息的显示部43以及显示控制部42,该显示控制部42基于检测便携式示教装置40的当前位置的第一检测部44的检测结果以及检测移动型机器人20的当前位置的第二检测部70的检测结果,使便携式示教装置40的当前位置以及移动型机器人20的当前位置显示于显示部43。
根据这样的便携式示教装置40,用户U能够更可靠地对应进行示教作业的移动型机器人20进行示教作业。
以下,更详细地进行说明。
在图6中,六台移动型机器人20以围绕持有便携式示教装置40的用户U的方式位于所在位置上。这时,由于在便携式示教装置40的显示部43显示图6所示的移动型机器人20的当前位置以及用户U的当前位置,所以如图7所示,以与便携式示教装置40的朝向相应的配置显示有表示六台移动型机器人20的图标20A和表示便携式示教装置40的图标40A。
在这里,假设图6所示的六台移动型机器人20具有作为识别符号的No.01~06。此外,将与识别符号No.01~06对应的移动型机器人20设为移动型机器人201~206。另外,便携式示教装置40通过从这些移动型机器人201~206接收附有识别符号No.01~06的位置信息,从而能够将位置信息与识别编号建立对应。在这里,将与移动型机器人201~206对应的图标20A设为图标201A~206A。
图7所示的图标201A~206A的相互位置关系与图6所示的移动型机器人201~206的相互位置关系相对应。另外,在图7中便携式示教装置40的显示部43中的向上方向UD与图6中用户U所持有的便携式示教装置40的背面所朝向的方向BD相对应。换言之,显示部43的显示内容根据用户U的姿势旋转,以使方向BD总是为显示部43的向上方向UD。由此,把持着便携式示教装置40的用户U的视线方向与显示部43的向上方向UD一致。其结果,显示部43的显示内容为与用户U所看到的基本一致的内容,对于用户U来说,能够容易直观地将移动型机器人201~206与图标201A~206A建立对应。
通过以上那样的作用,在用户U例如为了从六台移动型机器人201~206中选择一台而进行从图标201A~206A中选择一个图标的操作时,弄错选择操作的概率变低。其结果,能够进行可靠的示教作业。
需要说明的是,如图7所示,在显示部43上除了显示图标201A~206A以外,也可以还显示识别符号No.01~06。由此,不仅视觉确认图标201A~206A的位置关系,而且还视觉确认识别符号No.01~06,从而能够识别各移动型机器人201~206。
另外,显示部43中的图标201A~206A的位置以及图标40A的位置根据移动型机器人201~206的当前位置以及便携式示教装置40的当前位置依次更新。因此,当移动型机器人201~206进行了移动,或者持有便携式示教装置40的用户U进行了移动时,与之相应地反映在显示部43的显示内容中。
图8是示出一个移动型机器人201进行了移动时的轨迹T1的例子的图。图9是示出将图8所示的移动型机器人201的轨迹T1在显示部43中显示为线L1的例子的图。
当如图8所示,移动型机器人201按照轨迹T1所示的路径进行了移动时,在图9中显示有与移动目的地的移动型机器人201的当前位置对应的图标201A和与轨迹T1对应的线L1。由此,用户U能够直观地确认移动型机器人201是否按规定的路径进行了移动。另外,当如图8所示,便携式示教装置40按照轨迹T2所示的路径进行了移动时,在图9中显示有与移动目的地的便携式示教装置40的当前位置对应的图标40A和与轨迹T2对应的线L2。由此,用户U能够直观地确认把持便携式示教装置40的自身以怎样的路径进行了移动。
像这样地,便携式示教装置40的显示控制部42基于便携式示教装置40的姿势变化而使表示便携式示教装置40的当前位置的图标40A的显示方式以及表示移动型机器人20的当前位置的图标201A的显示方式进行变更。由此,用户U易于使现实空间与显示内容一致,能够更直观地进行操作。其结果,选择操作与应选择的移动型机器人20不同的机器人的风险减小。
另外,也可以是,便携式示教装置40的显示控制部42具有使移动型机器人20的外部环境显示于显示部43的功能。
图10是示出显示有移动型机器人20的外部环境的便携式示教装置40的显示部43的图。
在图10所示的显示部43中显示有建筑物的柱子91作为存在于移动型机器人20周边的障碍物的例子。柱子91的位置和形状是已知的,并且即便移动型机器人20移动,其位置也不变。因此,通过将像柱子91这样的外部环境的信息事先记录于显示控制部42,从而能够使显示部43进行显示。
通过像这样地显示外部环境,用户U能够以更高的精度使现实空间中的空间识别与显示部43中的空间识别一致。即、用户U不仅能够直观地确定具有不断移动的可能性的移动型机器人20,而且还能够包含与不移动的外部环境的位置关系在内地直观地确定移动型机器人201~206中的一个。因此,选择操作与应选择的移动型机器人20不同的机器人的风险进一步减小。
进而,也可以是,当将使用便携式示教装置40的人设为作为使用者的用户U时,便携式示教装置40的显示控制部42如图10所示,具有使用户U以外的人H的当前位置显示于显示部43的功能。通过也显示这样的用户U以外的人H,从而用户U能够以更高的精度使现实空间中的空间识别与显示部43中的空间识别一致。因此,选择操作与应选择的移动型机器人20不同的机器人的风险进一步减小。
需要说明的是,关于用户U以外的人H的当前位置,例如能够通过未图示的照相机对外部环境进行拍摄,并通过图像识别处理进行检测。另外,在人H携带有能够通过无线LAN进行无线通信的设备的情况下,可以使用例如前述那样的基于无线LAN的定位技术来求出人H的当前位置。
需要说明的是,显示控制部42既可以设置在便携式示教装置40以外的地方、例如移动型机器人20,也可以独立地设置在其它地方。
另一方面,考虑到显示部43中的显示的响应性、机器人系统1的结构的简化等,优选显示控制部42设置于便携式示教装置40。由此,能够实现显示的响应性优异且能够谋求机器人系统1的结构的简化的便携式示教装置40。
另外,前述的各种图标也可以是任意的图像、字符等。也就是说,不特别限定显示当前位置等的显示内容。例如,如图7所示,也可以一并写上表示便携式示教装置40的字符TP。
1.5.2选择操作的显示
图11是示出处于从多个移动型机器人20之中选择了一个机器人的状态的显示部43的图。
在图11所示的显示部43中显示有用户U对输入接收部45进行了选择图标206A的选择操作之后的状态。通过该选择操作,选择了识别符号No.06的移动型机器人206,在移动型机器人206与便携式示教装置40之间建立无线通信。
具体地,本实施方式涉及的机器人系统1具备作为第一机器人的移动型机器人206以及作为第二机器人的移动型机器人201~205。这时,显示控制部42使移动型机器人206的当前位置和移动型机器人201~205的当前位置显示于显示部43。此外,如前所述,便携式示教装置40具有:通信部41,能够与移动型机器人206及移动型机器人205通信;以及输入接收部45,接收选择移动型机器人206的选择操作,基于选择操作,通信部41建立与移动型机器人206的通信。
由此,用户U能够基于现实空间中的移动型机器人206的当前位置与移动型机器人205的当前位置的位置关系直观地进行选择移动型机器人206的选择操作。因此,选择操作与应选择的移动型机器人206不同的机器人的风险进一步减小。其结果,能够更可靠地建立与应选择的移动型机器人206的通信。
需要说明的是,也可以是,伴随选择操作,显示控制部42具有使表示输入接收部45接收到选择操作的信息与移动型机器人206的当前位置建立关联地显示于显示部43的功能。具体地,如图11所示,使图标206A的颜色与其它图标201A~205A不同。由此,用户U能够视觉确认是否可靠地选择了之后想要进行示教作业的移动型机器人206。其结果,在选择了与应选择的移动型机器人206不同的机器人的情况下,看漏此情况的风险减小。
另外,也可以是,伴随通信的建立,显示控制部42具有使移动型机器人206与便携式示教装置40的通信状态显示于显示部43的功能。具体地,如图11所示,使图标206A的颜色与其它图标201A~205A不同。由此,用户U能够从视觉上掌握建立了与移动型机器人206的通信。其结果,选择操作与应选择的移动型机器人206不同的机器人的风险进一步减小。
需要说明的是,图标206A也可以改变颜色以外的元素、例如大小、颜色的浓淡、动作、形状、图案等。另外,优选随着通信建立的图标206A的颜色、其它元素与随着选择操作的图标206A的颜色、元素不同。由此,图标206A的颜色或元素与选择操作以及通信建立的状况变化相应地按顺序变化。其结果,能够一面区分当前的状况,一面在视觉上进行确认。
除此之外,也可以是,在建立了通信的情况下,使便携式示教装置40的指示灯部47的点亮模式发生变化。例如,在未与任何一个移动型机器人20建立通信的情况下,不使指示灯部47点亮即可。另一方面,例如在建立了与移动型机器人206的通信的情况下,使指示灯部47点亮。由此,也能够通过视觉确认指示灯部47的点亮来从视觉上掌握通信的建立。
另外,指示灯部47也可以设置于各移动型机器人20。在这种情况下,例如在建立了与移动型机器人206的通信时,使便携式示教装置40的指示灯部47点亮,并使设置于移动型机器人206的指示灯部也点亮即可。由此,也能够通过目视移动型机器人206本身来掌握建立了通信。需要说明的是,在该情况下,优选使相互的点亮颜色一致。
另外,也可以是,在建立了与移动型机器人206的通信的情况下,显示控制部42具有使移动型机器人206的当前的作业内容49显示于显示部43的功能。具体地,如图11所示,以与图标206A建立关联的方式显示移动型机器人206当前正在进行的作业内容49。由此,用户U能够掌握所选择的移动型机器人206的作业内容49。另外,也可以显示作业内容49以外的各种信息。通过显示这些信息,在用户U之后进行的示教作业之际,能够反映这些信息。另外,通过基于信息的内容,对与应选择的移动型机器人20不同的机器人进行示教作业的风险减小。需要说明的是,关于作业内容49以外的信息,可以举出与移动型机器人206有关的所有信息,例如可以举出移动型机器人20的型号名称等。
需要说明的是,在建立通信之后,通信状态有时会因某种原因变差。在无线通信的情况下,若电波强度因通信距离、障碍物的有无等而降低,则通信状态会变差。另外,在有线通信的情况下,若通信线发生了损坏等,则通信状态会变差。在出现了这样的状态的情况下,要求迅速通知用户U。由此,能够即刻对建立了通信的移动型机器人206进行处理,能够提高安全性等。
图12是示出表明移动型机器人206与便携式示教装置40的通信状态的显示部43的图。
在图12中显示出,在如图11所示建立了移动型机器人206与便携式示教装置40的通信之后,通信状态因某种原因变差的状态。具体地,使图标206A闪烁。由此,用户U能够从视觉上掌握与移动型机器人206的通信状态变差。需要说明的是,显示方法除了图标206A闪烁以外,例如还可以是图标206A的大小、颜色的浓度、动作、形状、图案等的变化。
除此之外,也可以是,在通信状态变差了的情况下,使便携式示教装置40的指示灯部47的点亮模式发生变化。例如,在移动型机器人206的通信状态变差了的情况下,使指示灯部47闪烁。由此,也能够通过视觉确认指示灯部47的闪烁来从视觉上掌握通信状态变差。
另外,在也将指示灯部47设置于各移动型机器人20的情况下,例如在与移动型机器人206的通信状态变差了时,使便携式示教装置40的指示灯部47闪烁,并且还使设置于移动型机器人206的指示灯部也闪烁即可。由此,也能够通过目视移动型机器人206本身来掌握通信状态变差了。
需要说明的是,也可以是,当建立了与移动型机器人206的通信时,便携式示教装置40输出使移动型机器人206的移动停止的信号。由此,能够通过机器人控制部31使移动型机器人206的移动停止。其结果,能够防止在通信建立之后进行示教作业时由移动型机器人206移动所导致的故障、例如通信状态变差,能够稳定地进行示教作业。
这时,也可以是,便携式示教装置40的输入接收部45针对选择两个停止模式中的哪一个模式来作为使移动型机器人20的移动停止的停止模式而接收输入操作。具体地,也可以是,在通信部22建立了与作为第一机器人的移动型机器人206的通信时,输入接收部45接收选择第一停止模式和第二停止模式中的任一停止模式的操作,所述第一停止模式是使移动型机器人206的移动停止而不使作为第二机器人的移动型机器人201~205的移动停止的模式,所述第二停止模式是使移动型机器人206和移动型机器人201~205双方即所有移动型机器人201~206的移动停止的模式。
通过像这样地能够选择停止模式,从而能够更可靠地对移动型机器人206实施示教作业,而不会大幅降低机器人系统1整体的作业生产率。
需要说明的是,除了两个停止模式以外,还可以包括不停止的模式。在这种情况下,虽然没有降低作业生产率的风险,但却存在选择操作和示教作业变得略微难些的风险。
另外,也可以是,在输入接收部45接收到选择作为第一机器人的移动型机器人201的选择操作时,显示控制部42具有读出由路径获取部33获取到的移动型机器人201预定的移动轨迹并使其显示于显示部43的功能。
图13是示出显示有移动型机器人201预定的移动轨迹的显示部43的图。
如图13所示,在显示部43中以线L3显示出移动型机器人201今后预定的移动轨迹。通过显示这样的线L3,能够直观地掌握移动型机器人201的移动目的地。由此,能够进行与移动目的地相符的示教作业,所以能够谋求示教作业的高效化。
需要说明的是,关于通过选择操作所选择的移动型机器人201以外的移动型机器人202~206,也可以在显示部43上用线来显示移动轨迹。
2.第二实施方式
接下来,就第二实施方式进行说明。
图14是示出第二实施方式涉及的机器人系统的概念图。
以下就第二实施方式进行说明,但在以下的说明中,围绕与第一实施方式的区别进行说明,对于相同事项将省略其说明。需要说明的是,在图14中,对与第一实施方式相同的结构标注相同的附图标记。
第二实施方式涉及的机器人系统1具备与便携式示教装置40可通信地连接的、与显示部43不同的头戴显示器8。也就是说,使用头戴显示器8的目的在于辅助显示部43的信息显示。
图14所示的头戴显示器8具有使移动型机器人20的实像透射的透镜81、支承透镜81的框82以及将显示内容85投影于透镜81的未图示的投影部。透镜81为半反射镜,能够使佩戴头戴显示器8的用户视觉确认实像。另外,能够使投影到透镜81的显示内容85与实像重叠显示。因此,能够使移动型机器人20的实像与显示内容85相重叠,能够从视觉上使两者建立关联。由此,用户能够容易地将移动型机器人20与附随于其的信息建立关联,能够提高掌握状况的效率。也就是说,能够采用增强现实的技术谋求促进用户的理解。
具体地,在图14中图示出通过透镜81看到移动型机器人201~203的实像的情形。另外,以与该实像相重叠的方式将与各移动型机器人201~203对应的显示内容85例如作为字符信息进行显示。作为显示内容85,除了字符以外,还可以举出图像、动画等。另外,作为字符信息,例如可以举出型号名称、可否连接、正在执行的作业名称等所有与移动型机器人201~203相关的信息。
需要说明的是,除此之外,也可以是在显示内容85中显示用于向输入接收部45的输入操作的光标C。能够通过设置于便携式示教装置40的未图示的滑垫等输入装置中的移动操作来移动图14所示的光标C。另外,与之一道地,能够通过输入装置中的选择操作选择光标C所指着的信息。因此,通过在使光标C与例如移动型机器人201的实像对准的状态下进行选择操作,从而能够与第一实施方式同样地在移动型机器人201与便携式示教装置40之间建立通信。
综上所述,本实施方式涉及的机器人系统1还具备头戴显示器8。此外,显示控制部42也可以通过增强现实技术使信息与作为第一机器人的移动型机器人20的实像重叠地显示于头戴显示器8。
根据这样的机器人系统1,通过使用增强现实技术,从而用户能够边直接视觉确认现实空间的移动型机器人20的实像,边进行选择操作。而且,还能够以与该实像相邻的方式显示各种信息,所以也不易发生搞错实像。由此,选择操作与应选择的移动型机器人20不同的机器人的风险进一步减小。
在以上这样的第二实施方式中也能够获得与第一实施方式同样的效果。
需要说明的是,与上述不同,头戴显示器8也可以被用作代替显示部43的显示部。在这种情况下,在头戴显示器8中也一并显示表示便携式示教装置40的当前位置的图标等即可。另外,前述的显示内容85也分别显示于表示移动型机器人20的当前位置的位置即可。根据这样的方式,能够用头戴显示器8来代替显示部43。另外,在这种情况下,也可以不使透镜81为半反射镜,而将头戴显示器8用作非透射型图像显示装置。进而,在这种情况下,通过电缆等将便携式示教装置40的主体与作为显示部的头戴显示器8连接即可,并在主体上设置滑垫等输入装置即可。
另外,也可以使用腕表型显示器等可穿戴式显示器来替代头戴显示器8。
以上,基于图示的实施方式对本发明的机器人系统及便携式示教装置进行了说明,但本发明并不限定于此,各部的结构能够替换成具有同样功能的任意的结构。另外,也可以在机器人系统及便携式示教装置的所述实施方式中分别附加其它任意的结构物。
Claims (16)
1.一种机器人系统,其特征在于,具有:
移动型机器人,能够移动;
便携式示教装置,对所述移动型机器人进行示教,并具有显示信息的显示部;
第一检测部,检测所述便携式示教装置的当前位置;
第二检测部,检测所述移动型机器人的当前位置;以及
显示控制部,基于所述第一检测部的检测结果以及所述第二检测部的检测结果,使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置显示于所述显示部。
2.根据权利要求1所述的机器人系统,其特征在于,
所述移动型机器人是自主移动型机器人。
3.根据权利要求1或2所述的机器人系统,其特征在于,
所述移动型机器人与所述便携式示教装置通过无线通信连接。
4.根据权利要求1或2所述的机器人系统,其特征在于,
所述显示控制部使所述移动型机器人与所述便携式示教装置的通信状态显示于所述显示部。
5.根据权利要求1或2所述的机器人系统,其特征在于,
所述第二检测部具有:
标识检测部,设置于所述移动型机器人,所述标识检测部检测配置于所述移动型机器人的外部环境中的标识;
惯性传感器,设置于所述移动型机器人;以及
运算部,包括通过所述标识检测部检测所述标识而求出所述移动型机器人的基准位置的功能以及通过所述惯性传感器求出从所述基准位置到所述移动型机器人的当前位置为止的距离和方向的功能。
6.根据权利要求1或2所述的机器人系统,其特征在于,
所述显示控制部基于所述便携式示教装置的姿势变化而使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置的显示方式进行变更。
7.根据权利要求1或2所述的机器人系统,其特征在于,
所述显示控制部使所述移动型机器人的当前的作业内容显示于所述显示部。
8.根据权利要求1或2所述的机器人系统,其特征在于,
所述显示控制部使所述移动型机器人的外部环境显示于所述显示部。
9.根据权利要求1或2所述的机器人系统,其特征在于,
当将使用所述便携式示教装置的人设为使用者时,所述显示控制部使所述使用者以外的人的当前位置显示于所述显示部。
10.根据权利要求1所述的机器人系统,其特征在于,
所述机器人系统具备第一机器人和第二机器人作为所述移动型机器人,
所述显示控制部使所述第一机器人的当前位置和所述第二机器人的当前位置显示于所述显示部,
所述便携式示教装置具有:
通信部,能够与所述第一机器人及所述第二机器人通信;以及
输入接收部,接收选择所述第一机器人的选择操作,
基于所述选择操作,所述通信部建立与所述第一机器人的通信。
11.根据权利要求10所述的机器人系统,其特征在于,
在所述通信部建立了与所述第一机器人的通信时,所述输入接收部接收选择第一停止模式和第二停止模式中的任一停止模式的操作,所述第一停止模式是使所述第一机器人的移动停止而不使所述第二机器人的移动停止的模式,所述第二停止模式是使所述第一机器人的移动以及所述第二机器人的移动停止的模式。
12.根据权利要求10或11所述的机器人系统,其特征在于,
所述显示控制部使表示所述输入接收部接收到所述选择操作的信息与所述第一机器人的当前位置建立关联地显示于所述显示部。
13.根据权利要求12所述的机器人系统,其特征在于,
所述机器人系统具备头戴显示器,
所述显示控制部通过增强现实技术使所述信息与所述第一机器人的实像重叠地显示于所述头戴显示器。
14.根据权利要求10或11所述的机器人系统,其特征在于,
在所述输入接收部接收到所述选择操作时,所述显示控制部读出所述第一机器人预定的移动轨迹并使所述移动轨迹显示于所述显示部。
15.根据权利要求1所述的机器人系统,其特征在于,
所述显示控制部设置于所述便携式示教装置。
16.一种便携式示教装置,其特征在于,对能够移动的移动型机器人进行示教,并具有:
显示部,显示信息;以及
显示控制部,基于第一检测部的检测结果以及第二检测部的检测结果,使所述便携式示教装置的当前位置以及所述移动型机器人的当前位置显示于所述显示部,所述第一检测部检测所述便携式示教装置的当前位置,所述第二检测部检测所述移动型机器人的当前位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-101037 | 2019-05-30 | ||
JP2019101037A JP7400217B2 (ja) | 2019-05-30 | 2019-05-30 | ロボットシステムおよび可搬型教示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112008690A true CN112008690A (zh) | 2020-12-01 |
Family
ID=73506336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010470068.1A Pending CN112008690A (zh) | 2019-05-30 | 2020-05-28 | 机器人系统及便携式示教装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11577402B2 (zh) |
JP (1) | JP7400217B2 (zh) |
CN (1) | CN112008690A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6957781B1 (ja) * | 2021-06-14 | 2021-11-02 | Dmg森精機株式会社 | 自走装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197856A (ja) * | 2007-02-13 | 2008-08-28 | Yaskawa Electric Corp | 自動機械システムおよびその制御方法 |
CN104470685A (zh) * | 2013-01-18 | 2015-03-25 | 艾罗伯特公司 | 提供用于家庭环境控制的环境绘图的移动机器人 |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
CN106413501A (zh) * | 2014-05-28 | 2017-02-15 | 三星电子株式会社 | 移动装置、清洁机器人及其控制方法 |
US20170329347A1 (en) * | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
CN108687748A (zh) * | 2017-04-10 | 2018-10-23 | 发那科株式会社 | 具有外力显示功能的机器人系统、处理装置以及示教操作盘 |
CN108919810A (zh) * | 2018-07-26 | 2018-11-30 | 东北大学 | 基于视觉示教的移动机器人定位与导航系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006113858A (ja) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | 移動体の遠隔操作支援方法及びシステム |
JP5306572B2 (ja) | 2005-07-22 | 2013-10-02 | 株式会社カネカ | スチレン系樹脂発泡体およびその製造方法 |
JP4859706B2 (ja) | 2006-08-29 | 2012-01-25 | 株式会社ダイヘン | ロボット制御システム |
JP5550671B2 (ja) * | 2012-03-29 | 2014-07-16 | 株式会社デンソーアイティーラボラトリ | 自律走行ロボット及び自律走行ロボットの走行制御方法 |
JP6398237B2 (ja) | 2014-03-14 | 2018-10-03 | オムロン株式会社 | 無線制御端末、制御対象物の無線制御装置、非常停止制御プログラム |
US10338597B2 (en) * | 2014-12-26 | 2019-07-02 | Kawasaki Jukogyo Kabushiki Kaisha | Self-traveling articulated robot |
JP6409605B2 (ja) | 2015-02-09 | 2018-10-24 | トヨタ自動車株式会社 | ロボットシステム |
JP6657859B2 (ja) * | 2015-11-30 | 2020-03-04 | 株式会社デンソーウェーブ | ロボット安全システム |
-
2019
- 2019-05-30 JP JP2019101037A patent/JP7400217B2/ja active Active
-
2020
- 2020-05-28 CN CN202010470068.1A patent/CN112008690A/zh active Pending
- 2020-05-29 US US16/887,028 patent/US11577402B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197856A (ja) * | 2007-02-13 | 2008-08-28 | Yaskawa Electric Corp | 自動機械システムおよびその制御方法 |
CN104470685A (zh) * | 2013-01-18 | 2015-03-25 | 艾罗伯特公司 | 提供用于家庭环境控制的环境绘图的移动机器人 |
CN106413501A (zh) * | 2014-05-28 | 2017-02-15 | 三星电子株式会社 | 移动装置、清洁机器人及其控制方法 |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
US20170329347A1 (en) * | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
CN108687748A (zh) * | 2017-04-10 | 2018-10-23 | 发那科株式会社 | 具有外力显示功能的机器人系统、处理装置以及示教操作盘 |
CN108919810A (zh) * | 2018-07-26 | 2018-11-30 | 东北大学 | 基于视觉示教的移动机器人定位与导航系统 |
Non-Patent Citations (1)
Title |
---|
蒋刚,龚迪琛,蔡勇等: "工业机器人", 西南交通大学出版社 , pages: 89 - 93 * |
Also Published As
Publication number | Publication date |
---|---|
JP7400217B2 (ja) | 2023-12-19 |
US11577402B2 (en) | 2023-02-14 |
US20200376680A1 (en) | 2020-12-03 |
JP2020192658A (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11408728B2 (en) | Registration of three-dimensional coordinates measured on interior and exterior portions of an object | |
JP6083520B2 (ja) | ロボット誘導方法と装置 | |
KR102162756B1 (ko) | 공정 및 생산관리를 위한 모바일 로봇 플랫폼 시스템 | |
US20170276472A1 (en) | Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform | |
JP4279703B2 (ja) | 自律移動ロボットシステム | |
JP3906743B2 (ja) | 案内ロボット | |
TW201739194A (zh) | 移動體的管理系統、方法及電腦程式 | |
CN109154662A (zh) | 使用负映射的定位 | |
WO2014148980A1 (en) | Communication unit and method for communication with an autonomous vehicle | |
JP2018094641A (ja) | 移動ロボットの干渉領域設定装置 | |
EP4141474A1 (en) | System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning | |
JP5106903B2 (ja) | 移動体監視システム | |
JP2020142326A (ja) | ロボットシステム | |
EP4107705A1 (en) | Tactical advanced robotic engagement system | |
CN112008690A (zh) | 机器人系统及便携式示教装置 | |
JP2011501105A (ja) | 無線通信及びロボット工学を利用して空間内の位置を正確且つ精密に突き止めてマーキングするためのシステム | |
WO2010044277A1 (ja) | 移動体ナビゲーション装置 | |
JP2018131306A (ja) | 屋内クレーンの自動運転装置及び自動運転方法 | |
JP7184243B2 (ja) | 位置認識方法、位置認識装置、基準点設置用移動体、作業用移動体、及び位置認識システム | |
KR101941542B1 (ko) | 중장비 또는 대형차량의 충돌방지 시스템 및 이의 제어방법 | |
TWM523862U (zh) | 室內移動定位系統 | |
JP3657854B2 (ja) | 遠隔地観測装置 | |
KR102500684B1 (ko) | 로봇 청소기 및 로봇 청소기의 제어 방법 | |
JP4090963B2 (ja) | 多次元移動位置決め装置 | |
KR20150042040A (ko) | 정찰 로봇의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |