CN116669915A - 控制装置、控制方法、程序 - Google Patents
控制装置、控制方法、程序 Download PDFInfo
- Publication number
- CN116669915A CN116669915A CN202180080524.4A CN202180080524A CN116669915A CN 116669915 A CN116669915 A CN 116669915A CN 202180080524 A CN202180080524 A CN 202180080524A CN 116669915 A CN116669915 A CN 116669915A
- Authority
- CN
- China
- Prior art keywords
- area
- robot
- free
- dimensional sensor
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000005259 measurement Methods 0.000 claims description 59
- 230000036544 posture Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000011960 computer-aided design Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本发明提供具有三维传感器的机器人的控制装置,其具备:设定单元,设定搜索区域和自由区域,所述搜索区域是所述三维传感器测量的区域,所述自由区域是允许所述机器人进行移动以便测量所述搜索区域的区域;以及动作控制单元,通过以在所述自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器进行移动。
Description
技术领域
本发明涉及控制装置、控制方法、程序。
背景技术
目前,在制造物体的现场等,预先掌握某一区域内的物体的区域(干扰区域),以便实现制造的安全性。
专利文献1中公开了如下技术:机器人控制装置通过由设置于机器人的深度传感器(三维传感器)获取物体表面上的各点的深度数据,从而判定物体的区域(干扰区域)。
现有技术文献
专利文献
专利文献1:日本特开2018-089728号公报
发明内容
发明所要解决的技术问题
专利文献1中公开了:机器人控制装置通过变更机器人的姿势,在变更深度传感器的位置的同时获取深度数据。而且,机器人控制装置根据深度数据判定物体的区域(干扰区域)。但是,并未记载决定深度传感器的位置的方法。
另外,对于周边的结构物,在机器人开始移动时的初始阶段,有时在掌握各轴的臂可以动作的三维空间的基础上,由具有专业技能的系统工程师预先制作机器人不与结构物碰撞这样的动作程序。进而,没有熟练工的技术诀窍(事先信息)或知识的作业员在使机器人进行活动时,视觉上不知道初期可以使机器人动作的空间。因此,若这样的作业员使机器人进行活动,则机器人有可能与周边的物体碰撞。另外,在三维模拟器上设定(生成)机器人的动作时,由于机器人可进行动作的范围也未被可视化,因此也需要专业技能。
因此,若没有由具有专业技能的人进行作业,则在判定干扰区域时,机器人或深度传感器有可能与物体碰撞,在安全性上存在问题。
因此,本发明的目的在于,提供一种即使没有由具有专业技能的人进行作业,安全性也高,而且可以使用三维传感器判定物体的区域的技术。
用于解决问题的技术方案
为了实现上述目的,本发明采用以下的构成。
即,本发明的一方面涉及具有三维传感器的机器人的控制装置,其特征在于,具备:设定单元,设定搜索区域和自由区域,所述搜索区域是所述三维传感器测量的区域,所述自由区域是允许所述机器人进行移动以便测量所述搜索区域的区域;以及动作控制单元,通过以在所述自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器进行移动。
根据这样的构成,可以在机器人在自由区域这样的安全范围内进行活动的同时测量搜索区域,因此安全性高,而且可以使用三维传感器测量搜索区域(判定干扰区域)。另外,若设定了自由区域,则机器人只在自由区域的内部(自由区域内)活动。因此,不需要具有专业技能的人员预先制作机器人的控制程序、或者手动使机器人活动的同时测量搜索区域。也就是说,根据本构成,即使没有具有专业技能的人员的作业,也可以使用三维传感器测量搜索区域。
在上述控制装置中,所述设定单元也可以根据通过用户操作输入所述控制装置的信息设定所述自由区域。据此,可以将用户所希望的区域设定为自由区域。另外,用户也可以自由地变更(修正)自由区域。
在上述控制装置中,所述设定单元也可以以包含用户预先使机器人活动的区域的方式设定所述自由区域。据此,可以以包含实际活动过的区域的方式设定自由区域,因此,用户可以直观地设定自由区域。
在上述控制装置中,所述设定单元也可以根据配置所述机器人的区域设定所述自由区域。据此,例如可以将机器人的周围设定为自由区域,因此,可以将机器人移动的可能性高的适当范围设定为自由区域。
在上述控制装置中,所述设定单元也可以以不包含配置所述机器人以外的物体的区域的方式设定所述自由区域。据此,防止机器人移动至配置有机器人以外的物体的区域,因此,能够更安全地测量搜索区域。
在上述控制装置中,所述设定单元也可以以不包含预先禁止所述机器人移动的区域的方式设定所述自由区域。据此,防止机器人移动至预先禁止移动的区域,因此,能够更安全地测量搜索区域。
在上述控制装置中,所述设定单元也可以根据所述机器人的可动范围设定所述自由区域。据此,可以将机器人可移动的最大限度的范围设定为自由区域,因此,三维传感器可以从更灵活的位置测量搜索区域。由此,搜索区域的测量精度提高。
在上述控制装置中,所述设定单元也可以根据所述三维传感器的测量规格设定所述自由区域。
在上述控制装置中,所述三维传感器的测量规格也可以包括从所述三维传感器能够测量的最短距离的信息,所述设定单元也可以以包含将所述机器人的可动范围扩大了所述最短距离的长度后的区域的方式设定所述自由区域。
在上述控制装置中,所述三维传感器的测量规格也可以包括从所述三维传感器能够测量的最长距离的信息,所述设定单元也可以将使所述机器人的可动范围扩大了所述最长距离的长度后的区域中不包含所述自由区域的区域设定为所述搜索区域。据此,防止搜索区域中包含三维传感器无法测量的区域,因此,能够更高效地测量搜索区域。
在上述控制装置中,所述设定单元也可以根据所述三维传感器测量所述搜索区域的结果更新所述自由区域,所述动作控制单元也可以通过以在所述设定单元更新后的自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器移动。据此,可以在每当判定为安全区域时扩大自由区域,因此,即使在初始状态下不清楚安全区域的情况下,也可以安全地测量搜索区域。而且,通过逐渐扩大自由区域,可以逐渐地测量大的范围,因此,结果可以测量大范围的搜索区域。
在上述控制装置中,也可以还具有显示单元,所述显示单元显示所述自由区域或所述搜索区域。据此,用户可以直观地掌握作为测量(搜索)对象的区域(搜索区域)或/和机器人有可能移动的区域(自由区域)。于是,用户也可以容易地将所显示的搜索区域或/和自由区域修正为更适当的大小、范围以及位置。因此,容易设定更安全的自由区域以便测量适当的搜索区域,因此安全性更高,可以使用三维传感器测量搜索区域。
在上述控制装置中,所述设定单元也可以以不包含所述自由区域的方式设定所述搜索区域。
本发明也可以是一种机器人,其特征在于,具有上述控制装置和测量搜索区域的三维传感器。
本发明既可以理解为具有上述单元的至少一部分的装置,也可以理解为电子设备或控制系统、搜索系统、搜索装置。另外,本发明也可以理解为包含上述处理的至少一部分的机器人的控制方法、设定方法、搜索方法。另外,本发明也可以理解为用于实现这样的方法的程序或非暂时性地记录该程序的记录介质。此外,上述单元及处理的各个可以尽可能地相互组合而构成本发明。
(发明效果)
根据本发明,即使未由具有专业技能的人员进行作业,安全性也高,而且可以使用三维传感器判定物体的区域。
附图说明
图1是说明实施方式1涉及的搜索系统的图。
图2是说明实施方式1涉及的控制装置的内部构成的图。
图3是实施方式1涉及的干扰区域的判定的流程图。
图4的(A)是说明实施方式1涉及的UI的显示的图,图4的(B)是说明实施方式1涉及的自由区域等的设定的图。
图5是说明实施方式1涉及的自由区域等的设定的图。
图6的(A)及图6的(B)是说明实施方式1涉及的自由区域等的设定的图。
图7的(A)及图7的(B)是说明实施方式1涉及的自由区域等的设定的图。
图8是说明实施方式1涉及的自由区域等的设定的图。
具体实施方式
以下,使用附图对用于实施本发明的实施方式进行记载。
<应用例>
以下,对具有控制装置30的搜索系统1进行说明。搜索系统1通过利用三维传感器20从多个测量位置测量(搜索)搜索区域50,从而判定搜索区域50中配置有物体的区域(干扰区域)。此时,具有三维传感器20的机器人10以不会移动至预先设定的自由区域70外部的方式进行活动,测量(搜索)搜索区域50。当判定了干扰区域时,例如,机器人10通过避开干扰区域,除了自由区域70之外,还可以在搜索区域50内部以不与物体碰撞的方式移动。另外,机器人10以外的装置也同样可以在搜索区域50内部以不与物体碰撞的方式移动。此外,测量位置表示三维传感器20的三维坐标及姿势(光轴方向)。
由此,可以在机器人10在自由区域70这样的安全范围内活动的同时测量搜索区域50,因此安全性高,而且可以使用三维传感器20判定物体的区域(干扰区域)。
<实施方式1>
[搜索系统的构成]
使用图1的系统构成图对实施方式1涉及的搜索系统1进行说明。搜索系统1具有机器人10、三维传感器20、控制装置30、控制服务器40。
机器人10通过改变自身的姿势而使三维传感器20进行移动。机器人10例如可以是垂直多关节机器人、移动机构机器人、并联连杆机器人、直动机构机器人等任意类型的机器人。在本实施方式中,机器人10是具备具有多个关节的臂,通过控制各关节的角度来控制三维传感器20的位置(姿势)的多关节机器人。各关节部具备由电机驱动而使臂旋转的驱动轴。
另外,机器人10可以仅在通过控制装置30设定的自由区域70的内部移动。也就是说,自由区域70是允许机器人10(三维传感器20)移动以便测量搜索区域50的区域(机器人10也可以移动的区域)。因此,机器人10在自由区域70的内部以外(外部)无法移动。
三维传感器20测量(搜索)搜索区域50,获取搜索区域50的三维信息(点群数据)。三维传感器20设置于机器人10的臂的前端。因此,也可以视为机器人10具有三维传感器20。三维传感器20例如是获取深度信息的深度传感器、或者获取距离图像的距离图像传感器。通过三维传感器20反复执行从互不相同的多个测量位置测量(搜索)搜索区域50,从而能够判定搜索区域50中的干扰区域。此外,三维传感器20也可以具备相机(摄像部),也可以是不仅能够获取三维信息还能够拍摄(获取)二维图像。另外,三维传感器20也可以具有向搜索区域50照射光而进行照明的照射部、对图像进行投影的投影仪。
在此,三维传感器20只要能够获取从三维传感器20至搜索区域50中的对象物的距离即可,因此,可以为主动方式和被动方式的任意一种传感器。在此,主动方式是使从三维传感器20投影的光照射至对象物,并接收该对象物的反射光而获取距离的方式。另一方面,被动方式是接收来自被自然光或其他照明照射的对象物的光从而获取距离的方式。在此,作为主动方式,例如也可以使用如下方法(点法;TOF):通过由投影仪向对象物照射红外光,相机接收该对象物反射的红外光,从而根据三角测量的原理获取至该对象物为止的距离。另外,作为主动方式,例如也可以使用如下方法:通过由投影仪向对象物照射图案图像,相机拍摄该对象物上映出的图案图像,从而根据拍摄到的图案图像的失真来获取至该对象物为止的距离。另外,作为被动方式,也可以使用从互不相同的两点位置拍摄对象物,并根据两个拍摄图像的差分获取距离的方法。
控制装置30控制机器人10及三维传感器20。控制装置30通过控制机器人10的姿势(活动;臂关节的角度),从而控制三维传感器20的测量位置(姿势;视点)。另外,控制装置30控制三维传感器20的测量的定时。进而,也可以根据三维传感器20测量的结果来判定干扰区域。
控制服务器40经由网络60控制多个控制装置30。控制服务器40也可以具有控制装置30所具有的构成要素的全部或一部分。例如,控制服务器40也可以具有后述设定部300及显示部309,仅进行设定自由区域70及搜索区域50的处理。
[控制装置的构成]
参照图2的构成图,对控制装置30的内部构成进行说明。控制装置30具有设定部300、控制部301、存储部302、地图获取部303、区域判定部304、位置决定部305、路径生成部306、动作控制部307、传感器控制部308以及显示部309。
设定部300设定搜索区域50或自由区域70。设定部300将判定为测量对象的区域的区域设定为搜索区域50。由于不是物体的区域,因此,设定部300将判定为可以使机器人10活动的区域设定为自由区域70。此外,关于设定部300进行的自由区域70或搜索区域50的设定处理(设定方法),在后面详细说明。
此外,在设定自由区域70及搜索区域50时,若机器人10自由地进行活动,则存在机器人10与物体接触的可能性。因此,在设定自由区域70及搜索区域50之前,只要用户没有直接使机器人10进行活动,机器人10就不会动。也就是说,在初次设定自由区域70及搜索区域50时,不使用三维传感器20的测量结果地设定自由区域70及搜索区域50。
控制部301按照存储于存储部302的程序对控制装置30的各构成要素进行控制。此外,控制部301的处理也可以由控制服务器40执行。
存储部302存储用于使各构成要素进行动作的信息。存储部302例如存储确定搜索区域50或自由区域70的信息(表示位置、大小、形状等的信息)。此外,搜索区域50及自由区域70也可以各存在多个,存储部302也可以存储确定多个搜索区域50及多个自由区域70的信息。另外,存储部302存储三维传感器20的测量规格(可测量的距离范围、视野角度等)、或者机器人10的规格(臂关节的可动范围、关节的可旋转速度等)。此外,这些信息能够由用户相对于控制装置30预先设定。
进而,存储部302存储表示搜索区域50中的各点(体素;点云等的三维信息)的基于三维传感器20的测量状况(搜索状况)的地图信息。在此,搜索区域50中的各点分别与不同区域(例如立方体或三维的网格)对应。例如,搜索区域50中的各点是各自对应的区域的中心的点(重心)。存储部302针对与搜索区域50中的各点对应的区域而存储表示已知区域和未知区域的任意一个的地图信息,该已知区域是可以判定是否存在物体的区域,该未知区域是无法判定是否存在物体的区域。在此,在地图信息中,已知区域表示物体区域和空区域的任意一个,该物体区域是判定为存在物体的区域,空区域是判定为不存在物体的区域。也就是说,可以说地图信息表示搜索区域50中的各点相当于存在物体的点、不存在物体的点以及不清楚是否存在物体的点中的哪一个。
地图获取部303根据三维传感器20测量出的结果(测量结果;搜索结果)进行上述地图信息的生成或更新。在此,三维传感器20从多个测量位置测量搜索区域50(多个测量范围),地图获取部303根据该测量结果生成(更新)地图信息。
在此,地图获取部303例如通过基于测量位置的坐标转换将由传感器坐标系(三维传感器20的坐标系)定义的物体表面上的各点的三维信息(深度数据)转换为由机器人坐标系(机器人10的坐标系)定义的三维位置信息。由此,地图获取部303可以判定深度数据表示的物体在机器人坐标系中的位置。在此,若三维传感器20在各种测量位置测量搜索区域50,则可以获取各种深度数据,因此,搜索区域50的各点(各区域)中的有无物体的可靠度提高。而且,地图获取部303可以根据该可靠度决定(判定)与各点相对应的区域相当于未知区域、物体区域以及空区域中的哪一个。
区域判定部304根据三维传感器20的测量结果(搜索结果)判定(决定)干扰区域。具体而言,区域判定部304根据地图信息将由物体区域构成的区域判定为干扰区域。
位置决定部305决定三维传感器20进行测量时的多个测量位置(移动位置;三维坐标及姿势)。位置决定部305也可以预先决定测量位置的多个候补,并从多个候补中仅选择三维传感器20能够移动(机器人10使三维传感器20移动)的候补作为测量位置。在此,三维传感器20的测量位置可以根据三维传感器20的高度、三维传感器20的光轴的朝向(方向)的信息等进行确定。另外,三维传感器20的测量位置可以根据机器人10的姿势进行确定。此外,假设三维传感器20的测量位置(位置)与机器人10的姿势的对应通过所谓的校准处理预先进行测量(决定)。
路径生成部306(路径决定部)生成(决定)用于使三维传感器20在位置决定部305决定的多个测量位置之间移动的机器人10的移动路径。例如,路径生成部306决定使三维传感器20移动至多个测量位置的全部所需的时间最短这样的移动路径。
动作控制部307对机器人10的动作进行控制,以使三维传感器20移动至多个测量位置。由此,动作控制部307使三维传感器20测量的范围(测量范围)移动至与该多个测量位置对应的范围。在此,动作控制部307按照路径生成部306决定的移动路径控制机器人10的姿势,从而控制三维传感器20的位置(坐标及姿势)。
传感器控制部308控制三维传感器20。传感器控制部308例如在机器人10使三维传感器20移动至测量位置的定时进行控制,以使三维传感器20进行测量。另外,在三维传感器20具有照明部的情况下,传感器控制部308也可以控制照明部的发光量(亮度)等。
显示部309三维地显示机器人10、搜索区域50以及自由区域70(参照图4的(B))。此外,显示部309也可以仅显示搜索区域50及自由区域70中的任意一方。在仅显示搜索区域50及自由区域70中的任意一方的情况下,能够防止因为显示另一方区域而阻碍想要确认的区域的目视确认。在此,用户可以使用显示于显示部309的UI(用户界面),并经由未图示的操作部件(例如鼠标、键盘以及/或者触摸面板)来设定搜索区域50或自由区域70。显示部309既可以是在显示面板(显示器)显示图像的部分,也可以是将图像投影至屏幕的投影仪。这样,在三维地显示搜索区域50及自由区域70的情况下,用户可以直观地掌握作为测量(搜索)对象的区域(搜索区域50)及机器人10有可能移动的区域(自由区域70)。于是,用户也可以经由未图示的操作部件容易地将所显示的搜索区域50及自由区域70修正为更适当的大小、范围以及位置。因此,容易设定更安全的自由区域70以便测量适当的搜索区域50,因此安全性更高,可以使用三维传感器20来判定物体的区域(干扰区域)。另外,若用户可以掌握搜索区域50和自由区域70,则认为搜索中不会使用这些区域以外的区域,因此,例如用户可以掌握可设置用于机器人10的电源或外围设备的位置等。
另外,控制装置30例如可以由具备CPU(处理器)、内存储器、存储器等的计算机构成。该情况下,图2所示的构成通过将存储器中保存的程序加载至内存储器并由CPU执行该程序而实现。这样的计算机既可以是如个人计算机、服务器计算机、平板终端、智能手机这样的通用的计算机,也可以是如机载计算机这样的嵌入式的计算机。或者,也可以由ASIC或FPGA等构成图2所示的构成的全部或一部分。或者,也可以通过云计算或分布式计算实现图2所示的构成的全部或一部分。
[干扰区域的判定处理]
参照图3对控制装置30判定干扰区域的处理进行说明。图3是干扰区域的判定处理的流程图。此外,图3的流程图的各处理通过控制部301执行存储部302中存储的程序并由自身实现、或者通过控制各构成要素而实现。
在步骤S1001中,控制部301从存储部302获取机器人10的CAD(Computer-AidedDesign:计算机辅助设计)信息。而且,如图4的(A)所示,控制部301根据该CAD信息三维地描绘(表现)机器人10并显示于UI上(显示部309)。由此,用户可以明确地掌握机器人10的配置。此外,此时,控制部301也可以三维地描绘(表现)机器人10和三维传感器20并显示于显示部309。另外,控制部301也可以从控制服务器40等的外部装置获取机器人10的CAD信息。
在步骤S1002中,设定部300设定自由区域70。在步骤S1003中,设定部300设定搜索区域50。此外,步骤S1002和步骤S1003的处理的详细内容在后面详细说明。
在步骤S1004中,显示部309在三维地描绘了机器人10(及三维传感器20)的UI上进一步描绘并显示自由区域70和搜索区域50。此外,UI上显示的机器人10、自由区域70以及搜索区域50之间的位置关系当然与这些之间的实际的位置关系相同。此时,例如,可以根据用户操作来调整自由区域70或搜索区域50的大小、位置。此外,显示部309也可以仅显示搜索区域50及自由区域70中的任意一方。
在步骤S1005中,位置决定部305在自由区域70的内部决定三维传感器20的测量位置(三维坐标及姿势)。此时,位置决定部305既可以将近前的测量位置的邻接位置决定为本次的测量位置,也可以决定可以测量多个未知区域这样的测量位置。也就是说,只要是自由区域70的内部,则位置决定部305可以任意地决定测量位置。
在步骤S1006中,动作控制部307使三维传感器20(机器人10)移动至位置决定部305决定的测量位置。在此,动作控制部307以不移动至自由区域70的外部的方式使机器人10移动(以在自由区域70内移动的方式控制机器人10的动作)。
在步骤S1007中,传感器控制部308对三维传感器20进行控制,以在移动后的测量位置测量搜索区域50。由此,三维传感器20可以获取搜索区域50的三维信息(点群数据)。三维传感器20向控制装置30输出三维信息。
在步骤S1008中,地图获取部303根据三维传感器20对搜索区域50的测量结果即三维信息(点群数据)和测量位置的信息更新(生成)地图信息。
在步骤S1009中,控制部301判定是否能够充分测量搜索区域50的内部。具体而言,控制部301判定地图信息中的未知区域的数量是否为阈值Th以下。当未知区域的数量为阈值Th以下时,可以判定为能够充分测量搜索区域50,因此进入用于判定干扰区域的步骤S1010。另一方面,当未知区域的数量大于阈值Th时,可以判定为无法充分测量搜索区域50,因此返回至步骤S1005。
此外,在步骤S1009中,控制部301也可以根据是否进行了预定次数以上的测量来判定是否能够充分测量搜索区域50的内部。该情况下,当三维传感器20进行了预定次数以上的搜索区域50的测量时进入步骤S1010,否则进入步骤S1005。
在步骤S1010中,区域判定部304根据地图信息来判定干扰区域,该干扰区域是配置有物体的区域。具体而言,区域判定部304根据地图信息将由所有物体区域构成的区域判定为干扰区域。
[关于自由区域及搜索区域的设定]
以下,对于步骤S1002及S1003中进行的自由区域70和搜索区域50的设定处理(设定方法)详细进行说明。
(基于用户的输入的设定)
首先,设定部300可以根据用户的输入(用户操作)来设定自由区域70和搜索区域50。具体而言,当步骤S1001的处理结束时,如图4的(A)所示,机器人10和三维传感器20显示于UI上,因此,用户参照该信息在UI上输入自由区域70和搜索区域50的信息。
在此,例如,用户也可以通过输入自由区域70和搜索区域50的UI上的坐标(例如两点以上的顶点的坐标),从而输入自由区域70和搜索区域50的信息。或者,用户也可以在如图4的(B)所示那样显示的UI上,使用鼠标等使自由区域70和搜索区域50的初始数据放大/缩小或者移动,从而输入自由区域70和搜索区域50的信息。此时,设定部300使得用户容易使自由区域70和搜索区域50放大/缩小或者移动即可。例如,设定部300也可以将与机器人10外接的最小圆柱形状的区域设定为自由区域70的初始数据。此外,设定部300也可以将预定区域中的自由区域70以外的全部区域设定为搜索区域50。
另外,设定部300也可以将用户在上述UI上任意徒手描绘的区域设定为自由区域70或搜索区域50。设定部300也可以将用户在上述UI上堆积单位体素而成的区域设定为自由区域70或搜索区域50。进而,用户也可以另外准备表示自由区域70或搜索区域50的CAD信息,并将该CAD信息输入控制装置30,由此,设定部300设定该CAD信息所示那样的自由区域70或搜索区域50。
此外,此时,用户也可以选择将自由区域70和搜索区域50的形状设为任意的形状(球、圆柱、圆锥、多棱柱、多棱锥、长方体、任意的多面体等形状)。设定部300将自由区域70和搜索区域50的形状变更为所选择的形状。此外,自由区域70的形状与搜索区域50的形状既可以相同,也可以不同。
(基于周边信息的设定)
设定部300也可以根据机器人10的CAD信息和该机器人10周边的物体的信息(周边信息;周边物体的CAD信息)来设定自由区域70和搜索区域50。在此,周边物体例如是电缆、前端夹具、或者末端执行器等机器人以外的物体。例如,设定部300也可以将周边信息所表示的物体各自的区域从外侧相接这样(与物体各自的区域相接且不包含这些物体的区域这样)的任意形状的区域、且包含配置有机器人10的位置这样的区域(作为中心的区域)设定为自由区域70。如图5所示的例子那样,设定部300也可以以与物体501和物体502相接的方式设定长方体形状的自由区域70。此时,在以物体501和物体502从外侧相接的方式设定自由区域70的情况下,设定部300也可以将多个形状(例如圆柱、球以及长方体)中自由区域70的体积最大的形状设定(决定)为自由区域70的形状。而且,设定部300也可以将自由区域70和周边信息所表示的物体的区域以外的区域设定为搜索区域50。
此外,若用户预先输入(设定)了禁止机器人10移动(活动)的区域(禁止区域),则设定部300也可以以不包含禁止区域的方式设定自由区域70和搜索区域50。例如,当以包含被网包围的区域或设置有玻璃等的区域等三维传感器20难以测量的区域的方式输入了禁止区域时,能够进行更安全的机器人10的移动。另外,三维传感器20能够高精度地测量搜索区域。
(基于机器人的可动范围的设定)
设定部300也可以根据机器人10的可动范围的设定来设定自由区域70及搜索区域50。具体而言,如图6的(A)所示,设定部300也可以通过机器人10的臂的设定而将机器人10的可动范围(在物理上或者性能上能够活动的范围)设定为自由区域70。此外,可以根据机器人10的臂的长度或各关节(轴)的可动角度等来确定机器人10的可动范围。此时,设定部300也可以将除了自由区域70以外的区域设定为搜索区域50。
(基于三维传感器的测量规格的设定)
设定部300也可以根据机器人10的可动范围的设定和三维传感器20的测量规格来设定自由区域70及搜索区域50。三维传感器20的测量规格包含能够通过三维传感器20测量的范围(可测量距离的范围、视野角度等)的信息。在此,如图6的(B)所示,三维传感器20可以仅测量与三维传感器20的距离为第一距离D1(可测量距离的范围的最短距离)的位置(最近位置)与距离为第二距离D2(可测量距离的范围的最长距离)的位置(最远位置)之间的区域601。在此,例如,第一距离D1可以为30cm,第二距离D2可以为100cm。
因此,如图6的(B)所示,设定部300也可以将使机器人10的可动范围(参照图6的(A))扩大了第一距离D1的长度后的区域设定为自由区域70。也就是说,若机器人10的可动范围为球状,则将比可动范围的半径长第一距离D1的半径的球设定为自由区域70。而且,如图6的(B)所示,设定部300也可以将使机器人10的可动范围区域(参照图6的(A))扩大了第二距离D2的长度后的区域中(也就是能够通过三维传感器20测量的范围中)除了自由区域70以外的区域设定为搜索区域50。
此外,如图7的(A)所示,有时机器人10具有多个三维传感器21~23。该情况下,设定部300根据三维传感器21~23全部的测量规格来设定自由区域70或者/以及搜索区域50。例如,设定部300也可以将机器人10的可动范围设定为自由区域70。另外,设定部300也可以将从可以通过三维传感器21~23的至少任意一个测量的区域中除去自由区域70后的区域设定为搜索区域50。
(基于用户活动的范围的设定)
另外,如图7的(B)所示,设定部300也可以将用户直接使机器人10进行活动的区域设定为自由区域70。这可以使用所谓的被称为直接示教的技术来实现。通过这样进行设定,用户可以直观地设定自由区域70。此时,设定部300也可以将预定区域(例如用户预先输入的区域)中自由区域70以外的区域设定为搜索区域50。另外,设定部300也可以将从如上所述将用户使机器人10活动的区域扩大了第二距离D2后的区域除去自由区域70后的区域设定为搜索区域50。
(基于地图信息的设定)
另外,设定部300也可以根据地图信息设定(更新)自由区域70。此外,设定部300也可以更新自由区域70,并且以不包含更新后的自由区域70的方式更新搜索区域50。例如,设定部300也可以在通过上述任一方法设定了初始的自由区域70之后,每当在步骤S1008中更新地图、或者每当进行预定次数的测量时更新自由区域70。具体而言,如图8所示,设定部300也可以将包含与地图信息所示的当前的自由区域70相接的空区域(判定为不存在物体的区域)和当前的自由区域70的区域设定为新的自由区域71。由此,可以逐渐扩大自由区域70,因此可以扩大能够通过三维传感器20物理性地测量的区域(范围)。
此外,设定部300无需更新自由区域70或/和搜索区域50,也可以由未图示的更新部(动作记录部)更新自由区域70或/和搜索区域50。也就是说,也可以是设定部300不使用三维传感器20的测量结果地设定自由区域70及搜索区域50,然后,更新部使用三维传感器20的测量结果更新自由区域70及搜索区域50。
此外,上述对设定自由区域70及搜索区域50的多个方法进行了说明,但这些方法也可以任意组合。例如,设定部300也可以将从用户输入的区域除去禁止区域后的区域设定为自由区域70。另外,例如,设定部300也可以将机器人10的可动范围与用户输入的区域的重叠区域(重叠范围)决定为自由区域70。也就是说,也可以将通过上述方法决定的多个自由区域中的重叠区域决定(更新)为新的自由区域70。
这样,通过预先设定自由区域70,并以不超出自由区域70之外的方式(以在自由区域70的内部进行动作的方式)控制机器人10,在测量搜索区域50时,可以安全地使机器人10进行活动。
此外,在上述中,自由区域70有可能在测量搜索区域50时一起被测量,但不会被三维传感器20直接测量。因此,在地图信息中与自由区域70对应的各点被表示为未知区域的可能性高。因此,地图获取部303也可以在搜索区域50的测量前或测量后,将与自由区域70对应的地图信息的各点设定为空区域(已知区域)。另外,地图获取部303也可以在搜索区域50的测量前或测量后设定为与自由区域70对应的地图信息的各点表示自由区域70。
另外,在本实施方式中,对显示部309在显示面板等上显示图像的情况进行了说明,但也可以具有HMD(头戴式显示器),并在HMD上显示图像。而且,显示部309(HMD)也可以显示表示机器人10、搜索区域50以及自由区域70的VR图像(全景图像)。此外,VR图像能够通过在步骤S1001~S1004中将机器人10、搜索区域50以及自由区域70配置于VR空间上来生成。此时,当以机器人10周边的物体等也配置于VR空间上的方式生成VR图像时,在观察VR图像时,用户可以掌握自由区域等与其他物体的位置关系。而且,显示部309(控制部301)根据显示部309的姿势的变化改变VR图像中要显示的区域。由此,用户可以更准确地掌握搜索区域50及自由区域70。
此外,显示部309(HMD)也可以取代VR图像而显示AR图像。也就是说,也可以是用户能够经由显示部309目视确认现实空间,显示部309(HMD)以表示机器人10、搜索区域50以及自由区域70的AR图像与该现实空间重叠的方式进行显示。此外,AR图像能够通过与上述VR图像同样的方法生成。而且,显示部309(控制部301)根据显示部309的姿势的改变改变AR图像中要显示的区域。由此,用户可以与自由区域70等一并目视确认现实空间,因此,可以相比VR图像更准确(容易理解)地掌握搜索区域50及自由区域70。
因此,若用户可以通过VR图像或者AR图像准确地掌握搜索区域50及自由区域70,则可以经由未图示的操作部件容易地将所显示的搜索区域50及自由区域70修正(设定)为更适当的大小、范围以及位置。因此,容易设定更安全的自由区域70以便测量适当的搜索区域50,因此安全性更高,可以使用三维传感器20来判定物体的区域(干扰区域)。
此外,权利要求书的记载并不仅限定解释为实施方式中记载的事项。权利要求书的记载的解释中也包含考虑了申请时的技术常识且以本领域技术人员能够认识到可解决发明课题的方式记载的范围。
(附录1)
一种机器人(10)的控制装置(30),所述机器人具有三维传感器(20),所述控制装置(30)的特征在于,具备:
设定单元(300),设定搜索区域(50)和自由区域(70),所述搜索区域(50)是所述三维传感器(20)测量的区域,所述自由区域(70)是允许所述机器人(10)进行移动以便测量所述搜索区域(50)的区域;以及
动作控制单元(307),以所述机器人(10)不会移动至所述自由区域(70)的外部的方式使测量所述搜索区域(50)的所述三维传感器(20)进行移动。
(附录2)
一种机器人(10)的控制方法,所述机器人具有三维传感器(20),所述控制方法的特征在于,具有:
设定步骤(S1002、S1003),设定搜索区域(50)和自由区域(70),所述搜索区域(50)是所述三维传感器(20)测量的区域,所述自由区域(70)是允许所述机器人(10)进行移动以便测量所述搜索区域(50)的区域;以及
动作控制步骤(S1006),以所述机器人(10)不会移动至所述自由区域的外部的方式使测量所述搜索区域(50)的所述三维传感器(20)进行移动。
附图标记说明
1:搜索系统、10:机器人、20:三维传感器、30:控制装置、40:控制服务器、50:搜索区域、60:网络、70:自由区域、300:设定部、301:控制部、302:存储部、303:地图获取部、304:区域判定部、305:位置决定部、306:路径生成部、307:动作控制部、308:传感器控制部、309:显示部。
Claims (15)
1.一种机器人的控制装置,所述机器人具有三维传感器,所述控制装置的特征在于,具备:
设定单元,设定搜索区域和自由区域,所述搜索区域是所述三维传感器测量的区域,所述自由区域是允许所述机器人进行移动以便测量所述搜索区域的区域;以及
动作控制单元,通过以在所述自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器进行移动。
2.根据权利要求1所述的控制装置,其特征在于,
所述设定单元根据通过用户操作输入所述控制装置的信息来设定所述自由区域。
3.根据权利要求1或2所述的控制装置,其特征在于,
所述设定单元以包含用户预先使机器人活动的区域的方式设定所述自由区域。
4.根据权利要求1至3中任一项所述的控制装置,其特征在于,
所述设定单元根据配置所述机器人的区域设定所述自由区域。
5.根据权利要求1至4中任一项所述的控制装置,其特征在于,
所述设定单元以不包含配置所述机器人以外的物体的区域的方式设定所述自由区域。
6.根据权利要求1至5中任一项所述的控制装置,其特征在于,
所述设定单元以不包含预先禁止所述机器人移动的区域的方式设定所述自由区域。
7.根据权利要求1至6中任一项所述的控制装置,其特征在于,
所述设定单元根据所述机器人的可动范围设定所述自由区域。
8.根据权利要求1至7中任一项所述的控制装置,其特征在于,
所述设定单元根据所述三维传感器的测量规格设定所述自由区域。
9.根据权利要求8所述的控制装置,其特征在于,
所述三维传感器的测量规格包括从所述三维传感器能够测量的最短距离的信息,
所述设定单元以包含将所述机器人的可动范围扩大了所述最短距离的长度后的区域的方式设定所述自由区域。
10.根据权利要求9所述的控制装置,其特征在于,
所述三维传感器的测量规格包括从所述三维传感器能够测量的最长距离的信息,
所述设定单元将使所述机器人的可动范围扩大了所述最长距离的长度后的区域中不包含所述自由区域的区域设定为所述搜索区域。
11.根据权利要求1至10中任一项所述的控制装置,其特征在于,
所述设定单元根据所述三维传感器测量所述搜索区域的结果更新所述自由区域,
所述动作控制单元通过以在所述设定单元更新后的自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器移动。
12.根据权利要求1至11中任一项所述的控制装置,其特征在于,
所述控制装置还具有显示单元,所述显示单元显示所述自由区域或所述搜索区域。
13.根据权利要求1至12中任一项所述的控制装置,其特征在于,
所述设定单元以不包含所述自由区域的方式设定所述搜索区域。
14.一种机器人的控制方法,所述机器人具有三维传感器,所述控制方法的特征在于,具有:
设定步骤,设定搜索区域和自由区域,所述搜索区域是所述三维传感器测量的区域,所述自由区域是允许所述机器人进行移动以便测量所述搜索区域的区域;以及
动作控制步骤,通过以在所述自由区域内移动的方式控制所述机器人的动作,从而使测量所述搜索区域的所述三维传感器进行移动。
15.一种程序,用于使计算机执行权利要求14所述的控制方法的各步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-204430 | 2020-12-09 | ||
JP2020204430A JP7494719B2 (ja) | 2020-12-09 | 制御装置、制御方法、プログラム | |
PCT/JP2021/033780 WO2022123850A1 (ja) | 2020-12-09 | 2021-09-14 | 制御装置、制御方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116669915A true CN116669915A (zh) | 2023-08-29 |
Family
ID=81973565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180080524.4A Pending CN116669915A (zh) | 2020-12-09 | 2021-09-14 | 控制装置、控制方法、程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240017412A1 (zh) |
EP (1) | EP4238721A1 (zh) |
CN (1) | CN116669915A (zh) |
WO (1) | WO2022123850A1 (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017077600A (ja) * | 2015-10-20 | 2017-04-27 | 株式会社リコー | マニピュレータ装置 |
JP6420296B2 (ja) | 2016-12-01 | 2018-11-07 | ファナック株式会社 | ロボットの干渉領域を自動で設定するロボット制御装置 |
JP6816070B2 (ja) * | 2018-08-24 | 2021-01-20 | ファナック株式会社 | 干渉回避装置およびロボットシステム |
-
2021
- 2021-09-14 WO PCT/JP2021/033780 patent/WO2022123850A1/ja active Application Filing
- 2021-09-14 CN CN202180080524.4A patent/CN116669915A/zh active Pending
- 2021-09-14 EP EP21902954.3A patent/EP4238721A1/en active Pending
- 2021-09-14 US US18/253,818 patent/US20240017412A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022091542A (ja) | 2022-06-21 |
US20240017412A1 (en) | 2024-01-18 |
WO2022123850A1 (ja) | 2022-06-16 |
EP4238721A1 (en) | 2023-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7071054B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
EP3283938B1 (en) | Gesture interface | |
CN101970184B (zh) | 动作教导系统以及动作教导方法 | |
CN104897091A (zh) | 关节臂坐标测量机 | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN106808473A (zh) | 信息处理装置及信息处理方法 | |
JP2018008347A (ja) | ロボットシステムおよび動作領域表示方法 | |
CN105144283A (zh) | 基于设备旋转查看角图像操纵 | |
JP2010042466A (ja) | ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 | |
US10724963B2 (en) | Device and method for calculating area to be out of inspection target of inspection system | |
Hasegawa | An interactive system for modeling and monitoring a manipulation environment | |
CN107690303A (zh) | 生成三维模型 | |
JP2018176311A (ja) | 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法 | |
JP2009175012A (ja) | 計測装置および計測方法 | |
CN111745639B (zh) | 信息处理方法及装置、物体检测装置以及机器人系统 | |
US20230224576A1 (en) | System for generating a three-dimensional scene of a physical environment | |
CN116669915A (zh) | 控制装置、控制方法、程序 | |
JP7494719B2 (ja) | 制御装置、制御方法、プログラム | |
JP2010064161A (ja) | 遠隔操作支援装置 | |
CN115100257A (zh) | 套管对准方法、装置、计算机设备、存储介质 | |
JP2022128087A (ja) | 計測システム及び計測プログラム | |
JP2023505322A (ja) | ロボットをプログラムするための方法及びシステム | |
US20230375334A1 (en) | Metrology 3d scanning system and method | |
CN111975765A (zh) | 电子装置、机器人系统和虚拟区域设定方法 | |
JP2021010994A (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |