CN108127661B - 机器人控制装置 - Google Patents

机器人控制装置 Download PDF

Info

Publication number
CN108127661B
CN108127661B CN201711237050.1A CN201711237050A CN108127661B CN 108127661 B CN108127661 B CN 108127661B CN 201711237050 A CN201711237050 A CN 201711237050A CN 108127661 B CN108127661 B CN 108127661B
Authority
CN
China
Prior art keywords
robot
depth
interference region
depth map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711237050.1A
Other languages
English (en)
Other versions
CN108127661A (zh
Inventor
松嶋友则
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN108127661A publication Critical patent/CN108127661A/zh
Application granted granted Critical
Publication of CN108127661B publication Critical patent/CN108127661B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40179Design of controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

自动设定用于使机器人与周边设备等障碍物不发生干扰的该机器人的动作范围的机器人控制装置。机器人控制装置具备:深度获取部,其获取深度数据组,该深度数据组表示从机器人的规定的部分到存在于机器人的周边的物体的表面上的任意的多个点为止的深度;机器人位置获取部,其获取规定的部分的三维位置信息;深度映射生成部,其使用上述的深度数据组和三维位置信息来生成深度映射信息,该深度映射信息包括以机器人的设置位置为原点的上述多个点的三维位置信息;以及干扰区域设定部,其根据深度映射信息来估计物体所占据的范围,将该范围设为机器人的干扰区域。

Description

机器人控制装置
技术领域
本发明涉及一种具备设定机器人有可能发生干扰的区域(下面称为干扰区域)的功能的机器人控制装置。
背景技术
在生产现场使用机器人来将加工素材供给到机床、或者将加工后的完成品从机床取出的情况下,将机器人设置在机床的附近,再在机器人的周围设置安全栅。在该情况下,用户使用与机器人控制装置连接的示教操作板等来实际操作机器人,向机器人示教不使机器人的臂部、手部等伸出安全栅的作业动作。用户通过这种示教作业、离线编程来制作机器人的动作程序,并将该动作程序存储在机器人控制装置中。
然而,机器人本身无法识别放置于机器人的周边的构造物的信息、即无法识别出安全栅、带式输送机等周边设备存在于机器人的周边。因此,存在以下情况:在用户的示教作业中或机器人的动作程序的执行中,由于用户的操作失误、程序失误,机器人与周边设备等发生干扰,周边设备、机器人破损。其结果,在破损的周边设备、机器人恢复之前生产停止,因此生产性显著下降。
因此,进行以下操作:事先对机器人控制装置设定机器人能够动作的范围(下面称为动作范围。),在机器人脱离于所设定的动作区域的情况下使该机器人停止,防机器人与周边设备的干扰于未然。在日本特开2013-136123号公报等中公开了这种方法(下面称为背景技术1。)。
另外,还进行以下方法:将探测障碍物的传感器安装于机器人,当在机器人正在执行动作程序时上述传感器探测出障碍物的情况下,使机器人停止,直到障碍物被排除为止。在日本特开2003-136466号公报等中公开了这种方法(下面称为背景技术2。)。
但是,在背景技术1中,需要根据周边设备的位置信息来由用户向机器人控制装置事先输入机器人的动作范围。在该情况下,一般来说会由用户测定相对于机器人的位置来存储到机器人控制装置中,因此耗费劳力和时间。另外,在设定机器人的动作范围时,为了安全而存在采用略多的余量等的趋势。因此,产生以下问题:尽管看起来机器人位于距障碍物尚且较远的位置,但是由于前述的余量的影响,机器人停止。特别是,在通过机器人来将加工素材供给到机床或将加工后的完成品从机床取出的情况下,由于周边设备配置得密集的情况多,因此上述的问题容易变得显著。
并且,在用户对周边设备的配置进行变更时,需要相应地重新设定机器人的动作范围,因此容易耗费劳力和时间。
与此相对,在背景技术2中,不需要向机器人控制装置事先输入机器人的动作范围,因此不产生如前所述的问题。但是,在背景技术2的情况下,需要对每个机器人安装用于探测障碍物的传感器,因此费用变得庞大。
发明内容
因此,本发明鉴于如上所述的实际情况,其目的在于提供一种能够自动设定用于使机器人与周边设备等障碍物不发生干扰的该机器人的动作范围的机器人控制装置。
根据本发明的一个方式,提供一种对机器人的动作进行控制的机器人控制装置,该机器人控制装置具备:
深度获取部,其获取深度数据组,该深度数据组表示从机器人的规定的部分到存在于该机器人的周边的物体的表面上的任意的多个点为止的深度;
机器人位置获取部,其获取规定的部分的三维位置信息;
深度映射生成部,其使用深度数据组和规定的部分的三维位置信息来生成深度映射(map)信息,该深度映射信息包括以机器人的设置位置为原点的所述多个点的三维位置信息;以及
干扰区域设定部,其根据深度映射信息来估计物体所占据的范围,将该范围设定为机器人的干扰区域。
根据上述的一个方式,能够自动设定用于使机器人与周边设备等障碍物不发生干扰的该机器人的动作范围。
根据附图所示的本发明的典型实施方式的详细说明,本发明的这些目的、特征和优点以及其它目的、特征和优点会进一步明确。
附图说明
图1是用于说明一个实施方式的机器人控制装置的功能的功能框图。
图2是基于一个实施方式的干扰区域设定流程的示意图。
图3是基于另一实施方式的干扰区域设定流程的示意图。
具体实施方式
接着,参照附图来说明本发明的实施方式。在所参照的附图中,对同样的结构部分或功能部分标注同样的参照标记。对于这些附图适当变更了比例尺以易于理解。另外,附图所示的方式是用于实施本发明的一个例子,本发明并不限定于图示的方式。
图1是用于说明一个实施方式的机器人控制装置的功能的功能框图。本实施方式的机器人控制装置10是对机器人11的动作进行控制的装置,具备深度获取部13、机器人位置获取部14、深度映射生成部15以及干扰区域设定部16。
机器人11的一例例如包括垂直多关节机器人、移动机构机器人、并联连杆机器人、直动机构机器人等任意类型的机器人。
深度获取部13获取深度数据组,该深度数据组表示从机器人11中的规定的部分到存在于该机器人11的周边的物体(未图示)的表面上的任意的多个点为止的深度(即,进深(日语:奥行き))。在此所说的物体是放置于机器人11的周边的构造物,例如带式输送机等周边设备、安全栅等。
前述的深度数据组是关于针对位于机器人11的周边的物体的表面被定义为点阵状的多个点中的各点的深度数据的集合,能够使用测定深度的公知的深度传感器来获取这种深度数据组。
优选的是,这种深度传感器12仅在设定机器人11的干扰区域时安装于前述的机器人11中的规定的部分。该规定的部分能够是机器人11的顶端部、例如机器人臂部的顶端处的能够装卸工具、把持手等的手腕凸缘部。
机器人位置获取部14获取前述的机器人11的规定的部分的三维位置信息。该三维位置信息是与机器人11的规定的部分在放置机器人11的实际空间中的三维位置有关的信息。
例如,在机器人11是多关节机器人的情况下,多关节机器人的各关节部具备被伺服电动机(未图示)驱动来使机器人臂部旋转的驱动轴。机器人位置获取部14能够从配置于这些驱动轴的脉冲编码器等位置检测器读取机器人11的各驱动轴的旋转位置(角度),根据这些旋转角度和各机器人臂部的已知的设定尺寸来获取机器人臂部的顶端部的位置。
在此获取的机器人11的规定的部分的位置信息、例如机器人臂顶端部的位置信息是利用以机器人11的设置位置为原点的坐标系(下面称为机器人坐标系。)来定义的三维位置信息。例如在将机器人11设置于工厂的情况下,上述的设置位置是工厂的地面上的固定有机器人11的部分的位置。
深度映射生成部15使用如前所述的深度数据组和机器人11的三维位置信息来生成深度映射信息。该深度映射信息包括针对前述的物体的表面被定义为点阵状的多个点的三维位置信息。这些三维位置信息是将由深度传感器12获取到的物体的表面上的各点的深度数据变换为以机器人11的设置位置为原点的三维位置而成的。也就是说,在以深度传感器12为原点的坐标系(下面称为传感器坐标系。)中定义的物体的表面上的各点的深度数据通过坐标变换来被变换为在机器人坐标系中定义的三维位置信息。
干扰区域设定部16接收前述的深度映射信息,根据该深度映射信息来搜索机器人11的周边的物体所占据的范围,将该范围设定为机器人11的干扰区域。干扰区域设定部16也可以将搜索出的范围以外的区域设定为机器人11的动作允许区域。
并且,优选的是,本实施方式的机器人控制装置10还具备存储部17、指令部18等。
在存储部17中存储如前所述那样设定的干扰区域、机器人11的动作程序、与深度传感器12在机器人11上的安装位置有关的信息(下面称为传感器安装位置信息)等。
指令部18能够将开始机器人11的干扰区域的设定的指令输出到深度获取部13、机器人11。并且,指令部18考虑所设定的干扰区域来将基于机器人11的动作程序的动作指令送出到机器人11。
例如在机器人11是多关节机器人的情况下,机器人控制装置10通过对驱动多关节机器人的各轴的伺服电动机(未图示)进行反馈控制来使多关节机器人的臂部动作。
指令部18生成按照预先制作的动作程序来使机器人11动作的指令并将该指令输出到伺服电动机。或者,指令部18将来自与机器人控制装置连接的示教操作板的动作指令输出到伺服电动机。此时,如果输出了机器人11似乎会入侵到所设定的干扰区域的位置指令值,则指令部18输出使伺服电动机停止或减速的指令。
此外,能够使用具备经由总线来相互连接的存储部、CPU(control processingunit:中央处理单元)以及通信部等的计算机系统来构成上述的机器人控制装置10。该存储部是ROM(read only memory:只读存储器)、RAM(random access memory:随机存取存储器)等。另外,能够通过由CPU执行ROM中存储的程序来实现上述的机器人控制装置10所具有的深度获取部13、机器人位置获取部14、深度映射生成部15、干扰区域设定部16等的功能或动作。
图2是示意性地示出由上述的机器人控制装置10进行的干扰区域设定流程的一个实施例的图。其中,设为在开始机器人11的干扰区域的设定时,在前述的机器人11的顶端部安装有深度传感器12。
当使干扰区域的设定开始时,首先,在步骤S11中,深度获取部13通过深度传感器12来获取与存在于机器人11的周边的物体的表面上的多个点有关的深度数据组。
深度数据组是关于针对上述的物体的表面定义为点阵状的多个点中的各点的深度数据的集合,例如,能够获取为如图2所示的图像(所谓的深度图像)31。深度图像31的Z方向(与附图正交的方向)是指深度,构成深度图像31的多个点根据深度的深浅来改变浓淡地进行显示。其中,在图2中,使用白、黑、描绘有点图案、斜线等的圆来示意性地表示构成深度图像31的多个点,以易于理解。例如,白圆的深度比黑圆的深度浅。
并且,在上述步骤S11中,机器人位置获取部14获取机器人11的位置信息。在此获取的机器人11的位置信息是安装有深度传感器12的机器人11的顶端部的位置信息。在使机器人11停止的状态下获取该顶端部的位置信息。
在接下来的步骤S12中,深度映射生成部15使用如前所述那样获取到的深度数据组以及机器人11的位置信息来生成深度映射信息。具体地说,深度映射生成部15将在传感器坐标系中定义的物体的表面上的各点的深度数据通过坐标变换来变换为在机器人坐标系中定义的三维位置信息,由此生成深度映射信息。优选的是,将深度映射信息与前述的深度数据组同样地获取为深度图像。图2所示的深度图像32也示意性地示出构成深度图像32的多个点,以易于理解。例如,白圆的深度比黑圆的深度浅。
此外,优选的是,在如前所述那样生成深度映射信息时,考虑与机器人11的顶端部处的深度传感器12的安装位置、深度传感器12的设计尺寸等有关的信息(下面称为传感器安装位置信息。)。在将具有规定的外形形状的深度传感器12安装于机器人11的顶端部的外侧的情况下,存在以下情况:深度传感器12测定深度时的基准点与在上述步骤S11中获取的机器人11的顶端部的位置不一致。因此,优选的是,根据传感器安装位置信息,求出深度传感器12的测定基准点与机器人11的顶端部的位置的相关位置,将该相关位置也与前述的深度数据组及机器人11的位置信息一起考虑,来生成深度映射信息。传感器安装位置信息是已知的值,因此能够事先存储在机器人控制装置10的存储部17中。优选的是,深度映射生成部15在生成深度映射信息时从存储部17读出该传感器安装位置信息来使用。
接着,在步骤S13中,干扰区域设定部16基于前述的深度映射信息来设定机器人11的干扰区域。此时,根据前述的深度映射信息来搜索存在于机器人11的周边的物体所占据的范围,该范围被设定为机器人11的干扰区域。
在该步骤S13中,优选的是,根据前述的深度映射信息来估计存在于机器人11的周边的物体的形状,将该形状变换为简化后的形状,将简化后的形状所占据的范围设定为机器人11的干扰区域。例如,设定如图2所示的圆筒形的干扰区域33。当然,干扰区域33的形状不限于圆筒形。
通过以上的处理流程,干扰区域的设定结束。所设定的干扰区域的信息被存储在机器人控制装置10内的存储部17中。所存储的干扰区域信息被利用于在执行机器人11的动作程序时、示教作业时限制机器人11的动作范围。
根据如以上所说明的一个实施方式的机器人控制装置10,能够得到如下那样的效果。
能够在机器人11的规定的部分、例如手腕凸缘部之类的机器人臂的顶端部安装深度传感器12,从深度传感器12获取到存在于机器人11的周边的物体20的表面为止的深度数据组。并且,能够基于安装有深度传感器12的机器人11的规定的部分的三维位置信息,将由深度传感器12获取到的深度数据组变换为以机器人11的设置位置为原点的三维位置信息,由此生成深度映射信息。能够基于这种深度映射信息来设定机器人11的干扰区域。也就是说,能够自动设定用于使机器人11与周边设备等的障碍物不发生干扰的该机器人11的动作范围。
并且,所生成的深度映射信息是遵循从机器人11处观察到的周边设备等实际的物体的形状的三维信息,因此根据这种深度映射信息来设定的干扰区域的形状为用户容易设想出的形状。其结果,机器人的示教操作变得更容易。
并且,在周边设备的位置改变的情况下,只要再次执行记述了干扰区域设定流程的程序,就可完成干扰区域的重新设定,因此可使用户的作业削减。
仅在重新设定干扰范围时利用深度传感器12即可,因此深度传感器12只要有一个即可。能够循环使用深度传感器12,因此可使成本削减。
(其它实施方式)
使机器人11停止在任意的一个姿势来进行基于上述的一个实施方式的机器人控制装置10的干扰区域设定流程。然而,在机器人11的周边广范围地存在有可能与机器人11发生干扰的物体的情况下,仅通过一次干扰区域设定流程是难以将这种物体所占据的范围设定为干扰区域的。另外,在位于机器人11的周边的物体的形状是复杂的形状的集合的情况下,也难以仅利用一次干扰区域设定流程来决定干扰区域。在这种情况下,优选的是,进行多次上述的干扰区域设定流程。
图3是示意性地示出这种实施多次的干扰区域设定流程的例子的图。
首先,机器人控制装置10使机器人11以如图3中实线所示的机器人姿势(下面称为第一姿势。)停止。接着,机器人控制装置10通过安装于采取第一姿势的机器人11的顶端部的深度传感器12,来获取从该深度传感器12到物体20的表面上的多个点为止的深度数据组、例如深度图像31A。并且,机器人控制装置10使用深度图像31A的信息、第一姿势下的机器人11的顶端部的位置信息以及传感器安装位置信息,来生成第一姿势下的深度映射信息、例如深度图像32A。
在生成第一姿势下的深度映射信息之后,机器人控制装置10使机器人11以如图3中双点划线所示的机器人姿势(下面称为第二姿势。)停止。接着,机器人控制装置10通过安装于采取第二姿势的机器人11的顶端部的深度传感器12,来获取从该深度传感器12到物体20的表面上的多个点的深度数据组、例如深度图像31B。并且,机器人控制装置10使用深度图像31B的信息、第二姿势下的机器人11的顶端部的位置信息以及传感器安装位置信息来生成第二姿势下的深度映射信息、例如深度图像32B。
并且,深度映射生成部15将按机器人11的每个姿势来生成的深度图像32A、32B的信息重叠,生成包含广范围地存在的物体20的全部的深度图像34。当然,机器人11的姿势的变更次数不限于2次。之后,干扰区域设定部16根据所生成的深度图像34来设定作为机器人11的干扰区域的范围。
通过以上,能够将广范围地存在的物体所占据的范围设定为干扰区域。特别是,不需要在物体20的周围设置多个深度传感器,通过将一个深度传感器12安装于机器人11,改变机器人11的姿势,将按各姿势生成的深度映射信息统一为一个深度映射信息,能够设定障碍物的场所。
以上使用典型实施方式说明了本发明,但是本领域技术人员应该能够理解,能够不脱离本发明的范围地对上述的各实施方式进行变更以及各种其它变更、省略、追加。
另外,为了实现本发明的目的,能够提供如以下那样的发明的方式及其效果。
例如,作为本发明的第一方式,提供一种对机器人11的动作进行控制的机器人控制装置10,该机器人控制装置10具备:深度获取部13,其获取深度数据组,该深度数据组表示从机器人11的规定的部分到存在于机器人11的周边的物体20的表面上的任意的多个点为止的深度;机器人位置获取部14,其获取机器人11的规定的部分的三维位置信息;深度映射生成部15,其使用上述的深度数据组和上述规定的部分的三维位置信息来生成深度映射信息,该深度映射信息包括以机器人11的设置位置为原点的上述多个点的三维位置信息;以及干扰区域设定部16,其根据该深度映射信息来估计物体20所占据的范围,将该范围设定为机器人11的干扰区域。
根据上述第一方式,能够自动设定用于使机器人与周边设备等障碍物不发生干扰的该机器人的动作范围。
作为第二方式,提供如下的机器人控制装置10:作为上述第一方式的机器人控制装置10,干扰区域设定部16根据深度映射信息来估计物体20的形状,将该形状变换为简化后的形状,将该简化后的形状所占据的范围设定为机器人11的干扰区域。
根据上述第二方式,将被设定为机器人11的干扰区域的物体20的形状变换为简化后的形状,因此能够削减存储部中存储的数据量。并且,能够提高基于干扰区域来使机器人11动作时的处理速度,使噪声也降低。
作为第三方式,提供如下的机器人控制装置10:作为上述第一方式或第二方式的机器人控制装置10,具备深度传感器12,该深度传感器12以能够装卸的方式安装于机器人11的所述规定的部分,测定所述深度。
根据上述第三方式,能够仅在设定机器人11的干扰区域时将深度传感器12安装于机器人11,来执行干扰区域的设定流程。
作为第四方式,提供如下的机器人控制装置10:作为上述第三方式的机器人控制装置10,机器人控制装置10在每次使安装有深度传感器12的机器人11动作以变更机器人11的姿势时,生成所述深度映射信息,干扰区域设定部16根据按机器人11的每个姿势来生成的所述深度映射信息,来设定作为机器人11的干扰区域的范围。
根据上述的第四方式,能够将广范围地存在的物体20所占据的范围设定为机器人11的干扰区域。

Claims (5)

1.一种机器人控制装置,对机器人的动作进行控制,该机器人控制装置具备:
深度获取部,其获取深度数据组,该深度数据组表示将所述机器人配置为规定的姿势时的从该机器人的规定的部分到存在于所述机器人的周边的物体的表面上的任意的多个点为止的深度;
机器人位置获取部,其获取将所述机器人配置为所述规定的姿势时的所述规定的部分的三维位置信息;
深度映射生成部,其使用所述深度数据组和所述规定的部分的所述三维位置信息来生成深度映射信息,该深度映射信息包括以所述机器人的设置位置为原点的所述多个点的三维位置信息;以及
干扰区域设定部,其根据所述深度映射信息来估计所述物体所占据的范围,将该范围设定为所述机器人的干扰区域。
2.根据权利要求1所述的机器人控制装置,其特征在于,
所述干扰区域设定部根据所述深度映射信息来估计所述物体的形状,将该形状变换为简化后的形状,将该简化后的形状所占据的范围设定为所述机器人的干扰区域。
3.根据权利要求1或2所述的机器人控制装置,其特征在于,
具备深度传感器,该深度传感器以能够装卸的方式安装于所述规定的部分,测定所述深度。
4.根据权利要求3所述的机器人控制装置,其特征在于,
还具备传感器位置获取部,该传感器位置获取部获取表示所述深度传感器相对于所述规定的部分的位置的传感器安装位置信息,
所述深度映射生成部还使用所述传感器安装位置信息来生成所述深度映射信息。
5.根据权利要求3所述的机器人控制装置,其特征在于,
所述机器人控制装置在每次使安装有所述深度传感器的所述机器人进行动作以变更所述机器人的姿势时,生成所述深度映射信息,
所述干扰区域设定部根据按所述机器人的每个姿势来生成的所述深度映射信息,来设定作为所述干扰区域的范围。
CN201711237050.1A 2016-12-01 2017-11-30 机器人控制装置 Active CN108127661B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-234240 2016-12-01
JP2016234240A JP6420296B2 (ja) 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置

Publications (2)

Publication Number Publication Date
CN108127661A CN108127661A (zh) 2018-06-08
CN108127661B true CN108127661B (zh) 2019-09-10

Family

ID=62164106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711237050.1A Active CN108127661B (zh) 2016-12-01 2017-11-30 机器人控制装置

Country Status (4)

Country Link
US (1) US10481571B2 (zh)
JP (1) JP6420296B2 (zh)
CN (1) CN108127661B (zh)
DE (1) DE102017127950B4 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176386A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2021142635A (ja) * 2020-03-13 2021-09-24 オムロン株式会社 干渉判定装置、方法、及びプログラム
JP7468289B2 (ja) 2020-10-16 2024-04-16 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
JP2022070079A (ja) 2020-10-26 2022-05-12 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
JP2022091542A (ja) 2020-12-09 2022-06-21 オムロン株式会社 制御装置、制御方法、プログラム
US20230196495A1 (en) * 2021-12-22 2023-06-22 Datalogic Ip Tech S.R.L. System and method for verifying positional and spatial information using depth sensors
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
CN102528811A (zh) * 2011-12-19 2012-07-04 上海交通大学 托克马克腔内的机械臂定位与避障系统
JP2012243138A (ja) * 2011-05-20 2012-12-10 Seiko Epson Corp 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム
CN103568022A (zh) * 2012-07-20 2014-02-12 精工爱普生株式会社 碰撞检测系统、碰撞检测用数据生成装置以及机械手
DE102013018638A1 (de) * 2013-11-06 2015-05-07 Daimler Ag Verfahren zum Übenwachen eines Arbeitsbereichs
CN105522592A (zh) * 2014-10-17 2016-04-27 发那科株式会社 机器人的干涉区域设定装置
CN106054900A (zh) * 2016-08-08 2016-10-26 电子科技大学 基于深度摄像头的机器人临时避障方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8720331D0 (en) * 1987-08-28 1987-10-07 Caplin Cybernetics Corp Control system
JP2003136466A (ja) 2001-10-25 2003-05-14 Murata Mach Ltd 産業用ロボットの制御装置
JP5872894B2 (ja) 2011-12-28 2016-03-01 川崎重工業株式会社 ロボット動作教示支援装置及び方法
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP6489776B2 (ja) * 2013-08-28 2019-03-27 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
US9990535B2 (en) * 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2012243138A (ja) * 2011-05-20 2012-12-10 Seiko Epson Corp 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム
CN102528811A (zh) * 2011-12-19 2012-07-04 上海交通大学 托克马克腔内的机械臂定位与避障系统
CN103568022A (zh) * 2012-07-20 2014-02-12 精工爱普生株式会社 碰撞检测系统、碰撞检测用数据生成装置以及机械手
DE102013018638A1 (de) * 2013-11-06 2015-05-07 Daimler Ag Verfahren zum Übenwachen eines Arbeitsbereichs
CN105522592A (zh) * 2014-10-17 2016-04-27 发那科株式会社 机器人的干涉区域设定装置
CN106054900A (zh) * 2016-08-08 2016-10-26 电子科技大学 基于深度摄像头的机器人临时避障方法

Also Published As

Publication number Publication date
DE102017127950A1 (de) 2018-06-07
JP6420296B2 (ja) 2018-11-07
US20180157230A1 (en) 2018-06-07
JP2018089728A (ja) 2018-06-14
DE102017127950B4 (de) 2019-11-07
US10481571B2 (en) 2019-11-19
CN108127661A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
CN108127661B (zh) 机器人控制装置
EP3410246B1 (en) Robot obstacle avoidance control system and method, robot, and storage medium
EP1043126B1 (en) Teaching model generating method
US7177459B1 (en) Robot system having image processing function
US10725450B2 (en) Control system of machine tool
EP0528054A1 (en) Detected position correcting method
JP2022500263A (ja) 拡張現実及びデジタルツインのためのロボット較正
US11478934B2 (en) Method and apparatus for controlling robot
US20180307202A1 (en) Control system of machine tool
US11511429B2 (en) Method of improving safety of robot and method of evaluating safety of robot
JP2020028957A (ja) 干渉回避装置およびロボットシステム
KR101782317B1 (ko) 3차원 스캐너를 이용한 로봇 캘리브레이션 장치 및 이를 이용한 로봇 캘리브레이션 방법
CN114029961A (zh) 一种机械臂高精度传动的机器人控制方法及系统
US20180299861A1 (en) Control system of machine tool
JP2007333441A (ja) 移動体およびその環境認識センサ
Seliger et al. Sensor-aided programming and movement adaptation for robot-guided deburring of castings
WO2022025059A1 (ja) ロボットシステム
JP5516974B2 (ja) 視覚センサのマウント装置と方法
JP2022031083A (ja) 情報処理方法、情報処理システム、プログラム
JP7155216B2 (ja) 移動体の制御装置及び制御方法
EP4241930A1 (en) Robot control in working space
CN113448338B (zh) 机器人控制方法、机器人、计算机程序产品和存储介质
US20040020084A1 (en) Method for automatically moving on the ground a tool mounted at the end of an articulated arm
JP7389237B2 (ja) 座標系設定システム及び位置姿勢計測システム
US20240083036A1 (en) Method and apparatus for robot system management

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant