CN106808496B - 机器人安全系统 - Google Patents
机器人安全系统 Download PDFInfo
- Publication number
- CN106808496B CN106808496B CN201611055537.3A CN201611055537A CN106808496B CN 106808496 B CN106808496 B CN 106808496B CN 201611055537 A CN201611055537 A CN 201611055537A CN 106808496 B CN106808496 B CN 106808496B
- Authority
- CN
- China
- Prior art keywords
- robot
- operator
- image
- barrier
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39082—Collision, real time collision avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/49—Protective device
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
在机器人安全系统(1)中,通过安全控制器(4),根据作业人员的位置和/或作业人员的视野确定作业人员所看到的机器人(2),并根据位置信息取得机器人(2)与作业人员之间的距离。通过安全控制器(4),根据该取得的距离生成栅栏图像,所述栅栏图像为表示机器人(2)的动作范围的边界位置的虚拟图像,并且其显示形式根据到该机器人(2)为止的距离发生变化。在作业人员佩戴的眼镜型显示器(5)中与作业人员的视野重叠地显示生成的栅栏图像。作为其他示例,机器人安全系统也可以使作为栅栏图像的虚拟围栏显示在头部佩戴型显示器中,并以尽量不影响作业人员的工作效率的方式使其显示形式最佳化。
Description
技术领域
本发明涉及一种机器人安全系统,其确保在设置有工业用机器人等机器人的场所进行工作时的安全。
背景技术
以往,在设置工业用机器人时,大多设置有用于限制进入到机器人的动作范围内的物理栅栏。但是,近年来,随着工厂的不断小型化,不设置物理栅栏的情况在增多。在这种情况下,如果作业人员进入到动作范围内,则有可能会接触到机器人。因此,例如在专利文献1中,讨论了在机器人侧实施用于应对与作业人员发生接触的安全对策。
另外,例如在专利文献2中提出了如下的技术:使用能够在作业人员佩戴于头部的状态的显示部上投影图像的头部佩戴型显示器,来显示例如虚拟现实的图像和各种信息。设想为了确保有可能进入到机器人进行工作的区域内的作业人员的安全而应用该技术。
例如,作为一种方法,可以考虑当作业人员借助头部佩戴型显示器看到机器人时,在机器人的周边显示虚拟的安全栅栏的图像。下面,将该“虚拟的安全栅栏”称为“虚拟围栏”。通过导入这样的系统来确保作业人员的安全性,并且不需要实际配置安全栅栏,因此能够期待提高与机器人共存的环境下的作业人员的工作效率。
在先技术文献
专利文献
专利文献1:日本特开2015-157352号公报
专利文献2:日本特开2014-95903号公报
发明内容
发明所要解决的技术问题
然而,认为安全性最高的做法是不让作业人员与机器人接触。
另一方面,当作业人员在视野中捕捉到机器人时,如果虚拟围栏始终显示在头部佩戴型显示器中,则作业人员无法集中注意力,有可能引起工作效率降低。
本发明是鉴于上述实际情况而做出的,第一个目的在于提供一种机器人安全系统,在没有设置物理栅栏的场所进行工作时,既能够确保作业人员的安全,又能够降低作业人员进入到机器人的动作范围内的可能性。
另外,第二个目的在于提供一种虚拟围栏显示系统,能够以尽量不影响作业人员的工作效率的方式使头部佩戴型显示器中的虚拟围栏的显示形式最佳化。
用于解决技术问题的方案
因此,为了达成上述第一个目的,作为本发明的第一实施方式,对工业用机器人等的机器人安全系统进行说明。
首先,讨论当与作业人员的视野重叠地显示虚拟的栅栏图像时,采用何种显示形式对于作业人员来说是容易理解的、且是安全的。
通过头部佩戴型显示器这样的透过型显示器显示的虚拟的栅栏图像与以往设置的实物栅栏不同,无法在物理上限制进入到动作范围内的现象。另外,近年来虽然能够显示看起来与实物相同的真实图像,但是单纯地仅显示真实的栅栏的图像尽管能够表示出动作范围的边界位置,却难以产生千万不要向那边靠近的心理上的抑制效果。另一方面,头部佩戴型显示器具有能够显示与现实不同的虚拟图像的优点。
因此,认为通过利用虚拟图像这一优点,能够获得千万不要靠近动作范围的心理上的抑制效果。其反面是,如果提示的信息过多或者使用复杂的提示方法,则有可能会在信息的把握上花费时间,无法做出及时的应对。
因此,根据发明的第一实施方式,具备:位置信息取得部,取得可确定作业人员的位置的位置信息;视野信息取得部,取得可确定作业人员的视野的视野信息;确定部,根据作业人员的位置和/或作业人员的视野,确定作业人员所看到的机器人;距离取得部,根据位置信息,取得机器人与作业人员之间的距离;栅栏图像生成部,根据取得的距离生成栅栏图像,所述栅栏图像为表示机器人的动作范围的边界位置的虚拟图像,并且其显示形式根据到该机器人为止的距离发生变化;以及头部佩戴型显示器,由作业人员佩戴,与作业人员的视野重叠地显示生成的栅栏图像。
根据这样的结构,在作业人员的视野中显示出表示机器人的动作范围的边界位置的栅栏图像、即栅栏状的图像。而且,在通常的心理状态下,认为在设置有栅栏的情况下不会向其前方侵入。
另外,通过根据到机器人为止的距离使栅栏图像的显示形式变化,能够直观地判断出距离机器人是近还是远,也就是自身是位于安全的位置还是位于存在危险性的位置。
因此,既能够确保作业人员的安全,又能够降低作业人员进入到机器人的动作范围内的可能性。
在第一实施方式的优选例中,栅栏图像生成部生成到机器人为止的距离越近透过率越低的形式的栅栏图像。为了不使作业人员靠近机器人,认为只要使作业人员不要比当前位置更靠近机器人一侧即可。在这种情况下,通过遮断朝向机器人的方向的信息,从而在心理上产生不要继续向前前进的心理。这虽然是极端的例子,但是可以认为,当眼前一片漆黑时,通常会对继续向前前进产生顾虑。另一方面,例如对在工厂内移动的作业人员来说,如果设置成突然挡住视野那样的显示形式,则反而有可能会造成危险。
因此,通过生成到机器人为止的距离越近透过率越低的形式的栅栏图像,随着靠近机器人,使作业人员看不到或者看不清其前方,作业人员会对向该方向即机器人的方向的移动产生顾虑。由此,能够期待降低作业人员进入到机器人的动作范围内的可能性。
此时,由于到机器人为止的距离越近透过率越低,因此,能够排除在机器人附近视野突然被遮挡的可能性,能够确保移动过程中的作业人员的安全。
另外,在其他的优选例中,栅栏图像生成部生成到机器人为止的距离越近显示尺寸越被扩大的形式的栅栏图像。这样,通过增大栅栏图像的显示尺寸,能够明确地提示作业人员不要向该方向前进,能够期待降低作业人员进入到机器人的动作范围内的可能性。
进一步,在其他的优选例中,栅栏图像生成部生成根据到机器人为止的距离变成不同颜色的形式的栅栏图像。在日常生活中,例如在信号机的情况下,以蓝色表示允许进入、黄色表示停止、红色表示禁止进入这样进行区分的方式,通过颜色来区分并提示危险性。因此,通过根据到机器人为止的距离以不同的颜色来生成栅栏图像,能够以感官上容易理解的方式向作业人员提示危险性。
进一步,在其他的优选例中,栅栏图像生成部生成在作业人员的视野中所占的比例与到机器人为止的距离无关而处于预定的范围内的形式的栅栏图像。即使在通过显示栅栏图像从而抑制进入到机器人的动作范围R内的情况下,如果因显示该栅栏图像而导致作业人员的视野被遮挡,则反而有可能会造成危险。因此,通过生成在作业人员的视野中所占的比例固定的栅栏图像,换言之,通过持续确保一定量的作业人员的视野,能够提高移动过程中的安全性,并且,即使在靠近机器人时,也不会妨碍做出及时的应对。
进一步,在其他的优选例中,栅栏图像生成部生成避开以作业人员的视野的中心为基准的、预先设定的显示限制范围的形式的栅栏图像。由此,能够持续确保一定量的作业人员的视野,能够提高移动过程中的安全性,并且,即使在靠近机器人时,也不会妨碍做出及时的应对。
进一步,在其他的优选例中,栅栏图像生成部生成根据直到机器人进入作业人员的视野为止的作业人员的移动轨迹使显示形式阶段性变化的形式的栅栏图像。具体而言,在作业人员向接近机器人的方向移动时,生成从与机器人的距离较远时的显示形式阶段性地变化到当前位置的显示形式的栅栏图像。另一方面,在作业人员向远离机器人的方向移动时,生成从位于机器人附近时的显示形式阶段性地变化到当前位置的显示形式的栅栏图像。
例如,作业人员位于机器人的附近,且面朝与机器人不同的方向进行作业,扭头时机器人进入到视野中而突然显示出栅栏图像,在这种情况下,认为无法及时把握提示出的栅栏图像的含义等。因此,通过根据直到机器人进入作业人员的视野为止的移动轨迹使显示形式阶段性地变化,作业人员能够把握是用于限制进入到动作范围内的栅栏图像,并且能够把握自身的移动是正在靠近机器人还是正在远离机器人。而且,如果是正在靠近,则通过向远离方向移动,能够期待可做出避免发生危险的应对。
另一方面,为了达成本发明的第二个目的,根据第二实施方式的结构,提供工业用机器人等的机器人安全系统,以作为在第一项技术方案中记载的虚拟围栏显示系统。根据该系统,图像处理部保存以三维方式对以机器人本体的位置为中心配置在该机器人本体周边的安全栅栏进行建模而得到的3D模型图像数据、即虚拟围栏的3D模型图像数据。另外,图像处理部能够进行如下处理:用多个长方体分割虚拟围栏的3D模型图像数据,并且分别以规定的透过率的图像显示各个长方体。此外,此处的“长方体”也包括“立方体”。
而且,当图像处理部取得佩戴头部佩戴型显示器的作业人员的位置以及方向的信息时,以使显示在显示部的虚拟围栏的3D模型图像数据映入作业人员的视野的方式进行加工。此时,根据虚拟围栏与作业人员的位置以及方向的关系,以如下方式进行加工并发送到头部佩戴型显示器侧:在多个长方体中,越位于作业人员的附近侧透过率越低,而越位于作业人员的远方侧透过率越高。于是,头部佩戴型显示器将接收到的虚拟围栏的3D模型图像数据投影到显示部。
如果以这种方式构成,则在头部佩戴型显示器中不会始终显示整个虚拟围栏的图像,而是位于距离作业人员相对较近的位置的长方体部分的透过率较低,以使作业人员进一步意识到存在虚拟围栏的方式进行显示。另一方面,位于距离作业人员相对较远的位置的长方体部分的透过率较高,由此以不太使作业人员意识到存在虚拟围栏的方式进行显示。
因此,即使不在实际的机器人本体周围配置安全栅栏,通过显示虚拟围栏也能够确保作业人员的安全,并能够提高作业人员在机器人与作业人员共同工作的区域中的工作效率。另外,由于位于可充分确保作业人员的安全性的、相对较远的位置的虚拟围栏的部分的透过率较高,因此能够防止作业人员注意力不集中。在此基础之上,由于作业人员容易目视观察到机器人本体及其周边的实景,因此从这方面来看也能够期待提高工作效率。
根据第二实施方式的优选例,所述位置方向信息取得部由以下部分构成:摄像器,配置于头部佩戴型显示器;以及图像处理部,从摄像器拍摄的图像数据所包含的机器人本体的图像中取得作业人员的位置以及方向的信息。
在头部佩戴型显示器上容易配置比较小型的摄像器,并且,根据摄像器拍摄的图像数据,能够把握在作业人员的视野中以什么方向和大小捕捉到了机器人本体等。因此,图像处理部通过处理所述图像数据,能够取得作业人员的位置以及方向的信息,因此不需要另外使用用于取得所述信息的传感器。
进一步,根据其他的优选例,所述图像处理部使3D模型图像数据的透过率阶段性地变化。此处的“阶段性”是指,至少比图像处理部改变透过率时的最小分辨率更大、并且是作业人员能够认识到透过率的变化的程度的阶段。如果以这种方式构成,则能够削减图像处理部的运算量,并能够使作业人员更加明确地认识到长方体的透过率发生变化的边界。
附图说明
图1是示意性地表示第一实施方式的机器人安全系统中的工作景象的图。
图2是示意性地表示机器人安全系统的电气结构的图。
图3A至图3D是示意性地表示栅栏图像的显示形式的一例的图。
图4A至图4D是示意性地表示栅栏图像的显示形式的一例的图。
图5是示意性地表示栅栏图像的显示形式的一例的图。
图6A至图6D是示意性地表示栅栏图像的显示形式的一例的图。
图7A至图7D是示意性地表示栅栏图像的显示形式的一例的图。
图8是示意性地表示栅栏图像的其他显示例的图。
图9涉及第二实施方式,是概略地表示发挥机器人安全系统的功能的虚拟围栏显示系统的结构的功能框图。
图10是表示智能眼镜的结构的立体图。
图11是表示佩戴智能眼镜的作业人员通过显示部看到的视野的一例的图。
图12是以机器人安全控制器的处理内容为中心进行表示的流程图。
图13是以平面方式表示各个长方体的透过率的设定例的图。
图14是以立体方式表示各个长方体的透过率的设定例的图。
附图标记说明
1:机器人安全系统
2:机器人
3:机器人控制器(栅栏图像生成部11、位置信息取得部、视野信息取得部、确定部)
4:安全控制器(栅栏图像生成部、位置信息取得部、视野信息取得部、确定部)
4A:CPU
4B:ROM
4C:RAM
5:眼镜型显示器(头部佩戴型显示器、栅栏图像生成部、位置信息取得部、视野信息取得部、确定部)
41:确定部
42:距离取得部
43:栅栏图像生成部
53:位置信息取得部
54:视野信息取得部
61:虚拟围栏显示系统(机器人安全系统)
62:机器人臂
63:机器人安全控制器(图像处理部)
63A:CPU
63B:ROM
63C:RAM
64:智能眼镜(头部佩戴型显示器)
64D:显示部
65:摄像机
67:作业人员
68以及69:无线通信部
具体实施方式
(第一实施方式)
下面,参照图1至图7D,对本发明的第一实施方式进行说明。
如图1所示,本实施方式的机器人安全系统1包括机器人2(也称为机器人臂或者机器人本体)、机器人控制器3、安全控制器4以及由作业人员9佩戴在头部的眼镜型显示器5(头部佩戴型显示器)等。该眼镜型显示器5是以戴眼镜的方法佩戴在头部使用的可穿戴设备,也被称为智能眼镜或者电脑眼镜。
在本实施方式中,设想在没有设置用于限制进入到机器人2的动作范围R内的物理栅栏的状况下,作业人员9(用户、人)经过机器人2的附近或者距离机器人2较近处进行工作。在这种情况下,动作范围R设定得比机器人2的臂在物理上可到达的范围更小,更简单地说,动作范围R设定得比可动范围K更小,该可动范围K表示机器人2以最大程度伸展臂时其臂可到达的范围。
在这种情况下,作为作业人员9的工作,设想例如对机器人2(也就是机器人臂(或者机器人本体))进行示教工作和运出机器人2处理过的工件等。另外,也设想作业人员9纯粹为了移动而经过机器人2的附近的情况。在本实施方式中,将机器人2实际工作时机器人2进行动作的范围、更严格地说将机器人2进行动作时臂和工具移动的空间称为动作范围R。此外,该动作范围R也设置在机器人2侧,对机器人2进行控制,从而使其姿势的变化不会脱离动作范围R。
在本实施方式中,作为机器人2,设想所谓的垂直多关节型机器人。由于该机器人2为通常结构,因此省略详细说明,该机器人2具有通过电机驱动的6个轴的臂,在第六轴臂的顶端安装工具使用。但是,机器人2并不仅限于此,还可以是水平多关节型机器人、直动型机器人、自行走式机器人或者人形机器人,还可以将这些方式结合在一起。
如图2所示,该机器人2与控制机器人2的动作、即控制各个轴的电机的机器人控制器3连接。此外,机器人控制器3使用了通常公知的结构,换言之,在本实施方式中,在机器人2以及机器人控制器3中不需要采用特别的结构,因此省略其详细说明。
与通常的眼镜相同,眼镜型显示器5形成为作业人员9能够佩戴在头部的形状,并且能够在相当于透镜部分的透明的显示部51上显示图像。因此,通过眼镜型显示器5显示的图像与作业人员9的视野重叠地显示。换言之,作业人员9同时看到通过自己的眼睛所观察到的现实景象与通过眼镜型显示器5显示的虚拟图像。这种眼镜型显示器5也被称为透过型显示器。此外,该眼镜型显示器5也被称为将在后面的图10中示出的智能眼镜。
在本实施方式的情况下,该眼镜型显示器5具备摄像部52、位置信息取得部53以及视野信息取得部54。如图1所示,在本实施方式中,将这些摄像部52、位置信息取得部53以及视野信息取得部54模块化并设置于眼镜型显示器5的框架。此外,也可以不进行模块化,而是独立地设置。
摄像部52由小型CCD摄像机或CMOS摄像机构成。该摄像部52以与作业人员9的脸部的朝向一致的方式设置在眼镜型显示器5的框架上。因此,通过摄像部52拍摄的图像与作业人员9的视野为大致相同的视角。换言之,摄像部52拍摄与作业人员9所看到的景象大致相同的景象。
位置信息取得部53由小型的GPS(Global Positioning System:全球定位系统)单元构成,该位置信息取得部53取得可确定作业人员9的位置的位置信息。此外,位置信息取得部53并不仅限于如GPS单元那样直接确定位置的结构,例如也可以构成为,取得从工厂的入口等的基准位置起始的作业人员9的移动轨迹,并根据相对于基准位置的位移量间接地确定位置。
视野信息取得部54取得可确定作业人员9的视野的视野信息。在本实施方式中,认为作业人员9的视野与脸部的朝向一致,通过设置于眼镜型显示器5的三轴加速度传感器测量眼镜型显示器5的朝向,从而确定脸部的朝向、即作业人员9的视野。此外,作为视野信息取得部54,可以由加速度传感器以外的装置构成,例如可以是设置陀螺传感器、或者根据由上述摄影部52拍摄的图像来确定视野的结构。
这些机器人控制器3以及眼镜型显示器5以可对各种信息进行通信的方式与作为上位控制装置的安全控制器4连接。在这种情况下,安全控制器4与眼镜型显示器5之间例如既可以通过无线通信方式直接连接,也可以经由作业人员持有的未图示的示教装置间接连接。
该安全控制器4构成为包括负责运算处理的CPU(central processing unit:中央处理器)4A、ROM(read-only memory:只读存储器)4B、RAM(random access memory:随机存取存储器)4C在内的计算机,并且构成为能够与外部的装置进行通信。随着CPU4A的启动,CPU4A将预先保存在ROM4B中的控制程序以及处理程序读取到其工作区域中,并依次执行该程序的步骤。因此,ROM4B发挥非瞬态计算机可读记录介质(nontransitory computerreadable recording medium)的功能。在CPU4A进行该程序处理的过程中,利用RAM4C临时保存数据。
该安全控制器4构成为,通过该CPU4A的处理,能够从机器人控制器3侧取得可确定各个机器人2的动作状态以及机器人控制器3的控制状态的各种信息。因此,安全控制器4能够实时地取得机器人2的臂的旋转角度和电机的通电状态等、表示机器人2的动作状态的动作信息以及表示机器人控制器3的控制状态的控制信息。另外,安全控制器4还存储着例如以工厂内的基准位置为原点的二维坐标系中的各个机器人2的坐标、即机器人2的设置位置。
另外,通过该CPU4A的处理,安全控制器4在功能上具备确定部41、距离取得部42以及栅栏图像生成部43。也就是说,在本实施方式中,通过由CPU4A执行预先保存在ROM4B中的规定的程序,从而以软件形式实现这些确定部41、距离取得部42以及栅栏图像生成部43。
确定部41根据由位置信息取得部53取得的作业人员9的位置和/或通过视野信息取得部54取得的作业人员9的视野,确定作业人员9所看到的机器人2、即存在于作业人员9的视野内的机器人2。例如,当在作业人员9的附近存在1台机器人2时,安全控制器4能够根据作业人员9的位置和机器人2的设置位置确定机器人2。或者,当在作业人员9的附近存在多台机器人2时,安全控制器4能够根据作业人员9的位置和作业人员9的视野确定作业人员9所看到的机器人2。
距离取得部42根据由位置信息取得部53取得的位置信息,取得到通过确定部41确定的机器人2为止的距离、即到作业人员9所看到的机器人2为止的距离。
栅栏图像生成部43根据由距离取得部42取得的作业人员9与机器人2之间的距离生成栅栏图像,该栅栏图像为表示机器人2的动作范围R的边界位置的虚拟图像,并且其显示形式根据与作业人员9之间的距离发生变化,具体内容将在后面进行说明。
接下来,对上述结构的作用进行说明。
首先,讨论当与作业人员9的视野重叠地显示虚拟的栅栏图像时,采用何种显示形式对于作业人员9来说是容易理解的、且是安全的。
通过眼镜型显示器5这样的透过型显示器显示的虚拟围栏图像与以往设置的实物栅栏不同,无法在物理上限制进入到动作范围R内的现象。另外,近年来虽然能够显示看起来与实物相同的真实图像,但是单纯地仅显示真实的栅栏的图像尽管能够表示出动作范围R的边界位置,却难以产生千万不要向那边靠近的心理上的抑制效果。另一方面,眼镜型显示器5具有能够显示与现实不同的虚拟图像的优点。
因此,在本实施方式中,通过利于虚拟图像这一优点,可获得千万不要靠近动作范围R的心理上的抑制效果。下面,分别说明基于本实施方式的几种方法。此外,通过这些方法中的任意一个方法或者通过组合多个方法来实施本实施方式的机器人安全系统1。
<基于信息遮断的方法>
为了不使作业人员9靠近机器人2,可以认为只要使作业人员9不要比当前位置更靠近机器人2一侧即可。在这种情况下,可以认为,通过遮断朝向机器人2的方向的信息,从而在心理上产生不要继续向前前进的心理。这虽然是极端的例子,但是可以认为,当眼前一片漆黑时,通常会对继续向前前进产生顾虑。另一方面,例如对于在工厂内移动的作业人员9来说,如果设置成突然挡住视野那样的显示形式,则反而有可能会造成危险。
在此,在本方法中,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像的显示形式根据到机器人2为止的距离发生变化,并且到机器人2为止的距离越近透过率越低。在这种情况下,透过率既可以根据距离线性地下降,也可以在进入到可动范围K的时间点或者最接近动作范围R的时间点等,大幅改变透过率。
具体而言,如图3A所示,当到机器人2为止的距离比较远时,栅栏图像生成部43只生成边框,也就是生成边框内的透过率为100%的栅栏图像S10。此时,生成的栅栏图像S10被显示在眼镜型显示器5的显示部51。在这种情况下,作业人员9能够把握动作范围R的边界位置,并且,由于只显示出边框,因此能够把握自身位于距离机器人2比较远的安全的位置。
当作业人员9从该状态靠近机器人2一侧从而缩短与机器人2之间的距离时,如图3B所示,栅栏图像生成部43生成边框的大小与栅栏图像S10相同、并且边框内的透过率低于栅栏图像S10的栅栏图像S11。此外,在图3B中,通过阴影示意性地表示出了透过率下降的状态。而且,该栅栏图像S11被显示在眼镜型显示器5的显示部51。但是,在该时点,优选为不使透过率下降到无法看到背景的程度。
在这种情况下,由于透过率下降,因此作业人员9能够把握自身靠近了机器人2。另外,可以认为,由于透过率下降而变得难以看清机器人2一侧,因此在心理上不会向那边靠近。
当作业人员9进一步靠近机器人2一侧从而缩短与机器人2之间的距离时,如图3C所示,栅栏图像生成部43生成边框的大小比栅栏图像S11大、并且边框内的透过率低于栅栏图像S11的栅栏图像S12。此外,在图3C中,通过阴影示意性地表示出了透过率下降的状态。而且,该栅栏图像S12被显示在眼镜型显示器5的显示部51。
在这种情况下,由于透过率进一步下降,因此作业人员9能够把握自身靠近了机器人2。另外,由于透过率下降而变得难以看清机器人2一侧,因此认为在心理上不会向那边靠近。
此时,例如由是否已进入到机器人2的可动范围K等来决定是否要改变边框的大小。虽然通常工作时不会超过动作范围R进行动作,但是,可以认为如果在可动范围K内,则机器人2的臂有可能会接触到。因此,为了提示已进入到可动范围K内并引起作业人员9注意,可以在已进入到可动范围K内的时间点改变边框的大小。
当作业人员9进一步靠近机器人2一侧从而缩短到动作范囲R的跟前为止的距离时,如图3D所示,栅栏图像生成部43生成边框的大小比栅栏图像S12大、并且边框内的透过率与栅栏图像S12相比进一步下降的栅栏图像S13。在这种情况下,既可以将透过率设置成不注意观察就难以看到背景的程度,也可以设置成完全看不见。此外,在图3D中,通过阴影示意性地表示出了透过率下降的状态。而且,该栅栏图像S13被显示在眼镜型显示器5的显示部51。
在这种情况下,由于透过率进一步下降,不注意观察就难以看到背景,或者完全看不见,因此可以认为作业人员9会判断出继续前进是危险的,从而不会向机器人2一侧靠近。
这样,在基于信息遮断的方法中,为了获得千万不要靠近动作范围R的心理上的抑制效果,以透过率根据到机器人2为止的距离下降的形式生成显示在眼镜型显示器5上的栅栏图像。另外,到机器人2为止的距离越近,越扩大显示尺寸。由此,在没有物理栅栏的状况下,能够降低作业人员9进入到动作范囲R内的可能性。
另外,在本实施方式的机器人安全系统1的情况下,当尽管显示了上述栅栏图像S10~S13但作业人员9仍然进入到动作范围R内时,不生成和显示栅栏图像。这是由于,当进入到动作范囲R内时,妨碍作业人员9的视野反而是危险的。也就是说,在机器人安全系统1中,虚拟的栅栏图像构成为,对位于机器人2的动作范围R外侧的作业人员9显示栅栏图像。换言之,栅栏图像生成部43在作业人员9从远处移动至动作范围R的过程中,生成栅栏图像。但是,对于已进入到动作范囲R内的作业人员9,以不遮挡作业人员9的视野的方式,执行通知已进入到动作范囲R内的通知处理。
<基于积极信息提示的方法>
为了不使作业人员9靠近机器人2,认为通过积极地提示机器人2侧的信息,也就是通过明确地表示出存在着有可能进行动作的机器人2,能够使其不继续向前前进。另一方面,认为向作业人员9提示到哪里为止是危险的也很重要。
因此,在本方法中,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像是显示状态根据到机器人2为止的距离发生变化的图像,并且到机器人2为止的距离越近显示尺寸越被扩大。此外,在本方法中显示尺寸被扩大的含义是指,栅栏图像本身的形状相同,而显示的范围根据距离变大。更加通俗地说,是位于远处的物体看起来较小,但是如果靠近则该物体看起来较大、即与现实的视角近似的形式。
具体而言,如图4A所示,当到机器人2为止的距离比较远时,栅栏图像生成部43生成只有边框的栅栏图像S20。此时,生成的栅栏图像S20被显示在眼镜型显示器5的显示部51。在这种情况下,作业人员9能够把握动作范囲R的边界位置,并且由于只显示边框,换言之,由于看不到栅栏的细微部分,因此能够把握自身位于距离机器人2比较远的安全的位置。
当作业人员9从该状态靠近机器人2一侧从而缩短与机器人2之间的距离时,如图4B所示,栅栏图像生成部43生成具有边框和设置在该边框内的格子的栅栏图像S21。而且,该栅栏图像S21被显示在眼镜型显示器5的显示部51。这表示出由于作业人员9靠近了栅栏而看得见栅栏的细微部分的状况。
在这种情况下,由于作业人员9看得见格子,因此能够把握自身靠近了机器人2。另外,由于明确地表示出了具有格子的栅栏,并且在栅栏的前方存在着机器人2,因此会认为机器人2进行动作时较为危险,从而不会向那边靠近。是在作业人员9位于远离机器人2的位置时开始显示格子。换言之,在显示格子的时间点,作业人员9位于安全的位置。
当作业人员9进一步靠近机器人2一侧从而缩短与机器人2之间的距离时,如图4C所示,栅栏图像生成部43生成使栅栏图像S21的显示尺寸扩大的形式的栅栏图像S22。此外,在图3C中,通过阴影示意性地表示出了栅栏的颜色。而且,该栅栏图像S22被显示在眼镜型显示器5的显示部51。
在这种情况下,由于栅栏进一步变大,因此作业人员9能够把握自身进一步靠近了机器人2。另外,由于较大地显示出了栅栏,因此会认为向该方向的移动是被禁止的或者是被限制的,在心理上也不会靠近机器人2。
当作业人员9进一步靠近机器人2一侧从而缩短到动作范囲R的跟前为止的距离时,如图4D所示,栅栏图像生成部43生成与栅栏图像S22相比显示尺寸被进一步扩大的形式的栅栏图像S23。而且,该栅栏图像S23被显示在眼镜型显示器5的显示部51。在这种情况下,由于看起来栅栏像是正好在眼前,因此作业人员9会判断出继续前进是危险的,从而不会向机器人2一侧靠近。
这样,在基于积极信息提示的方法中,为了获得千万不要靠近动作范围R的心理上的抑制效果,以根据到机器人2为止的距离使显示尺寸扩大的形式生成显示在眼镜型显示器5的栅栏图像。由此,在没有物理栅栏的状况下,也能够降低作业人员9进入到动作范囲R内的可能性。
另外,在本方法的情况下,当尽管显示了上述栅栏图像S20~S23但作业人员9仍然进入到动作范围R内时,也不生成和显示栅栏图像。也就是说,在机器人安全系统1中,虚拟的栅栏图像构成为,对位于机器人2的动作范囲R外侧的作业人员9显示栅栏图像。但是,对于已进入到动作范囲R内的作业人员9,通过例如在不会遮挡作业人员9的视野的视线角落处进行显示,或者以红色等的警告色闪烁显示消息等方式,通知已进入到动作范围R内。即,不显示有可能遮挡视野的栅栏图像,但执行通知作业人员9已进入到动作范囲R内的通知处理。此外,也可以构成为,在眼镜型显示器中设置声音输出单元,通过输出警告音等方式通知作业人员9已进入到动作范围R内。
<基于积极提示背景的方法一>
如上述基于积极信息提示的方法那样,认为通过积极地提示机器人2侧的信息,能够使人不继续向前前进。另一方面,认为使作业人员9能够明确地目视观察到具有危险性的对象物也很重要,也就是说,对于本实施方式而言,使作业人员9能够明确地目视观察到机器人2也很重要。
因此,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像在作业人员9的视野中所占的比例与到机器人2为止的距离无关而处于预定的范围内。具体而言,当生成如上述图4C、图4D中示例出的栅栏图像S22、S23时,栅栏图像生成部43以在视野内显示时的面积为大致相同程度的方式生成栅栏图像S22、S23。
由此,对于未显示栅栏图像的范围、即作业人员9能够明确地目视观察而不会被栅栏图像遮挡、不会使人看不清的范围,其大小与到机器人2为止的距离无关,是大致固定的。换言之,能够始终以相同的状态持续确保向机器人2靠近的作业人员9的视野。由此,能够提高移动过程中的安全性。
这样,在基于积极提示背景的方法一中,为了获得千万不要靠近动作范围R的心理上的抑制效果,以在作业人员9的视野中所占的比例与到机器人2为止的距离无关而处于预定的范围内的形式生成显示在眼镜型显示器5的栅栏图像。由此,在没有物理栅栏的状况下,也能够降低作业人员9进入到动作范围R内的可能性。
另外,由于确保了作业人员9的视野,因此即使在不小心进入到动作范围R内的情况下,也能够期待可做出及时的应对。当然,在已进入到动作范围R内时也可以不显示栅栏图像。
<基于积极提示背景的方法二>
如上述基于积极信息提示的方法那样,认为通过积极地提示机器人2侧的信息,能够使人不继续向前前进。另一方面,认为使作业人员9能够明确地目视观察到具有危险性的对象物也很重要,也就是说,对于本实施方式而言,使作业人员9能够明确地目视观察到机器人2也很重要。
因此,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像避开以作业人员9的视野的中央为基准的、预先设定的显示限制范围。具体而言,如图5所示,相对于上述图3D中示例出的栅栏图像S13,以视野的中心为基准,设定具有规定宽度以及规定高度的显示限制范围,并生成在该区域中不显示图像的形式的栅栏图像S13A。此外,可以适当地设定显示限制范围的宽度和高度。
由此,包括含有作业人员9最关注的部分的、视野的中心在内的范围不会被栅栏图像遮挡,不会变得难以看清,而是会变得明确,因此能够始终持续确保作业人员9的视野,能够提高移动过程中的安全性。
另外,本方法也能够与在上述基于积极信息提示的方法中示例出的栅栏图像S20(参照图4A至图4D)组合使用。在这种情况下,生成使栅栏的格子脱离显示限制范围的形式的栅栏图像即可。
这样,在基于积极提示背景的方法二中,为了获得千万不要靠近动作范围R的心理上的抑制效果,通过避开以作业人员9的视野的中心为基准的、预先设定的显示限制范围的形式生成显示在眼镜型显示器5的栅栏图像。由此,在没有物理栅栏的状况下,也能够降低作业人员9进入到动作范围R内的可能性,并且,由于确保了作业人员9的视野,因此即使在万一进入到动作范围R内的情况下,也能够期待作业人员9可做出应对。当然,在已进入到动作范围R内时也可以不显示栅栏图像。
<基于固定所提示的信息的方法>
如果提示多个信息或者该信息采用复杂的提示方法,则会对信息的判断造成困扰,有可能无法做出及时的应对。另外,认为在作为图像而提示出的信息的形状等发生较大变化时也存在同样的可能性。
因此,在本方法中,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像是显示状态根据到机器人2为止的距离发生变化的图像,并且到机器人2为止的距离越近显示尺寸越被扩大。此外,本方法中显示尺寸被扩大的含义是指,栅栏图像本身的形状相同,而显示的大小根据距离变大。更加通俗地说,是通过图像的大小来提示到机器人2为止的距离的远近的形式。
具体而言,如图6A所示,当到机器人2为止的距离比较远时,栅栏图像生成部43生成只有边框的栅栏图像S30。此时,生成的栅栏图像S30被显示在眼镜型显示器5的显示部51。在这种情况下,作业人员9能够把握动作范围R的边界位置,并且由于只显示边框,换言之,由于看不见栅栏的细微部分,因此能够把握自身位于距离机器人2比较远的安全的位置。
当作业人员9从该状态靠近机器人2一侧从而缩短与机器人2之间的距离时,如图6B所示,栅栏图像生成部43生成具有边框和设置在该边框内的格子的栅栏图像S31。而且,该栅栏图像S31被显示在眼镜型显示器5的显示部51。这表示出由于作业人员9靠近了栅栏而看得见栅栏的细微部分。
在这种情况下,由于作业人员9看得见格子,因此能够把握自身靠近了机器人2。另外,由于明确地表示出了格子,并且在该格子的前方存在着机器人2,因此会认为机器人2进行动作时较为危险,从而不会向那边靠近。但是,由于图像的形状本身没有变化,因此,作业人员9能够容易地把握其为用于限制进入的栅栏。
当作业人员9进一步靠近机器人2一侧从而缩短与机器人2之间的距离时,如图6C所示,栅栏图像生成部43生成使栅栏图像S31的显示尺寸扩大的形式的栅栏图像S32。此时,图像的形状本身不发生变化,只是显示时的大小变大。而且,该栅栏图像S32被显示在眼镜型显示器5的显示部51。
在这种情况下,由于栅栏进一步变大,因此作业人员9能够把握自身进一步靠近了机器人2。另外,由于较大地显示出了栅栏,会认为向该方向的移动是被禁止的或者是被限制的,在心理上也不会靠近机器人2。
当作业人员9进一步靠近机器人2一侧从而缩短到动作范囲R的跟前为止的距离时,如图6D所示,栅栏图像生成部43生成与栅栏图像S32相比显示尺寸进一步被扩大、并且在视野的大部分中进行显示的形式的栅栏图像S33。而且,该栅栏图像S33被显示在眼镜型显示器5的显示部51。在这种情况下,由于看起来栅栏像是正好在眼前,因此作业人员9会判断出继续前进是危险的,从而不会向机器人2一侧靠近。
这样,在基于固定所提示的信息的方法中,为了获得千万不要靠近动作范围R的心理上的抑制效果,以根据到机器人2为止的距离使显示尺寸扩大的形式生成显示在眼镜型显示器5的栅栏图像。由此,在没有物理栅栏的状况下,也能够降低作业人员9进入到动作范围9内的可能性。
另外,在本方法中,当作业人员9已进入到动作范围R内时,也可以不生成和显示栅栏图像。
<明确改变所提示的信息的方法>
在日常生活中,有时通过颜色来区分并提示危险性。例如在信号机的情况下,以蓝色表示允许进入、黄色表示停止、红色表示禁止进入这样的方式进行区分。这样,认为如果对危险性划分颜色并进行提示,则作业人员9容易直观地理解危险性。
因此,在本方法中,栅栏图像生成部43生成如下形式的栅栏图像:该栅栏图像是显示状态根据到机器人2为止的距离发生变化的图像,并且根据到机器人2为止的距离变成不同颜色。
在本实施方式中,在位于远离机器人2的位置,以蓝色生成栅栏图像;在距离机器人2的可动范围K规定距离内,以黄色生成栅栏图像;在机器人2的可动范囲K内且在动作范围R外,以红色生成栅栏图像。另外,在本实施方式中,采用了与上述基于积极信息提示的方法的组合。
具体而言,如图7A所示,当到机器人2为止的距离比较远时,栅栏图像生成部43生成只有边框的栅栏图像S40。此时,生成的栅栏图像S40以蓝色显示在眼镜型显示器5的显示部51。
当作业人员9从该状态靠近机器人2一侧从而缩短与机器人2之间的距离时,如图7B所示,栅栏图像生成部43生成具有边框和设置在该边框内的格子的栅栏图像S41。在这种情况下,如上所述,在开始显示格子的时间点,作业人员9位于安全的位置,因此以蓝色显示该栅栏图像S41。但是,由于作业人员9看得见格子,因此能够把握自身靠近了机器人2。
当作业人员9进一步靠近机器人2一侧从而缩短与机器人2之间的距离、并进入距离可动范围K规定距离内时,如图7C所示,栅栏图像生成部43生成使栅栏图像S41的显示尺寸扩大的形式的、并且以黄色进行显示的栅栏图像S42。而且,该栅栏图像S42以黄色显示在眼镜型显示器5的显示部51。
在这种情况下,由于栅栏进一步变大,并且以黄色显示出图像,因此作业人员9能够把握自身正在靠近机器人2的可动范围K、即危险性升高。
当作业人员9进一步靠近机器人2一侧并进入可动范围K内时,如图7D所示,栅栏图像生成部43生成与栅栏图像S42相比显示尺寸被进一步扩大、并且在视野的大部分中以红色进行显示的形式的栅栏图像S43。而且,该栅栏图像S43以红色显示在眼镜型显示器5的显示部51。在这种情况下,由于看起来栅栏像是正好在眼前,并且以红色显示出图像,因此作业人员9会判断出继续前进是危险的,从而不会向机器人2一侧靠近。
这样,在基于明确改变所提示的信息的方法中,为了获得千万不要靠近动作范囲R的心理上的限制效果,以根据到机器人2为止的距离变成不同颜色的形式生成显示在眼镜型显示器5的栅栏图像。由此,能够直观地把握危险性的程度,在没有物理栅栏的状况下,也能够降低作业人员9进入到动作范囲R内的可能性。
另外,在本方法中,当作业人员已进入到动作范囲R内时,也可以不生成和显示栅栏图像。另外,在本方法中,也可以与基于信息遮断的方法进行组合。
进一步,在本方法中,也可以与根据作业人员9的移动轨迹使显示形式变化的方法进行组合。具体而言,根据机器人2进入作业人员9的视野时的到机器人2为止的距离、以及直到机器人2进入视野为止的作业人员9的移动轨迹,在作业人员9向接近机器人2的方向移动时,生成从与机器人2之间的距离较远时的显示形式阶段性地变化到当前位置的显示形式的栅栏图像,另一方面,在作业人员9向远离机器人2的方向移动时,生成从位于机器人2的附近时的显示形式阶段性地变化到当前位置的显示形式的栅栏图像。
例如,在图7C所示的位置为作业人员9的当前位置、并且到达该位置为止是向机器人靠近的情况下,能够生成使显示形式以1~2秒左右阶段性地从图7A变化到图7C的状态的、1~2秒左右的栅栏图像(栅栏影像)。另一方面,例如,在图7C所示的位置为作业人员9的当前位置、并且到达该位置为止是远离机器人2的情况下,可以生成使显示形式阶段性地从图7D变化到图7C的状态的、1~2秒左右的栅栏图像(栅栏影像)。
由此,例如作业人员9位于机器人2的附近,且面朝与机器人2不同的方向,扭头时机器人2进入到视野中而突然显示出栅栏图像,在这种情况下,能够容易地把握所提示的图像是用于限制进入到动作范囲R内的栅栏图像,并且能够容易地把握自身的移动是正在靠近机器人2还是正在远离机器人2。而且,如果是正在靠近,则通过向远离方向移动,能够期待可做出避免发生危险的应对。
这样,机器人安全系统1通过以各种方法在眼镜型显示器5中显示栅栏图像,降低了进入到机器人2的动作范围R内的可能性。
此外,各个栅栏图像只是一个示例,也可以生成例如如图8所示的金属网状的栅栏图像S50。
根据以上说明的本实施方式,能够获得如下的效果。
机器人安全系统具备图像生成部43和眼镜型显示器5等,其中,所述图像生成部43生成栅栏图像,所述栅栏图像为表示机器人2的动作范围R的边界位置的虚拟图像,并且其显示形式根据到该机器人2为止的距离发生变化,所述眼镜型显示器5与作业人员9的视野重叠地显示生成的栅栏图像。
由此,作业人员9能够根据所提示的图像把握自身是位于安全的位置还是位于存在危险的位置,并且由于显示出栅栏状的图像,因此可获得避免向该方向侵入的心理上的抑制效果。
因此,当在没有设置物理栅栏的场所进行工作时,能够降低作业人员9进入到机器人2的动作范围R内的可能性。
此时,栅栏图像生成部43生成到机器人2为止的距离越近透过率越低的形式的栅栏图像。由此,看不见或者看不清前方,会对向该方向即机器人2的方向的移动产生顾虑,从而能够期待降低作业人员9进入到机器人2的动作范围R内的可能性。
另外,栅栏图像生成部43生成到机器人2为止的距离越近显示尺寸越被扩大的形式的栅栏图像。由此,以明确地拒绝侵入的方式显示栅栏状的图像,因此作业人员9不会向该方向即机器人2的方向移动,从而能够期待降低进入到机器人2的动作范围R内的可能性。
另外,栅栏图像生成部43生成根据到机器人2为止的距离变成不同颜色的形式的栅栏图像。在这种情况下,随着靠近机器人2,如从蓝色到黄色、再从黄色到红色这样的方式,通过警告程度较强的配色使颜色发生变化,从而使作业人员9不会向该方向即机器人的方向移动,能够期待降低进入到机器人2的动作范围R内的可能性。
另外,栅栏图像生成部43生成在作业人员9的视野中所占的比例与到机器人2为止的距离无关而处于预定的范围内的形式的栅栏图像。即使在通过显示栅栏图像从而抑制进入到机器人2的动作范围R内的情况下,如果因显示该栅栏图像而导致作业人员9的视野被遮挡,则反而有可能会造成危险。因此,通过生成在作业人员9的视野中所占的比例固定的栅栏图像,也就是通过持续确保一定量的作业人员9的视野,能够提高移动时的安全性。
另外,栅栏图像生成部43生成避开以作业人员9的视野的中心为基准的、预先设定的显示限制范围的形式的栅栏图像。由此,也能够持续确保一定量的作业人员9的视野,能够提高移动时的安全性。
另外,当机器人2进入到作业人员9的视野中时,栅栏图像生成部43生成根据到此为止的作业人员9的移动轨迹阶段性发生变化的形式的栅栏图像。由此,能够避免扭头时突然显示出栅栏图像而无法判断其含义的状况。
本发明并不仅限于上述记载的实施方式和附图中记载的实施方式,在不脱离其宗旨的范围内能够进行各种变形和扩展。
作为位置信息取得部53,例如可以使用设置在工厂内的监视摄像机等,并通过图像处理来确定位置。另外,位置信息取得部53并非必须设置于眼镜型显示器5。例如,也可以在机器人2侧设置对人体进行检测的激光传感器或人体感应传感器等,并设置成根据这些传感器的检测结果来确定位置的结构,或者设置成根据传感器的检测结果和通过摄像部52拍摄的图像来确定位置的结构,或者设置成根据由摄像部52拍摄的图像来确定相对于机器人2的相对位置的结构。
在实施方式中,根据与机器人2之间的位置关系生成了栅栏图像,但是,也可以根据由摄像部52拍摄的图像来确定机器人2,并生成表示该机器人2的动作范围R的栅栏图像。由此,能够以与作业人员实际看到的状态准确一致的状态显示栅栏图像。
可以由机器人控制器3和眼镜型显示器5等分担实施方式中示出的处理。例如,可以在机器人控制器3中设置确定部、位置信息取得部、视野信息取得部、栅栏图像生成部,或者在眼镜型显示器5中设置栅栏图像生成部。在这种情况下,通过从安全控制器4取得各个机器人2的规格和设置位置等,能够在机器人控制器3和眼镜型显示器5中进行确定位置、确定视野、生成栅栏图像等的处理。
另外,安全控制器4不是必须的,通过由机器人控制器3执行在实施例中由安全控制器4执行的处理,也能够通过机器人控制器3和眼镜型显示器5构成机器人安全系统1。
(第二实施方式)
下面,参照图9至图14,对第二实施方式进行说明。
如图9所示,在本实施方式中,作为工业用机器人等的机器人安全系统,提供虚拟围栏显示系统61。在该虚拟围栏显示系统61中,作为工业用机器人例如具备组装用的机器人臂62(或者也简称为机器人本体或机器人)、机器人安全控制器63、智能眼镜64以及摄像机65。智能眼镜64是作业人员佩戴在其头部使用的可穿戴设备,也被称为电脑眼镜或者眼镜型显示器。
作为机器人本体的机器人臂62例如构成为6轴垂直多关节型机器人。对于通常的结构省略详细说明,该机器人臂62具有分别通过伺服电机驱动的6个轴的臂,在第六轴臂的顶端部例如具备用于把持收容在托盘内的工件的机械手等。
机器人臂62借助电缆66与还具有作为机器人控制器的功能(即、兼用)的机器人安全控制器3连接,所述各个轴的伺服电机通过该机器人安全控制器63控制。
该机器人安全控制器63构成为包括负责运算处理的CPU(central processingunit:中央处理器)63A、ROM(read-only memory:只读存储器)63B、RAM(random accessmemory:随机存取存储器)63C在内的计算机,并且构成为能够与外部的装置进行通信。随着CPU63A的启动,CPU63A将预先保存在ROM63B中的控制程序以及处理程序读取到其工作区域中,并依次执行该程序的步骤。因此,ROM63B发挥瞬态计算机可读记录介质(nontransientcomputer readable recording medium)的功能。在CPU63A进行该程序处理的过程中,利用RAM63C临时保存数据。因此,通过由CPU63A从ROM63B中调出并执行规定的程序,能够提供与机器人控制以及图像处理相关的各种功能。
相当于图像处理部(即、发挥图像处理部的功能)的机器人安全控制器63取得预先保存的机器人臂62的三维位置坐标(x,y,z)的信息。另外,机器人安全控制器63将以三维方式对虚拟地配置在机器人臂62周边的安全栅栏即虚拟围栏VF的状态进行建模而得到的数据、即3D模型图像数据存储并保存在内部的存储器中。
如图10所示,作为头部佩戴型显示器的智能眼镜64由作业人员67像眼镜那样佩戴在头部,是所谓的透过型的显示器,其能够借助未图示的投影部将图像投影在相当于眼镜的透镜部分的透明的显示部4D上。如图10所示,在智能眼镜64的框架的一个侧部配置有作为位置方向信息输出部以及摄像器的摄像机65。在作业人员7将智能眼镜64佩戴在头部的状态下,摄像机65拍摄作业人员67的头部正面所朝向的方向的图像,摄像机65例如由CCD(Charge Coupled Device:电荷耦合器件)或CMOS图像传感器等构成。
在图9以及图10中,在智能眼镜64中,通过天线符号表示的无线通信部68内置在框架内,能够与同样在图9中通过天线符号表示的机器人安全控制器63的无线通信部69进行通信。无线通信部68将通过摄像机65拍摄的图像的数据发送到机器人安全控制器63,无线通信部69将机器人安全控制器63保存的所述3D模型图像数据发送到智能眼镜64。通信部68以及69分别相当于第一以及第二通信部。
在此,如图11、图13以及图14所示,在用多个长方体Cd对虚拟围栏VF整体进行分割的状态下,对虚拟围栏VF的3D模型图像数据进行建模。而且,能够进行如下的图像处理:以各自不同的透过率来显示各个长方体Cd。
图11表示出了佩戴智能眼镜64的作业人员67通过显示部64D看到的视野的状态。对于位于作业人员67附近的机器人臂62N,显示虚拟围栏VF的3D模型图像。但是,并不是显示其整体,在虚拟围栏VF中,以透过率相对较低的设定描绘位于距离作业人员67相对较近的位置的部分长方体Cd,并以透过率相对较高的设定描绘位于距离作业人员67相对较远的位置的部分长方体Cd。而且,对于位于作业人员67远处的机器人臂62F,由于作业人员67进行工作时不会对安全性产生影响,因此,不显示虚拟围栏VF的3D模型图像。也就是说,将所有的长方体Cd的透过率设为100%。上述的“远处”,是指例如比机器人臂62进行工作的区域更远的距离。
接下来,参照图12至图14,对如上所述那样在智能眼镜64上显示图像的本实施方式的作用进行说明。图12是以机器人安全控制器63的处理内容为中心表示的流程图。机器人安全控制器63首先从智能眼镜64取得作业人员67的坐标位置(S1)。具体而言,智能眼镜64将摄像机65拍摄的图像的数据发送到机器人安全控制器63。当该图像数据中包含有机器人臂62时,机器人安全控制器63根据机器人臂62的三维形态确定作业人员67的相对坐标位置。
接着,当取得机器人臂62的坐标位置后(S2),在世界坐标上匹配机器人臂62的位置与作业人员67的位置,从而确定两者的位置关系(S3)。然后,计算机器人臂62与作业人员67之间的距离、以及从作业人员67的视角观察机器人臂62的方向(S4)。
在接下来的步骤S5中,判断计算出的距离以及方向是否处于需要在智能眼镜64上显示虚拟围栏VF的范围内。当不处于所述范围内(否)时,结束处理,当处于所述范围内(是)时,将虚拟围栏VF的描绘区域分割成多个块、即长方体Cd(S6)。
下面的步骤S7~S10的循环是对各个长方体Cd进行的处理。计算从作业人员67的位置到各个长方体Cd的距离后(S8),根据计算出的距离决定各个长方体Cd的透过率(S9)。对所有的长方体Cd进行处理后,机器人安全控制器63向智能眼镜64发送虚拟围栏VF的3D模型图像数据及其描绘指令(S11)。接收到该虚拟围栏VF的3D模型图像数据及其描绘指令的智能眼镜64在显示部64D上描绘并显示虚拟围栏VF的3D图像(S12)。
将基于上述处理的具体的透过率的设定例以平面图的方式示出于图13中。假设作业人员67在机器人臂62的正面位于虚拟围栏VF的中央,且处于显示虚拟围栏VF的规定距离范围内。在平面上通过3×4个长方体Cd将虚拟围栏VF分割成12个部分。此时,将位于距离作业人员67最近的第一列的中央部的长方体Cd(1,2)以及(1,3)的透过率例如设为25%,并将位于其外侧的长方体Cd(1,1)以及(1,4)的透过率例如设为50%。
将位于接下来的第二列的中央部的长方体Cd(2,2)以及(2,3)的透过率例如设为50%,并将位于其外侧的长方体Cd(2,1)以及(2,4)的透过率例如设为75%。而且,对于作为机器人臂的后方的第三列的长方体Cd(3,1)~(3,4),将透过率设为100%,从而设置成不显示。
另外,在图14中以立体方式进行了表示,但是,在这种情况下,在平面上以3×3的方式将虚拟围栏VF分割成9个部分,并且在高度方向上分割成2个部分,从而在立体上分割成18个部分。如图14中的(c)所示,当作业人员67位于虚拟围栏VF的中央时,对于位于第一列下方的长方体Cd(1,1,1)~(1,3,1),将透过率设为25%。下面,以表格的方式归纳表示。
透过率
第三列上方:(3,1,2)~(3,3,2) 100%
第二列上方:(2,1,2)~(2,3,2) 75%
第一列上方:(1,1,2)~(1,3,2) 50%
第三列下方:(3,1,1)~(3,3,1) 100%
第二列下方:(2,1,1)~(2,3,1) 50%
第一列下方:(1,1,1)~(1,3,1) 25%
如图14中的(b)所示,当作业人员67位于虚拟围栏VF的左侧时如下所示。
透过率
第三列上方:(3,1,2)~(3,3,2) 100%、100%、100%
第二列上方:(2,1,2)~(2,3,2) 75%、100%、100%
第一列上方:(1,1,2)~(1,3,2) 50%、75%、100%
第三列下方:(3,1,1)~(3,3,1) 75%、100%、100%
第二列下方:(2,1,1)~(2,3,1) 50%、75%、100%
第一列下方:(1,1,1)~(1,3,1) 25%、50%、75%
如图14中的(d)所示,当作业人员67位于虚拟围栏VF的右侧时如下所示。
透过率
第三列上方:(3,1,2)~(3,3,2) 100%、100%、100%
第二列上方:(2,1,2)~(2,3,2) 100%、100%、75%
第一列上方:(1,1,2)~(1,3,2) 100%、75%、50%
第三列下方:(3,1,1)~(3,3,1) 100%、100%、75%
第二列下方:(2,1,1)~(2,3,1) 100%、75%、50%
第一列下方:(1,1,1)~(1,3,1) 75%、50%、25%
通过以这种方式设定各个长方体Cd的透过率,在作业人员7的视野中容易识别出位于距离作业人员67相对较近的位置的虚拟围栏VF的部分,由于存在虚拟围栏VF,作业人员67在进行工作时会进一步意识到要确保自身的安全。另一方面,在作业人员67的视野中不容易识别出位于距离作业人员67相对较远的位置的虚拟围栏VF的部分。因此,作业人员67不会被虚拟围栏VF妨碍,能够容易地目视观察到机器人臂62及其周边的实景。
如上所述,根据本实施方式,机器人安全控制器63保存以机器人臂62的位置为中心虚拟地配置在其周边的虚拟围栏VF的3D模型图像数据,并能够在用多个长方体Cd分割该3D模型图像数据的状态下,将各个长方体Cd分别以规定的透过率的图像显示出来。
而且,当机器人安全控制器63取得佩戴智能眼镜64的作业人员67的位置以及方向的信息时,以使显示在显示部4D上的虚拟围栏的3D模型图像数据映入作业人员67的视野的方式进行加工。此时,根据虚拟围栏VF与作业人员67的位置以及方向的关系,以如下方式进行加工并发送到智能眼镜64侧:在多个长方体Cd中,越位于作业人员67附近侧透过率越低,而越位于远方侧透过率越高。于是,智能眼镜64将接收到的虚拟围栏的3D模型图像数据投影并显示到显示部64D。
因此,即使不在实际的机器人臂62的周围配置安全栅栏,通过显示虚拟围栏VF也能够确保作业人员67的安全,并能够提高作业人员67在机器人与作业人员67共同工作的区域中的工作效率。另外,由于位于可充分确保作业人员67的安全性的、相对较远位置的虚拟围栏VF的部分的透过率较高,因此能够防止作业人员67注意力不集中。在此基础上,作业人员67容易目视观察到机器人臂62及其周边的实景,因此从这方面来看也能够期待工作效率的提高。
而且,机器人安全控制器63从配置在智能眼镜64上的摄像机65拍摄的图像数据所包含的机器人臂62的图像中取得作业人员67的位置以及方向的信息。即,在智能眼镜64上容易配置小型的摄像机65,并且,根据摄像机65拍摄的图像数据,在作业人员67的视野中能够把握以什么样的方向和大小捕捉到了机器人臂62等。因此,机器人安全控制器63通过处理所述图像数据,能够取得作业人员67的位置以及方向的信息,不需要另外使用用于取得所述信息的传感器。
另外,机器人安全控制器63使3D模型图像数据的透过率阶段性地变化。此处的“阶段性”是指,至少比机器人安全控制器63改变透过率时的最小分辨率更大、并且是作业人员67能够认识到透过率的变化的程度的阶段。如果以这种方式构成,则能够削减机器人安全控制器63的运算量,并能够使作业人员67更加明确地认识到长方体Cd的透过率发生变化的边界。
本发明并不仅限于上述记载的实施方式或者附图中记载的实施方式,可以进行如下的变形或者扩展。
对于透过率的具体数值,可以根据个别的设计进行适当变更。
可以将长方体Cd设为立方体。
机器人本体并不仅限于机器人臂62,也可以是其他的例如水平4轴结构的机器人臂、自行走式机器人或人形机器人。
可以在位置方向信息取得部中使用激光传感器或红外传感器,或者使用GPS、陀螺、加速度等的各种传感器。而且,可以将这些传感器信号直接输入到机器人安全控制器63中。
头部佩戴型显示器并非必须是智能眼镜64,只要构成为能够在作业人员佩戴于头部的显示部上投影图像即可。
Claims (10)
1.一种机器人安全系统,其特征在于,具备:
头部佩戴型显示器,由作业人员佩戴于其头部;
位置信息取得部,取得可确定所述作业人员的位置的位置信息;
视野信息取得部,取得可确定所述作业人员的视野的视野信息;
确定部,根据由所述位置信息取得部取得的所述作业人员的位置和/或由所述视野信息取得部取得的所述作业人员的视野,确定该作业人员所看到的机器人;
距离取得部,根据由所述位置信息取得部取得的位置信息,取得由所述确定部确定的所述机器人与所述作业人员之间的距离;以及
栅栏图像生成部,根据由所述距离取得部取得的距离,生成格子状栅栏图像,所述栅栏图像为表示所述机器人的动作范围的边界位置的虚拟图像,并且所述栅栏图像根据从该作业人员到该机器人为止的距离使其显示形式变化,所述栅栏图像具有边框和设置在该边框内侧的格子,所述作业人员能够通过该格子视觉确认所述机器人的至少一部分而不被该格子遮挡,
所述头部佩戴型显示器与该作业人员的视野重叠地显示由所述栅栏图像生成部生成的所述栅栏图像。
2.根据权利要求1所述的机器人安全系统,其特征在于,
所述栅栏图像生成部生成到所述机器人为止的距离越近透过率越低的形式的所述栅栏图像。
3.根据权利要求1或2所述的机器人安全系统,其特征在于,
所述栅栏图像生成部生成到所述机器人为止的距离越近显示尺寸越被扩大的形式的所述栅栏图像。
4.根据权利要求1或2所述的机器人安全系统,其特征在于,
所述栅栏图像生成部生成根据到所述机器人为止的距离变成不同颜色的形式的所述栅栏图像。
5.根据权利要求1或2所述的机器人安全系统,其特征在于,
所述栅栏图像生成部生成在作业人员的视野中所占的比例与到所述机器人为止的距离无关而处于预定的范围内的形式的所述栅栏图像。
6.根据权利要求1或2所述的机器人安全系统,其特征在于,
所述栅栏图像生成部生成避开以作业人员的视野的中心为基准的、预先设定的显示限制范围的形式的所述栅栏图像。
7.根据权利要求1或2所述的机器人安全系统,其特征在于,
所述栅栏图像生成部根据所述机器人进入所述作业人员的视野时的到所述机器人为止的距离、以及直到所述机器人进入视野为止的该作业人员的移动轨迹,在该作业人员向接近所述机器人的方向移动时,生成从与所述机器人之间的距离较远时的显示形式阶段性地变化到当前位置的显示形式的所述栅栏图像,而在该作业人员向远离所述机器人的方向移动时,生成从位于所述机器人的附近时的显示形式阶段性地变化到当前位置的显示形式的所述栅栏图像。
8.一种机器人安全系统,其特征在于,具备:
头部佩戴型显示器,具有显示部,构成为能够在该显示部上投影图像,并且由作业人员佩戴在其头部;
图像处理部,保存以三维方式对以机器人本体的位置为中心配置在所述机器人本体周边的安全栅栏进行建模而得到的3D模型图像数据;以及
位置方向信息取得部,取得所述作业人员的位置以及所述作业人员的头部正面所朝向的方向的信息,
所述图像处理部能够进行如下处理:用多个长方体分割所述安全栅栏的3D模型图像数据,并且分别以规定的透过率的图像显示各个长方体,
当通过所述位置方向信息取得部取得所述作业人员的位置以及方向的信息时,以使显示在所述头部佩戴型显示器上的所述安全栅栏的3D模型图像数据映入所述作业人员的视野的方式进行加工,
并根据所述安全栅栏与所述作业人员的位置以及方向的关系,以如下方式进行加工并通过各个通信部发送到所述头部佩戴型显示器侧:在所述多个长方体中,越位于所述作业人员的附近侧透过率越低,并且越位于所述作业人员的远方侧透过率越高,
当所述头部佩戴型显示器接收到进行了所述加工的安全栅栏的3D模型图像数据时,将该3D模型图像数据投影到所述头部佩戴型显示器的所述显示部。
9.根据权利要求8所述的机器人安全系统,其特征在于,
所述位置方向信息取得部由以下部分构成:
摄像器,配置在头部佩戴型显示器上,以拍摄所述作业人员的头部正面方向的图像;以及
所述图像处理部,当取得该摄像器拍摄的图像数据时,从该图像数据所包含的所述机器人本体的图像中取得所述作业人员的位置以及方向的信息。
10.根据权利要求8或9所述的机器人安全系统,其特征在于,
所述图像处理部使所述3D模型图像数据的透过率阶段性地变化。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015229604A JP6690203B2 (ja) | 2015-11-25 | 2015-11-25 | ロボット安全システム |
JP2015-229604 | 2015-11-25 | ||
JP2015-233296 | 2015-11-30 | ||
JP2015233296A JP6631203B2 (ja) | 2015-11-30 | 2015-11-30 | バーチャルフェンス表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106808496A CN106808496A (zh) | 2017-06-09 |
CN106808496B true CN106808496B (zh) | 2020-06-23 |
Family
ID=59106156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611055537.3A Active CN106808496B (zh) | 2015-11-25 | 2016-11-25 | 机器人安全系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9855664B2 (zh) |
CN (1) | CN106808496B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528021B2 (en) | 2015-10-30 | 2020-01-07 | Rockwell Automation Technologies, Inc. | Automated creation of industrial dashboards and widgets |
US10401839B2 (en) | 2016-09-26 | 2019-09-03 | Rockwell Automation Technologies, Inc. | Workflow tracking and identification using an industrial monitoring system |
US10545492B2 (en) | 2016-09-26 | 2020-01-28 | Rockwell Automation Technologies, Inc. | Selective online and offline access to searchable industrial automation data |
US10388075B2 (en) | 2016-11-08 | 2019-08-20 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10735691B2 (en) | 2016-11-08 | 2020-08-04 | Rockwell Automation Technologies, Inc. | Virtual reality and augmented reality for industrial automation |
US10866631B2 (en) | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
US20230191635A1 (en) * | 2017-01-13 | 2023-06-22 | Clara Vu | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US11518051B2 (en) * | 2017-02-07 | 2022-12-06 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
US11541543B2 (en) * | 2017-02-07 | 2023-01-03 | Veo Robotics, Inc. | Dynamic, interactive signaling of safety-related conditions in a monitored environment |
JP6752499B2 (ja) * | 2017-02-07 | 2020-09-09 | ヴェオ ロボティクス, インコーポレイテッド | 制御された機械類を含む、3次元作業空間内の安全区域を識別するための安全システム、ならびに、3次元作業空間内で制御された機械類を安全に動作させる方法 |
JP6809267B2 (ja) * | 2017-02-10 | 2021-01-06 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP6950192B2 (ja) * | 2017-02-10 | 2021-10-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2018176397A (ja) * | 2017-04-21 | 2018-11-15 | オムロン株式会社 | ロボットシステム |
JP6416980B1 (ja) * | 2017-05-17 | 2018-10-31 | ファナック株式会社 | 監視領域を分割した空間領域を監視する監視装置 |
WO2019014940A1 (zh) * | 2017-07-21 | 2019-01-24 | 深圳市萨斯智能科技有限公司 | 一种机器人的安全确定方法和机器人 |
EP3437805B1 (en) * | 2017-08-02 | 2023-07-19 | ABB Schweiz AG | Robot stopping distance simulating method |
US10445944B2 (en) * | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
JP7259284B2 (ja) * | 2017-11-28 | 2023-04-18 | 株式会社デンソーウェーブ | 教示装置、教示方法 |
US20220088787A1 (en) * | 2018-02-06 | 2022-03-24 | Clara Vu | Workplace monitoring and semantic entity identification for safe machine operation |
US20210205995A1 (en) * | 2018-02-06 | 2021-07-08 | Clara Vu | Robot end-effector sensing and identification |
JP6863927B2 (ja) * | 2018-04-25 | 2021-04-21 | ファナック株式会社 | ロボットのシミュレーション装置 |
US10832548B2 (en) * | 2018-05-02 | 2020-11-10 | Rockwell Automation Technologies, Inc. | Advanced industrial safety notification systems |
JP7167518B2 (ja) | 2018-07-20 | 2022-11-09 | セイコーエプソン株式会社 | 制御装置、ヘッドマウントディスプレイおよびロボットシステム |
WO2020069716A1 (en) * | 2018-10-01 | 2020-04-09 | Abb Schweiz Ag | Safe operation of a robotic system |
CN109397289A (zh) * | 2018-11-13 | 2019-03-01 | 华东师范大学 | 一种工业机器人的安全控制装置及控制方法 |
JP6997129B2 (ja) * | 2019-03-28 | 2022-01-17 | ファナック株式会社 | 制御システム |
DE102020201375B3 (de) * | 2020-02-05 | 2021-06-24 | Magna Steyr Fahrzeugtechnik Ag & Co Kg | Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters |
CN111267073B (zh) * | 2020-03-24 | 2022-11-15 | 青岛理工大学 | 一种基于增强现实技术的工业机器人示教系统及方法 |
CN112417995B (zh) * | 2020-11-03 | 2022-09-16 | 广西电网有限责任公司电力科学研究院 | 一种面向变电站检修作业到位监督的识别方法及系统 |
CN112847344A (zh) * | 2020-12-29 | 2021-05-28 | 珠海新天地科技有限公司 | 一种机器人虚拟围栏系统 |
US11981517B2 (en) * | 2021-03-30 | 2024-05-14 | Dexterity, Inc. | Robotic line kitting system safety features |
US11897706B2 (en) | 2021-03-30 | 2024-02-13 | Dexterity, Inc. | Robotic system with zone-based control |
US11953908B2 (en) | 2021-10-12 | 2024-04-09 | Google Llc | Deployable safety fence for mobile robots |
CN116052223B (zh) * | 2023-04-03 | 2023-06-30 | 浪潮通用软件有限公司 | 基于机器视觉识别作业区域人的方法、系统、设备及介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1922614A2 (en) * | 2005-08-15 | 2008-05-21 | Koninklijke Philips Electronics N.V. | System, apparatus, and method for augmented reality glasses for end-user programming |
DE102005063217C5 (de) * | 2005-12-22 | 2022-08-18 | Pilz Gmbh & Co. Kg | Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung |
DE102009035755A1 (de) * | 2009-07-24 | 2011-01-27 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Überwachen eines Raumbereichs |
CN102448681B (zh) * | 2009-12-28 | 2014-09-10 | 松下电器产业株式会社 | 动作空间提示装置、动作空间提示方法以及程序 |
WO2011089885A1 (ja) * | 2010-01-25 | 2011-07-28 | パナソニック株式会社 | 危険提示装置、危険提示システム、危険提示方法およびプログラム |
JP5494153B2 (ja) * | 2010-04-08 | 2014-05-14 | ソニー株式会社 | 頭部装着型ディスプレイにおける画像表示方法 |
JP5391224B2 (ja) * | 2011-03-28 | 2014-01-15 | 日本電信電話株式会社 | 映像付加情報表示制御装置およびその動作方法 |
JP2012218120A (ja) * | 2011-04-12 | 2012-11-12 | Seiko Epson Corp | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
JP2013174730A (ja) * | 2012-02-24 | 2013-09-05 | Nikon Corp | 情報表示装置 |
JP6020009B2 (ja) * | 2012-09-28 | 2016-11-02 | ブラザー工業株式会社 | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム |
JP5846145B2 (ja) * | 2013-03-18 | 2016-01-20 | 株式会社安川電機 | ロボットシステム、及び、ロボットシステムの制御方法 |
EP3055744B1 (en) * | 2013-10-07 | 2018-06-13 | ABB Schweiz AG | A method and a device for verifying one or more safety volumes for a movable mechanical unit |
JP5751315B2 (ja) | 2013-11-20 | 2015-07-22 | ソニー株式会社 | 頭部装着型ディスプレイにおける画像表示方法 |
US9452532B2 (en) | 2014-01-27 | 2016-09-27 | Panasonic Intellectual Property Management Co., Ltd. | Robot, device and method for controlling robot, and computer-readable non-transitory recording medium |
JP2015176588A (ja) * | 2014-03-18 | 2015-10-05 | 株式会社東芝 | 表示装置、画像表示システムおよび情報処理方法 |
JP5851544B2 (ja) * | 2014-03-28 | 2016-02-03 | ソフトバンク株式会社 | 非透過型ヘッドマウントディスプレイ及びプログラム |
US9690367B2 (en) * | 2014-12-10 | 2017-06-27 | Sixense Entertainment, Inc. | System and method for assisting a user in locating physical objects while the user is in a virtual reality environment |
-
2016
- 2016-11-22 US US15/358,925 patent/US9855664B2/en active Active
- 2016-11-25 CN CN201611055537.3A patent/CN106808496B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US9855664B2 (en) | 2018-01-02 |
CN106808496A (zh) | 2017-06-09 |
US20170210017A1 (en) | 2017-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106808496B (zh) | 机器人安全系统 | |
JP6645142B2 (ja) | ロボット安全システム | |
US10712566B2 (en) | Information displaying system provided with head-mounted type display | |
JP6822069B2 (ja) | 監視システム、監視装置、および監視方法 | |
JP6582921B2 (ja) | ロボットモニタシステム | |
US20170123747A1 (en) | System and Method for Alerting VR Headset User to Real-World Objects | |
EP3163407B1 (en) | Method and apparatus for alerting to head mounted display user | |
JP2015231828A (ja) | 表示装置、移動体 | |
US10969762B2 (en) | Configuring a hazard zone monitored by a 3D sensor | |
US20180373327A1 (en) | System and method for selective scanning on a binocular augmented reality device | |
CN101346744A (zh) | 配置用于监视空间区域的监视设备的方法 | |
JP6589604B2 (ja) | ティーチング結果表示システム | |
JP2019157497A (ja) | 監視システム、監視方法及び監視プログラム | |
JP2019109850A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
EP3734428A1 (en) | Information processing device, information processing method, and program | |
JP2017102242A (ja) | 情報表示システム | |
US10359840B2 (en) | Method for operating a virtual reality system, and virtual reality system | |
CN112655027A (zh) | 维护辅助系统、维护辅助方法、程序、加工图像的生成方法以及加工图像 | |
JP6834620B2 (ja) | 情報表示システム | |
JP6690203B2 (ja) | ロボット安全システム | |
JP6874448B2 (ja) | 情報表示システム | |
JP2022122936A (ja) | 情報表示システム | |
CN111565898B (zh) | 操作引导系统 | |
CN112847344A (zh) | 一种机器人虚拟围栏系统 | |
JP2020059112A (ja) | ロボット制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |