CN111113374A - 机器人系统 - Google Patents

机器人系统 Download PDF

Info

Publication number
CN111113374A
CN111113374A CN201911035999.2A CN201911035999A CN111113374A CN 111113374 A CN111113374 A CN 111113374A CN 201911035999 A CN201911035999 A CN 201911035999A CN 111113374 A CN111113374 A CN 111113374A
Authority
CN
China
Prior art keywords
distance image
space
robot
stationary object
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911035999.2A
Other languages
English (en)
Inventor
高桥祐辉
渡边淳
中村稔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of CN111113374A publication Critical patent/CN111113374A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种机器人系统,其即使物体设置在距离图像传感器的视场中的监控区域的边界会被遮挡的位置,也掌握了经由被物体形成的死角的进入的可能性。机器人系统具备:机器人;距离图像传感器,从机器人的动作区域的上方,时间上连续地获取动作区域的周围的距离图像信息;以及图像处理装置,处理所获取的距离图像信息,图像处理装置具备存储部,该存储部在动作区域的周围划定具备能够从外部向动作区域内进入的边界的监控区域,并存储有基准距离图像信息,图像处理装置基于由距离图像传感器获取的距离图像信息、和存储于存储部的基准距离图像信息,检测存在于监控区域内的静止物体在距离图像传感器的视场内是否遮挡了边界。

Description

机器人系统
技术领域
本发明涉及机器人系统。
背景技术
以往,已知一种如下机器人系统:在利用配置于工作台的上方的距离图像传感器来连续获取的距离图像中,在机器人的动作区域的周围,设定具有边界的监控区域,通过检测经由边界3而朝向监控区域内的作业人员等,从而使机器人进行危险回避动作(例如,参照专利文献1。)。
现有技术文献
专利文献
专利文献1:日本特开2017-221985号公报
发明内容
发明要解决的问题
在专利文献1的机器人系统中,配置于监控区域内的工作台等的物体不超过监控区域的边界。因此,能够对经由边界而进入到监控区域内的作业人员等或隐藏在工作台的下方的作业人员等切实地进行监控。
然而,在实际的作业现场中,会在距离图像传感器的视场中的遮挡边界的位置配置有工作台等的物体,在隔着物体而与距离图像传感器相反的一侧形成有死角。因此,存在如下不良情况:利用距离图像传感器无法监控对经由死角而向监控区域内的进入。
本发明的目的在于提供一种机器人系统,其即使在距离图像传感器的视场中的遮挡监控区域的边界的位置设置有物体,也能够掌握经由由物体所形成的死角而进入的可能性。
用于解决问题的方案
本发明的一个方案是一种机器人系统,所述机器人系统具备:机器人;距离图像传感器,其从该机器人的动作区域的上方,时间上连续地获取该动作区域的周围的距离图像信息;以及图像处理装置,其处理由该距离图像传感器获取的所述距离图像信息,该图像处理装置具备存储部,所述存储部在所述动作区域的周围划定具备能够从外部向所述动作区域内进入的边界的监控区域,并存储有基准距离图像信息,所述基准距离图像信息是在所述监控区域内不存在物体的状态下的该监控区域的所述边界的所述距离图像信息,所述图像处理装置基于由所述距离图像传感器获取的所述距离图像信息、和存储于所述存储部的所述基准距离图像信息,检测存在于所述监控区域内的静止物体在所述距离图像传感器的视场内是否遮挡了所述边界。
根据本方案,若利用距离图像传感器,从机器人的动作区域的上方时间上连续地获取动作区域的周围的距离图像信息,则由图像处理装置处理所获取的距离图像信息。图像处理装置在机器人的动作区域的周围划定具备能够从外部向动作区域内进入的边界的监控区域。由此,当作业人员等越过边界而进入到监控区域内时,距离图像信息中的任一个像素的距离信息随时间变化,由此能够检测作业人员等向监控区域内进入。
另一方面,在静止物体配置于监控区域内的情况下,距离图像信息中的距离信息不会随时间变化,不会将静止物体检测为进入物。
在该情况下,根据本方案,在存储部中存储有基准距离图像信息,所述基准距离图像信息是在监控区域内不存在物体的状态下的监控区域的边界的距离图像信息,所述图像处理装置基于基准距离图像信息、和由距离图像传感器获取的距离图像信息,检测出存在于监控区域内的静止物体在距离图像传感器的视场内是否遮挡了边界。
在静止物体遮挡了边界的情况下,存在如下可能性:作业人员等能够从所遮挡的边界部分经由被静止物体隐藏的死角,无法被距离图像传感器检测出来,从而进入到监控区域内。即,若从被静止物体遮挡的边界部分经由死角,则距离图像信息中的距离信息不会随着时间变化,从而无法检测作业人员等的进入。然而,通过检测被静止物体遮挡的边界的有无,从而能够掌握经由了由静止物体形成的死角的进入的可能性的有无。然后,在能够判断为存在进入的可能性的情况下,能够实施防止进入的对策。
在上述方案中,所述图像处理装置还可以具备通知部,所述通知部在判定为所述静止物体遮挡了所述边界的情况下,计算被所述静止物体遮挡的空间的大小,并在计算出的所述空间的大小超过预定的阈值的情况下进行通知。
根据该结构,能够判定作业人员等是否能够经过或隐藏在由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下,能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以计算出所述空间的最小横截面积作为所述空间的大小。
根据该结构,能够判定作业人员等是否能够经过由静止物体形成的死角或使身体的一部分进入由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以计算出所述空间的横截面的最小尺寸作为所述空间的大小。
根据该结构,能够判定作业人员等是否能够经过由静止物体形成的死角或使身体的一部分进入由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以具备显示部,所述显示部在判定为所述静止物体遮挡了所述边界的情况下,显示被所述静止物体遮挡的空间。
根据该结构,由静止物体形成的死角显示于显示部,因此能够对所显示的死角容易实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以具备生成所述空间的三维模型的三维模型生成部,所述显示部显示由所述三维模型生成部生成的所述空间的三维模型。
根据该结构,由静止物体形成的死角作为三维模型而显示于显示部,因此改变死角的角度而显示,能够容易对死角实施防止进入的对策。
另外,在上述方案中,所述机器人系统还可以具备拍摄所述机器人及其周边的拍摄部,所述显示部将所述三维模型与由所述拍摄部获取的图像重叠而显示。
根据该结构,由静止物体形成的死角作为三维模型,与实际由拍摄部获取的机器人等的图像重叠而显示于显示部,因此容易掌握机器人等相对于死角的位置,能够容易对死角实施防止进入的对策。
发明效果
根据本发明,起到如下效果:即使在距离图像传感器的视场中的监控区域的边界会被遮挡的位置设置有物体,也能够掌握经由由物体所形成的死角而进入的可能性。
附图说明
图1是表示本发明的一个实施方式的机器人系统的整体结构图。
图2是表示图1的机器人系统的侧视图。
图3是表示由图1的机器人系统获取的监控区域的外侧面以及底面的距离图像的一个例子的图。
图4是表示在图2的机器人系统中在监控区域内配置有静止物体的情况的一个例子的侧视图。
图5是表示图4的情况的监控区域的外侧面以及底面的距离图像的一个例子的图。
图6是表示图5的距离图像与图3的距离图像的差分图像的图。
图7是表示由配置于图4的监控区域内的静止物体形成的死角的一个例子的立体图。
附图标记说明
1:机器人系统
2:机器人
3:安全摄像机(距离图像传感器)
4:图像处理装置
A:监控区域
A1:外侧面(边界)
A3:内侧面(边界)
D:最小横截面积
E:最小尺寸
G:动作范围(动作区域)
V:视场(视野)
X:静止物体
具体实施方式
以下参照附图对本发明的一个实施方式的机器人系统1进行说明。
如图1所示,本实施方式的机器人系统1具备:机器人2;安全摄像机(距离图像传感器)3,其配置于机器人2的动作范围(动作区域)G的上方;以及图像处理装置4,其与安全摄像机3连接。
在图1所示的例子中,机器人2例如是六轴多关节型机器人,并具备球体状的动作范围G。
安全摄像机3能够利用立体摄影机或TOF(Time of flight,飞行时间)方式的距离图像传感器。安全摄像机3能够对每个像素获取检测了自安全摄像机3的透镜中心起的距离的距离图像(距离图像信息)。
如图1以及图2所示,安全摄像机3具有视场V,所述视场V不干扰机器人2的动作范围G,并能够拍摄在全周范围内包围机器人2的动作范围G的范围。即,安全摄像机3的视场V从透镜中心以放射状延伸,并且展开到不包含机器人2的动作范围G的环状的范围。例如,由安全摄像机3获取的距离图像如图3所示。在图中以斜线所示的区域是距离图像。
图像处理装置4由处理器以及存储器构成。图像处理装置4在由安全摄像机3获取的距离图像中,如图2所示划定监控区域A。例如,监控区域A具有长方形状的一定的横截面形状,如图2所示,是配置于在全周范围内包围机器人2的动作范围G的外侧的位置的正方形的环状的区域。在图3中,距离图像与图2所示的监控区域A的外侧面A1以及监控区域A的底面A2相对应。
安全摄像机3对各像素获取至存在于视场V内的物体为止的距离信息,但是对比监控区域A的外侧面(边界)A1更靠外侧的区域以及比监控区域A的底面A2更靠下侧的区域,根据距离信息的大小来从监控对象排除。
即,图像处理装置4,对存在于比图2的监控区域A的外侧面A1更靠外侧的点B1,在连接其点B1和安全摄像机3的透镜中心的直线L1中,点B1配置于比监控区域A的外侧面A1更远的位置,因此在距离图像中相对应的像素的距离信息,比对应于同一像素的监控区域A的外侧面A1中的点B2更大,因此能够作为监控区域A外的点而从监控对象排除。
另外,对存在于比图2的监控区域A的底面A2更靠下侧的点C1,在连接其点C1与安全摄像机3的透镜中心的直线L2中,点C1配置于比监控区域A的底面A2更远的位置,因此在距离图像中相对应的像素的距离信息,比对应于同一像素的监控区域A的底面A2中的点C2更大,因此能够作为监控区域A外的点而从监控对象排除。
另外,对存在于监控区域A内的静止物体(参照图5)X,例如对于工作台或控制装置等维持静止状态的物体,作为静止物体X而设定,从而从监控对象排除。
在该情况下,在本实施方式中,图像处理装置4利用由安全摄像机3获取的距离图像,检测存在于监控区域A内的静止物体X在安全摄像机3的视场(视野)V内是否遮挡了监控区域A的外侧面(边界)A1。
具体而言,图像处理装置4具备存储有第一基准距离图像的存储部(省略图示),所述第一基准距离图像为未配置静止物体X的状态下的监控区域A的外侧面A1以及底面A2的距离图像,并能够根据由安全摄像机3获取的距离图像和基准距离图像的差分,来检测静止物体X。
而且,在检测出静止物体X的情况下,图像处理装置4检测:检测出的静止物体X是否正在靠近于应该是监控区域A的外侧面A1或内侧面A3的区域的部分。
图3表示基准距离图像的例子。然后,图4表示静止物体X配置于监控区域A内的情况的侧视图,图5表示监控区域A的外侧面A1以及底面A2的距离图像的例子。另外,图6表示图3的基准距离图像与图5的距离图像的差分图像。
在图4中,在监控区域A内画影线的区域,是在监控区域A内因静止物体X而形成的死角。在图4的例子中,死角以靠近于监控区域A的外侧面A1的局部的一部分的方式形成。
另外,在图6中,画影线的区域表示监控区域A的外侧面A1被静止物体X遮挡的区域。
在该区域中,静止物体X配置于比监控区域A的外侧面A1更接近安全摄像机3的位置,因此对这些区域内的各像素,能够获取比外侧面A1更小的距离信息。由此,能够检测监控区域A的外侧面A1被静止物体X遮挡的事实。
即,存在如下可能性:当通过使静止物体X靠近于应该成为监控区域A的外侧面A1的区域,从而视场V被遮挡的情况下,作业人员等能够从被遮挡的外侧面A1经由被静止物体X隐藏的死角,从而利用距离图像传感器无法检测出来而进入到监控区域A内。
从而,通过检测被静止物体X遮挡的外侧面A1的有无,能够掌握经由由静止物体X形成的死角而进入的可能性的有无。然后,当能够判断出存在进入的可能性的情况下,将静止物体X移动至在视场V中不会遮挡外侧面A或内侧面A3的位置,或者在监控区域A的外侧面A1的外侧设置有预先堵塞与死角连接的通道的壁,能够实施防止作业人员等进入的对策。
如此,根据本实施方式的机器人系统1存在如下优点:检测安全摄像机3的视场V在配置于监控区域A内的静止物体X与监控区域A的外侧面A1重叠的区域中,是否被静止物体X遮挡,因此能够掌握作业人员等经由因静止物体X形成的死角而进入的可能性的有无。
此外,在本实施方式中,图像处理装置4还可以计算出被静止物体X遮挡的空间的大小,机器人系统1具备通知部,所述通知部在所计算出的空间的大小超过预定的阈值的情况下通知其意旨。作为通知部,能够采用利用声音、光或图像显示等任意的方法进行通知。
如图7所示,作为空间的大小,能够举例在监控区域A内被静止物体X遮挡的空间(画影线的区域)的容积S、空间的最小横截面积D、空间的横截面的最小尺寸E等。在图7中,作为成为死角的空间,是还加上比监控区域A的底面A2更靠下方的空间的空间。
当静止物体X在监控区域A的内侧面A3中遮挡安全摄像机3的视场V的情况下,当空间具有能够隐藏人的较大的容积的情况下,在机器人系统1起动前隐藏于由于静止物体X而形成的死角的人,利用安全摄像机3无法检测出来从而进入到机器人2的动作范围G。因此,空间的容积S需要保持足够小。
另外,当空间的最小横截面积D或空间的横截面的最小尺寸E,具有能够使人或人的一部分,例如手腕、脚经过的大小的情况下,能够利用安全摄像机3无法检测出来而进入到机器人2的动作范围G。因此,空间的最小横截面积D或横截面的最小尺寸E也需要保持足够小。
另外,图像处理装置4还可以具备显示部。显示部是监控器。显示部显示被静止物体X遮挡的空间。在距离图像中还可以以使空间的颜色不同的方式显示。
另外,图像处理装置4还可以具备生成空间的三维模型的三维模型生成部,并且使显示部显示所生成的空间的三维模型。
作为空间的三维模型,既可以直接生成空间自身的三维模型,也可以通过生成监控区域A的三维模型,从而根据监控区域A的三维模型欠缺的区域的有无,间接显示被静止物体X遮挡的空间。
通过显示三维模型,能够以不同的观察角度来确认被静止物体X遮挡的空间的形状。
另外,机器人系统1还可以具备拍摄机器人2以及其周边的拍摄部,显示部在由拍摄部获取的图像重叠三维模型而显示。由此,由静止物体X形成的死角作为三维模型,实际与由拍摄部获取的机器人2等的图像重叠而显示于显示部,因此容易掌握机器人2等相对于死角的位置,并且能够容易实施防止通过死角进入的对策。
另外,当具有两个以上的安全摄像机3的情况下,当对任一个安全摄像机3,将被静止物体X遮挡的空间定义为死角的情况下,将对由各安全摄像机3计算出的死角的空间的并集作为死角而计算即可。另外,当对所有的安全摄像机3,将被静止物体X遮挡的空间定义为死角的情况下,将对由各安全摄像机3计算出的死角的空间的交集作为死角而计算即可。

Claims (7)

1.一种机器人系统,其特征在于,具备:
机器人;
距离图像传感器,其从该机器人的动作区域的上方,时间上连续地获取该动作区域的周围的距离图像信息;以及
图像处理装置,其处理由该距离图像传感器获取的所述距离图像信息,
该图像处理装置具备存储部,所述存储部将在所述动作区域的周围划定具备能够从外部向所述动作区域内进入的边界的监控区域,并存储有基准距离图像信息,所述基准距离图像信息是在所述监控区域内不存在物体的状态下的该监控区域的所述边界的所述距离图像信息,所述图像处理装置基于由所述距离图像传感器获取的所述距离图像信息、和存储于所述存储部的所述基准距离图像信息,检测存在于所述监控区域内的静止物体在所述距离图像传感器的视场内是否遮挡了所述边界。
2.根据权利要求1所述的机器人系统,其特征在于,
所述图像处理装置具备通知部,所述通知部在判定为所述静止物体遮挡了所述边界的情况下,计算被所述静止物体遮挡的空间的大小,并在计算出的所述空间的大小超过预定的阈值的情况下进行通知。
3.根据权利要求2所述的机器人系统,其特征在于,
所述图像处理装置计算出所述空间的最小横截面积作为所述空间的大小。
4.根据权利要求2所述的机器人系统,其特征在于,
所述图像处理装置计算出所述空间的横截面的最小尺寸作为所述空间的大小。
5.根据权利要求1所述的机器人系统,其特征在于,
所述图像处理装置具备显示部,所述显示部在判定为所述静止物体遮挡了所述边界的情况下,显示被所述静止物体遮挡的空间。
6.根据权利要求5所述的机器人系统,其特征在于,
所述图像处理装置具备生成所述空间的三维模型的三维模型生成部,
所述显示部显示由所述三维模型生成部生成的所述空间的三维模型。
7.根据权利要求6所述的机器人系统,其特征在于,
所述机器人系统具备拍摄所述机器人及其周边的拍摄部,
所述显示部将所述三维模型与由所述拍摄部获取的图像重叠而显示。
CN201911035999.2A 2018-10-31 2019-10-29 机器人系统 Pending CN111113374A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-204895 2018-10-31
JP2018204895A JP6838027B2 (ja) 2018-10-31 2018-10-31 ロボットシステム

Publications (1)

Publication Number Publication Date
CN111113374A true CN111113374A (zh) 2020-05-08

Family

ID=70325270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911035999.2A Pending CN111113374A (zh) 2018-10-31 2019-10-29 机器人系统

Country Status (4)

Country Link
US (1) US11126859B2 (zh)
JP (1) JP6838027B2 (zh)
CN (1) CN111113374A (zh)
DE (1) DE102019128458A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112971616A (zh) * 2021-02-07 2021-06-18 美智纵横科技有限责任公司 一种充电座规避方法、装置、扫地机器人及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022139852A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 情報処理装置および情報処理方法、並びにプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007085330A1 (en) * 2006-01-30 2007-08-02 Abb Ab A method and a system for supervising a work area including an industrial robot
WO2008098831A1 (de) * 2007-02-15 2008-08-21 Kuka Roboter Gmbh Verfahren und vorrichtung zum sichern eines arbeitsraums
CN101925930A (zh) * 2008-03-27 2010-12-22 松下电器产业株式会社 死角显示装置
JP2011215772A (ja) * 2010-03-31 2011-10-27 Secom Co Ltd 物体検出センサ
US20140207285A1 (en) * 2013-01-23 2014-07-24 Denso Wave Incorporated System and method for monitoring entry of object into surrounding area of robot
CN104057448A (zh) * 2013-03-19 2014-09-24 株式会社安川电机 机器人系统和被加工物制造方法
CN106476011A (zh) * 2015-08-31 2017-03-08 发那科株式会社 使用了视觉传感器的机器人系统
CN107486857A (zh) * 2016-06-13 2017-12-19 发那科株式会社 机器人系统
CN108453731A (zh) * 2017-02-17 2018-08-28 发那科株式会社 机器人系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60255392A (ja) * 1984-06-01 1985-12-17 株式会社日立製作所 ロボツトの起動方法
DE3509241A1 (de) 1985-03-14 1986-09-18 Traub GmbH Maschinenfabrik, 7313 Reichenbach Verfahren zum optischen bestimmen und/oder lokalisieren eines objektes
JPH0538655A (ja) 1991-07-30 1993-02-19 Hitachi Constr Mach Co Ltd 作業機械の安全監視システム
JP3376029B2 (ja) * 1993-07-15 2003-02-10 株式会社東芝 ロボットの遠隔操作装置
JP5157067B2 (ja) 2006-01-06 2013-03-06 トヨタ自動車株式会社 自動走行用マップ作成装置、及び自動走行装置。
JP4893212B2 (ja) 2006-10-04 2012-03-07 トヨタ自動車株式会社 周辺監視装置
DE102010002250B4 (de) 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
JP6045806B2 (ja) 2012-03-30 2016-12-14 セコム株式会社 侵入監視装置
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP6416980B1 (ja) * 2017-05-17 2018-10-31 ファナック株式会社 監視領域を分割した空間領域を監視する監視装置
JP6626138B2 (ja) * 2018-02-19 2019-12-25 ファナック株式会社 センサを用いた物体監視装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007085330A1 (en) * 2006-01-30 2007-08-02 Abb Ab A method and a system for supervising a work area including an industrial robot
WO2008098831A1 (de) * 2007-02-15 2008-08-21 Kuka Roboter Gmbh Verfahren und vorrichtung zum sichern eines arbeitsraums
CN101925930A (zh) * 2008-03-27 2010-12-22 松下电器产业株式会社 死角显示装置
JP2011215772A (ja) * 2010-03-31 2011-10-27 Secom Co Ltd 物体検出センサ
US20140207285A1 (en) * 2013-01-23 2014-07-24 Denso Wave Incorporated System and method for monitoring entry of object into surrounding area of robot
CN104057448A (zh) * 2013-03-19 2014-09-24 株式会社安川电机 机器人系统和被加工物制造方法
CN106476011A (zh) * 2015-08-31 2017-03-08 发那科株式会社 使用了视觉传感器的机器人系统
CN107486857A (zh) * 2016-06-13 2017-12-19 发那科株式会社 机器人系统
CN108453731A (zh) * 2017-02-17 2018-08-28 发那科株式会社 机器人系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112971616A (zh) * 2021-02-07 2021-06-18 美智纵横科技有限责任公司 一种充电座规避方法、装置、扫地机器人及存储介质

Also Published As

Publication number Publication date
DE102019128458A1 (de) 2020-06-18
JP2020069572A (ja) 2020-05-07
US20200134322A1 (en) 2020-04-30
JP6838027B2 (ja) 2021-03-03
US11126859B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
US10323386B2 (en) Surroundings monitoring system for work machine
KR101566784B1 (ko) 산업용 및 건설용 중장비 접근감시 및 작동제어 시스템
CN111226178B (zh) 监视设备、工业系统、用于监视的方法及计算机程序
US11292700B2 (en) Driver assistance system and a method
EP1457730B1 (en) Intruding object monitoring system
US9596451B2 (en) Device for monitoring at least one three-dimensional safety area
US10618780B2 (en) Crane
CN101522377B (zh) 机械手
US10482322B2 (en) Monitor apparatus for monitoring spatial region set by dividing monitor region
JP5390813B2 (ja) 空間情報表示装置及び支援装置
JP6367102B2 (ja) 監視システム
JP2019157497A (ja) 監視システム、監視方法及び監視プログラム
KR20160130332A (ko) 산업용 및 건설용 중장비 접근감시 및 작동 감속·정지 제어시스템
CN111113374A (zh) 机器人系统
US20170292650A1 (en) Configurable user detection system
JP2012225111A (ja) 建設車両周辺の作業者検出装置
GB2572933A (en) Three-dimensional intrusion detection system and three-dimensional intrusion detection method
KR102568248B1 (ko) 스마트 안전 의복 및 그 제어방법
JP6818317B2 (ja) 波浪監視システム
US20230081003A1 (en) Sensor arrangement and method for safeguarding a monitored zone
JP2020088840A (ja) 監視装置、監視システム、監視方法、監視プログラム
KR101438921B1 (ko) 차량 주변의 이동체 경보 장치 및 방법
JP2017025503A (ja) 建設機器操作アシスト表示システム
JP6367100B2 (ja) エリア監視センサ
JP2018160153A (ja) 物体検出システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination