CN111113374A - 机器人系统 - Google Patents
机器人系统 Download PDFInfo
- Publication number
- CN111113374A CN111113374A CN201911035999.2A CN201911035999A CN111113374A CN 111113374 A CN111113374 A CN 111113374A CN 201911035999 A CN201911035999 A CN 201911035999A CN 111113374 A CN111113374 A CN 111113374A
- Authority
- CN
- China
- Prior art keywords
- distance image
- space
- robot
- stationary object
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 5
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Manipulator (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种机器人系统,其即使物体设置在距离图像传感器的视场中的监控区域的边界会被遮挡的位置,也掌握了经由被物体形成的死角的进入的可能性。机器人系统具备:机器人;距离图像传感器,从机器人的动作区域的上方,时间上连续地获取动作区域的周围的距离图像信息;以及图像处理装置,处理所获取的距离图像信息,图像处理装置具备存储部,该存储部在动作区域的周围划定具备能够从外部向动作区域内进入的边界的监控区域,并存储有基准距离图像信息,图像处理装置基于由距离图像传感器获取的距离图像信息、和存储于存储部的基准距离图像信息,检测存在于监控区域内的静止物体在距离图像传感器的视场内是否遮挡了边界。
Description
技术领域
本发明涉及机器人系统。
背景技术
以往,已知一种如下机器人系统:在利用配置于工作台的上方的距离图像传感器来连续获取的距离图像中,在机器人的动作区域的周围,设定具有边界的监控区域,通过检测经由边界3而朝向监控区域内的作业人员等,从而使机器人进行危险回避动作(例如,参照专利文献1。)。
现有技术文献
专利文献
专利文献1:日本特开2017-221985号公报
发明内容
发明要解决的问题
在专利文献1的机器人系统中,配置于监控区域内的工作台等的物体不超过监控区域的边界。因此,能够对经由边界而进入到监控区域内的作业人员等或隐藏在工作台的下方的作业人员等切实地进行监控。
然而,在实际的作业现场中,会在距离图像传感器的视场中的遮挡边界的位置配置有工作台等的物体,在隔着物体而与距离图像传感器相反的一侧形成有死角。因此,存在如下不良情况:利用距离图像传感器无法监控对经由死角而向监控区域内的进入。
本发明的目的在于提供一种机器人系统,其即使在距离图像传感器的视场中的遮挡监控区域的边界的位置设置有物体,也能够掌握经由由物体所形成的死角而进入的可能性。
用于解决问题的方案
本发明的一个方案是一种机器人系统,所述机器人系统具备:机器人;距离图像传感器,其从该机器人的动作区域的上方,时间上连续地获取该动作区域的周围的距离图像信息;以及图像处理装置,其处理由该距离图像传感器获取的所述距离图像信息,该图像处理装置具备存储部,所述存储部在所述动作区域的周围划定具备能够从外部向所述动作区域内进入的边界的监控区域,并存储有基准距离图像信息,所述基准距离图像信息是在所述监控区域内不存在物体的状态下的该监控区域的所述边界的所述距离图像信息,所述图像处理装置基于由所述距离图像传感器获取的所述距离图像信息、和存储于所述存储部的所述基准距离图像信息,检测存在于所述监控区域内的静止物体在所述距离图像传感器的视场内是否遮挡了所述边界。
根据本方案,若利用距离图像传感器,从机器人的动作区域的上方时间上连续地获取动作区域的周围的距离图像信息,则由图像处理装置处理所获取的距离图像信息。图像处理装置在机器人的动作区域的周围划定具备能够从外部向动作区域内进入的边界的监控区域。由此,当作业人员等越过边界而进入到监控区域内时,距离图像信息中的任一个像素的距离信息随时间变化,由此能够检测作业人员等向监控区域内进入。
另一方面,在静止物体配置于监控区域内的情况下,距离图像信息中的距离信息不会随时间变化,不会将静止物体检测为进入物。
在该情况下,根据本方案,在存储部中存储有基准距离图像信息,所述基准距离图像信息是在监控区域内不存在物体的状态下的监控区域的边界的距离图像信息,所述图像处理装置基于基准距离图像信息、和由距离图像传感器获取的距离图像信息,检测出存在于监控区域内的静止物体在距离图像传感器的视场内是否遮挡了边界。
在静止物体遮挡了边界的情况下,存在如下可能性:作业人员等能够从所遮挡的边界部分经由被静止物体隐藏的死角,无法被距离图像传感器检测出来,从而进入到监控区域内。即,若从被静止物体遮挡的边界部分经由死角,则距离图像信息中的距离信息不会随着时间变化,从而无法检测作业人员等的进入。然而,通过检测被静止物体遮挡的边界的有无,从而能够掌握经由了由静止物体形成的死角的进入的可能性的有无。然后,在能够判断为存在进入的可能性的情况下,能够实施防止进入的对策。
在上述方案中,所述图像处理装置还可以具备通知部,所述通知部在判定为所述静止物体遮挡了所述边界的情况下,计算被所述静止物体遮挡的空间的大小,并在计算出的所述空间的大小超过预定的阈值的情况下进行通知。
根据该结构,能够判定作业人员等是否能够经过或隐藏在由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下,能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以计算出所述空间的最小横截面积作为所述空间的大小。
根据该结构,能够判定作业人员等是否能够经过由静止物体形成的死角或使身体的一部分进入由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以计算出所述空间的横截面的最小尺寸作为所述空间的大小。
根据该结构,能够判定作业人员等是否能够经过由静止物体形成的死角或使身体的一部分进入由静止物体形成的死角,并在空间的大小超过预定阈值的情况下,利用通知部通知其意旨。在已通知的情况下能够实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以具备显示部,所述显示部在判定为所述静止物体遮挡了所述边界的情况下,显示被所述静止物体遮挡的空间。
根据该结构,由静止物体形成的死角显示于显示部,因此能够对所显示的死角容易实施防止进入的对策。
另外,在上述方案中,所述图像处理装置还可以具备生成所述空间的三维模型的三维模型生成部,所述显示部显示由所述三维模型生成部生成的所述空间的三维模型。
根据该结构,由静止物体形成的死角作为三维模型而显示于显示部,因此改变死角的角度而显示,能够容易对死角实施防止进入的对策。
另外,在上述方案中,所述机器人系统还可以具备拍摄所述机器人及其周边的拍摄部,所述显示部将所述三维模型与由所述拍摄部获取的图像重叠而显示。
根据该结构,由静止物体形成的死角作为三维模型,与实际由拍摄部获取的机器人等的图像重叠而显示于显示部,因此容易掌握机器人等相对于死角的位置,能够容易对死角实施防止进入的对策。
发明效果
根据本发明,起到如下效果:即使在距离图像传感器的视场中的监控区域的边界会被遮挡的位置设置有物体,也能够掌握经由由物体所形成的死角而进入的可能性。
附图说明
图1是表示本发明的一个实施方式的机器人系统的整体结构图。
图2是表示图1的机器人系统的侧视图。
图3是表示由图1的机器人系统获取的监控区域的外侧面以及底面的距离图像的一个例子的图。
图4是表示在图2的机器人系统中在监控区域内配置有静止物体的情况的一个例子的侧视图。
图5是表示图4的情况的监控区域的外侧面以及底面的距离图像的一个例子的图。
图6是表示图5的距离图像与图3的距离图像的差分图像的图。
图7是表示由配置于图4的监控区域内的静止物体形成的死角的一个例子的立体图。
附图标记说明
1:机器人系统
2:机器人
3:安全摄像机(距离图像传感器)
4:图像处理装置
A:监控区域
A1:外侧面(边界)
A3:内侧面(边界)
D:最小横截面积
E:最小尺寸
G:动作范围(动作区域)
V:视场(视野)
X:静止物体
具体实施方式
以下参照附图对本发明的一个实施方式的机器人系统1进行说明。
如图1所示,本实施方式的机器人系统1具备:机器人2;安全摄像机(距离图像传感器)3,其配置于机器人2的动作范围(动作区域)G的上方;以及图像处理装置4,其与安全摄像机3连接。
在图1所示的例子中,机器人2例如是六轴多关节型机器人,并具备球体状的动作范围G。
安全摄像机3能够利用立体摄影机或TOF(Time of flight,飞行时间)方式的距离图像传感器。安全摄像机3能够对每个像素获取检测了自安全摄像机3的透镜中心起的距离的距离图像(距离图像信息)。
如图1以及图2所示,安全摄像机3具有视场V,所述视场V不干扰机器人2的动作范围G,并能够拍摄在全周范围内包围机器人2的动作范围G的范围。即,安全摄像机3的视场V从透镜中心以放射状延伸,并且展开到不包含机器人2的动作范围G的环状的范围。例如,由安全摄像机3获取的距离图像如图3所示。在图中以斜线所示的区域是距离图像。
图像处理装置4由处理器以及存储器构成。图像处理装置4在由安全摄像机3获取的距离图像中,如图2所示划定监控区域A。例如,监控区域A具有长方形状的一定的横截面形状,如图2所示,是配置于在全周范围内包围机器人2的动作范围G的外侧的位置的正方形的环状的区域。在图3中,距离图像与图2所示的监控区域A的外侧面A1以及监控区域A的底面A2相对应。
安全摄像机3对各像素获取至存在于视场V内的物体为止的距离信息,但是对比监控区域A的外侧面(边界)A1更靠外侧的区域以及比监控区域A的底面A2更靠下侧的区域,根据距离信息的大小来从监控对象排除。
即,图像处理装置4,对存在于比图2的监控区域A的外侧面A1更靠外侧的点B1,在连接其点B1和安全摄像机3的透镜中心的直线L1中,点B1配置于比监控区域A的外侧面A1更远的位置,因此在距离图像中相对应的像素的距离信息,比对应于同一像素的监控区域A的外侧面A1中的点B2更大,因此能够作为监控区域A外的点而从监控对象排除。
另外,对存在于比图2的监控区域A的底面A2更靠下侧的点C1,在连接其点C1与安全摄像机3的透镜中心的直线L2中,点C1配置于比监控区域A的底面A2更远的位置,因此在距离图像中相对应的像素的距离信息,比对应于同一像素的监控区域A的底面A2中的点C2更大,因此能够作为监控区域A外的点而从监控对象排除。
另外,对存在于监控区域A内的静止物体(参照图5)X,例如对于工作台或控制装置等维持静止状态的物体,作为静止物体X而设定,从而从监控对象排除。
在该情况下,在本实施方式中,图像处理装置4利用由安全摄像机3获取的距离图像,检测存在于监控区域A内的静止物体X在安全摄像机3的视场(视野)V内是否遮挡了监控区域A的外侧面(边界)A1。
具体而言,图像处理装置4具备存储有第一基准距离图像的存储部(省略图示),所述第一基准距离图像为未配置静止物体X的状态下的监控区域A的外侧面A1以及底面A2的距离图像,并能够根据由安全摄像机3获取的距离图像和基准距离图像的差分,来检测静止物体X。
而且,在检测出静止物体X的情况下,图像处理装置4检测:检测出的静止物体X是否正在靠近于应该是监控区域A的外侧面A1或内侧面A3的区域的部分。
图3表示基准距离图像的例子。然后,图4表示静止物体X配置于监控区域A内的情况的侧视图,图5表示监控区域A的外侧面A1以及底面A2的距离图像的例子。另外,图6表示图3的基准距离图像与图5的距离图像的差分图像。
在图4中,在监控区域A内画影线的区域,是在监控区域A内因静止物体X而形成的死角。在图4的例子中,死角以靠近于监控区域A的外侧面A1的局部的一部分的方式形成。
另外,在图6中,画影线的区域表示监控区域A的外侧面A1被静止物体X遮挡的区域。
在该区域中,静止物体X配置于比监控区域A的外侧面A1更接近安全摄像机3的位置,因此对这些区域内的各像素,能够获取比外侧面A1更小的距离信息。由此,能够检测监控区域A的外侧面A1被静止物体X遮挡的事实。
即,存在如下可能性:当通过使静止物体X靠近于应该成为监控区域A的外侧面A1的区域,从而视场V被遮挡的情况下,作业人员等能够从被遮挡的外侧面A1经由被静止物体X隐藏的死角,从而利用距离图像传感器无法检测出来而进入到监控区域A内。
从而,通过检测被静止物体X遮挡的外侧面A1的有无,能够掌握经由由静止物体X形成的死角而进入的可能性的有无。然后,当能够判断出存在进入的可能性的情况下,将静止物体X移动至在视场V中不会遮挡外侧面A或内侧面A3的位置,或者在监控区域A的外侧面A1的外侧设置有预先堵塞与死角连接的通道的壁,能够实施防止作业人员等进入的对策。
如此,根据本实施方式的机器人系统1存在如下优点:检测安全摄像机3的视场V在配置于监控区域A内的静止物体X与监控区域A的外侧面A1重叠的区域中,是否被静止物体X遮挡,因此能够掌握作业人员等经由因静止物体X形成的死角而进入的可能性的有无。
此外,在本实施方式中,图像处理装置4还可以计算出被静止物体X遮挡的空间的大小,机器人系统1具备通知部,所述通知部在所计算出的空间的大小超过预定的阈值的情况下通知其意旨。作为通知部,能够采用利用声音、光或图像显示等任意的方法进行通知。
如图7所示,作为空间的大小,能够举例在监控区域A内被静止物体X遮挡的空间(画影线的区域)的容积S、空间的最小横截面积D、空间的横截面的最小尺寸E等。在图7中,作为成为死角的空间,是还加上比监控区域A的底面A2更靠下方的空间的空间。
当静止物体X在监控区域A的内侧面A3中遮挡安全摄像机3的视场V的情况下,当空间具有能够隐藏人的较大的容积的情况下,在机器人系统1起动前隐藏于由于静止物体X而形成的死角的人,利用安全摄像机3无法检测出来从而进入到机器人2的动作范围G。因此,空间的容积S需要保持足够小。
另外,当空间的最小横截面积D或空间的横截面的最小尺寸E,具有能够使人或人的一部分,例如手腕、脚经过的大小的情况下,能够利用安全摄像机3无法检测出来而进入到机器人2的动作范围G。因此,空间的最小横截面积D或横截面的最小尺寸E也需要保持足够小。
另外,图像处理装置4还可以具备显示部。显示部是监控器。显示部显示被静止物体X遮挡的空间。在距离图像中还可以以使空间的颜色不同的方式显示。
另外,图像处理装置4还可以具备生成空间的三维模型的三维模型生成部,并且使显示部显示所生成的空间的三维模型。
作为空间的三维模型,既可以直接生成空间自身的三维模型,也可以通过生成监控区域A的三维模型,从而根据监控区域A的三维模型欠缺的区域的有无,间接显示被静止物体X遮挡的空间。
通过显示三维模型,能够以不同的观察角度来确认被静止物体X遮挡的空间的形状。
另外,机器人系统1还可以具备拍摄机器人2以及其周边的拍摄部,显示部在由拍摄部获取的图像重叠三维模型而显示。由此,由静止物体X形成的死角作为三维模型,实际与由拍摄部获取的机器人2等的图像重叠而显示于显示部,因此容易掌握机器人2等相对于死角的位置,并且能够容易实施防止通过死角进入的对策。
另外,当具有两个以上的安全摄像机3的情况下,当对任一个安全摄像机3,将被静止物体X遮挡的空间定义为死角的情况下,将对由各安全摄像机3计算出的死角的空间的并集作为死角而计算即可。另外,当对所有的安全摄像机3,将被静止物体X遮挡的空间定义为死角的情况下,将对由各安全摄像机3计算出的死角的空间的交集作为死角而计算即可。
Claims (7)
1.一种机器人系统,其特征在于,具备:
机器人;
距离图像传感器,其从该机器人的动作区域的上方,时间上连续地获取该动作区域的周围的距离图像信息;以及
图像处理装置,其处理由该距离图像传感器获取的所述距离图像信息,
该图像处理装置具备存储部,所述存储部将在所述动作区域的周围划定具备能够从外部向所述动作区域内进入的边界的监控区域,并存储有基准距离图像信息,所述基准距离图像信息是在所述监控区域内不存在物体的状态下的该监控区域的所述边界的所述距离图像信息,所述图像处理装置基于由所述距离图像传感器获取的所述距离图像信息、和存储于所述存储部的所述基准距离图像信息,检测存在于所述监控区域内的静止物体在所述距离图像传感器的视场内是否遮挡了所述边界。
2.根据权利要求1所述的机器人系统,其特征在于,
所述图像处理装置具备通知部,所述通知部在判定为所述静止物体遮挡了所述边界的情况下,计算被所述静止物体遮挡的空间的大小,并在计算出的所述空间的大小超过预定的阈值的情况下进行通知。
3.根据权利要求2所述的机器人系统,其特征在于,
所述图像处理装置计算出所述空间的最小横截面积作为所述空间的大小。
4.根据权利要求2所述的机器人系统,其特征在于,
所述图像处理装置计算出所述空间的横截面的最小尺寸作为所述空间的大小。
5.根据权利要求1所述的机器人系统,其特征在于,
所述图像处理装置具备显示部,所述显示部在判定为所述静止物体遮挡了所述边界的情况下,显示被所述静止物体遮挡的空间。
6.根据权利要求5所述的机器人系统,其特征在于,
所述图像处理装置具备生成所述空间的三维模型的三维模型生成部,
所述显示部显示由所述三维模型生成部生成的所述空间的三维模型。
7.根据权利要求6所述的机器人系统,其特征在于,
所述机器人系统具备拍摄所述机器人及其周边的拍摄部,
所述显示部将所述三维模型与由所述拍摄部获取的图像重叠而显示。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-204895 | 2018-10-31 | ||
JP2018204895A JP6838027B2 (ja) | 2018-10-31 | 2018-10-31 | ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111113374A true CN111113374A (zh) | 2020-05-08 |
Family
ID=70325270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911035999.2A Pending CN111113374A (zh) | 2018-10-31 | 2019-10-29 | 机器人系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11126859B2 (zh) |
JP (1) | JP6838027B2 (zh) |
CN (1) | CN111113374A (zh) |
DE (1) | DE102019128458A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112971616A (zh) * | 2021-02-07 | 2021-06-18 | 美智纵横科技有限责任公司 | 一种充电座规避方法、装置、扫地机器人及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022139852A (ja) * | 2021-03-12 | 2022-09-26 | オムロン株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007085330A1 (en) * | 2006-01-30 | 2007-08-02 | Abb Ab | A method and a system for supervising a work area including an industrial robot |
WO2008098831A1 (de) * | 2007-02-15 | 2008-08-21 | Kuka Roboter Gmbh | Verfahren und vorrichtung zum sichern eines arbeitsraums |
CN101925930A (zh) * | 2008-03-27 | 2010-12-22 | 松下电器产业株式会社 | 死角显示装置 |
JP2011215772A (ja) * | 2010-03-31 | 2011-10-27 | Secom Co Ltd | 物体検出センサ |
US20140207285A1 (en) * | 2013-01-23 | 2014-07-24 | Denso Wave Incorporated | System and method for monitoring entry of object into surrounding area of robot |
CN104057448A (zh) * | 2013-03-19 | 2014-09-24 | 株式会社安川电机 | 机器人系统和被加工物制造方法 |
CN106476011A (zh) * | 2015-08-31 | 2017-03-08 | 发那科株式会社 | 使用了视觉传感器的机器人系统 |
CN107486857A (zh) * | 2016-06-13 | 2017-12-19 | 发那科株式会社 | 机器人系统 |
CN108453731A (zh) * | 2017-02-17 | 2018-08-28 | 发那科株式会社 | 机器人系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60255392A (ja) * | 1984-06-01 | 1985-12-17 | 株式会社日立製作所 | ロボツトの起動方法 |
DE3509241A1 (de) | 1985-03-14 | 1986-09-18 | Traub GmbH Maschinenfabrik, 7313 Reichenbach | Verfahren zum optischen bestimmen und/oder lokalisieren eines objektes |
JPH0538655A (ja) | 1991-07-30 | 1993-02-19 | Hitachi Constr Mach Co Ltd | 作業機械の安全監視システム |
JP3376029B2 (ja) * | 1993-07-15 | 2003-02-10 | 株式会社東芝 | ロボットの遠隔操作装置 |
JP5157067B2 (ja) | 2006-01-06 | 2013-03-06 | トヨタ自動車株式会社 | 自動走行用マップ作成装置、及び自動走行装置。 |
JP4893212B2 (ja) | 2006-10-04 | 2012-03-07 | トヨタ自動車株式会社 | 周辺監視装置 |
DE102010002250B4 (de) | 2010-02-23 | 2022-01-20 | pmdtechnologies ag | Überwachungssystem |
JP6045806B2 (ja) | 2012-03-30 | 2016-12-14 | セコム株式会社 | 侵入監視装置 |
JP2016099257A (ja) * | 2014-11-21 | 2016-05-30 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
JP6416980B1 (ja) * | 2017-05-17 | 2018-10-31 | ファナック株式会社 | 監視領域を分割した空間領域を監視する監視装置 |
JP6626138B2 (ja) * | 2018-02-19 | 2019-12-25 | ファナック株式会社 | センサを用いた物体監視装置 |
-
2018
- 2018-10-31 JP JP2018204895A patent/JP6838027B2/ja active Active
-
2019
- 2019-09-10 US US16/565,857 patent/US11126859B2/en active Active
- 2019-10-22 DE DE102019128458.9A patent/DE102019128458A1/de active Pending
- 2019-10-29 CN CN201911035999.2A patent/CN111113374A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007085330A1 (en) * | 2006-01-30 | 2007-08-02 | Abb Ab | A method and a system for supervising a work area including an industrial robot |
WO2008098831A1 (de) * | 2007-02-15 | 2008-08-21 | Kuka Roboter Gmbh | Verfahren und vorrichtung zum sichern eines arbeitsraums |
CN101925930A (zh) * | 2008-03-27 | 2010-12-22 | 松下电器产业株式会社 | 死角显示装置 |
JP2011215772A (ja) * | 2010-03-31 | 2011-10-27 | Secom Co Ltd | 物体検出センサ |
US20140207285A1 (en) * | 2013-01-23 | 2014-07-24 | Denso Wave Incorporated | System and method for monitoring entry of object into surrounding area of robot |
CN104057448A (zh) * | 2013-03-19 | 2014-09-24 | 株式会社安川电机 | 机器人系统和被加工物制造方法 |
CN106476011A (zh) * | 2015-08-31 | 2017-03-08 | 发那科株式会社 | 使用了视觉传感器的机器人系统 |
CN107486857A (zh) * | 2016-06-13 | 2017-12-19 | 发那科株式会社 | 机器人系统 |
CN108453731A (zh) * | 2017-02-17 | 2018-08-28 | 发那科株式会社 | 机器人系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112971616A (zh) * | 2021-02-07 | 2021-06-18 | 美智纵横科技有限责任公司 | 一种充电座规避方法、装置、扫地机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
DE102019128458A1 (de) | 2020-06-18 |
JP2020069572A (ja) | 2020-05-07 |
US20200134322A1 (en) | 2020-04-30 |
JP6838027B2 (ja) | 2021-03-03 |
US11126859B2 (en) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10323386B2 (en) | Surroundings monitoring system for work machine | |
KR101566784B1 (ko) | 산업용 및 건설용 중장비 접근감시 및 작동제어 시스템 | |
CN111226178B (zh) | 监视设备、工业系统、用于监视的方法及计算机程序 | |
US11292700B2 (en) | Driver assistance system and a method | |
EP1457730B1 (en) | Intruding object monitoring system | |
US9596451B2 (en) | Device for monitoring at least one three-dimensional safety area | |
US10618780B2 (en) | Crane | |
CN101522377B (zh) | 机械手 | |
US10482322B2 (en) | Monitor apparatus for monitoring spatial region set by dividing monitor region | |
JP5390813B2 (ja) | 空間情報表示装置及び支援装置 | |
JP6367102B2 (ja) | 監視システム | |
JP2019157497A (ja) | 監視システム、監視方法及び監視プログラム | |
KR20160130332A (ko) | 산업용 및 건설용 중장비 접근감시 및 작동 감속·정지 제어시스템 | |
CN111113374A (zh) | 机器人系统 | |
US20170292650A1 (en) | Configurable user detection system | |
JP2012225111A (ja) | 建設車両周辺の作業者検出装置 | |
GB2572933A (en) | Three-dimensional intrusion detection system and three-dimensional intrusion detection method | |
KR102568248B1 (ko) | 스마트 안전 의복 및 그 제어방법 | |
JP6818317B2 (ja) | 波浪監視システム | |
US20230081003A1 (en) | Sensor arrangement and method for safeguarding a monitored zone | |
JP2020088840A (ja) | 監視装置、監視システム、監視方法、監視プログラム | |
KR101438921B1 (ko) | 차량 주변의 이동체 경보 장치 및 방법 | |
JP2017025503A (ja) | 建設機器操作アシスト表示システム | |
JP6367100B2 (ja) | エリア監視センサ | |
JP2018160153A (ja) | 物体検出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |