JP6838027B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP6838027B2
JP6838027B2 JP2018204895A JP2018204895A JP6838027B2 JP 6838027 B2 JP6838027 B2 JP 6838027B2 JP 2018204895 A JP2018204895 A JP 2018204895A JP 2018204895 A JP2018204895 A JP 2018204895A JP 6838027 B2 JP6838027 B2 JP 6838027B2
Authority
JP
Japan
Prior art keywords
distance image
space
boundary
stationary object
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018204895A
Other languages
English (en)
Other versions
JP2020069572A (ja
Inventor
祐輝 高橋
祐輝 高橋
渡邉 淳
淳 渡邉
中村 稔
稔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018204895A priority Critical patent/JP6838027B2/ja
Priority to US16/565,857 priority patent/US11126859B2/en
Priority to DE102019128458.9A priority patent/DE102019128458A1/de
Priority to CN201911035999.2A priority patent/CN111113374A/zh
Publication of JP2020069572A publication Critical patent/JP2020069572A/ja
Application granted granted Critical
Publication of JP6838027B2 publication Critical patent/JP6838027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Description

本発明は、ロボットシステムに関するものである。
従来、作業台の上方に配置された距離画像センサによって連続的に取得される距離画像において、ロボットの動作領域の周囲に、境界を有する監視エリアを設定し、境界を経由した監視エリア内への作業者等の検出により、ロボットに危険回避動作を行わせるロボットシステムが知られている(例えば、特許文献1参照。)。
特開2017−221985号公報
特許文献1のロボットシステムでは、監視エリア内に配置されている作業台等の物体が監視エリアの境界を超えていない。このため、境界を経由して監視エリア内に入る作業者等あるいは作業台の下に隠れている作業者等については確実に監視することができる。
しかしながら、現実の作業現場では、距離画像センサの視界における境界を遮る位置に作業台等の物体が配置されることがあり、物体を挟んで距離画像センサとは反対側には死角が形成される。このため、死角を経由した監視エリア内への進入については距離画像センサによって監視することができないという不都合がある。
本発明は、距離画像センサの視界における監視エリアの境界が遮られる位置に物体が設置されても、物体により形成される死角を経由した進入の可能性を把握することができるロボットシステムを提供することを目的としている。
本発明の一態様は、ロボットと、該ロボットの動作領域の上方から該動作領域の周囲の距離画像情報を時間的に連続して取得する距離画像センサと、該距離画像センサにより取得された前記距離画像情報を処理する画像処理装置とを備え、該画像処理装置が、外部から前記動作領域内への進入を可能とする境界を備えた監視エリアを前記動作領域の周囲に画定し、前記監視エリア内に物体が存在しない状態での該監視エリアの前記境界の前記距離画像情報である基準距離画像情報を記憶する記憶部を備え、前記距離画像センサにより取得された前記距離画像情報と、前記記憶部に記憶されている前記基準距離画像情報とに基づいて、前記監視エリア内に存在する静止物体が、前記距離画像センサの視野内において前記境界を遮っているか否かを検出するロボットシステムである。
本態様によれば、距離画像センサによって、ロボットの動作領域の上方から動作領域の周囲の距離画像情報が時間的に連続して取得されると、取得された距離画像情報が画像処理装置により処理される。画像処理装置は、ロボットの動作領域の周囲に、外部からの動作領域内への進入を可能とする境界を備えた監視エリアを画定する。これにより、作業者等が境界を越えて監視エリア内に進入したときには、距離画像情報におけるいずれかの画素における距離情報が経時的に変化することにより、監視エリア内への作業者等の進入を検出することができる。
一方、監視エリア内に静止物体が配置されている場合には、距離画像情報における距離情報の経時的な変化はなく、静止物体を進入物として検出することはない。
この場合において、本態様によれば、記憶部に、監視エリア内に物体が存在しない状態での監視エリアの境界の距離画像情報である基準距離画像情報を記憶し、基準距離画像情報と距離画像センサにより取得された距離画像情報とに基づいて監視エリア内に存在する静止物体が距離画像センサの視野内において境界を遮っているか否かが検出される。
静止物体が境界を遮っている場合には、遮られている境界部分から静止物体によって隠れた死角を経由して、距離画像センサによって検出されることなく監視エリア内に作業者等が進入することができる可能性がある。すなわち、静止物体によって遮られている境界部分から死角を経由すれば、距離画像情報における距離情報の経時的変化は発生せず、作業者等の進入を検出することができない。したがって、静止物体によって遮られた境界の有無を検出することにより、静止物体により形成される死角を経由した進入の可能性の有無を把握することができる。そして、進入の可能性があると判断できる場合には、進入を防止する対策を施すことができる。
上記態様においては、前記画像処理装置は、前記静止物体が前記境界を遮っていると判定した場合に、前記静止物体により遮られている空間の大きさを算出し、算出された前記空間の大きさが所定の閾値を超えている場合に報知する報知部を備えていてもよい。
この構成により、静止物体によって形成される死角を作業者等が通過したり隠れたりすることができるか否かを判定することができ、空間の大きさが所定の閾値を超えている場合には報知部によりその旨が報知される。報知された場合には進入を防止する対策を施すことができる。
また、上記態様においては、前記画像処理装置は、前記空間の大きさとして、前記空間の前記境界に沿う横断面の面積である最小横断面積を算出してもよい。
この構成により、静止物体によって形成される死角を作業者等が通過あるいは身体の一部を進入させることができるか否かを判定することができ、空間の大きさが所定の閾値を超えている場合には報知部によりその旨が報知される。報知された場合には進入を防止する対策を施すことができる。
また、上記態様においては、前記画像処理装置は、前記空間の大きさとして、前記空間の前記境界に沿う横断面の最小寸法を算出してもよい。
この構成により、静止物体によって形成される死角を作業者等が通過あるいは身体の一部を進入させることができるか否かを判定することができ、空間の大きさが所定の閾値を超えている場合には報知部によりその旨が報知される。報知された場合には進入を防止する対策を施すことができる。
また、上記態様においては、前記画像処理装置が、前記静止物体が前記境界を遮っていると判定した場合に、前記静止物体により遮られている空間を表示する表示部を備えていてもよい。
この構成により、静止物体によって形成される死角が表示部に表示されるので、表示された死角に対して進入を防止する対策を容易に施すことができる。
また、上記態様においては、前記画像処理装置は、前記空間の3次元モデルを生成する3次元モデル生成部を備え、前記表示部は、前記3次元モデル生成部により生成された前記空間の3次元モデルを表示してもよい。
この構成により、静止物体によって形成される死角が表示部に3次元モデルとして表示されるので、死角の角度を変えて表示し、死角に対して進入を防止する対策を容易に施すことができる。
また、上記態様においては、前記ロボットおよびその周辺を撮影する撮影部を備え、前記表示部が、前記撮影部により取得された画像に前記3次元モデルを重畳して表示してもよい。
この構成により、静止物体によって形成される死角が表示部に3次元モデルとして、実際に撮像部により取得されたロボット等の画像に重畳されて表示されるので、ロボット等に対する死角の位置を把握しやすく、死角に対して進入を防止する対策を容易に施すことができる。
本発明によれば、距離画像センサの視界における監視エリアの境界が遮られる位置に物体が設置されても、物体により形成される死角を経由した進入の可能性を把握することができるという効果を奏する。
本発明の一実施形態に係るロボットシステムを示す全体構成図である。 図1のロボットシステムを示す側面図である。 図1のロボットシステムにより取得された監視エリアの外面および底面の距離画像の一例を示す図である。 図2のロボットシステムにおいて、監視エリア内に静止物体が配置されている場合の一例を示す側面図である。 図4の場合の監視エリアの外面および底面の距離画像の一例を示す図である。 図5の距離画像と、図3の距離画像との差分画像を示す図である。 図4の監視エリア内に配置された静止物体により形成される死角の一例を示す斜視図である。
本発明の一実施形態に係るロボットシステム1について、図面を参照して以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、ロボット2と、ロボット2の動作範囲(動作領域)Gの上方に配置される安全カメラ(距離画像センサ)3と、安全カメラ3に接続された画像処理装置4とを備えている。
ロボット2は、図1に示す例では、例えば、6軸多関節型ロボットであり、球体状の動作範囲Gを備えている。
安全カメラ3は、ステレオカメラあるいはTOF(Time of flight)方式の距離画像センサを用いることができる。安全カメラ3は、画素毎に、安全カメラ3のレンズ中心からの距離を検出した距離画像(距離画像情報)を取得することができる。
安全カメラ3は、図1および図2に示されるように、ロボット2の動作範囲Gと干渉せず、ロボット2の動作範囲Gを全周にわたって取り囲む範囲を撮影可能な視界Vを有している。すなわち、安全カメラ3の視界Vは、レンズ中心から放射状に延び、ロボット2の動作範囲Gを含まない環状の範囲に広がっている。安全カメラ3により取得される距離画像は、例えば、図3に示される通りである。図中、斜線で示す領域が距離画像である。
画像処理装置4は、プロセッサおよびメモリにより構成されている。画像処理装置4は、安全カメラ3により取得された距離画像において、図2に示されるように監視エリアAを画定する。監視エリアAは、例えば、長方形状の一定の横断面形状を有し、図2に示されるように、ロボット2の動作範囲Gの外側を全周にわたって取り囲む位置に配置される正方形の環状の領域である。図3において、距離画像は、図2に示される監視エリアAの外面A1および監視エリアAの底面A2に対応している。
安全カメラ3は視界V内に存在する物体までの距離情報を各画素について取得するが、監視エリアAの外面(境界)A1よりも外側の領域および監視エリアAの底面A2よりも下側の領域については、距離情報の大きさによって、監視対象から除外している。
すなわち、画像処理装置4は、図2の監視エリアAの外面A1よりも外側に存在する点B1については、その点B1と安全カメラ3のレンズ中心とを結ぶ直線L1において、監視エリアAの外面A1よりも遠い位置に配置されているため、距離画像において対応する画素の距離情報は、同一画素に対応する監視エリアAの外面A1における点B2よりも大きくなり、監視エリアA外の点であるとして監視対象から除外することができる。
また、図2の監視エリアAの底面A2よりも下側に存在する点C1については、その点C1と安全カメラ3のレンズ中心とを結ぶ直線L2において、監視エリアAの底面A2よりも遠い位置に配置されているため、距離画像において対応する画素の距離情報は、同一画素に対応する監視エリアAの底面A2における点C2よりも大きくなり、監視エリアA外の点であるとして監視対象から除外することができる。
また、監視エリアA内に存在する静止物体(図5参照)X、例えば、テーブルあるいは制御装置等、静止した状態に維持されている物体については、静止物体Xとして設定されることにより監視対象から除外される。
この場合において、本実施形態においては、画像処理装置4は、安全カメラ3により取得された距離画像を用いて、監視エリアA内に存在する静止物体Xが、安全カメラ3の視界(視野)V内において監視エリアAの外面(境界)A1を遮っているか否かを検出する。
具体的には、画像処理装置4は、静止物体Xが配置されていない状態での監視エリアAの外面A1および底面A2の距離画像である第1基準距離画像を記憶する記憶部(図示略)を備え、安全カメラ3により取得された距離画像と基準距離画像との差分から静止物体Xを検出することができる。
そして、画像処理装置4は、静止物体Xが検出された場合には、検出された静止物体Xが、本来、監視エリアAの外面A1または内面A3であるべき領域の一部に差し掛かっているか否かを検出する。
図3に基準距離画像の例を示す。そして、図4に監視エリアA内に静止物体Xが配置されている場合の側面図、図5に監視エリアAの外面A1および底面A2の距離画像の例を示す。また、図6に図3の基準距離画像と図5の距離画像との差分画像を示す。
図4において、監視エリアA内にハッチングが施された領域は、静止物体Xによって監視エリアA内に形成された死角である。図4の例では、死角は、監視エリアAの外面A1の一部の一部に差し掛かるように形成されている。
また、図6において、ハッチングが施された領域は、静止物体Xによって監視エリアAの外面A1が遮られている領域を示している。
この領域においては、静止物体Xが監視エリアAの外面A1よりも安全カメラ3に近い位置に配置されているため、これらの領域内の各画素には、外面A1よりも小さい距離情報が取得される。これにより、静止物体Xによって監視エリアAの外面A1が遮られていることを検出することができる。
すなわち、監視エリアAの外面A1となるべき領域に静止物体Xが差し掛かることにより、視界Vが遮られている場合には、遮られている外面A1部分から静止物体Xによって隠れた死角を経由して、距離画像センサによって検出されることなく監視エリアA内に作業者等が進入することができる可能性がある。
したがって、静止物体Xによって遮られた外面A1の有無を検出することにより、静止物体Xにより形成される死角を経由した進入の可能性の有無を把握することができる。そして、進入の可能性があると判断できる場合には、静止物体Xが視界Vにおいて外面A1または内面A3を遮らない位置に移動したり、監視エリアAの外面A1の外側に、死角に繋がる経路を予め塞ぐ壁を設けたりして、作業者等の進入を防止する対策を施すことができる。
このように、本実施形態に係るロボットシステム1によれば、監視エリアA内に配置されている静止物体Xによって、監視エリアAの外面A1に重なる領域で安全カメラ3の視界Vが遮られているか否かを検出するので、静止物体Xにより形成される死角を経由した作業者等の進入の可能性の有無を把握することができるという利点がある。
なお、本実施形態においては、画像処理装置4が静止物体Xによって遮られている空間の大きさを算出し、ロボットシステム1が、算出された空間の大きさが所定の閾値を超えている場合にその旨を報知する報知部を備えていてもよい。報知部としては、音声、光あるいは画面表示等の任意の方法によって報知するものを採用することができる。
空間の大きさとしては、図7に示されるように、監視エリアA内において静止物体Xによって遮られている空間(ハッチングされている領域)の容積S、空間の最小横断面積D、空間の横断面の最小寸法E等を挙げることができる。図7において、死角となる空間としては、監視エリアAの底面A2よりも下方の空間をも加えた空間としている。
静止物体Xが監視エリアAの内面A3において安全カメラ3の視界Vを遮っている場合に、空間が人間の潜むことができるより大きな容積を有する場合には、ロボットシステム1起動前に静止物体Xによる死角に潜んでいた人間が、安全カメラ3によって検出されることなくロボット2の動作範囲Gに進入することができてしまう。このため、空間の容積Sが十分に小さく抑えられている必要がある。
また、空間の最小横断面積Dあるいは空間の横断面の最小寸法Eが、人間あるいは人間の体の一部、例えば、腕や脚を通過可能な大きさを有している場合には、安全カメラ3によって検出されることなくロボット2の動作範囲Gに進入することができてしまう。このため、空間の最小横断面積Dあるいは横断面の最小寸法Eも十分に小さく抑えられている必要がある。
また、画像処理装置4が表示部を備えていてもよい。表示部はモニタである。表示部は、静止物体Xにより遮られている空間を表示する。距離画像において空間の色を異ならせて表示してもよい。
また、画像処理装置4が、空間の3次元モデルを生成する3次元モデル生成部を備え、生成された空間の3次元モデルを表示部が表示することにしてもよい。
空間の3次元モデルとしては、空間自体の3次元モデルを直接的に生成してもよいし、監視エリアAの3次元モデルを生成することにより、監視エリアAの3次元モデルが欠落している領域の有無によって、静止物体Xにより遮られている空間を間接的に表示することにしてもよい。
3次元モデルを表示することにより、静止物体Xにより遮られている空間の形状を、見る角度を異ならせて確認することができる。
また、ロボットシステム1が、ロボット2およびその周辺を撮影する撮影部を備え、表示部が、撮影部により取得された画像に3次元モデルを重畳して表示してもよい。これにより、静止物体Xによって形成される死角が表示部に3次元モデルとして、実際に撮像部により取得されたロボット2等の画像に重畳されて表示されるので、ロボット2等に対する死角の位置を把握しやすく、死角に対して進入を防止する対策を容易に施すことができる。
また、2以上の安全カメラ3を有する場合に、いずれか1つの安全カメラ3に対して静止物体Xにより遮られている空間を死角と定義する場合には、各安全カメラ3について算出された死角の空間の和集合を死角として算出すればよい。また、すべての安全カメラ3に対して静止物体Xにより遮られている空間を死角と定義する場合には、各安全カメラ3について算出された死角の空間の積集合を死角として算出すればよい。
1 ロボットシステム
2 ロボット
3 安全カメラ(距離画像センサ)
4 画像処理装置
A 監視エリア
A1 外面(境界)
A3 内面(境界)
D 最小横断面積
E 最小寸法
G 動作範囲(動作領域)
V 視界(視野)
X 静止物体

Claims (7)

  1. ロボットと、
    該ロボットの動作領域の上方から該動作領域の周囲の距離画像情報を時間的に連続して取得する距離画像センサと、
    該距離画像センサにより取得された前記距離画像情報を処理する画像処理装置とを備え、
    該画像処理装置が、外部から前記動作領域内への進入を可能とする境界を備えた監視エリアを前記動作領域の周囲に画定し、前記監視エリア内に物体が存在しない状態での該監視エリアの前記境界の前記距離画像情報である基準距離画像情報を記憶する記憶部を備え、前記距離画像センサにより取得された前記距離画像情報と、前記記憶部に記憶されている前記基準距離画像情報とに基づいて、前記監視エリア内に存在する静止物体が、前記距離画像センサの視野内において前記境界を遮っているか否かを検出するロボットシステム。
  2. 前記画像処理装置は、前記静止物体が前記境界を遮っていると判定した場合に、前記静止物体により遮られている空間の大きさを算出し、算出された前記空間の大きさが所定の閾値を超えている場合に報知する報知部を備える請求項1に記載のロボットシステム。
  3. 前記画像処理装置は、前記空間の大きさとして、前記空間の前記境界に沿う横断面の面積である最小横断面積を算出する請求項2に記載のロボットシステム。
  4. 前記画像処理装置は、前記空間の大きさとして、前記空間の前記境界に沿う横断面の最小寸法を算出する請求項2に記載のロボットシステム。
  5. 前記画像処理装置が、前記静止物体が前記境界を遮っていると判定した場合に、前記静止物体により遮られている空間を表示する表示部を備える請求項1に記載のロボットシステム。
  6. 前記画像処理装置は、前記空間の3次元モデルを生成する3次元モデル生成部を備え、
    前記表示部は、前記3次元モデル生成部により生成された前記空間の3次元モデルを表示する請求項5に記載のロボットシステム。
  7. 前記ロボットおよびその周辺を撮影する撮影部を備え、
    前記表示部が、前記撮影部により取得された画像に前記3次元モデルを重畳して表示する請求項6に記載のロボットシステム。

JP2018204895A 2018-10-31 2018-10-31 ロボットシステム Active JP6838027B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018204895A JP6838027B2 (ja) 2018-10-31 2018-10-31 ロボットシステム
US16/565,857 US11126859B2 (en) 2018-10-31 2019-09-10 Robot system
DE102019128458.9A DE102019128458A1 (de) 2018-10-31 2019-10-22 Robotersystem
CN201911035999.2A CN111113374A (zh) 2018-10-31 2019-10-29 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018204895A JP6838027B2 (ja) 2018-10-31 2018-10-31 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2020069572A JP2020069572A (ja) 2020-05-07
JP6838027B2 true JP6838027B2 (ja) 2021-03-03

Family

ID=70325270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018204895A Active JP6838027B2 (ja) 2018-10-31 2018-10-31 ロボットシステム

Country Status (4)

Country Link
US (1) US11126859B2 (ja)
JP (1) JP6838027B2 (ja)
CN (1) CN111113374A (ja)
DE (1) DE102019128458A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112971616B (zh) * 2021-02-07 2022-12-30 美智纵横科技有限责任公司 一种充电座规避方法、装置、扫地机器人及存储介质
JP2022139852A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 情報処理装置および情報処理方法、並びにプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60255392A (ja) * 1984-06-01 1985-12-17 株式会社日立製作所 ロボツトの起動方法
DE3509241A1 (de) 1985-03-14 1986-09-18 Traub GmbH Maschinenfabrik, 7313 Reichenbach Verfahren zum optischen bestimmen und/oder lokalisieren eines objektes
JPH0538655A (ja) 1991-07-30 1993-02-19 Hitachi Constr Mach Co Ltd 作業機械の安全監視システム
JP3376029B2 (ja) * 1993-07-15 2003-02-10 株式会社東芝 ロボットの遠隔操作装置
JP5157067B2 (ja) 2006-01-06 2013-03-06 トヨタ自動車株式会社 自動走行用マップ作成装置、及び自動走行装置。
WO2007085330A1 (en) * 2006-01-30 2007-08-02 Abb Ab A method and a system for supervising a work area including an industrial robot
JP4893212B2 (ja) 2006-10-04 2012-03-07 トヨタ自動車株式会社 周辺監視装置
DE102007007576B4 (de) * 2007-02-15 2009-01-15 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Sichern eines Arbeitsraums
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
DE102010002250B4 (de) 2010-02-23 2022-01-20 pmdtechnologies ag Überwachungssystem
JP5027270B2 (ja) * 2010-03-31 2012-09-19 セコム株式会社 物体検出センサ
JP6045806B2 (ja) 2012-03-30 2016-12-14 セコム株式会社 侵入監視装置
JP6123307B2 (ja) * 2013-01-23 2017-05-10 株式会社デンソーウェーブ ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
JP5673716B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法
JP6088605B1 (ja) * 2015-08-31 2017-03-01 ファナック株式会社 視覚センサを用いたロボットシステム
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
JP6490121B2 (ja) 2017-02-17 2019-03-27 ファナック株式会社 ロボットシステム
JP6416980B1 (ja) * 2017-05-17 2018-10-31 ファナック株式会社 監視領域を分割した空間領域を監視する監視装置
JP6626138B2 (ja) * 2018-02-19 2019-12-25 ファナック株式会社 センサを用いた物体監視装置

Also Published As

Publication number Publication date
JP2020069572A (ja) 2020-05-07
CN111113374A (zh) 2020-05-08
DE102019128458A1 (de) 2020-06-18
US20200134322A1 (en) 2020-04-30
US11126859B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
US10323386B2 (en) Surroundings monitoring system for work machine
EP3553017B1 (en) Crane
KR101566784B1 (ko) 산업용 및 건설용 중장비 접근감시 및 작동제어 시스템
US10969762B2 (en) Configuring a hazard zone monitored by a 3D sensor
JP4066168B2 (ja) 侵入物監視装置
US9596451B2 (en) Device for monitoring at least one three-dimensional safety area
JP6352592B2 (ja) ショベル
CN108958097B (zh) 对分割监视区域得到的空间区域进行监视的监视装置
JP7119442B2 (ja) 監視システム、監視方法及び監視プログラム
JP6052881B2 (ja) 作業機械用周辺監視装置
JP5177515B2 (ja) 周辺認知支援システム
JP7052583B2 (ja) 監視システム
JP6838027B2 (ja) ロボットシステム
JP2010109452A (ja) 車両周囲監視装置及び車両周囲監視方法
JP2014181508A (ja) 作業機械用周辺監視装置
JP6512793B2 (ja) 撮像装置、監視カメラシステム、撮像装置の制御方法およびプログラム
JP6763913B2 (ja) 作業機械用周辺監視装置及びショベル
JP6290497B2 (ja) ショベル
JP2009140305A (ja) 車両用情報提示装置
JP6125102B2 (ja) 情報表示システム
KR20140080048A (ko) 차량 도어 충돌 방지 시스템 및 방법
JP6301536B2 (ja) ショベル
JP6391656B2 (ja) 作業機械用周辺監視装置及び作業機械
JP7125454B2 (ja) ショベル
JP6581280B1 (ja) 監視装置、監視システム、監視方法、監視プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200714

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210210

R150 Certificate of patent or registration of utility model

Ref document number: 6838027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150