JP2019063947A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2019063947A
JP2019063947A JP2017192902A JP2017192902A JP2019063947A JP 2019063947 A JP2019063947 A JP 2019063947A JP 2017192902 A JP2017192902 A JP 2017192902A JP 2017192902 A JP2017192902 A JP 2017192902A JP 2019063947 A JP2019063947 A JP 2019063947A
Authority
JP
Japan
Prior art keywords
robot
camera
detection
image
safety
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017192902A
Other languages
English (en)
Other versions
JP6633584B2 (ja
Inventor
知之 山本
Tomoyuki Yamamoto
知之 山本
尚 大島
Takashi Oshima
尚 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017192902A priority Critical patent/JP6633584B2/ja
Priority to DE102018216154.2A priority patent/DE102018216154B4/de
Priority to US16/141,173 priority patent/US10875198B2/en
Priority to CN201811126343.7A priority patent/CN109591009B/zh
Publication of JP2019063947A publication Critical patent/JP2019063947A/ja
Application granted granted Critical
Publication of JP6633584B2 publication Critical patent/JP6633584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37563Ccd, tv camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】撮影手段に不具合が発生する場合も想定した上で、安全性を確保することが可能なロボットシステムを提供すること。【解決手段】ロボット51を監視するカメラ21を有するロボットシステム1であって、ロボット51の現在位置データと、ロボット51のロボットモデルデータとから、ロボット51の現在位置モデルを作成する現在位置モデル作成手段111と、カメラ21の設定位置データと、ロボット51の設定位置データと、現在位置モデルとに基づいて、カメラ21の方角から見たロボット51のシミュレーション画像を作成するシミュレーション画像作成手段112と、シミュレーション画像と、カメラ21から取得した監視画像とを比較して、監視画像内のロボット51を検出する検出手段113と、検出手段113が監視画像内にロボット51を検出しない場合に、ロボットシステム1の安全を確保する安全確保手段114と、を備える。【選択図】図1

Description

本発明は、ロボットシステムに関する。
ロボットと作業者が同時に進入可能な協働動作領域へロボットが進入しているときに、作業者が協働動作領域に進入すると、ロボットの動作速度を作業者が協働動作領域に進入する前より低下させる等の安全機能が、従来知られている。
また、位置情報やツールやワークのモデルから、3次元ロボットモデルを作成する機能、及び、画像判別センサ等の取得した画像内に含まれる対象物を検出する機能も、合わせて知られている。
例えば、特許文献1は、作業エリア内における作業者とロボットとの衝突を回避するために、撮影手段によって生成された撮影対象までの距離情報から、静止物モデル情報とロボットモデル情報を除去し、撮影対象から静止物とロボットとを除いた残存対象と、撮影手段との距離情報である残存モデル情報を生成し、残存モデル情報とロボットモデル情報とから、残存対象とロボットとの距離を算出し、この距離に基づいて、ロボットの動作速度を低下させる技術を開示している。
特許第5523386号公報
しかし、特許文献1に係る技術においては、撮影手段に不具合が発生することは想定されていない。特許文献1に係る技術において、撮影手段に不具合が発生した場合、上記の残存対象とロボットとの距離を正確に算出できないケースや、ロボットの周辺領域を監視できないケースや、ロボットの動作を人の侵入と誤検出する可能性がある。
また、ロボットの動作を人の侵入と誤検出しないためには、ロボットが写らないように、複数台のカメラをロボット周りに設置する工夫が必要となるが、監視領域の調整などで工数がかかったり、システムのコストアップにつながったり、ロボットの周囲に死角ができたりする。
また、特許文献1に係る技術において、撮影手段としてのカメラが故障したことを検出する際、複数のカメラを使用して比較することは可能だが、複数のカメラを使用すること自体がコストアップにつながる。更に、何らかの原因により、撮影手段としてのカメラの位置や姿勢がずれてしまった場合にも、ロボット周辺の領域を監視できなくなる。
また、従来の技術として、レーザセンサを用いてロボットの周辺領域を監視する方法があるが、この方法では、どの程度の領域を監視するかの確認が煩雑であった。
本発明は、撮影手段に不具合が発生する場合も想定した上で、比較的低いコストで、簡便に安全性を確保することが可能なロボットシステムを提供することを目的とする。
(1) 本発明に係るロボットシステム(例えば、後述のロボットシステム1)は、ロボット(例えば、後述のロボット51)を監視するカメラ(例えば、後述のカメラ21)を有するロボットシステムであって、前記ロボットの現在位置データと、前記ロボットのロボットモデルデータとから、前記ロボットの現在位置モデルを作成する現在位置モデル作成手段(例えば、後述の現在位置モデル作成部111)と、前記カメラの設定位置データと、前記ロボットの設定位置データと、前記現在位置モデルとに基づいて、前記カメラの方角から見た前記ロボットのシミュレーション画像を作成するシミュレーション画像作成手段(例えば、後述のシミュレーション画像作成部112)と、前記シミュレーション画像と、前記カメラから取得した監視画像とを比較して、前記監視画像内の前記ロボットを検出する検出手段(例えば、後述の検出部113)と、前記検出手段が前記監視画像内に前記ロボットを検出しない場合に、前記ロボットシステムの安全を確保する安全確保手段(例えば、後述の安全確保部114)と、を備える。
(2) (1)に記載のロボットシステム(例えば、後述のロボットシステム1)は、前記検出手段(例えば、後述の検出部113)は、前記監視画像内で前記ロボットが検出された検出領域を取得する検出領域取得手段(例えば、後述の検出領域取得部113A)と、前記監視画像から前記検出領域を除く範囲を監視し、人や物の侵入を検知する侵入検知手段(例えば、後述の侵入検知部113B)とを備え、前記侵入検知手段が、人や物の侵入を検知した場合に、前記安全確保手段(例えば、後述の安全確保部114)は、前記ロボットシステムの安全を確保してもよい。
(3) (1)又は(2)に記載のロボットシステム(例えば、後述のロボットシステム1)は、前記カメラ(例えば、後述のカメラ21)で取得される前記監視画像において、前記ロボットが検出されるべき検出予想領域を入力する入力手段(例えば、後述の入力部31)と、前記入力手段により入力された検出予想領域を記憶する記憶手段(例えば、後述の記憶部41)とを更に備え、前記安全確保手段(例えば、後述の安全確保部114)は、実際に前記ロボットが検出された領域と、前記検出予想領域とを比較し、両者の領域に所定量を超える差異がある場合に、前記ロボットシステムの安全を確保してもよい。
本発明によれば、撮影手段に不具合が発生する場合も想定した上で、安全性を確保することが可能なロボットシステムを提供することが可能となる。
本発明の概要を説明する図である。 本発明の実施形態に係るロボットシステムの機能ブロック図である。 本発明の実施形態に係るロボットシステムの機能ブロック図である。 本発明の実施形態に係るロボットシステムの動作を示すフローチャートである。
以下、本発明の実施形態について図1〜図3を参照しながら詳述する。
<1.発明の概要>
図1は、本発明の概要の説明図である。本発明に係るロボットシステム1は、その一部の構成要素として、図1に示す、カメラ21、現在位置モデル作成部111、シミュレーション画像作成部112、検出部113、及び安全確保部114を備える。
StepAにおいて、カメラ21をロボット51が監視領域に入るよう、地面に固定して設置する。その結果、図1の右上方に示すような、領域監視画像としてのカメラ画像が得られる。なお、図1の例においては、ロボット51の近傍にオペレータ52が存在し、カメラ画像には、ロボット51とオペレータ52との双方が含まれるが、これはあくまで、説明の便宜上示した一例であって、これには限られず、オペレータ52は存在しなくてもよい。
StepBにおいて、現在位置モデル作成部111が、ロボット51の現在位置データと、ロボット51の3次元モデルのデータであるロボットモデルとを取得し、これらのデータから、ロボット51の現在位置モデルを作成する。なお、ここでの「現在位置データ」とは、ロボット51を構成する各機械要素が、現時点において、互いにどのような位置関係にあるかを示すデータである。また、「現在位置モデル」とは、ロボット51の3次元モデルであると同時に、ロボット51の現時点での姿勢を反映した3次元モデルのデータである。
StepCにおいて、シミュレーション画像作成部112が、上記の現在位置モデルと、カメラ21の設置位置データと、ロボット51の設置位置データを取得する。更に、シミュレーション画像作成部112は、これらのデータを用いて、カメラ21の方角から現在のロボット51を見たと仮定した場合に得られるはずの画像データである、シミュレーション画像を作成する。
StepDにおいて、検出部113は、シミュレーション画像とカメラ画像とを照らし合わせ、カメラ画像内に、シミュレーション画像で示されるロボット51の画像を検出する。
検出部113がロボット51の画像を検出できなかった場合には、StepEにおいて、安全確保部114が、カメラ21自体の故障や、カメラ21のケーブルの抜け、カメラ21の位置の正常時からのずれ等の不具合が発生したと判断し、ロボットシステム1の安全を確保する。具体的には、安全確保部114は、ロボット51の動作を停止したり、或いは、ロボット51の各部の移動速度を低下させたりする。
また、検出部113がロボット51の画像を検出できなかった場合に加え、図1に示すように、カメラ画像内にロボット51以外の人や物が含まれる場合、及び、カメラ画像内のロボット51の画像の領域が、事前に設定された検出予想領域から、所定量以上ずれる場合にも、安全確保部114がロボットシステム1の安全を確保してもよい。
すなわち、本発明に係るロボットシステム1は、カメラ21で撮影したロボット51のカメラ画像と、ロボット51の現在位置モデル、カメラ21の設置位置データ、ロボット51の設置位置データ等から生成したシミュレーション画像とを比較する。シミュレーション画像で示されるロボット51の画像がカメラ画像に含まれなければ、安全確保部114が、ロボットシステム1の安全を確保する。更に、ロボットシステム1は、ロボット51の動作を無視し、ロボット51以外の人や物が、ロボット51周辺の指定領域に侵入した場合のみを検出することが可能である。
なお、図1において、ロボット51は1台でも複数台でもよい。また、カメラ21は1台でも複数台でもよい。
<2.発明の構成>
図2A及び図2Bは、本発明に係るロボットシステム1の機能ブロック図である。一部繰り返しとなるが、図2A及び図2Bを参照することにより、ロボットシステム1の構成について説明する。
ロボットシステム1は、制御部11、カメラ21、入力部31、及び記憶部41を備え、制御部11は、現在位置モデル作成部111、シミュレーション画像作成部112、検出部113、及び安全確保部114を備える。
制御部11は、例えば、CPU、ROM、RAM、CMOSメモリ等を有してもよく、これらはバスを介して相互に通信可能に構成される、当業者にとって公知のものである。
CPUはロボットシステム1を全体的に制御するプロセッサである。該CPUは、ROMに格納されたシステムプログラム及びアプリケーションプログラムを、バスを介して読み出し、該システムプログラム及びアプリケーションプログラムに従ってロボットシステム1全体を制御することで、図2Aに示すように、制御部11が、現在位置モデル作成部111、シミュレーション画像作成部112、検出部113、及び安全確保部114の機能を実現するように構成される。RAMには一時的な計算データや表示データ等の各種データが格納される。CMOSメモリは図示しないバッテリでバックアップされ、ロボットシステム1の電源がオフされても記憶状態が保持される不揮発性メモリとして構成される。
現在位置モデル作成部111は、ロボット51の現在位置データと、ロボット51の3次元モデルのデータであるロボットモデルとを取得し、これらのデータから、ロボット51の現在位置モデルを作成する。現在位置モデルの作成にあたっては、公知の技術を用いいてもよい。例えば、ロボット51の各軸の現在位置を取得し、この各軸の現在位置のデータを、ロボットモデルに適用することにより、ロボット51の現在位置モデルを作成することが可能である。
シミュレーション画像作成部112は、カメラ21の設定位置データと、ロボット51の設定位置データと、現在位置モデル作成部111が作成したロボット51の現在位置モデルとを取得し、これらのデータを用いて、カメラ21の方角から見た、現在のロボット51のシミュレーション画像を作成する。シミュレーション画像の作成にあたっては、公知の技術を用いてもよい。例えば、座標系が設定された仮想空間内に、カメラ21とロボット51とを配置し、カメラ21及びロボット51が配置された座標の座標値、カメラ21の姿勢、画角等のデータと、ロボット51の現時点での位置・姿勢を反映した現在位置モデルとを用いることにより、シミュレーション画像を作成することが可能である。
検出部113は、シミュレーション画像作成部112が作成したシミュレーション画像と、カメラ21から取得した監視画像としてのカメラ画像とを比較して、カメラ画像内のロボット51を検出する。この検出には、例えば、パターンマッチング等の技術を用いてもよい。
安全確保部114は、検出部113がカメラ画像内にロボット51を検出しなかった場合に、ロボット51の動作を停止したり、或いは、ロボット51の各部の移動速度を低下させたりすることにより、ロボット51のロボットシステム1の安全を確保する。
カメラ21は、ロボット51とその周辺領域を監視する。なお、カメラ21は1台でもよく、複数台でもよい。
入力部31は、カメラ21から取得する監視画像としてのカメラ画像において、ロボット51が検出されるべき検出予想領域を、ユーザが入力するために用いる装置であり、キーボードやタッチパネル等によって実現することが可能である。
記憶部41は、入力部31によって入力された検出予想領域を記憶する。
なお、安全確保部114は、検出部113が監視画像内に検出したロボット51の領域と、記憶部41が記憶した検出予想領域とを比較し、両者の領域に所定量を超える差異がある場合に、ロボットシステム1の安全を確保してもよい。例えば、両者の領域の輪郭の間の距離の平均値が所定量以上存在する場合に、安全確保部114は、ロボットシステム1の安全を確保してもよい。あるいは、両者の領域のうち、互いに重なっていない部分の面積が所定量以上存在する場合に、安全確保部114は、ロボットシステム1の安全を確保してもよい。
図2Bに示すように、検出部113は、検出領域取得部113Aと侵入検知部113Bとを備える。検出領域取得部113Aは、監視画像内でロボット51が検出された検出領域を取得する。侵入検知部113Bは、監視画像から、検出領域取得部113Aが取得した検出領域を除く範囲を監視し、ロボット51以外の人や物の侵入を検知する。
なお、安全確保部114は、侵入検知部113Bが、監視画像内にロボット51以外の人や物の侵入を検知した場合に、ロボットシステム1の安全を確保してもよい。
<3.発明の動作>
図3は、本発明に係るロボットシステム1の動作を示すフローチャートである。
ステップS1において、ユーザは、監視画像内にロボット51が十分収まるように、ロボット51の周辺領域にカメラ21を設置する。
ステップS2において、現在位置モデル作成部111は、ロボット51の現在位置データと、ロボット51の3次元モデルのデータであるロボットモデルとを取得し、これらのデータから、ロボット51の現在位置モデルを作成する。更に、現在位置モデル作成部111は、作成した現在位置モデルを、シミュレーション画像作成部112に送信する。
ステップS3において、シミュレーション画像作成部112は、現在位置モデルと、カメラ21の設置位置データと、ロボット51の設置位置データとを取得し、これらのデータを用いて、カメラ21の方角からロボット51を見たと仮定した場合に得られるはずの画像データである、シミュレーション画像を作成する。更に、シミュレーション画像作成部112は、作成したシミュレーション画像を、検出部113に送信する。
ステップS4において、検出部113は、シミュレーション画像とカメラ画像とを照らし合わせ、カメラ画像内での、シミュレーション画像で示されるロボット51の画像の検出を試行する。
ステップS5において、検出部113が、ロボット51を検出した場合(S5:YES)には、処理はステップS6に移行する。検出部113がロボット51を検出しなかった場合(S5:NO)には、処理はステップS8に移行する。
ステップS6において、検出部113が、カメラ画像内のロボット51以外の範囲において、ロボット51以外の人や物を検出した場合(S6:YES)には、処理はステップS8に移行する。検出部113が、ロボット51以外の人や物を検出しなかった場合(S6:NO)には、処理はステップS7に移行する。
ステップS7において、事前にユーザによって入力された検出予想領域と、検出部113が、カメラ画像内でロボット51を実際に検出した領域とに、所定量以上のずれがある場合(S7:YES)には、処理はステップS8に移行する。検出予想領域と、検出部113がカメラ画像内でロボット51を実際に検出した領域とに、所定量以上のずれが無い場合(S7:NO)には、処理はステップS2に戻る。
ステップS8において、安全確保部114は、ロボットシステム1の安全を確保する。具体的には、安全確保部114は、ロボット51の動作を停止したり、或いは、ロボット51の各部の移動速度を低下させたりする。
上記のように、ロボットシステム1は、カメラ21から取得した監視画像としてのカメラ画像を、ロボット51の現在位置モデル等に基づいて作成されたシミュレーション画像と比較する。更に、ロボットシステム1は、カメラ画像にロボット51の画像が検出されるか、カメラ画像にロボット51以外の人や物が検出されるか、カメラ画像に検出されるロボット51の画像の領域と、事前の予想領域との間に所定量以上のずれがないか判断し、判断結果に基づいて、ロボットシステム1の安全を確保する。
これにより、カメラ21に不具合が発生する場合も想定した上で、ロボットシステム1の安全を確保することが可能となる。
また、上記の繰り返しとなるが、従来の技術として、レーザセンサを用いてロボットの周辺領域を監視する方法があるが、この方法では、どの程度の領域を監視するかの確認が煩雑であった。この点、本発明の方法によれば、カメラ21によってどの範囲を監視しているかが一目瞭然であり、監視エリアの確認が簡易化される。
また、本発明においては、ロボット51の周辺領域を監視するカメラ21が1台しかない場合でも、カメラ21の不具合を検知することが可能となる。
<4.変形例>
例えば、カメラ21のスイッチが入ってなかったり、カメラ21のケーブルが抜けていたり、カメラ21のケーブルに断線があったりする等の理由で、検出部113がカメラ21からカメラ画像を取得できない場合には、ロボットシステム1が警報を発する構成としてもよい。
なお、上記のロボットシステム1に含まれる各装置は、ハードウェア、ソフトウェア又はこれらの組み合わせによりそれぞれ実現することができる。また、上記のロボットシステム1に含まれる各装置により行なわれる安全確保方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 ロボットシステム
11 制御部
21 カメラ
31 入力部
41 記憶部
111 現在位置モデル作成部
112 シミュレーション画像作成部
113 検出部
113A 検出領域取得部
113B 侵入検知部
114 安全確保部

Claims (3)

  1. ロボットを監視するカメラを有するロボットシステムであって、
    前記ロボットの現在位置データと、前記ロボットのロボットモデルデータとから、前記ロボットの現在位置モデルを作成する現在位置モデル作成手段と、
    前記カメラの設定位置データと、前記ロボットの設定位置データと、前記現在位置モデルとに基づいて、前記カメラの方角から見た前記ロボットのシミュレーション画像を作成するシミュレーション画像作成手段と、
    前記シミュレーション画像と、前記カメラから取得した監視画像とを比較して、前記監視画像内の前記ロボットを検出する検出手段と、
    前記検出手段が前記監視画像内に前記ロボットを検出しない場合に、前記ロボットシステムの安全を確保する安全確保手段と、を備える、ロボットシステム。
  2. 前記検出手段は、前記監視画像内で前記ロボットが検出された検出領域を取得する検出領域取得手段と、前記監視画像から前記検出領域を除く範囲を監視し、前記ロボット以外の人や物の侵入を検知する侵入検知手段とを備え、
    前記侵入検知手段が、人や物の侵入を検知した場合に、前記安全確保手段は、前記ロボットシステムの安全を確保する、請求項1に記載のロボットシステム。
  3. 前記カメラで取得される前記監視画像において、前記ロボットが検出されるべき検出予想領域を入力する入力手段と、
    前記入力手段により入力された検出予想領域を記憶する記憶手段とを更に備え、
    前記安全確保手段は、実際に前記ロボットが検出された領域と、前記検出予想領域とを比較し、両者の領域に所定量を超える差異がある場合に、前記ロボットシステムの安全を確保する、請求項1又は2に記載のロボットシステム。
JP2017192902A 2017-10-02 2017-10-02 ロボットシステム Active JP6633584B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017192902A JP6633584B2 (ja) 2017-10-02 2017-10-02 ロボットシステム
DE102018216154.2A DE102018216154B4 (de) 2017-10-02 2018-09-21 Robotersystem
US16/141,173 US10875198B2 (en) 2017-10-02 2018-09-25 Robot system
CN201811126343.7A CN109591009B (zh) 2017-10-02 2018-09-26 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192902A JP6633584B2 (ja) 2017-10-02 2017-10-02 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2019063947A true JP2019063947A (ja) 2019-04-25
JP6633584B2 JP6633584B2 (ja) 2020-01-22

Family

ID=65727866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192902A Active JP6633584B2 (ja) 2017-10-02 2017-10-02 ロボットシステム

Country Status (4)

Country Link
US (1) US10875198B2 (ja)
JP (1) JP6633584B2 (ja)
CN (1) CN109591009B (ja)
DE (1) DE102018216154B4 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017294796B2 (en) 2016-07-15 2019-05-30 Fastbrick Ip Pty Ltd Brick/block laying machine incorporated in a vehicle
US11958193B2 (en) 2017-08-17 2024-04-16 Fastbrick Ip Pty Ltd Communication system for an interaction system
US20210370509A1 (en) * 2018-07-16 2021-12-02 Fastbrick Ip Pty Ltd Backup tracking for an interaction system
EP3738719B1 (de) * 2019-05-13 2024-05-01 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Mobiler kommissionierroboter, ware-zur-person kommissionierarbeitsplatz und kommissioniersystem
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
CN113191032B (zh) * 2021-07-02 2021-11-30 北京远度互联科技有限公司 一种视角仿真方法、装置、系统和存储介质
DE102022112439B3 (de) 2022-05-05 2023-07-27 Franka Emika Gmbh Sicherer Roboter
DE102022111226B3 (de) 2022-05-05 2023-07-27 Franka Emika Gmbh Gekapselte Sicherheit für den Betrieb eines Robotermanipulators

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62277290A (ja) * 1986-05-26 1987-12-02 株式会社東芝 マニプレ−タの制御装置
JPH06126685A (ja) * 1992-10-13 1994-05-10 Toyota Motor Corp 侵入物検知装置
JPH07100782A (ja) * 1993-09-30 1995-04-18 Toyota Motor Corp 産業用ロボットの寿命推定方法及び寿命推定装置
JP2009159568A (ja) * 2007-12-28 2009-07-16 Omron Corp 異常検出装置および方法、並びに、プログラム
JP2012061558A (ja) * 2010-09-16 2012-03-29 Denso Wave Inc ロボット監視システム
JP2012187641A (ja) * 2011-03-08 2012-10-04 Denso Wave Inc ロボット監視システム、及びロボット監視システムの異常判定方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5523386B2 (ja) 1974-08-20 1980-06-23
JPS5523386A (en) 1977-10-03 1980-02-19 Gen Motors Corp Electromagnetic fuel injector
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot
JP4271232B2 (ja) * 2006-12-20 2009-06-03 ファナック株式会社 ロボットのオフラインプログラミングを実行するための装置、方法、プログラム及び記録媒体
JP4850984B2 (ja) 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP5523386B2 (ja) 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
US9694497B2 (en) * 2012-07-10 2017-07-04 Siemens Aktiengesellschaft Robot arrangement and method for controlling a robot
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
WO2014056533A1 (en) * 2012-10-11 2014-04-17 Abb Technology Ltd A method and an apparatus for automatically generating a collision free return program for returning a robot from a stop position to a predefined restart position
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
US9256944B2 (en) 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
JP6494331B2 (ja) * 2015-03-03 2019-04-03 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
CN205572431U (zh) * 2016-01-08 2016-09-14 杭州自动化技术研究院有限公司 一种智能视觉机器人的拼装系统
JP6470235B2 (ja) * 2016-07-27 2019-02-13 ファナック株式会社 安全管理方法および安全管理システム
JP6822069B2 (ja) * 2016-11-01 2021-01-27 オムロン株式会社 監視システム、監視装置、および監視方法
EP4088890A1 (en) * 2017-02-07 2022-11-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
US10262224B1 (en) * 2017-07-19 2019-04-16 The United States Of America As Represented By Secretary Of The Navy Optical flow estimation using a neural network and egomotion optimization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62277290A (ja) * 1986-05-26 1987-12-02 株式会社東芝 マニプレ−タの制御装置
JPH06126685A (ja) * 1992-10-13 1994-05-10 Toyota Motor Corp 侵入物検知装置
JPH07100782A (ja) * 1993-09-30 1995-04-18 Toyota Motor Corp 産業用ロボットの寿命推定方法及び寿命推定装置
JP2009159568A (ja) * 2007-12-28 2009-07-16 Omron Corp 異常検出装置および方法、並びに、プログラム
JP2012061558A (ja) * 2010-09-16 2012-03-29 Denso Wave Inc ロボット監視システム
JP2012187641A (ja) * 2011-03-08 2012-10-04 Denso Wave Inc ロボット監視システム、及びロボット監視システムの異常判定方法

Also Published As

Publication number Publication date
CN109591009A (zh) 2019-04-09
DE102018216154B4 (de) 2022-06-23
CN109591009B (zh) 2021-07-13
US20190099902A1 (en) 2019-04-04
DE102018216154A1 (de) 2019-04-04
US10875198B2 (en) 2020-12-29
JP6633584B2 (ja) 2020-01-22

Similar Documents

Publication Publication Date Title
JP2019063947A (ja) ロボットシステム
JP6822069B2 (ja) 監視システム、監視装置、および監視方法
EP3363602B1 (en) Monitoring system, monitoring device, and monitoring method
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
KR102648812B1 (ko) 차량 및 그의 보행자 감지 알림 방법
JP6232497B2 (ja) 外界認識装置
JP7052203B2 (ja) 安全制御装置、安全制御方法およびプログラム
JP2019157497A (ja) 監視システム、監視方法及び監視プログラム
JP2005275725A (ja) 移動装置システム、移動装置および移動装置システムの制御方法
EP3392001B1 (en) Robot system
JP6221605B2 (ja) 安全制御装置および安全制御システム
JP2016209991A (ja) ロボットの制御装置、制御方法およびシステム
JP2017061026A (ja) ロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラム
KR20090003803A (ko) 지능형 감시 시스템 및 그의 제어방법
JP2019144040A (ja) センサを用いた物体監視装置
JP2021126950A5 (ja)
JP4882275B2 (ja) 自律移動ロボット及びその移動状況記録システム
Fetzner et al. A 3D representation of obstacles in the robots reachable area considering occlusions
US20240231304A1 (en) Operation management device
KR20220095124A (ko) 대상 작업 공간에 대한 가상 환경에 기초하여 대상 작업 공간 내 로봇 장치를 제어하는 전자 장치 및 이의 동작 방법
JP6690203B2 (ja) ロボット安全システム
KR20180119380A (ko) 산업용 로봇 안전 방법 및 시스템
JP7568059B2 (ja) 判定装置、判定方法、及びプログラム
EP4169674A1 (en) Robot safety monitoring system
JP6305819B2 (ja) 監視装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191212

R150 Certificate of patent or registration of utility model

Ref document number: 6633584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150