JP6871220B2 - 制御システム - Google Patents

制御システム Download PDF

Info

Publication number
JP6871220B2
JP6871220B2 JP2018210687A JP2018210687A JP6871220B2 JP 6871220 B2 JP6871220 B2 JP 6871220B2 JP 2018210687 A JP2018210687 A JP 2018210687A JP 2018210687 A JP2018210687 A JP 2018210687A JP 6871220 B2 JP6871220 B2 JP 6871220B2
Authority
JP
Japan
Prior art keywords
coordinate system
machine
image
robot
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018210687A
Other languages
English (en)
Other versions
JP2020075327A (ja
Inventor
広光 高橋
広光 高橋
勇太 並木
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018210687A priority Critical patent/JP6871220B2/ja
Priority to US16/576,503 priority patent/US11241797B2/en
Priority to DE102019215237.6A priority patent/DE102019215237A1/de
Priority to CN201911070548.2A priority patent/CN111152243B/zh
Publication of JP2020075327A publication Critical patent/JP2020075327A/ja
Application granted granted Critical
Publication of JP6871220B2 publication Critical patent/JP6871220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本発明は、対象物に対して所定の作業を行う機械の動作を制御する制御システムに関する。
例えばロボットシステム(制御システム)ではロボット(機械)に視覚機能を持たせ、その視覚機能によってワーク(対象物)の位置を認識させて、ワークのハンドリングや加工などの作業が行われている。その視覚機能はロボットのハンド付近に取り付けられた視覚センサ(撮像装置)やロボットの周辺に設置された視覚センサがワークを撮像することによって実現される。このようなロボットシステムでは、撮像した画像からワークを検出し、検出したワークの位置に対してロボットが作業を行うように、ロボットの動作を制御することができる。
このようなロボットシステムでは、例えば、画像上のワークの位置を、ロボットから見たワークの位置に変換するためのキャリブレーションデータを用いて、検出したワークの位置(画像上の座標系の位置、又は、視覚センサから見たセンサ座標系の位置)を、ロボットから見たワークの位置(ロボットの座標系の位置)に変換する(例えば、特許文献1及び非特許文献1参照)。これにより、検出したワークの位置(検出位置)に対してロボットが作業を行うように、ロボットの動作を補正(制御)することができる。
このような補正としては、ワークの検出位置にロボットのアーム先端部を移動させる絶対位置補正と、予め設定した基準位置とワークの検出位置との差分(補正量)を用いてロボットの動作をオフセットさせる相対位置補正とがある。
特許第2889011号公報
ROGER Y. TSAI, "An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision", PROCEEDINGS OF IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 1986, pages 364 - 374
しかし、外部からの攻撃、設定のミス、ソフトウェアの不具合等の要因により、ロボット(機械)の動作補正(動作制御)のためのワーク(対象物)の検出位置又は補正量が正しくない検出位置又は補正量になることがある。すると、ロボット(機械)の動作に正しくない補正(制御)が行われ、人又は周辺装置に危害を加えてしまうことがある。
本発明は、機械の動作制御のための対象物の検出位置又は補正量が正しくないことを検出することが可能な制御システムを提供することを目的とする。
(1) 本発明に係る制御システム(例えば、後述のロボットシステム1)は、対象物(例えば、後述のワークW)に対して所定の作業を行う機械(例えば、後述のロボット2)の動作を制御する制御システムであって、前記対象物を撮像する撮像装置(例えば、後述の視覚センサ4)と、前記撮像装置及び前記機械の動作を制御する制御装置(例えば、後述の制御装置10、すなわち後述の視覚センサ制御装置20及びロボット制御装置30)とを備え、前記制御装置は、前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部(例えば、後述の位置変換部23)であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部(例えば、後述の動作制御部31)と、前記画像座標系上又は前記センサ座標系上の画像内の予め定められた検出範囲に基づいて、前記機械座標系上の検出範囲を計算する検出範囲計算部(例えば、後述の検出範囲計算部24)と、前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置が、前記機械座標系上の検出範囲内であるか否かを判定する位置判定部(例えば、後述の位置判定部25)とを有する。
(2) 本発明に係る他の制御システム(例えば、後述のロボットシステム1)は、対象物(例えば、後述のワークW)に対して所定の作業を行う機械(例えば、後述のロボット2)の動作を制御する制御システムであって、前記対象物を撮像する撮像装置(例えば、後述の視覚センサ4)と、前記撮像装置及び前記機械の動作を制御する制御装置(例えば、後述の制御装置10、すなわち後述の視覚センサ制御装置20及びロボット制御装置30)とを備え、前記制御装置は、前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部(例えば、後述の位置変換部23)であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部(例えば、後述の動作制御部31)と、前記位置変換部によって変換された前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置を、前記センサ座標系上の前記対象物の検出位置又は補正位置に再変換する位置再変換部(例えば、後述の位置変換部23)と、前記位置再変換部によって再変換された前記センサ座標系上の前記対象物の検出位置又は補正位置が、前記センサ座標系上の画像内の予め定められた検出範囲内であるか否かを判定する位置判定部(例えば、後述の位置判定部25)とを有する。
(3) 本発明に係る更に他の制御システム(例えば、後述のロボットシステム1)は、対象物(例えば、後述のワークW)に対して所定の作業を行う機械(例えば、後述のロボット2)の動作を制御する制御システムであって、前記対象物を撮像する撮像装置(例えば、後述の視覚センサ4)と、前記撮像装置及び前記機械の動作を制御する制御装置(例えば、後述の制御装置10、すなわち後述の視覚センサ制御装置20及びロボット制御装置30)とを備え、前記制御装置は、前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部(例えば、後述の位置変換部23)であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部(例えば、後述の動作制御部31)と、前記位置変換部によって変換された前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置を、前記画像座標系上の前記対象物の検出位置又は補正位置に再変換する位置再変換部(例えば、後述の位置変換部23)と、前記位置再変換部によって再変換された前記画像座標系上の前記対象物の検出位置又は補正位置が、前記画像座標系上の画像内の予め定められた検出範囲内であるか否かを判定する位置判定部(例えば、後述の位置判定部25)とを有する。
(4) (1)から(3)のいずれかに記載の制御システムにおいて、前記制御装置は、前記位置判定部によって前記対象物の検出位置又は前記補正位置が前記検出範囲内でないと判定された場合に、前記動作制御部で用いられる前記機械座標系上の前記対象物の検出位置又は前記補正量が正しくないことを外部に報知する報知制御部(例えば、後述の報知制御部32)を更に備えてもよい。
(5) (1)から(3)のいずれかに記載の制御システムにおいて、前記制御装置は、前記位置判定部によって前記対象物の検出位置又は前記補正位置が前記検出範囲内でないと判定された場合に、前記機械の動作を停止させる停止制御部(例えば、後述の停止制御部33)を更に備えてもよい。
本発明によれば、機械の動作制御のための対象物の検出位置又は補正量が正しくないことを検出することが可能な制御システムを提供することができる。
第1実施形態に係るロボットシステムの構成を示す図である。 第1実施形態に係るロボットシステムにおける制御装置、すなわち視覚センサ制御装置及びロボット制御装置の構成を示す図である。 妥当な検出範囲の求め方の一例を説明するための図である。 画像内の予め定められた検出範囲の一例を説明するための図である。 第2実施形態に係るロボットシステムの構成を示す図である。 ロボット座標系上のワークの検出位置の求め方の一例を説明するための図である。
以下、添付の図面を参照して本発明の実施形態の一例について説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
(第1実施形態)
図1は、第1実施形態に係るロボットシステムの構成を示す図である。図1に示すロボットシステム(制御システム)1は、ロボット(機械)2と、視覚センサ(撮像装置)4と、視覚センサ制御装置20及びロボット制御装置30で構成される制御装置10とを備える。ロボットシステム1は、例えば、視覚センサ4で撮像されたワーク(対象物)Wの画像に基づいて、ワークWの位置を認識し、ワークWのハンドリング又は加工などの所定の作業を行うシステムである。
ロボット2のアーム3の先端部には、ハンド又はツールが取り付けられている。ロボット2は、ロボット制御装置30の制御により、ワークWのハンドリング又は加工などの所定の作業を行う。また、ロボット2のアーム3の先端部には、視覚センサ4が取り付けられている。
視覚センサ4は、視覚センサ制御装置20の制御により、ワークWを撮像する。なお、本実施形態では、撮像装置の一例として視覚センサを挙げたが、これに限定されない。例えば、視覚センサに代えて、一般的なカメラが用いられてもよいし、3次元計測ができるステレオカメラ等が用いられてもよい。
視覚センサ制御装置20は、視覚センサ4を制御する。また、視覚センサ制御装置20は、視覚センサ4で撮像されたワークWの画像から、ワークWの位置及び姿勢を検出する。
ロボット制御装置30は、ロボットの動作プログラムを実行し、ロボット2の動作を制御する。その際、ロボット制御装置30は、視覚センサ制御装置20によって検出されたワークWの位置に対してロボット2が所定の作業を行うように、ロボット2の動作を補正する。
また、ロボット制御装置30は、視覚センサ4の撮像時、視覚センサ4の位置及び姿勢を制御するように、ロボット2の位置及び姿勢を制御する。このように、ロボットシステム1では、ワークWの位置及び姿勢を固定とし、視覚センサ4の位置及び姿勢を制御することにより、ワークW及び視覚センサ4の相対位置を制御する。
以下、制御装置10、すなわち視覚センサ制御装置20及びロボット制御装置30について詳細に説明する。
図2は、第1実施形態に係るロボットシステム1における制御装置10、すなわち視覚センサ制御装置20及びロボット制御装置30の構成を示す図である。視覚センサ制御装置20は、記憶部21と画像処理部22とを備え、画像処理部22は、位置変換部23と、検出範囲計算部24と、位置判定部25とを備える。ロボット制御装置30は、動作制御部31と、報知制御部32と、停止制御部33とを備える。なお、位置変換部23、検出範囲計算部24、位置判定部25、報知制御部32及び停止制御部33は、制御装置10内に構成されればよく、視覚センサ制御装置20及びロボット制御装置30のいずれに構成されてもよい。
視覚センサ制御装置20における記憶部21は、例えばEEPROM等の書き換え可能なメモリである。
視覚センサ制御装置20における画像処理部22及びロボット制御装置30は、例えば、DSP(Digital Signal Processor)、FPGA(Field‐Programmable Gate Array)等の演算プロセッサで構成される。視覚センサ制御装置20における画像処理部22及びロボット制御装置30の各種機能は、例えば記憶部に格納された所定のソフトウェア(プログラム、アプリケーション)を実行することで実現される。視覚センサ制御装置20における画像処理部22及びロボット制御装置30の各種機能は、ハードウェアとソフトウェアとの協働で実現されてもよいし、ハードウェア(電子回路)のみで実現されてもよい。
記憶部21は、ワークWの像をモデル化したモデルパターン、例えばワークWの像の特徴を表すモデルパターンを記憶する。また、記憶部21は、視覚センサ4のキャリブレーションデータ、例えば画像座標系上での2次元位置を3次元座標での値に変換又はその逆の変換のためのキャリブレーションデータを記憶する。キャリブレーションデータの形式及びそれを求める方法については、種々の方式が提案されており、いずれの方式を用いてもよい(例えば、非特許文献1等参照)。
位置変換部23は、視覚センサ4によって撮像された画像から、ワークWを検出する。位置変換部23は、記憶部21に記憶されたモデルパターン及びキャリブレーションデータと、撮像時のロボット2のアーム3の先端部の位置(すなわち、視覚センサ4の位置)とに基づいて、画像座標系(2次元)上のワークWの検出位置又はセンサ座標系(3次元)上のワークWの検出位置を、ロボット座標系(3次元)上のワークWの検出位置に変換する。画像座標系とは画像上で定義された座標系(2次元)であり、センサ座標系とは視覚センサ4からみた座標系(3次元)である。ロボット座標系(機械座標系)とはロボット2からみた座標系(3次元)である。
動作制御部31は、ロボット座標系上のワークWの検出位置に対してロボット2が所定の作業を行うように、ロボット2の動作を制御及び補正する。このような補正としては、絶対位置補正と相対位置補正とがある。絶対位置補正では、動作制御部31は、ロボット座標系上のワークWの検出位置に基づいて、ロボット2のアーム3の先端部の移動を補正する。一方、相対位置補正では、予め基準となるワークWの位置(基準位置)を定めておく。動作制御部31は、ロボット座標系上のワークWの基準位置とロボット座標系上のワークWの検出位置との差分を補正量として計算し、予め教示されたロボット2の動作にその補正量をかけて、ロボット2のアーム3の先端部の移動を補正する。
ここで、外部からの攻撃、設定のミス、ソフトウェアの不具合等の要因により、ロボット2の動作補正(動作制御)のためのワークWの検出位置又は補正量が正しくない検出位置又は補正量になることがある。すると、ロボットの動作に正しくない補正(制御)が行われ、人又は周辺装置に危害を加えてしまうことがある。
そこで、本実施形態では、動作制御部31で用いられるロボット座標系上のワークWの検出位置、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が物理的に妥当な位置であるか否かを確認する。視覚センサ4によって撮像されたワークWであれば、ワークWの検出位置又は補正位置が撮像範囲外となることはない。よって、ワークWの検出位置又は補正位置が撮像範囲内であるか否かをロボット座標系においてチェックし、ワークWの検出位置又は補正位置が範囲外であれば、ロボット2がその位置に移動しないようにする。具体的には、本実施形態の制御装置10は、検出範囲計算部24と、位置判定部25と、報知制御部32と、停止制御部33とを備える。
検出範囲計算部24は、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲と、撮像時のロボット2のアーム3の先端部の位置(すなわち、視覚センサ4の位置)とに基づいて、ロボット座標系上の妥当な検出範囲を計算する。画像内の予め定められた検出範囲は、画像全体でもよいし、画像の一部でもよい。
図3は、妥当な検出範囲の求め方の一例を説明するための図である。図3では、画像内の予め定められた検出範囲が矩形状である場合の一例を示す。
ここで、キャリブレーションデータが求められていると、ロボット座標系における3次元点(注視点)が与えられた時に、その3次元点の視覚センサの画像上での像の位置、すなわち画像座標系における2次元点を計算することができる。また、ある注視点の像である画像座標系における2次元点が与えられた時に、ロボット座標系における視線(注視点と視覚センサの焦点を通る3次元直線)を計算することができる。
まず、検出範囲計算部24は、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲の4隅の位置を取得する。次に、検出範囲計算部24は、取得した検出範囲の4隅の位置と、撮像時のロボット2のアーム3の先端部の位置(すなわち、視覚センサ4の位置)とに基づいて、各位置を視覚センサ4の注視点としたときのロボット座標系上での視覚センサ4の視線を求める。次に、検出範囲計算部24は、隣り合う視線同士を結ぶ4つの境界面を求める。次に、検出範囲計算部24は、4つの境界面の内側を、ロボット座標系上の妥当な検出範囲とする。
このような範囲は、下側がオープンな無限範囲である。よって、このような範囲は、予め定められた平面を境界面として下側がクローズされた有限範囲とされてもよい。例えば、床面をロボット座標系において平面として定義して、これを下側の境界面としてもよい。
なお、検出範囲は、矩形状に限定されない。例えば、検出範囲が円状である場合、注視点が4つだけでは十分でなく、さらに細かく注視点及び境界面を取ってもよい。(実際にはレンズ歪等の影響があるので、正確には視線同士を単純に結ぶのは正しくない。より正確に検出範囲を求めるためには、注視点をより細かい単位で設定すればよい。)
更にワークがある平面上を2次元的にしか移動しないということが分かっているのであれば、その平面上の境界面で切断した内側の領域が妥当な検出範囲となる。
位置判定部25は、例えばロボットが動作する直前に、ロボット座標系上のワークWの検出位置が妥当な範囲内であるか否かを判定する。例えば、動作制御部31が絶対位置補正を行う場合、位置判定部25は、検出位置そのものが妥当な範囲かどうかチェックすればよい。一方、動作制御部31が相対位置補正を行う場合、検出位置そのものをチェックしてもよいし、基準位置に対して補正量をかけた値が妥当な範囲かどうかをチェックしてもよい。
具体的には、位置判定部25は、ロボット座標系上のワークWの検出位置が、ロボット座標系上の検出範囲内であるか否かを判定する。或いは、位置判定部25は、ロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が、ロボット座標系上の検出範囲内であるか否かを判定する。
報知制御部32は、ロボット座標系上のワークWの検出位置又は補正位置が妥当な検出範囲内でない場合、動作制御部31で用いられるロボット座標系上のワークWの検出位置又は補正量が正しくないことをユーザに報知する。報知制御部32は、例えばディスプレイ等の表示装置を用いて報知を行う。
停止制御部33は、ロボット座標系上のワークWの検出位置又は補正位置が妥当な検出範囲内でない場合、動作制御部31で用いられるロボット座標系上のワークWの検出位置又は補正量が正しくないので、ロボット2の動作を停止させる。
次に、ロボットシステム1における制御装置10、すなわち視覚センサ制御装置20及びロボット制御装置30によるワーク検出位置判定動作について説明する。
まず、視覚センサ制御装置20は、ワークWが視覚センサ4の撮像範囲に入るようにロボット2のアーム3の先端部を移動させ、視覚センサ4によってワークWを撮像する。このとき、視覚センサ制御装置20は、撮像時のロボット2のアーム3の先端部の位置を記録しておく。
次に、視覚センサ制御装置20における画像処理部22は、撮像された画像における予め定めた検出範囲の中から、公知の画像処理等を用いてワークWを検出する。これにより、画像処理部22は、画像座標系上又はセンサ座標系上のワークWの位置及び姿勢を取得する。
次に、視覚センサ制御装置20における位置変換部23は、記憶部21に記憶されたモデルパターン及びキャリブレーションデータと、撮像時のロボット2のアーム3の先端部の位置(すなわち、視覚センサ4の位置)を用いて、画像座標系上又はセンサ座標系上のワークWの検出位置を、ロボット座標系上のワークWの検出位置に変換する。
次に、視覚センサ制御装置20における検出範囲計算部24は、上述及び図3のように、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲と、撮像時のロボット2のアーム3の先端部の位置(すなわち、視覚センサ4の位置)とに基づいて、ロボット座標系上の妥当な検出範囲を計算する。
ロボットを動作させる直前、視覚センサ制御装置20における位置判定部25は、ロボット制御装置30における動作制御部31で用いられるロボット座標系上のワークWの検出位置が妥当な検出範囲であるか否かを判定する。例えば、動作制御部31が絶対位置補正を行う場合、位置判定部25は、ロボット座標系上のワークWの検出位置が、ロボット座標系上の検出範囲内であるか否かを判定する。一方、動作制御部31が相対位置補正を行う場合、位置判定部25は、ロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が、ロボット座標系上の検出範囲内であるか否かを判定する。
ロボット座標系上のワークWの検出位置又は補正位置が妥当な検出範囲内である場合、ロボット2の動作を開始する。このとき、ロボット制御装置30における動作制御部31は、ロボット座標系上のワークWの検出位置に対して所定の作業を行うように、ロボット2の動作を制御及び補正する。絶対位置補正では、動作制御部31は、ロボット座標系上のワークWの検出位置に基づいて、ロボット2のアーム3の先端部の移動を補正する。一方、相対位置補正では、動作制御部31は、ロボット座標系上のワークWの基準位置とロボット座標系上のワークWの検出位置との差分を補正量として計算し、予め教示されたロボット2の動作にその補正量をかけて、ロボット2のアーム3の先端部の移動を補正する。
一方、ロボット座標系上のワークWの検出位置又は補正位置が妥当な検出範囲内でない場合、ロボット制御装置30における報知制御部32は、動作制御部31で用いられるロボット座標系上のワークWの検出位置又は補正量が正しくないことをユーザに報知する。これにより、ユーザに注意を促すことができる。
また、ロボット制御装置30における停止制御部33は、ロボット2の動作を停止する。
以上説明したように、本実施形態のロボットシステム1は、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲に基づいて、ロボット座標系上の検出範囲を計算する検出範囲計算部24と、ロボット座標系上のワークWの検出位置、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が、ロボット座標系上の検出範囲内であるか否かを判定する位置判定部25とを備える。これにより、本実施形態のロボットシステム1によれば、位置判定部25によって、ロボット座標系上のワークWの検出位置、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が、ロボット座標系上の検出範囲内でないと判定された場合に、ロボット2の動作補正(動作制御)のためのワークWの検出位置又は補正量が正しくないことを検出することができる。
また、本実施形態のロボットシステム1は、位置判定部25によってワークWの検出位置又は補正位置が検出範囲内でないと判定された場合に、動作制御部31で用いられるロボット座標系上のワークWの検出位置又は補正量が正しくないことを外部に報知する報知制御部32を備える。これにより、本実施形態のロボットシステム1によれば、何らかの要因により、ロボットの動作補正(動作制御)のためのワークWの検出位置又は補正量が正しくない検出位置又は補正量になっても、ロボット2の移動量を最小限に抑制することができる。その結果、ロボット2の動作に正しくない補正(制御)が行われることを抑制することができ、人又は周辺装置に危害を加えてしまうことを抑制することができる。
また、本実施形態のロボットシステム1は、位置判定部25によってワークWの検出位置又は補正位置が検出範囲内でないと判定された場合に、ロボット2の動作を停止させる停止制御部33を備える。これにより、本実施形態のロボットシステム1によれば、何らかの要因により、ロボットの動作補正(動作制御)のためのワークWの検出位置又は補正量が正しくない検出位置又は補正量になった場合に、ロボット2の動作を抑制することができる。その結果、人又は周辺装置に危害を加えてしまうことを抑制することができる。
(変形例1)
第1実施形態では、ロボット座標系においてワークWの検出位置が妥当な範囲内であるか否かの判定を行ったが、センサ座標系においてワークWの検出位置が妥当な範囲内であるか否かの判定を行ってもよい。
変形例1のロボットシステム1では、第1実施形態のロボットシステム1において、視覚センサ制御装置20における位置変換部23及び位置判定部25の機能及び動作が異なる。また、変形例1のロボットシステム1では、視覚センサ制御装置20における検出範囲計算部24を備えていなくともよい。
位置変換部23は、位置再変換部として機能し、変換したロボット座標系上のワークWの検出位置、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置を、センサ座標系上のワークWの検出位置又は補正位置に再変換する。
位置判定部25は、再変換されたセンサ座標系上のワークWの検出位置又は補正位置が、センサ座標系上の画像内の予め定められた検出範囲内であるか否かを判定する。
ここで、上述したように画像内の予め定められた検出範囲が円状等の複雑な形状である場合、検出範囲計算部24によるロボット座標系上の検出範囲の計算が複雑となる。また、図4に示すように画像内において検出しない範囲をマスクすることがある。このような場合にも、画像内の予め定められた検出範囲が複雑な形状となり、検出範囲計算部24によるロボット座標系上の検出範囲の計算が複雑となる。
この点に関し、変形例1のロボットシステム1によれば、検出範囲計算部24によるロボット座標系上の検出範囲の複雑な計算が不要となる。
(変形例2)
また、画像座標系においてワークWの検出位置が妥当な範囲内であるか否かの判定を行ってもよい。
変形例2のロボットシステム1では、第1実施形態のロボットシステム1において、視覚センサ制御装置20における位置変換部23及び位置判定部25の機能及び動作が異なる。また、変形例2のロボットシステム1では、視覚センサ制御装置20における検出範囲計算部24を備えていなくともよい。
位置変換部23は、位置再変換部として機能し、変換したロボット座標系上のワークWの検出位置、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置を、画像座標系上のワークWの検出位置又は補正位置に再変換する。
位置判定部25は、再変換された画像座標系上のワークWの検出位置又は補正位置が、画像座標系上の画像内の予め定められた検出範囲内であるか否かを判定する。
この変形例2のロボットシステム1でも、検出範囲計算部24によるロボット座標系上の検出範囲の複雑な計算が不要となる。
(第2実施形態)
第1実施形態では、1つの視覚センサ4がロボット2のアーム3の先端部に取り付けられ、移動される形態を例示した。第2実施形態では、2つの視覚センサ4が固定設置される形態を例示する。
図5は、第2実施形態に係るロボットシステム1の構成を示す図である。図5に示すロボットシステム1は、図1に示すロボットシステム1と比較して、視覚センサ4を2つ備え、これらの視覚センサ4が固定設置されている点で異なる。
ワークWが1つの視覚センサ4の視野に収まらないほど大きい場合、各視覚センサ4でワークWの端部の特徴を検出し、例えば検出した2か所の中点をワークW全体の検出位置とする。例えば、位置変換部23は、図6に示すように、視覚センサ4ごとに、撮像された画像からワークWの端部を検出し、検出した画像座標系上又はセンサ座標系上のワークWの端部の検出箇所を、ロボット座標系上のワークWの端部の検出箇所に変換する。位置変換部23は、ロボット座標系上のワークWの端部の検出箇所の中点を、ロボット座標系上のワークWの検出位置とする。
このとき、第1実施形態のように、画像内の予め定められた検出範囲又は撮像範囲の内側を、妥当な検出範囲とすることができない。この場合、図6に示すように、第1実施形態と同様の手法で各視覚センサ4の妥当な検出範囲を求め、各妥当な検出範囲内で、各検出箇所が検出されるとしたときに、上述のように求めたワークWの中点(検出位置)がどのような範囲を動きうるのかを求め、それをワークW全体の検出位置の妥当な検出範囲とすることができる。
換言すれば、例えば長尺形状のワークWの両端部を各視覚センサ4で検出し、その中点等を検出位置とする場合には、合成された検出位置が画像の範囲外となりえる。しかし、それは画像の範囲外であることが問題ない場合であり、別のチェックを行う必要がある。この場合でも、合成された検出位置は二つの撮像範囲を結ぶ領域内には入ることになり、そのようなチェックをすることは可能である。
例えば、検出範囲計算部24は、視覚センサ4ごとに、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲に基づいて、ロボット座標系上の検出範囲を計算する。
位置判定部25は、ロボット座標系上のワークWの検出位置(中点)、又はロボット座標系上のワークWの基準位置と補正量とに基づく補正位置が、ロボット座標系上の2つの検出範囲を結ぶ領域内であるか否かを判定する。
この第2実施形態のロボットシステム1によれば、ワークWが1つの視覚センサ4の視野に収まらないほど大きい場合であっても、ロボット2の動作補正のためのワークWの検出位置又は補正量が正しくないことを検出することができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、種々の変更及び変形が可能である。例えば、上述した第2実施形態では、2つの視覚センサ4が固定設置されるロボットシステム1を例示したが、ロボットシステムは3つ以上の視覚センサが固定設置される形態であってもよい。この場合でも、位置変換部は、視覚センサごとに、撮像された画像からワークの端部を検出し、検出した画像座標系上又はセンサ座標系上のワークの端部の検出箇所を、ロボット座標系上のワークの端部の検出箇所に変換し、ロボット座標系上のワークの端部の検出箇所の重心を、ロボット座標系上のワークの検出位置とすればよい。
また、検出範囲計算部は、視覚センサごとに、画像座標系上又はセンサ座標系上の画像内の予め定められた検出範囲に基づいて、ロボット座標系上の検出範囲を計算する。そして、位置判定部は、ロボット座標系上のワークの検出位置(重心)、又はロボット座標系上のワークの基準位置と補正量とに基づく補正位置が、ロボット座標系上の複数の検出範囲を結ぶ領域内であるか否かを判定すればよい。
また、上述した実施形態では、ロボットの動作を制御するロボットシステムを例示した。しかし、本発明はこれに限定されず、対象物に対して所定の作業を行う種々の機械(ロボット、工作機械等)の動作を制御する種々の制御システムに適用可能である。
1 ロボットシステム(制御システム)
2 ロボット(機械)
3 アーム
4 視覚センサ(撮像装置)
10 制御装置
20 視覚センサ制御装置
21 記憶部
22 画像処理部
23 位置変換部(位置再変換部)
24 検出範囲計算部
25 位置判定部
30 ロボット制御装置
31 動作制御部
32 報知制御部
33 停止制御部
W ワーク(対象物)

Claims (5)

  1. 対象物に対して所定の作業を行う機械の動作を制御する制御システムであって、
    前記対象物を撮像する撮像装置と、
    前記撮像装置及び前記機械の動作を制御する制御装置と、
    を備え、
    前記制御装置は、
    前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、
    前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部と、
    前記画像座標系上又は前記センサ座標系上の画像内の予め定められた検出範囲に基づいて、前記機械座標系上の検出範囲を計算する検出範囲計算部と、
    前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置が、前記機械座標系上の検出範囲内であるか否かを判定する位置判定部と、
    を有する、制御システム。
  2. 対象物に対して所定の作業を行う機械の動作を制御する制御システムであって、
    前記対象物を撮像する撮像装置と、
    前記撮像装置及び前記機械の動作を制御する制御装置と、
    を備え、
    前記制御装置は、
    前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、
    前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部と、
    前記位置変換部によって変換された前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置を、前記センサ座標系上の前記対象物の検出位置又は補正位置に再変換する位置再変換部と、
    前記位置再変換部によって再変換された前記センサ座標系上の前記対象物の検出位置又は補正位置が、前記センサ座標系上の画像内の予め定められた検出範囲内であるか否かを判定する位置判定部と、
    を有する、制御システム。
  3. 対象物に対して所定の作業を行う機械の動作を制御する制御システムであって、
    前記対象物を撮像する撮像装置と、
    前記撮像装置及び前記機械の動作を制御する制御装置と、
    を備え、
    前記制御装置は、
    前記撮像装置によって撮像された画像から前記対象物を検出し、検出した画像座標系上又はセンサ座標系上の前記対象物の検出位置を、機械座標系上の前記対象物の検出位置に変換する位置変換部であって、前記画像座標系は前記画像の座標系であり、前記センサ座標系は前記撮像装置の座標系であり、前記機械座標系は前記機械の座標系である、前記位置変換部と、
    前記機械座標系上の前記対象物の検出位置に対して前記機械が前記所定の作業を行うように、前記機械座標系上の前記対象物の検出位置に基づいて、又は前記機械座標系上の前記対象物の検出位置と前記機械座標系上の前記対象物の予め定められた基準位置との差分に基づく補正量に基づいて、前記機械の動作を制御する動作制御部と、
    前記位置変換部によって変換された前記機械座標系上の前記対象物の検出位置、又は前記機械座標系上の前記対象物の基準位置と前記補正量とに基づく補正位置を、前記画像座標系上の前記対象物の検出位置又は補正位置に再変換する位置再変換部と、
    前記位置再変換部によって再変換された前記画像座標系上の前記対象物の検出位置又は補正位置が、前記画像座標系上の画像内の予め定められた検出範囲内であるか否かを判定する位置判定部と、
    を有する、制御システム。
  4. 前記制御装置は、前記位置判定部によって前記対象物の検出位置又は前記補正位置が前記検出範囲内でないと判定された場合に、前記動作制御部で用いられる前記機械座標系上の前記対象物の検出位置又は前記補正量が正しくないことを外部に報知する報知制御部を更に備える、請求項1〜3のいずれか1項に記載の制御システム。
  5. 前記制御装置は、前記位置判定部によって前記対象物の検出位置又は前記補正位置が前記検出範囲内でないと判定された場合に、前記機械の動作を停止させる停止制御部を更に備える、請求項1〜3のいずれか1項に記載の制御システム。
JP2018210687A 2018-11-08 2018-11-08 制御システム Active JP6871220B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018210687A JP6871220B2 (ja) 2018-11-08 2018-11-08 制御システム
US16/576,503 US11241797B2 (en) 2018-11-08 2019-09-19 Control system
DE102019215237.6A DE102019215237A1 (de) 2018-11-08 2019-10-02 Steuersystem
CN201911070548.2A CN111152243B (zh) 2018-11-08 2019-11-05 控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210687A JP6871220B2 (ja) 2018-11-08 2018-11-08 制御システム

Publications (2)

Publication Number Publication Date
JP2020075327A JP2020075327A (ja) 2020-05-21
JP6871220B2 true JP6871220B2 (ja) 2021-05-12

Family

ID=70469120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210687A Active JP6871220B2 (ja) 2018-11-08 2018-11-08 制御システム

Country Status (4)

Country Link
US (1) US11241797B2 (ja)
JP (1) JP6871220B2 (ja)
CN (1) CN111152243B (ja)
DE (1) DE102019215237A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP7135495B2 (ja) * 2018-06-26 2022-09-13 セイコーエプソン株式会社 三次元計測装置、制御装置およびロボットシステム
JP2021003201A (ja) * 2019-06-25 2021-01-14 ソニー株式会社 手術顕微鏡システム、制御装置及び制御方法
JP7414850B2 (ja) * 2020-01-14 2024-01-16 ファナック株式会社 ロボットシステム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5319443A (en) 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JP4087841B2 (ja) * 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
JP2008183690A (ja) * 2007-01-31 2008-08-14 Nachi Fujikoshi Corp ロボット制御装置及びロボット制御システム
JP2011140077A (ja) * 2010-01-06 2011-07-21 Honda Motor Co Ltd 加工システム及び加工方法
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置
JP5516974B2 (ja) * 2010-07-07 2014-06-11 株式会社Ihi 視覚センサのマウント装置と方法
US8457766B2 (en) * 2011-01-31 2013-06-04 Toyota Jidosha Kabushiki Kaisha Safety controller and safety control method
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP6222898B2 (ja) * 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
JP6335460B2 (ja) * 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN104260112B (zh) * 2014-09-18 2016-05-18 西安航天精密机电研究所 一种机器人手眼定位方法
JP5911934B2 (ja) * 2014-09-18 2016-04-27 ファナック株式会社 輪郭線計測装置およびロボットシステム
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP2018001332A (ja) * 2016-06-30 2018-01-11 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
JP6490037B2 (ja) * 2016-10-04 2019-03-27 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム
JP2018094648A (ja) * 2016-12-09 2018-06-21 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6396516B2 (ja) * 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system

Also Published As

Publication number Publication date
US20200147805A1 (en) 2020-05-14
JP2020075327A (ja) 2020-05-21
US11241797B2 (en) 2022-02-08
CN111152243B (zh) 2024-02-06
DE102019215237A1 (de) 2020-05-14
CN111152243A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
JP6871220B2 (ja) 制御システム
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
US11207781B2 (en) Method for industrial robot commissioning, industrial robot system and control system using the same
US10786906B2 (en) Robot system
EP2416113B1 (en) Position and orientation measurement apparatus and position and orientation measurement method
US20180194008A1 (en) Calibration device, calibration method, and computer readable medium for visual sensor
US9437005B2 (en) Information processing apparatus and information processing method
CN109118543B (zh) 沿至少三个不连续平面对机器视觉摄像机进行校准的系统和方法
JP2020116734A (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6232497B2 (ja) 外界認識装置
JP2019115974A (ja) ビジョンベース操作システムのキャリブレーション及びオペレーション
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP6950638B2 (ja) マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP7414850B2 (ja) ロボットシステム
KR101438514B1 (ko) 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법
WO2021145304A1 (ja) 画像処理システム
US20200246931A1 (en) Machine control device
WO2019176450A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7389237B2 (ja) 座標系設定システム及び位置姿勢計測システム
JP7502343B2 (ja) 画像処理システム
US11698434B2 (en) Machine control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200410

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200714

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210415

R150 Certificate of patent or registration of utility model

Ref document number: 6871220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150