JP6777670B2 - 画像処理を利用してロボットの教示を補正するロボットシステム - Google Patents

画像処理を利用してロボットの教示を補正するロボットシステム Download PDF

Info

Publication number
JP6777670B2
JP6777670B2 JP2018060088A JP2018060088A JP6777670B2 JP 6777670 B2 JP6777670 B2 JP 6777670B2 JP 2018060088 A JP2018060088 A JP 2018060088A JP 2018060088 A JP2018060088 A JP 2018060088A JP 6777670 B2 JP6777670 B2 JP 6777670B2
Authority
JP
Japan
Prior art keywords
feature
robot
posture
image
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018060088A
Other languages
English (en)
Other versions
JP2019171497A (ja
Inventor
恭平 小窪
恭平 小窪
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018060088A priority Critical patent/JP6777670B2/ja
Priority to US16/270,600 priority patent/US11376732B2/en
Priority to DE102019001969.5A priority patent/DE102019001969B4/de
Priority to CN201910229500.5A priority patent/CN110303474B/zh
Publication of JP2019171497A publication Critical patent/JP2019171497A/ja
Application granted granted Critical
Publication of JP6777670B2 publication Critical patent/JP6777670B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/10Gripping heads and other end effectors having finger members with three or more finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ロボットシステムに関し、特に画像処理を利用してロボットの教示を補正するロボットシステムに関する。
従来、ワークを撮像装置によって撮像し、取得した画像からワークの特徴を検出し、検出結果からロボットがワークを取出す位置(即ち、ロボットの目標位置)を計算し、ロボットの教示位置を補正した上で、ロボットがワークを取出す技術がある。
本願に関連する先行技術としては、特許文献1が公知である。特許文献1には、ワークとマーカーとを撮像した撮像画像を受け付ける画像認識部と、ロボットの教示データを生成する処理部と、を含み、処理部は、画像認識部が受け付けた撮像画像によってロボットの第1の教示データを生成し、ロボットの把持部にワークを把持させてロボットの第2の教示データを生成することが開示されている。
特開2015−112654号公報
画像処理を利用してロボットの教示を補正する技術において、ワークの特徴に個体差があったり、ワークの特徴が陰に隠れたりすることが原因で、画像からワークの特徴を検出できない場合がある。一方で、斯かる技術を利用しないと、手作業でロボットの教示を補正する必要があり、教示作業の効率が低下する。また、斯かる技術のための教示処理においては、予め特徴のテンプレート画像等を記憶しておく必要があるため、教示処理に手間が掛かるという問題もあった。
そこで、ワークの特徴の検出率を向上させつつ、ロボットの教示を簡易化する技術が求められている。
本開示の一態様は、ワークに対して作業を行うロボットと、前記ロボットを制御するロボット制御装置と、ワークを撮像する撮像装置と、を備える、ロボットシステムであって、撮像した画像からワークの特徴を検出し、検出結果に基づいてロボットの教示を補正するロボットシステムにおいて、ワークの第1特徴及び第2特徴と、第1特徴の位置とロボットの目標位置との間の第1位置関係と、第1特徴の位置と第2特徴の位置との間の第2位置関係と、を予め記憶する記憶部と、記憶した第1特徴及び第2特徴に基づいて、撮像した画像から第1特徴及び第2特徴の少なくとも一方を検出する特徴検出部と、検出した第1特徴及び第2特徴の少なくとも一方の位置を計算する特徴位置計算部と、第1特徴を画像から検出できた場合には、計算した第1特徴の位置と記憶した第1位置関係とに基づいてロボットの目標位置を計算すると共に、第1特徴を画像から検出できず、第2特徴を画像から検出できた場合には、計算した第2特徴の位置と記憶した第2位置関係とに基づいて第1特徴の位置を計算し、計算した第1特徴の位置と記憶した第1位置関係とに基づいてロボットの目標位置を計算する目標位置計算部と、を備える、ロボットシステムを提供する。
本開示の一態様によれば、複数のワークの特徴を用意しておき、撮像した画像から一方の特徴を検出できなかった場合には、他方の特徴を検出するため、ワークの特徴の検出率を向上させつつ、ロボットの教示を簡易化できる。
第1実施形態におけるロボットシステムを示す概略図である。 第1実施形態におけるロボットの目標位置と、ワークの第1特徴及び第2特徴とを含む撮像画像を示す図である。 他の実施形態におけるロボットの目標位置及び目標姿勢と、ワークの第1特徴及び第2特徴とを含む撮像画像を示す図である。 第1実施形態におけるロボットシステムの教示処理を示すフローチャートである。 第1実施形態におけるロボットシステムの補正処理を示すフローチャートである。 第2実施形態におけるロボットシステムの教示処理を示すフローチャートである。 第2実施形態におけるロボットシステムの補正処理を示すフローチャートである。 第2実施形態におけるロボットシステムの構成を示すブロック図である。 別の実施形態におけるロボットシステムの構成を示すブロック図である。
以下、添付図面を参照して本開示の実施形態を詳細に説明する。各図面において、同一又は類似の構成要素には同一又は類似の符号が付与されている。また、以下に記載する実施形態は、特許請求の範囲に記載される発明の技術的範囲及び用語の意義を限定するものではない。
図1は、第1実施形態におけるロボットシステム1を示す概略図である。ロボットシステム1は、ワーク10に対して作業を行うロボット11と、ロボット11を制御するロボット制御装置12と、ワーク10を撮像する撮像装置13と、を備えている。
ロボット11は、例えばサーボモータ等によって駆動される6軸のロボットマニピュレータであり、ワーク10を取出すハンド14を備えている。ハンド14は、真空ポンプを利用した真空把持部、又は、磁石を利用した磁力把持部を有している。他の実施形態では、ハンド14が指部材を有していてもよい。
ロボット制御装置12は、有線又は無線を介してロボット11と通信可能に接続されており、教示作業によって生成された作業プログラムに従ってロボット11に対する動作指令を生成し、ロボット11を動作させ、一方で、位置、速度等のフィードバック制御を行う。また、ロボット制御装置12は、有線又は無線を介して撮像装置13と通信可能に接続されており、撮像した画像からワーク10の特徴を検出し、検出した特徴に基づいてロボット11がワーク10を取出す位置(及び姿勢)(即ち、ロボット11の目標位置(及び目標姿勢))を求め、ロボット11の教示位置(及び教示姿勢)を補正する。
撮像装置13は、図示しない構造柱に配置されており、ワーク10を上方から撮像する。他の実施形態では、撮像装置13がロボット11のエンドエフェクタに配置されていてもよい。
図2は、第1実施形態におけるロボットの目標位置15と、ワーク10の第1特徴16及び第2特徴17を含む撮像画像18を示す図である。ロボットの目標位置15は、マスターワークの撮像画像上で教示者によって教示され、座標値として予め記憶されるが、実際に取出すワーク10の位置は変化するため、画像処理を利用して撮像画像18からワーク10の特徴を検出し、検出結果に基づいてロボットの目標位置15を求め、教示位置を補正する必要がある。
しかしながら、ワーク10の特徴に個体差があったり、ワーク10の特徴が陰に隠れたりすることが原因で、撮像画像18からワーク10の特徴を検出できない場合がある。そこで、ロボットシステム1は、ワーク10の特徴を2種類(即ち、第1特徴16及び第2特徴17)用意しておき、第1特徴16を検出できなかった場合には、第2特徴17を検出することによって検出に失敗してしまう確率を低くする。
また、第1実施形態におけるロボットシステム1においては、ハンド14が真空把持部又は磁力把持部を有するため、ロボットの目標姿勢を一定とし、ロボットの目標位置15のみを求めればよい。しかしながら、ハンド14が指部材を有する他の実施形態においては、実際に取出すワーク10の姿勢の変化に応じてハンド14の指部材がワーク10を把持する姿勢も変化するため、ロボットの目標姿勢も求める必要がある。
図3は、他の実施形態におけるロボットの目標位置15及び目標姿勢19と、ワーク10の第1特徴16及び第2特徴17とを含む撮像画像18を示す図である。ロボットの目標姿勢19は、マスターワークの撮像画像上で教示者によって教示され、座標軸回りの回転角として予め記憶されるが、実際に取出すワーク10の姿勢は変化するため、画像処理を利用して撮像画像18からワーク10の特徴を検出し、検出結果に基づいてロボットの目標姿勢19を求め、教示姿勢を補正する必要がある。
図4は、第1実施形態におけるロボットシステム1の教示処理を示すフローチャートである。ロボットシステム1は、概略的に、以下の手順で教示処理を行う。
<教示処理>
(ステップS10)マスターワークを撮像する。
(ステップS11)撮像画像上で第1特徴、第2特徴を教示し、予め記憶しておく。
(ステップS12)第1特徴の位置とロボットの目標位置との間の第1位置関係を教示し、予め記憶しておく。
(ステップS13)第2特徴の位置とロボットの目標位置との間の第1位置関係を教示し、予め記憶しておく。
なお、「第1位置関係」とは、例えば、特徴の位置を座標上の原点(0,0,0)としたときのロボットの目標位置の座標値(150,100,0)である。
ハンドが指部材を有する他の実施形態においては、続いて、以下の教示処理も行う。
(ステップS14)第1特徴の姿勢とロボットの目標姿勢との間の第1姿勢関係を教示し、予め記憶しておく。
(ステップS15)第2特徴の姿勢とロボットの目標姿勢との間の第1姿勢関係を教示し、予め記憶しておく。
なお、「第1姿勢関係」とは、例えば、特徴の姿勢を座標軸周りの回転角(0°,0°,0°)としたときのロボットの目標姿勢の回転角(0°,0°,90°)である。
図5は、第1実施形態におけるロボットシステム1の補正処理を示すフローチャートである。ロボットシステム1は、概略的に、以下の手順で補正処理を行う。なお、ハンドが指部材を有する他の実施形態においては、「位置」だけでなく「姿勢」も処理することに留意されたい。
<補正処理>
(ステップS20)実際に取出すワークを撮像する。
(ステップS21)撮像画像から第1特徴を検出する。
(ステップS22)撮像画像から第1特徴を検出できたか否か判定する。
(ステップS23)撮像画像から第1特徴を検出できた場合には、検出結果から第1特徴の位置(及び姿勢)を計算する。
(ステップS24)計算した第1特徴の位置(及び姿勢)と予め記憶した第1位置関係(及び第1姿勢関係)とに基づいてロボットの目標位置(及び目標姿勢)を計算する。
(ステップS25)ロボットの教示位置(及び教示姿勢)を補正する。
(ステップS26)撮像画像から第1特徴を検出できなかった場合には、撮像画像から第2特徴を検出する。
(ステップS27)撮像画像から第2特徴を検出できたか否か判定する。
(ステップS28)撮像画像から第2特徴を検出できた場合には、検出結果から第2特徴の位置(及び姿勢)を計算する。
(ステップS29)計算した第2特徴の位置(及び姿勢)と予め記憶した第1位置関係(及び第1姿勢関係)とに基づいてロボットの目標位置(及び目標姿勢)を計算する。
(ステップS25)ロボットの教示位置(及び教示姿勢)を補正する。
第1実施形態における<補正処理>によれば、ワークの特徴を複数用意しておき、撮像した画像から一方の特徴を検出できなかった場合には、他方の特徴を検出するため、ワークの特徴の検出率を向上させることができる。一方で、ロボットの教示を手作業で補正する必要がないため、ロボットの教示を簡易化できる。しかしながら、ワークの種類が増えた場合には、ワーク毎に、複数の特徴のテンプレート画像と、特徴の位置(及び姿勢)とロボットの目標位置(及び目標姿勢)との間の第1位置関係(及び第1姿勢関係)とを教示し、予め記憶しておかなければならないため、<教示処理>の手間が増える。そこで、後述する第2実施形態においては、さらに<教示処理>に掛かる手間を減らし、ロボットの教示を簡易化する。
図6は、第2実施形態におけるロボットシステム1の教示処理を示すフローチャートである。ロボットシステム1は、概略的に、以下の手順で教示処理を行う。
<教示処理>
(ステップS30)マスターワークを撮像する。
(ステップS31)撮像画像上で第1特徴、第2特徴を教示し、予め記憶しておく。
(ステップS32)第1特徴の位置とロボットの目標位置との間の第1位置関係を教示し、予め記憶しておく。
(ステップS33)第1特徴の位置と第2特徴の位置との間の第2位置関係を計算し、予め記憶しておく。
なお、「第2位置関係」とは、例えば、第1特徴の位置を座標上の原点(0,0,0)としたときの第2特徴の位置の座標値(150,100,0)である。
ハンドが指部材を有する他の実施形態においては、続いて、以下の教示処理も行う。
(ステップS34)第1特徴の姿勢とロボットの目標姿勢との間の第1姿勢関係を教示し、予め記憶しておく。
(ステップS35)第1特徴の姿勢と第2特徴の姿勢との間の第2姿勢関係を計算し、予め記憶しておく。
なお、「第2姿勢関係」とは、例えば、第1特徴の姿勢を座標軸周りの回転角(0°,0°,0°)としたときの第2特徴の姿勢の回転角(0°,0°,90°)である。
図7は、第2実施形態におけるロボットシステム1の補正処理を示すフローチャートである。ロボットシステム1は、概略的に、以下の手順で補正処理を行う。なお、ハンドが指部材を有する他の実施形態においては、「位置」だけでなく「姿勢」も処理することに留意されたい。
<補正処理>
(ステップS40)実際に取出すワークを撮像する。
(ステップS41)撮像画像から第1特徴を検出する。
(ステップS42)撮像画像から第1特徴を検出できたか否か判定する。
(ステップS43)撮像画像から第1特徴を検出できた場合には、検出結果から第1特徴の位置(及び姿勢)を計算する。
(ステップS44)計算した第1特徴の位置(及び姿勢)と予め記憶した第1位置関係(及び第1姿勢関係)とに基づいてロボットの目標位置(及び目標姿勢)を計算する。
(ステップS45)ロボットの教示位置(及び教示姿勢)を補正する。
(ステップS46)撮像画像から第1特徴を検出できなかった場合には、撮像画像から第2特徴を検出する。
(ステップS47)撮像画像から第2特徴を検出できたか否か判定する。
(ステップS48)撮像画像から第2特徴を検出できた場合には、検出結果から第2特徴の位置(及び姿勢)を計算する。
(ステップS49)計算した第2特徴の位置(及び姿勢)と予め記憶した第2位置関係(及び第2姿勢関係)とに基づいて第1特徴の位置(及び姿勢)を計算する。
(ステップS44)計算した第1特徴の位置(及び姿勢)と予め記憶した第1位置関係(及び第1姿勢関係)とに基づいてロボットの目標位置(及び目標姿勢)を計算する。
(ステップS45)ロボットの教示位置(及び教示姿勢)を補正する。
第2実施形態における<教示処理>においては、第2特徴の位置(及び姿勢)とロボットの目標姿勢(及び目標位置)との間の第1位置関係(及び第1姿勢関係)を教示する必要がなく、第1特徴の位置(及び姿勢)と第2特徴の位置(及び姿勢)との間の第2位置関係(及び第2姿勢関係)を自動的に計算して求め、予め記憶しておく。このため、さらに<教示処理>の手間が軽減され、ロボットの教示を簡易化できる。
図8は、第2実施形態におけるロボットシステム1の構成を示すブロック図である。第2実施形態におけるロボットシステム1はロボット11を制御するロボット制御装置12を備えており、ロボット制御装置12が画像処理を利用してロボット11の教示を補正する。なお、図8においては、ハンド14が指部材を有する他の実施形態にも対応できるように、ロボット制御装置12が「位置」だけでなく「姿勢」も処理する構成を有するが、「姿勢」を処理する構成は必須ではないことに留意されたい。
ロボット制御装置12は、撮像した画像からワークの特徴を検出し検出結果に基づいてロボット11の目標位置及び目標姿勢を計算する画像処理部20と、計算した目標位置及び目標姿勢に基づいて作業プログラムにおける教示位置及び教示姿勢を補正しロボット11の動作指令を生成する動作指令生成部21と、を備えている。
画像処理部20は、公知のCPU、ASIC、FPGA等を備えている。画像処理部20は、撮像装置13から取得したワーク画像を記憶する第1メモリ30と、ワークの第1特徴及び第2特徴を予め記憶する第2メモリ31と、第1位置関係及び第2位置関係を予め記憶する第3メモリ32と、第1姿勢関係及び第2姿勢関係を予め記憶する第4メモリ33と、計算した目標位置及び目標姿勢を記憶する第5メモリ34と、を備えている。なお、第1実施形態におけるロボットシステム1においては、第2位置関係及び第2姿勢関係を予め記憶する必要がないことに留意されたい。
画像処理部20はさらに、記憶した第1特徴及び第2特徴に基づいて、撮像したワーク画像から第1特徴及び第2特徴の少なくとも一方を検出する特徴検出部40と、検出した第1特徴及び第2特徴の少なくとも一方の位置を計算する特徴位置計算部41と、第1特徴をワーク画像から検出できた場合には、検出した第1特徴の位置と記憶した第1位置関係とに基づいてロボット11の目標位置を計算すると共に、第1特徴をワーク画像から検出できず、第2特徴をワーク画像から検出できた場合には、計算した第2特徴の位置と記憶した第2位置関係とに基づいて第1特徴の位置を計算し、計算した第1特徴の位置と記憶した第1位置関係とに基づいてロボット11の目標位置を計算する目標位置計算部42と、を備えている。なお、第1実施形態におけるロボットシステム1においては、目標位置計算部42が、第1特徴をワーク画像から検出できず、第2特徴をワーク画像から検出できた場合に、計算した第2特徴の位置と記憶した第1位置関係とに基づいてロボット11の目標位置を計算することに留意されたい。
画像処理部20はさらに、検出した第1特徴及び第2特徴の少なくとも一方の姿勢を計算する特徴姿勢計算部43と、第1特徴をワーク画像から検出できた場合には、計算した第1特徴の姿勢と記憶した第1姿勢関係とに基づいてロボット11の目標姿勢を計算すると共に、第1特徴をワーク画像から検出できず、第2特徴をワーク画像から検出できた場合には、計算した第2特徴の姿勢と記憶した第2姿勢関係とに基づいて第1特徴の姿勢を計算し、計算した第1特徴の姿勢と記憶した第1姿勢関係とに基づいてロボット11の目標姿勢を計算する目標姿勢計算部44と、を備えている。なお、第1実施形態におけるロボットシステム1においては、目標姿勢計算部44が、第1特徴をワーク画像から検出できず、第2特徴をワーク画像から検出できた場合に、計算した第2特徴の姿勢と記憶した第1姿勢関係とに基づいてロボット11の目標姿勢を計算することに留意されたい。
画像処理部20はさらに、前述した第2位置関係を計算し、第3メモリ32に予め記憶させる第2位置関係計算部45と、前述した第2姿勢関係を計算し、第4メモリ33に予め記憶させる第2姿勢関係計算部46と、を備えている。なお、第1実施形態におけるロボットシステム1においては、第2位置関係計算部45及び第2姿勢関係計算部46を備えなくてよいことに留意されたい。
図9は、別の実施形態におけるロボットシステム1の構成を示すブロック図である。別の実施形態におけるロボットシステム1は、有線又は無線のネットワーク51を介してロボット制御装置12と通信可能に接続された画像処理装置50を備えており、画像処理装置50が画像処理を利用してロボットの教示を補正する。ロボット制御装置12及び画像処理装置50は夫々、通信を制御する通信制御部52を備えている。画像処理装置50は、PC等のコンピュータであってもよい。画像処理装置50における他の構成は、図8に示す画像処理部20と同一であるため、説明を省略する。
前述した実施形態によれば、ワークの特徴を複数用意しておき、撮像した画像から一方の特徴を検出できなかった場合には、他方の特徴を検出するため、ワークの特徴の検出率を向上させつつ、ロボットの教示を簡易化できる。
前述したフローチャートを実行するプログラムは、コンピュータ読取り可能な非一時的記録媒体、例えばCD−ROMに記録して提供してもよい。
本明細書において種々の実施形態について説明したが、本発明は、前述した実施形態に限定されるものではなく、以下の特許請求の範囲に記載された範囲内において種々の変更を行えることを認識されたい。
1 ロボットシステム
10 ワーク
11 ロボット
12 ロボット制御装置
13 撮像装置
14 ハンド
15 目標位置
16 第1特徴
17 第2特徴
18 撮像画像
19 目標姿勢
20 画像処理部
21 動作指令生成部
30 第1メモリ
31 第2メモリ
32 第3メモリ
33 第4メモリ
34 第5メモリ
40 特徴検出部
41 特徴位置計算部
42 目標位置計算部
43 特徴姿勢計算部
44 目標姿勢計算部
45 第2位置関係計算部
46 第2姿勢関係計算部
50 画像処理装置
51 ネットワーク
52 通信制御部

Claims (9)

  1. ワークに対して作業を行うロボットと、前記ロボットを制御するロボット制御装置と、前記ワークを撮像する撮像装置と、を備える、ロボットシステムであって、前記撮像した画像から前記ワークの特徴を検出し、検出結果に基づいて前記ロボットの教示を補正するロボットシステムにおいて、
    前記ワークの第1特徴及び第2特徴と、前記第1特徴の位置と前記ロボットの目標位置との間の第1位置関係と、前記第1特徴の位置と前記第2特徴の位置との間の第2位置関係と、を予め記憶する記憶部と、
    前記記憶した前記第1特徴又は前記第2特徴に基づいて、前記撮像した画像から前記第1特徴及び前記第2特徴の少なくとも一方を検出する特徴検出部と、
    前記検出した前記第1特徴及び前記第2特徴の少なくとも一方の位置を計算する特徴位置計算部と、
    前記第1特徴を前記画像から検出できた場合には、前記計算した前記第1特徴の位置と前記記憶した前記第1位置関係とに基づいて前記ロボットの目標位置を計算すると共に、前記第1特徴を前記画像から検出できず、前記第2特徴を前記画像から検出できた場合には、前記計算した前記第2特徴の位置と前記記憶した前記第2位置関係とに基づいて前記第1特徴の位置を計算し、前記計算した前記第1特徴の位置と前記記憶した前記第1位置関係とに基づいて前記ロボットの目標位置を計算する目標位置計算部と、
    を備える、ロボットシステム。
  2. 前記記憶部はさらに、前記第1特徴の姿勢及び前記第2特徴の姿勢の少なくとも一方と前記ロボットの目標姿勢との間の第1姿勢関係を記憶しており、
    さらに、
    前記検出した第1特徴及び第2特徴の少なくとも一方の姿勢を計算する特徴姿勢計算部と、
    前記第1特徴を前記画像から検出できた場合には、前記計算した前記第1特徴の姿勢と前記記憶した前記第1姿勢関係とに基づいて前記ロボットの目標姿勢を計算し、前記第1特徴を前記画像から検出できず、前記第2特徴を前記画像から検出できた場合には、前記計算した前記第2特徴の姿勢と前記記憶した前記第1姿勢関係とに基づいて前記ロボットの目標姿勢を計算する目標姿勢計算部と、
    を備える、請求項に記載のロボットシステム。
  3. 前記記憶部はさらに、前記第1特徴の姿勢と前記第2特徴の姿勢との間の第2姿勢関係を記憶しており、
    前記目標姿勢計算部は、前記第1特徴を前記画像から検出できず、前記第2特徴を前記画像から検出できた場合には、前記計算した前記第2特徴の姿勢と前記記憶した前記第2姿勢関係とに基づいて前記第1特徴の姿勢を計算し、計算した前記第1特徴の姿勢と前記記憶した前記第1姿勢関係とに基づいて前記ロボットの目標姿勢を計算する、請求項に記載のロボットシステム。
  4. さらに、前記第2位置関係を計算し、前記記憶部に予め記憶させる第2位置関係計算部を備える、請求項に記載のロボットシステム。
  5. さらに、前記第2姿勢関係を計算し、前記記憶部に予め記憶させる第2姿勢関係計算部を備える、請求項に記載のロボットシステム。
  6. 前記ロボットが真空把持部又は磁力把持部を有するハンドを備える、請求項1からのいずれか一項に記載のロボットシステム。
  7. 前記ロボットが指部材を有するハンドを備える、請求項1からのいずれか一項に記載のロボットシステム。
  8. 前記ロボット制御装置が画像処理を利用して前記ロボットの教示を補正する、請求項1からのいずれか一項に記載のロボットシステム。
  9. さらに、有線又は無線を介して前記ロボット制御装置と通信可能に接続された画像処理装置を備えており、前記画像処理装置が画像処理を利用して前記ロボットの教示を補正する、請求項1からのいずれか一項に記載のロボットシステム。
JP2018060088A 2018-03-27 2018-03-27 画像処理を利用してロボットの教示を補正するロボットシステム Active JP6777670B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018060088A JP6777670B2 (ja) 2018-03-27 2018-03-27 画像処理を利用してロボットの教示を補正するロボットシステム
US16/270,600 US11376732B2 (en) 2018-03-27 2019-02-08 Robot system for correcting teaching of robot using image processing
DE102019001969.5A DE102019001969B4 (de) 2018-03-27 2019-03-20 Robotersystem zum Korrigieren des Anlernens eines Roboters durch Bildverarbeitung
CN201910229500.5A CN110303474B (zh) 2018-03-27 2019-03-25 使用图像处理修正机器人的示教的机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018060088A JP6777670B2 (ja) 2018-03-27 2018-03-27 画像処理を利用してロボットの教示を補正するロボットシステム

Publications (2)

Publication Number Publication Date
JP2019171497A JP2019171497A (ja) 2019-10-10
JP6777670B2 true JP6777670B2 (ja) 2020-10-28

Family

ID=67910126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018060088A Active JP6777670B2 (ja) 2018-03-27 2018-03-27 画像処理を利用してロボットの教示を補正するロボットシステム

Country Status (4)

Country Link
US (1) US11376732B2 (ja)
JP (1) JP6777670B2 (ja)
CN (1) CN110303474B (ja)
DE (1) DE102019001969B4 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021147036A1 (en) * 2020-01-22 2021-07-29 Abb Schweiz Ag System and method for controlling the robot, electronic device and computer readable medium
US20220288782A1 (en) * 2021-03-10 2022-09-15 X Development Llc Controlling multiple simulated robots with a single robot controller
JP7054036B1 (ja) * 2021-07-09 2022-04-13 株式会社不二越 ロボットビジョンシステム
DE102022200461A1 (de) 2022-01-17 2023-07-20 Volkswagen Aktiengesellschaft Verfahren und Robotersystem zum Bearbeiten eines Werkstücks sowie Koordinatensystemmarker für ein Robotersystem

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0716900B2 (ja) * 1986-10-23 1995-03-01 株式会社日立製作所 ロボットへの動作自動教示方法
JPH02276725A (ja) * 1989-04-13 1990-11-13 Toshiba Corp ロボットの教示方法
JP2765181B2 (ja) * 1990-04-24 1998-06-11 神鋼電機株式会社 移動ワーク用視覚装置およびワーク姿勢判別装置
JPH1076489A (ja) * 1996-09-02 1998-03-24 Nippon Telegr & Teleph Corp <Ntt> ロボットアーム教示方法及び装置
US6771808B1 (en) 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP2006224291A (ja) * 2005-01-19 2006-08-31 Yaskawa Electric Corp ロボットシステム
EP2075096A1 (de) 2007-12-27 2009-07-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP6052871B2 (ja) * 2012-11-30 2016-12-27 国立大学法人横浜国立大学 対象物移動装置、方法、プログラム、及び記録媒体
JP2015112654A (ja) 2013-12-10 2015-06-22 セイコーエプソン株式会社 制御装置、ロボット、教示データ生成方法及びロボットシステム
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6126067B2 (ja) 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム
JP6126183B2 (ja) * 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
US10311596B2 (en) 2015-10-16 2019-06-04 Seiko Epson Corporation Image processing device, robot, robot system, and marker
JP2018017610A (ja) * 2016-07-28 2018-02-01 セイコーエプソン株式会社 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置

Also Published As

Publication number Publication date
DE102019001969A1 (de) 2019-10-02
CN110303474A (zh) 2019-10-08
US20190299403A1 (en) 2019-10-03
DE102019001969B4 (de) 2022-07-28
JP2019171497A (ja) 2019-10-10
US11376732B2 (en) 2022-07-05
CN110303474B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP4940715B2 (ja) ピッキングシステム
US8666141B2 (en) Robot system, robot control device and method for controlling robot
CN109227532B (zh) 机器人的控制装置及其系统、机器人及摄像机的校正方法
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP6912415B2 (ja) ハンド制御装置およびハンド制御システム
US11040451B2 (en) Teaching device and teaching method
US20180229364A1 (en) Robot system having learning control function and learning control method
JP6700726B2 (ja) ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
WO2020022302A1 (ja) 把持装置
JP2019155556A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2006026790A (ja) 教示モデル生成装置
WO2023037634A1 (ja) 指令値生成装置、方法、及びプログラム
JP2015114933A (ja) 物体認識装置、ロボット及び物体認識方法
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
WO2018096669A1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
JP4222338B2 (ja) 適応型ビジュアルフィードバック制御方法
JP6176091B2 (ja) 把持方法、運搬方法及びロボット
JP5200866B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
WO2019064752A1 (ja) ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201008

R150 Certificate of patent or registration of utility model

Ref document number: 6777670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150