JP2017077614A - 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置 - Google Patents

教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置 Download PDF

Info

Publication number
JP2017077614A
JP2017077614A JP2015207631A JP2015207631A JP2017077614A JP 2017077614 A JP2017077614 A JP 2017077614A JP 2015207631 A JP2015207631 A JP 2015207631A JP 2015207631 A JP2015207631 A JP 2015207631A JP 2017077614 A JP2017077614 A JP 2017077614A
Authority
JP
Japan
Prior art keywords
teaching point
index
point
correction
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015207631A
Other languages
English (en)
Other versions
JP6812095B2 (ja
Inventor
慶太 檀
Keita Dan
慶太 檀
鈴木 秀明
Hideaki Suzuki
秀明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015207631A priority Critical patent/JP6812095B2/ja
Priority to US15/768,821 priority patent/US11014233B2/en
Priority to PCT/JP2016/078965 priority patent/WO2017068930A1/en
Publication of JP2017077614A publication Critical patent/JP2017077614A/ja
Application granted granted Critical
Publication of JP6812095B2 publication Critical patent/JP6812095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】三次元視覚センサの性能に被写界深度方向の制約があっても、作業部の教示点を正確に補正できる教示点補正方法を提供する。
【解決手段】指標は、作業台104に位置決められたマーカ105に目標教示点に対応させて設定される。ステレオカメラ103は、ロボットハンド102に位置決められた状態で指標を撮影してマーカ105の三次元の位置を測定する。ロボットアーム制御工程では、オフライン教示点に対してステレオカメラ103の被写界深度方向を含む方向にオフセットしたオフライン補正用教示点にロボットハンド102を位置させる。撮影工程では、ロボットハンド102をオフライン補正用教示点に位置させた状態で、ステレオカメラ103により指標を撮影する。補正工程では、指標の撮影結果に基づいて、オフライン教示点を目標教示点に向かって補正してオンライン教示点を取得する。
【選択図】図1

Description

本発明は、多関節ロボットアームを用いて組立作業を実現するロボット装置における教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置に関する。
多関節ロボットアームにより作業部を移動させて、対象物を把持するなどの処理をし、組立作業を実現するロボット装置が広く用いられている。ロボット装置では、作業部による対象物の処理位置や作業部の移動経路を、事前にコンピュータで仮想的にシミュレーションして設定する手法が実用化されている。この手法をオフライン教示と呼び、ここで決定される処理位置をオフライン教示点と呼ぶ。
しかし、オフライン教示点には、ロボット装置の機体差によって、ミリメートル単位の累積誤差が発生することがある。このため、ロボット装置ごとに実機を用いてオンライン教示を行うことにより、オフライン教示点を修正している。
特許文献1には、教示点に対応させて対象物側に設定された指標を、作業部に位置決められた三次元視覚センサで撮影して、三次元位置を測定することにより、オフライン教示点の位置ずれ量を求めて、教示点を修正するオンライン教示方法が記載されている。
特開平7−84631号公報
特許文献1では、教示点に作業部を位置決めたときに、指標が三次元視覚センサの被写界深度方向の測定範囲外にある場合、三次元視覚センサによって指標の位置を高精度に求めることができない。指標が三次元視覚センサの被写界深度方向の測定範囲内にあっても、画角の端付近などの測定精度の低い範囲にある場合、三次元視覚センサによって指標の位置を正確に求めることができない。
本発明は、三次元視覚センサの性能に被写界深度等の制約があっても、作業部の教示点を正確に修正できる教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置を提供することを目的としている。
本発明の教示点補正方法は、作業部を移動させる多関節ロボットアームと、前記多関節ロボットアームを制御する制御部と、を有するロボット装置において、前記作業部を用いて処理される対象物側に前記作業部を位置決める目標教示点に対応させて指標が設定され、前記指標を撮影して前記指標の三次元の位置を測定する三次元視覚センサが前記作業部に位置決められた状態で、補正前の教示点を前記目標教示点に向かって補正する教示点補正方法であって、前記制御部が、前記作業部を、前記補正前の教示点に対して前記三次元視覚センサの被写界深度方向を含む方向にオフセットした撮影点に位置させるように前記多関節ロボットアームを制御するロボットアーム制御工程と、前記制御部が、前記ロボットアーム制御工程により前記作業部を前記撮影点に位置させた状態で前記三次元視覚センサにより前記指標を撮影する撮影工程と、前記制御部が、前記撮影工程による前記指標の撮影結果に基づいて、前記補正前の教示点を補正する補正工程と、を有する。
本発明の教示点補正方法では、作業部を指標に対して三次元視覚センサの被写界深度方向を含む方向にオフセットした撮影点に位置させてから、指標位置を計測する。このため、三次元視覚センサに被写界深度等の制約があっても、作業部の教示点を正確に修正できる。
ロボットシステムの構成の説明図である。 ステレオカメラを把持したロボットハンドの説明図である。 ハンドカメラ校正装置の説明図である。 マーカの説明図である。 ロボットコントローラの動作の説明図である。 オフライン補正用教示点の説明図である。 オフライン補正用教示点の設定制御のフローチャートである。 オンライン補正用教示点の説明図である。 オンライン教示点の設定制御のフローチャートである。 オンラインオフセットの傾きの説明図である。 実施の形態2のオンライン教示点の設定制御のフローチャートである。 オンラインオフセットの湾曲の説明図である。 実施の形態3のオンライン教示点の設定制御のフローチャートである。
本発明の実施の形態を、図面を参照して詳細に説明する。
<実施の形態1>
実施の形態1のロボットシステムは、修正前の教示点からステレオカメラ103の被写界深度方向にオフセットさせた撮影点にロボットハンド102を位置決めて、マーカ105を撮影する。
(ロボットシステム)
図1はロボットシステムの構成の説明図である。図1に示すように、ロボット装置の一例であるロボットシステム100は、人手による組立作業にかえて、ロボットアーム101により複数工程の組立作業を実現する。ロボットシステム100は、多関節(例えば6関節)のロボットアーム101を用いて、ロボットシステム100の作業台104上に保持されたワークの組立処理を行う。
多関節ロボットアームの一例であるロボットアーム101は、作業部の一例であるロボットハンド102を移動させる。ロボットハンド102は、ロボットアーム101のエンドエフェクタとして、ロボットアーム101に取り付けられている。ロボットハンド102は、多指(例えば3指)の把持工具である。
作業台104は、ロボットハンド102を用いて処理される対象物を支持する。制御部の一例であるロボットコントローラ109は、ロボットアーム101を制御する。
(ステレオカメラ)
図2はステレオカメラを把持したロボットハンドの説明図である。図2に示すように、ステレオカメラ103は、2台のカメラを備えた三次元視覚センサである。ステレオカメラ103は、パッシブ式のステレオカメラを用いた三次元視覚センサである。
オンライン教示作業を自動化するため、ロボットハンド102は、ステレオカメラ103を把持する仕様に設計されている。ロボットハンド102の座面に、位置決め用のピン穴201が2つ形成されている。ステレオカメラ103の下面にはピン103pが2本装着されている。ピン穴201にピン103pを挿入することで、ロボットハンド102とステレオカメラ103とは高精度に位置決めされる。
(ハンドカメラ校正)
図3はハンドカメラ校正装置の説明図である。図2に示すように、ロボットハンド102のピン穴201を原点としてロボットハンド102に固定された座標系をハンド座標系Hと定義する。これに対して、ステレオカメラ103が出力する位置情報の座標系をカメラ座標系Cと定義する。
ステレオカメラ103の撮影画像を画像処理して求めた三次元の位置計測結果は、カメラ座標系C上での位置を表す。自動化されたオンライン教示作業では、ステレオカメラ103による三次元計測結果からロボットハンド102の位置を推測する。このため、自動化されたオンライン教示前に、ハンドカメラ校正を実行して、ハンド座標系Hとカメラ座標系Cとの相対位置・姿勢を表すハンドカメラ間変換行列を求める。ここでTは、同次変換行列である。たとえば、座標系Hと座標系Cの回転行列をとし、座標系Hと座標系Cの平行移動行列をとすると、同次変換行列は以下のように表せる。
Figure 2017077614
図3に示すように、ハンドカメラ校正装置300は、ロボットハンド102の座面のピン穴201と同形状のピン穴を持つハンドモック301を設置している。ユーザーは、ハンドモック301にステレオカメラ103を設置する。
ハンドカメラ校正装置300は、ハンドモック301に対して高精度に位置決めされた位置に校正用マーカ治具302を設置している。校正用マーカ治具302には、ステレオカメラ103で計測可能な指標302mが黒地に白円のパターンで複数配置されている。ハンド座標系における各指標302mの位置は、機械的に高精度に設定されている。一方、指標302mをステレオカメラ103で計測すると、カメラ座標系Cにおける指標302mの位置が求まる。ハンド座標系における各指標302mの位置と、指標302mの計測結果を用いて、最適化計算を解くことにより、ハンドカメラ間変換行列を求める。ハンドカメラ校正装置300は、ロボットシステム100を介さずに測定を行うため、高精度にハンドカメラ間変換行列を算出可能である。
(マーカ)
図4はマーカの説明図である。図4に示すように、マーカ105は、インク印刷により、黒地の板に白円を施して指標131、132、133を形成している。マーカ105における指標の個数は、三次元のマーカ座標系Mを定義する必要があるため、オンライン教示点の1点当たり3個以上が望ましい。指標の個数が多いほど、三次元位置計測の誤差を平均化できるため、システムとしての精度が上がる。
図1に示すように、ロボットシステム100を作動させて行うオンライン教示において、ロボットシステム100の作業台104上に、目標教示点に対応させてマーカ105が設置される。支持部の一例である作業台104に位置決め保持された治具の一例であるマーカ105に指標131、132、133が準備されている。マーカ105は、ロボットシステム100のオンライン教示において実作業時の対象物であるワークの代わりに使用される。
マーカ105は、ロボットシステム100の実作業時におけるワークとの相対位置・姿勢が高精度に求まる場所に設置される。具体的には、マーカ105は、実作業でワークが載置される作業台104上に直接設置されている。
ステレオカメラ103は、オンライン教示を実行する際に、ロボットハンド102により把持される。ステレオカメラ103は、ロボットハンド102に把持される過程で自動的にロボットハンド102に対して位置決められる。ステレオカメラ103は、ロボットハンド102に位置決められた状態で、指標131、132、133を撮影して、マーカ105の三次元の位置・姿勢を測定する。
オンライン教示では、ロボットハンド102に把持させたステレオカメラ103を用いてマーカ105を計測することにより、カメラマーカ間変換行列を求める。Mはマーカ105から定義されるマーカ座標系である。カメラマーカ間変換行列と、ハンドカメラ間変換行列とを元に、ロボットハンド102とマーカ105の相対位置・姿勢を表す行列を求める。
(ビジョンコントローラ)
ビジョンコントローラ106は、画像処理部107と通信部108とを有するステレオカメラ103の制御コントローラである。ビジョンコントローラ106は、ソフトウェアにより動作するコンピュータに、付随するハードウェア及び専用回路を組み合わせて構成される。
画像処理部107は、ステレオカメラ103から伝送されたマーカ105の撮影画像の画像データに対して画像処理を行う。画像処理部107は、マーカ105の指標131、132、133の中心位置を三次元計測する。実施の形態1では、マーカ105の指標131、132、133の形状は白丸であるため、白丸中心位置の三次元計測処理について述べる。
画像処理部107は、ステレオカメラ103の2台のカメラの撮影画像の輝度レベルに着目して、指標131、132、133が識別できるような適当な閾値を設けて二値化処理を実行する。次に、画像処理部107は、撮影画像の閾値以上の領域のエッジについて楕円近似を行い、楕円中心の画像座標を求める。次に、画像処理部107は、指標131、132、133の撮影画像の楕円中心から求まる視差と、ステレオカメラ103の校正結果とを用いて、三次元位置計測を実施し、指標131、132、133のカメラ座標系Cにおける位置を求める。
画像処理部107は、カメラ座標系Cにおける各指標位置にハンドカメラ間変換行列を乗じて、ハンド座標系Hにおける各指標位置を求める。
通信部108は、ロボットコントローラ109との間で双方向の通信を行う。ビジョンコントローラ106からロボットコントローラ109へは、画像処理部107が三次元計測した、マーカ105のハンド座標系Hにおける各指標131、132、133の位置を送信する。
ユーザインタフェース115は、ユーザーがロボットを制御するためのインタフェースである。ユーザインタフェース115は、撮影画像・教示結果の表示を行なう表示部116と、教示点情報の入力を行なう操作部117と、を有する。表示部116は、ディスプレイ等である。操作部117は、マウス、キーボード、ティーチングペンダント等である。
(ロボットコントローラ)
図5はロボットコントローラの動作の説明図である。図5は不揮発性メモリ113に書き込まれるデータを示す。図1に示すように、ロボットコントローラ109は、ロボットアーム101やロボットハンド102の制御を司る装置である。ロボットコントローラ109は、ロボット制御部110、演算部111、通信部112、不揮発性メモリ113から成る。ロボットコントローラ109は、ソフトウェアにより動作するコンピュータに、付随するハードウェア及び専用回路を組み合わせて構成される。
ロボット制御部110は、ロボットアーム101及びロボットハンド102の駆動を制御する。ロボットアーム101、ロボットハンド102に移動命令を送信し、ロボットアーム101、ロボットハンド102の位置・姿勢を制御する。
演算部111は、ビジョンコントローラ106から受信した、マーカ105のハンド座標系Hにおける各指標位置や、不揮発性メモリ113内のデータを用いて、ロボットアーム101の移動量を算出し、ロボット制御部110に移動量を送信する。移動量の算出方法に関しては後述する。また、オンライン教示の完了後に、オンライン教示点を不揮発性メモリ113に書き込む。
通信部112は、ビジョンコントローラ106と通信を行う。ロボットコントローラ109からビジョンコントローラ106へはステレオカメラ103の撮影指令を送信する。撮影指令に応答して、ステレオカメラ103は、撮影工程における撮影処理を実行する。
図5に示すように、不揮発性メモリ113には、演算部111が移動量を算出するために必要な情報や、オンライン教示点のデータが書き込まれる。
(オフライン教示装置)
図1に示すように、ロボットシステム100では、ロボットアーム101を教示点から教示点に移動させることにより、ワークの組立処理を実現している。そして、教示点を効率よく作成するために、コンピュータを用いて処理をシミュレーションするオフライン教示が利用されている。
図5に示すように、オフライン教示装置114は、CAD(Computer Aided Design)ソフトウェアを用いて、生産工程をシミュレーションするコンピュータである。ユーザーは、オフライン教示装置114上でソフトウェアを操作してロボットハンド102によるワーク(701:図6)の処理プログラムを作成する。そして、処理プログラム上の重要な作業位置や移動経路の要所に仮想教示点の一例であるオフライン教示点が設定されている。
しかし、オフライン教示装置114により設定されたオフライン教示点は、ロボットアーム101やワークの加工・組立誤差などの様々な誤差要因を含んでいるので、実機でそのまま使用すると大きく位置ずれが発生する。そして、ロボットアーム101やワークの加工・組立誤差、ロボットシステム100の機体差等をオフライン教示で正確に補正するのは困難である。
そこで、ロボットシステム100では、図1に示すように、オフライン教示で設定されたオフライン教示点を、ロボットシステム100の実機で測定して誤差を測定し、誤差を除いたオンライン教示点に修正している。
(比較例)
比較例1では、処理対象物上とロボットハンド102にそれぞれピンを取り付け、一対のピンの間の相対位置・姿勢のずれが基準内に収まるように、ロボットアーム101を手動操作してオフライン教示点をオンライン教示点に修正する。
しかし、比較例1の治具を用いた手作業のオンライン教示は、作業時間が膨大となり、工場におけるロボットシステムの稼働率を低下させてしまう。
比較例2では、特許文献1に示されるように、処理対象物上にマーカを設置し、ロボットアームの作業部に搭載した三次元視覚センサでマーカ位置を計測する。そして、三次元視覚センサによるマーカ位置の計測結果に基づいて、オフライン教示点をオンライン教示点へ移動させる三次元修正量を取得している。
しかし、比較例2では、オンライン教示の際に、オフライン教示点でロボットアームの作業部が作業することが前提となっている。しかし、ロボットアームの作業部をオフライン教示点に位置決めたときに、作業部に搭載された三次元視覚センサの被写界深度方向の撮影可能範囲内に常にマーカが存在するとは限らない。つまり、ロボットアームが作業する位置にある時に、処理対象物上のマーカを三次元視覚センサのピントが合った状態で撮影できるとは限らない。このため、ロボットアームの作業部が作業する位置で、三次元視覚センサを用いてオフライン教示点をオンライン教示点に高精度に修正できない場合がある。
そこで、実施の形態1では、オンライン教示の際に、三次元視覚センサをオフライン教示点から被写界深度方向にオフセットしたオフライン補正用教示点に位置決めて、マーカ105を撮影する。
(オフライン補正用教示点)
図6はオフライン補正用教示点の説明図である。図6中、(a)はオフライン教示点、(b)はオフライン補正用教示点である。ここでは、オフラインオフセットをToWoとベクトル表示し、オフライン教示点をWo、オフライン補正用教示点をTo、オンライン補正用教示点をTr、オンライン教示点をWrとそれぞれ座標表示している。ここで、Pとは左上の添え字の座標系から見た、右下の添え字の座標系の原点、X軸、Y軸を定義する3点の位置を組み合わせた同次座標系の行列とする。たとえば、マーカ座標系からみた座標系Woの原点を(Xo,Yo,Zo)、X軸上の点を(Xx,Yx,Zx)、Y軸上の点を(Xy,Yy,Zy)とすると、オフライン教示点Woは以下のように表せる。
Figure 2017077614
図6の(a)に示すように、オフライン教示装置114は、ロボットハンド102がオフライン教示点Woにおいてワーク701を把持するように、生産工程をシミュレーションしている。そして、図1に示すように、ロボットシステム100の実機で行うオンライン教示では、ワーク701に対応させて配置したマーカ105をロボットハンド102に把持させたステレオカメラ103で撮影する。
図6の(b)に示すように、オンライン教示では、ステレオカメラ103を把持したロボットハンド102を、オフライン教示点WoからオフセットToWoだけ遠ざけたオフライン補正用教示点Toに位置決めて、マーカ105を撮影する。
オフライン補正用教示点Toにロボットハンド102を位置決めた状態では、指標131、132、133がステレオカメラ103の測定可能範囲内である。しかし、オフライン教示点Woにロボットハンド102を位置決めた状態では、指標131、132、133がステレオカメラ103の測定可能範囲外である。すなわち、オフライン補正用教示点Toにロボットハンド102を位置決めたとき、ステレオカメラ103による指標131、132、133の測定精度は、オフライン教示点Woにロボットハンド102を位置決めたときよりも高い。
撮影点作成装置の一例であるオフライン教示装置114は、ロボットシステム100に供給される撮影点の一例であるオフライン補正用教示点Toを作成する。オフライン教示装置114は、判断工程の判断処理において、ロボットハンド102をオフライン教示点Woに位置させたとき、ステレオカメラ103の測定可能範囲内に指標が存在するか否かを判断する。続いて、撮影点設定工程の撮影点設定処理では、測定可能範囲内に指標が存在する場合、オフライン教示点Woをそのまま撮影点のオフライン補正用教示点Toとして設定する。しかし、測定可能範囲外に指標が存在する場合、オフライン教示点Woからステレオカメラ103の被写界深度方向にオフセットした位置を撮影点の一例であるオフライン補正用教示点Toとして設定する。
(オフライン補正用教示点の設定制御)
図7はオフライン補正用教示点の設定制御のフローチャートである。図7に示すように、オフライン教示装置114は、オフライン教示で作成した処理プログラム上のいくつかのタイミングにオフライン教示点を決定する(S701)。オフライン教示点を作成する際に使用されるのは、ワーク等の処理対象物の設計データ、ロボットハンド102とワークの相対位置・姿勢を表すデータ等である。
オフライン教示装置114は、ロボットシステム100におけるマーカ105の設置個所を決定する(S702)。実施の形態1では、図6の(b)に示すように、ワーク701を置き換えて作業台104上にマーカ105が設置されている。オフライン教示装置114は、ロボットハンド102がオフライン教示点Woにあるときに、マーカ105をステレオカメラ103の被写界深度内で撮影可能か否か判断する(S703)。
オフライン教示装置114は、マーカ105を被写界深度内で撮影不可能である場合(S703のNo)、オフライン教示点Woから被写界深度内で撮影可能な位置までの移動量であるオフラインオフセットToWoを算出する(S704)。オフライン教示装置114は、オフライン教示点WoからオフラインオフセットToWo離れた位置をオフライン補正用教示点Toとして設定する(S705)。
オフライン教示装置114は、マーカ105を撮影可能である場合(S703のYes)、オフライン教示点Woと等しいオフライン補正用教示点Toを設定する(S705)。オフライン教示装置114は、オフライン補正用教示点ToとオフラインオフセットToWoとを、ロボットコントローラ109内の不揮発性メモリ113に保存する(S706)。また、オフライン教示装置114は、オフライン補正用教示点にロボットハンド102がある際の、ハンド座標系基準のマーカ105の各指標位置であるマーカ目標位置及び、ステレオカメラ103の被写界深度の各データを不揮発性メモリ113に書き込む。
このような操作を、シミュレーションされた生産工程の処理プログラムに設定された複数のオフライン教示点で繰り返す。
(オンライン補正用教示点)
図8はオンライン補正用教示点の説明図である。図8中、(a)はオンライン補正用教示点、(b)はオンライン教示点である。
ロボットシステム100は、オフライン補正用教示点においてステレオカメラ103でマーカ105を測定して、オフライン補正用教示点をオンライン補正用教示点に修正してから、オフライン教示点をオンライン教示点に修正する。このため、ロボットハンド102が作業する位置とは異なる位置で教示を実施する場合においても、精度の粗いオフライン補正用教示点Toを精度の高いオンライン教示点Wrへ修正できる。
図6の(a)に示すように、オフライン教示において設定されたオフライン教示点Woは、ロボットコントローラ109の中で定義された「ロボットアーム101が処理を実施するときのロボットハンド102の位置・姿勢」を表すデータである。
図8の(a)に示すように、オンライン補正用教示点Trは、オンライン教示においてステレオカメラ103を用いて計測した三次元補正量を、オフライン補正用教示点Toに加えたロボットハンド102の位置・姿勢データである。
図8の(b)に示すように、オンラインオフセットTrWrは、オンライン補正用教示点Trからオンライン教示点Wrを求めるための位置・姿勢データである。
実施の形態1では、オンラインオフセットTrWrは、オフラインオフセットToWoと同じ値とする。オンライン補正用教示点TrにオンラインオフセットTrWrを加えることによりオンライン教示点Wrを算出する。
(オンライン教示点の設定制御)
図9は実施の形態1のオンライン教示点の設定制御のフローチャートである。図9に示すように、ユーザーは、ステレオカメラ103が着脱式の場合、ロボットハンド102にステレオカメラ103を把持させる(S901)。ユーザーが操作部117にあるオンライン教示の開始ボタンを押すと、ロボットコントローラ109は、オンライン教示を自動的に実行する(S902〜S907)。
ロボットコントローラ109は、不揮発性メモリ113から演算部111へオフライン補正用教示点を読み出し、ロボットアーム制御工程におけるロボットアーム制御処理を行う。ロボットアーム制御処理では、ロボットアーム101をオフライン補正用教示点Toに移動させる(S902)。
ロボットコントローラ109は、撮影工程(処理)を行うために、通信部112を介して、ビジョンコントローラ106に撮影指令を送信する。ビジョンコントローラ106は、ステレオカメラ103に撮影指令を送り、マーカ105の撮影画像を得る。画像処理部107は、撮影画像に対して画像処理を行い、現在のマーカ位置の計測を行なう。ビジョンコントローラ106は、通信部108を介して、計測結果をロボットコントローラ109に送信する(S903)。
ロボットコントローラ109は、受信した現在のマーカ位置と不揮発性メモリ113内のマーカ目標位置から、現在のマーカ位置の位置ずれ量を計測し、位置ずれ量が0に近づくようにロボットハンド102を移動させる(S904)。つまり、補正工程における補正処理では、指標131、132、133の撮影結果に基づいて、ロボットアーム101を制御することにより、ロボットハンド102を目標撮影点に移動させる。これにより、ロボットハンド102は、オンライン補正用教示点Trに位置決められ、ロボットコントローラ109は、ロボットハンド102の移動結果に基づいてオンライン補正用教示点Trのデータを取得する。
ロボットコントローラ109は、不揮発性メモリ113からオフラインオフセットToWoを読み出し、オフライン補正用教示点ToにおいてオフラインオフセットToWoが設定されているか否かを判断する(S905)。ロボットコントローラ109は、オフラインオフセットToWoが設定されていない場合(S905のNo)、オンライン補正用教示点Trをそのままオンライン教示点Wrとして登録する(S907)。
ロボットコントローラ109は、オフラインオフセットToWoが設定されている場合(S905のYes)、オンライン補正用教示点TrからオフラインオフセットToWoを差し引いた位置をオンライン教示点Wrとして登録する(S906、S907)。
このような操作を、シミュレーションされた生産工程に設定された複数のオフライン教示点Toで繰り返して、それぞれに対応するオンライン教示点Wrに修正する。
図1に示すように、カードリーダ118に挿入された記録媒体の一例であるメモリカード118mには、図9に示すロボットシステム100の教示点補正方法をコンピュータに実行させるためのプログラムが記録されている。
(ロボットハンドの移動量の算出)
ロボットコントローラ109は、不揮発性メモリ113からマーカ目標位置を読み出す。実施の形態1では、マーカ105の指標の点数を3点としているので、3点のマーカ目標位置の情報を用いて目標マーカ座標系Moを設定する。次に、現在のマーカ位置情報から、現在マーカ座標系Mnを設定する。ロボットコントローラ109は、目標マーカ座標系Moと現在マーカ座標系Mn間の相対位置・姿勢を算出して、ロボットアーム101の移動量を算出し、算出した移動量分、ロボットアーム101を移動させる。移動後のロボットハンド102の位置・姿勢を、オンライン補正用教示点Trと呼ぶ。オフラインオフセットをToWoとし、オンライン補正用教示点をTrとすると、オンライン教示点Wrは次式(1)により求まる。
Figure 2017077614
式1において、Tは同次変換行列を表し、左上の添え字は移動前、右下の添え字は移動後の座標系を意味する。
(実施の形態1の効果)
実施の形態1では、オフライン補正用教示点においてマーカ105を撮影するので、ステレオカメラ103に被写界深度の制約があっても、ロボットハンド102のオフライン教示点を正確に補正できる。
実施の形態1では、ステレオカメラ103は、ロボットハンド102に位置決められた状態で、指標131、132、133を撮影して、マーカ105の三次元の位置・姿勢を測定する。このため、オンライン教示点におけるロボットハンド102の位置誤差と姿勢誤差とを同時に修正できる。
実施の形態1では、指標131、132、133に対してステレオカメラ103の被写界深度方向を含む方向にオフセットしたオフライン教示点にロボットハンド102を位置させる。このため、ロボットハンド102にステレオカメラ103を位置決めできる範囲が広くなり、実施の形態1のように、ロボットハンド102に把持させる簡易な取り付け方法、不要な場合には簡単に取り外せる取り付け方法が可能になる。
実施の形態1では、ロボットハンド102をオフライン補正用教示点に位置させた状態で、ステレオカメラ103により指標を撮影する。このため、ステレオカメラ103の被写界深度方向の撮影可能範囲の制約があっても、指標の位置を高精度に測定できる。
実施の形態1では、指標131、132、133の撮影結果に基づいて、ロボットアーム101を制御することにより、ロボットハンド102を目標撮影点に移動させる。このため、目標撮影点でさらにマーカ105を撮影して、目標撮影点が正確であることを確認できる。
実施の形態1では、オフライン教示点からオフライン補正用教示点まで離反方向にオフセットする。離反ベクトルとは反対方向で大きさが等しい接近ベクトルを目標撮影点に加算することにより修正された教示点を求める。このため、ステレオカメラ103を把持したロボットハンド102をオンライン教示点まで実際に移動させる必要が無い。
実施の形態1では、オフライン補正用教示点にロボットハンド102を位置決めたとき、ステレオカメラ103による指標の測定精度は、オフライン教示点にロボットハンド102を位置決めたときよりも高い。このため、オフライン教示点又はオフライン補正用教示点の位置ずれ量を正確に求めることができる。オフライン補正用教示点を出発点として、オンライン補正用教示点へロボットハンド102を正確に移動させることができる。
実施の形態1では、オフライン補正用教示点にロボットハンド102を位置決めた状態では、指標がステレオカメラ103の測定可能範囲内である。しかし、オフライン教示点にロボットハンド102を位置決めた状態では、指標がステレオカメラ103の測定可能範囲外である。このため、ステレオカメラ103により指標を確実に測定して、オンライン教示点を高い信頼性で確実に設定できる。
実施の形態1では、ステレオカメラ103は、ロボットハンド102により把持された段階で、既にロボットハンド102に位置決められている。このため、把持後にステレオカメラ103の位置調整をする必要が無い。
実施の形態1では、指標は作業台104に位置決め保持されたマーカ105に設けられる。このため、通常はマーカ105を取り外してコンパクトにワークを処理できる。ワークの処理に伴うマーカ105の汚れも回避できる。
<実施の形態2>
実施の形態2では、オンライン補正用教示点を起点にして補助撮影を行うことにより、オンライン教示点を再修正する。ロボットシステム及び補助撮影以外の構成及び制御は実施の形態1と同一であるため、図10中、実施の形態1と共通する部材には、図1と共通の符号を付して重複する説明を省略する。
(オンラインオフセットの傾き)
図10はオンラインオフセットの傾きの説明図である。図10中、(a)はオフライン教示、(b)はオンライン教示、(c)はオンラインオフセットの補正である。
図6の(a)、(b)及び図8の(a)、(b)に示すように、実施の形態1では、離反ベクトルの一例であるオフラインオフセットToWoと接近ベクトルの一例であるオンラインオフセットTrWrとが等しいと仮定した。ここで、オフラインオフセットToWoが短い場合はオフラインオフセットToWoとオンラインオフセットTrWrとを等しいとみなせるが、長い場合は両者の相対的な角度差が問題になる。そこで、実施の形態2では、オフラインオフセットToWoとオンラインオフセットTrWrの角度差の影響を取り除くようにオンライン教示を行う。
図10の(a)、(b)に示すように、座標系T、N、Wは、それぞれ補正用教示点、ステレオカメラ103の被写界深度内での移動時、及び補正用教示点にオフセットを加えた教示点でのハンド座標系である。
図10の(a)がオフライン教示時にオフラインオフセットを印加した状態を示した図である。実施の形態2でも、実施の形態1と同様な手順でオフライン教示点Woが設定され、オフライン教示点WoにオフラインオフセットToWoを付与してオフライン補正用教示点Toを設定する。
そして、ロボットハンド102をオフライン補正用教示点Toに位置決めてステレオカメラ103によりマーカ105を撮影して、マーカ105の位置ずれ量を測定する。そして、ロボットハンド102をオフライン補正用教示点Toからオンライン補正用教示点Trへ移動させて位置ずれ量を0に近づける。
図10の(b)は、オンライン教示において、ロボットコントローラ109が補正前のオンラインオフセットをオンライン補正用教示点に印加した状態である。ロボットハンド102をオンライン補正用教示点Trに位置決めたとき、ステレオカメラ103によりマーカ105を撮影すれば、マーカ105の位置ずれ量は0に近い値となっている。
しかし、オンライン補正用教示点Trにおいて位置ずれが0に近い値であっても、オンライン補正用教示点TrからオンラインオフセットTrWrだけ移動したオンライン教示点MWrにおいて位置ずれが0に近くなるとは限らない。
ロボットコントローラ109がオフラインオフセットToWoと等しいオンラインオフセットTrWrをオンライン補正用教示点Trに印加したとする。このとき、ロボットアーム101の加工誤差や撓みによるリンクパラメータ算出誤差が累積して、ロボットコントローラ109は、オフラインオフセットToWoに対して傾いたオンラインオフセットTrWrを印加する可能性がある。オンラインオフセットTrWrの方向とオフラインオフセットToWoの方向とが異なる場合、オンライン教示点Wrとオフライン教示点Woとが大きく異なってしまう。
そこで、実施の形態2では、オンライン補正用教示点Trへ位置決めたロボットアーム101をオンラインオフセットTrWrの方向へ移動させたステレオカメラ103の被写界深度内でマーカ105を補助撮影する。
補助撮影では、オンライン補正用教示点TrからオンラインオフセットTrWrの方向へオンラインオフセットTrWrよりも小さく移動させた補助撮影点へロボットハンド102を位置決める。そして、補助撮影点へロボットハンド102を位置決めた状態で指標131、132、133をステレオカメラ103により撮影する。
ロボットコントローラ109は、補助撮影点における指標131、132、133の撮影画像に基づいて、オフラインオフセットToWoとオンラインオフセットTrWrの角度ずれを補正する。補正後のオンラインオフセットを用いて、オンライン補正用教示点をオンライン教示点に補正する。
(実施の形態2の制御)
図11は実施の形態2のオンライン教示点の設定制御のフローチャートである。図11中、ステップS1101〜1105は図9に示す実施の形態1のステップS901〜905と同一であるため、詳細な説明を省略する。
ユーザーは、ロボットハンド102にステレオカメラ103を把持させて、オンライン教示を開始する(S1101)。
ロボットコントローラ109は、ステレオカメラ103を把持したロボットアーム101をオフライン補正用教示点Toに移動させる(S1102)。
ロボットコントローラ109は、ステレオカメラ103によりマーカ105の撮影画像を取得し、画像処理部107によりマーカ位置の計測を行なう(S1103)。
ロボットコントローラ109は、ロボットアーム101を移動させて、オフライン補正用教示点Toをオンライン補正用教示点Trに修正する(S1104)。
ロボットコントローラ109は、オフライン補正用教示点ToにおいてオフラインオフセットToWoが設定されていない場合(S1105のNo)、オンライン補正用教示点Trをそのままオンライン教示点Wrとして登録する(S1109)。
ロボットコントローラ109は、オフライン補正用教示点ToにおいてオフラインオフセットToWoが設定されている場合(S1105のYes)、ロボットアーム101をオンラインオフセットTrWr方向に移動する(S1106)。
ロボットコントローラ109は、ステレオカメラ103の被写界深度内にマーカ105が入る範囲内の撮影点で、マーカ105を再び撮影し、マーカ105とロボットハンド102の相対関係Ncを計測する(S1107)。
ロボットコントローラ109は、相対関係Ncを用いて、補正後オンラインオフセットTrWoを算出する(S1108)。補正後オンラインオフセットTrWoは、オンライン補正用教示点Trの位置ずれを加味したオフセットである。
ロボットコントローラ109は、オンライン補正用教示点Trと補正後オンラインオフセットTrWoとを用いて、補正後オンライン教示点Wr’を算出し、不揮発性メモリ113に保存する(S1109)。
Wr’TrWo Tr(≒Wo
このような操作を、ロボットアーム101の処理プログラム上の複数のオフライン補正用教示点で繰り返して、複数のオフライン教示点を、それぞれに対応するオンライン教示点に修正する。
(オンラインオフセットの補正)
図10の(c)は、オンラインオフセットを印加した時に、ステレオカメラ103とマーカ105、ハンドカメラ間変換行列を用いて計測されるハンド座標系を記した図である。図2に示すように、はカメラ座標系Cからハンド座面上のピン穴201で定義されるハンド座標系Hへの変換行列である。
オンラインオフセットの補正方法について、数式を用いながら説明する。オフライン補正用教示点はTo、オンライン補正用教示点はTrである。ステップS1104によりToTrである。オフライン教示装置114から求まるオフラインオフセットはToWoである。補正前のオンラインオフセットはTrWrである。
これらの値を用いると、オフライン教示点Wo及び補正前のオンライン教示点Wrは次式のように表せる。
WoToWo To
WrTrWr Tr
理想はオンラインオフセット印加後に、オフライン教示点Woにロボットハンド102を持ってくることなので、オンラインオフセットをTrWrから補正後オンラインオフセットTrWoに補正する必要がある。補正後オンラインオフセットTrWoは式(2)のように変形できる。
Figure 2017077614
オフラインオフセットToWoは既知なので、オンラインオフセットを補正するにはTrToを求める必要がある。算出方法について説明する。
図11のステップS1106におけるロボットハンド102の移動量をTrNrとし、ステップS1107において計測したマーカ105とロボットハンド102の相対関係をNcとする。Ncは、式(3)のように変形できる。
Figure 2017077614
式(3)において、オンライン補正用教示点PTrでのロボットハンド102とマーカ105の位置関係Tcは、ステップS1104の処理で既知となっている。式(3)から、オンラインオフセット印加前後のロボットハンド102の相対関係NcTcは式(4)のように求まる。
Figure 2017077614
式(4)の相対関係NcTcの平行移動成分TcNcが求まる。オンライン補正用教示点にてステレオカメラ103が計測するハンド座標系Tcは、オフライン補正用教示点でのハンド座標系Toとほぼ等しい。また、座標系NcとNrの原点位置もほぼ等しい。よって、TcNcToNrである。このToNrは次式(5)のように変形できる。
Figure 2017077614
オンラインオフセット印加時、オフセット長に対して線形にロボットハンド102位置は推移すると仮定し、TrNrToNoを用いた。ToTrの平行移動成分がすべて0であると仮定すると、回転成分の3変数のみが残るため、式(5)は解くことが可能である。これを解くことによりTrToを求め、得られたTrToを式(2)に代入することにより、補正後オンラインオフセットTrWoを算出することができる(S1108)。
その後、オンライン補正用教示点Trと補正後オンラインオフセットTrWoとを用いて、補正後オンライン教示点Wr´Nc(≒Wo)を算出することができる(S1109)。
このようにして一点のオンライン教示点Wrの座標が算出される。ロボットアーム101の処理プログラム上に教示点が複数ある場合、全ての教示点に対して同様の演算を行う。
なお、実施の形態2では、ステレオカメラ103の被写界深度内で1点だけ補助撮影を実行したが、被写界深度内の複数点で補助撮影を実行してオンライン教示点を補正してもよい。これにより、ステレオ計測誤差などの誤差が平均化されるため、より高精度にオンライン教示点を補正できる。
この場合、ロボットハンド102を被写界深度内で1点移動させたごとに式(5)を算出し、式(5)の左辺と右辺の差分が0となるように、ToTrの6自由度の変数を最適化計算で求めればよい。これを式(2)に代入することにより、補正後オンラインオフセットを算出できる。
(実施の形態2の効果)
実施の形態2は、目標撮影点からオフラインオフセットのベクトルの反対方向に、オフラインオフセットよりも小さく移動させた補助撮影点へ、ロボットハンド102を位置決めてマーカ105を撮影する補助撮影を実行する。そして、補助撮影におけるマーカ105の撮影結果に基づいてオンラインオフセットを修正する。このため、オフラインオフセットとオンラインオフセットの方向のずれに伴うオンライン教示点の誤差を取り除くことができる。
<実施の形態3>
実施の形態3では、オンライン補正用教示点を起点にして1回以上撮影する補助撮影を行うことにより、オンライン教示点を再修正する。ロボットシステム及び補助撮影以外の構成及び制御は実施の形態1と同一であるため、図12中、実施の形態1と共通する部材には、図1と共通の符号を付して重複する説明を省略する。
(オンラインオフセットの湾曲)
図12はオンラインオフセットの説明図である。図12中、(a)はオフライン教示、(b)はオンライン教示、(c)はオンラインオフセットの補正である。
実施の形態2では、図10の(b)に示すように、オンライン補正用教示点へロボットハンド102を移動後、オンラインオフセット印加時にロボットハンド102が直線的に移動すると仮定してオンライン教示点の座標を計算した。
これに対して、実施の形態3では、図12の(b)に示すように、オンライン補正用教示点へロボットハンド102を移動後、オンラインオフセット印加時にロボットハンド102が曲線的に移動する場合も想定して、オンライン教示点の座標を計算する。オンラインオフセットのオフセット長が長い場合、オンラインオフセットの印加時のロボットハンド102の軌跡を線形と見なせない場合がある。
すなわち、オンラインオフセットのオフセット長が短ければ、オンラインオフセット印加時のロボットハンド102の軌跡を線形と見なせる。そこで、実施の形態3では、ステレオカメラ103の被写界深度内で実施の形態2の操作と処理とを繰り返して、オンラインオフセットのベクトルを修正することにより、より正確なオンライン教示点の座標を求める。
(実施の形態3の制御)
図13は実施の形態3のオンライン教示点の設定制御のフローチャートである。図13に示すステップS1301〜S1307は、図11に示す実施の形態2のステップS1101〜S1107と同一であるため、詳細な説明を省略する。
ユーザーは、ロボットハンド102にステレオカメラ103を把持させて、オンライン教示を開始する(S1301)。
ロボットコントローラ109は、ステレオカメラ103を把持したロボットアーム101をオフライン補正用教示点Toに移動させる(S1302)。
ロボットコントローラ109は、ステレオカメラ103によりマーカ105の撮影画像を取得し、画像処理部107によりマーカ位置の計測を行なう(S1303)。
ロボットコントローラ109は、ロボットアーム101を移動させて、オフライン補正用教示点Toをオンライン補正用教示点Trに修正する(S1304)。
ロボットコントローラ109は、オフライン補正用教示点ToにおいてオフラインオフセットToWoが設定されていない場合(S1305のNo)、オンライン補正用教示点Trをオンライン教示点Wrとして登録する(S1311)。
ロボットコントローラ109は、オフライン補正用教示点ToにおいてオフラインオフセットToWoが設定されている場合(S1305のYes)、ロボットアーム101をオンラインオフセットToWo方向に移動する(S1306)。
ロボットコントローラ109は、ステレオカメラ103の被写界深度内でロボットハンド102を少しずつ移動してマーカ105を撮影し、撮影画像を画像処理してマーカ105とロボットハンド102の相対関係Ncを計測する(S1307)。
ロボットコントローラ109は、あらかじめ不揮発性メモリ113に保存された移動点数(n回)の全点に移動完了したかを判断する(S1308)。全点移動完了していない場合(S1308のNo)、ロボットアーム101をオンラインオフセット方向に再び移動させる(S1306)。
ロボットコントローラ109は、ステレオカメラ103の被写界深度内で移動点数(n回)の移動を終えると(S1308のYes)、取得した複数の相対関係Ncによりオンラインオフセットの補正量のオフセット長特性を求める(S1309)。
ロボットコントローラ109は、オンラインオフセットの補正量のオフセット長特性を用いて、オンラインオフセットの補正量を算出し、オフセット長に対応するオンラインオフセットの補正量を算出する(S1310)。
ロボットコントローラ109は、実施の形態2のステップS909と同様の処理を行って補正後オンライン教示点Wr´を算出し、不揮発性メモリ113にオンライン教示点Wrとして登録する(S1311)。
(オンラインオフセットの補正量のオフセット長特性)
実施の形態3のオンラインオフセットの補正方法について、数式を用いながら説明する。図12の(a)に示すように、オフラインオフセットをToWoとする。図12の(b)に示すように、補正前オンラインオフセットをTrWrとする。
このとき、理想はオンラインオフセットTrWr印加後に、オンライン教示点Woにロボットハンド102を持ってくることなので、オンラインオフセットをTrWrから補正後オンラインオフセットTrWoに補正する必要がある。補正後オンラインオフセットTrWoは次式(6)のように変形できる。
Figure 2017077614
オフラインオフセットToWoは既知なので、オンラインオフセットを補正するにはTrToを求める必要がある。算出方法について説明する。
移動回数がj回目でのハンド座標系をN(j)とすると、j−1回目からj回目のロボットハンド102の移動量は次式のように表せる。
Nr(j−1)Nr(j)(≒Nc(j−1)Nc(j)
図12の(b)に示すように、1回の移動量は小さく、ロボットハンド102の位置変化は線形と見なせる。各回の撮影で取得した(S1307)マーカ105とロボットハンド102の相対位置関係Nc(j−1)及びNc(j)を用いてNc(j−1)Nc(j)は、次式(7)のように変形される。
Figure 2017077614
Nc(j−1)Nc(j)の平行移動成分からNc(j−1)Nc(j)が求まる。ステレオカメラ103が計測するハンド座標系Ncは、オフラインハンド座標系Noとほぼ等しい。また、ハンド座標系NrとNcの原点位置もほぼ等しい。
このため、Nc(j−1)Nc(j)No(j−1)Nr(j)である。このNo(j−1)Nr(j)は次式(8)のように変形できる。
Figure 2017077614
ここで、ロボットハンド102の位置変化は線形とみなせると考えているので、Nr(j−1)Nr(j)No(j−1)No(j)とした。No(j−1)Nr(j−1)の平行移動成分がすべて0であると仮定すると、回転成分の3変数のみが残るため、式(8)は解くことが可能である。これを解くことにより、ロボットハンド102がPN(j)にあるときの、オフラインハンド座標系Noとロボットコントローラ109が算出するハンド座標系Nrの相対姿勢成分Rx(j)、Ry(j)、Rz(j)が求まる。
移動回数jが全移動回数nになるまで同様な計算繰り返して取得したデータより、オフセット長に対して、Rx、Ry、Rzがどのように推移するかがわかるので、Rx、Ry、Rzのオフセット長特性を求めることができる(S1309)。
TrToの回転成分Rx、Ry、Rzは、Rx、Ry、Rzのオフセット長特性にオフセット長=0を代入すれば求まる(S1310)。
TrToの回転成分Rx、Ry、Rzを式(6)に代入することにより、オンラインオフセットを高精度に補正できる(S1311)。
(実施の形態3の効果)
実施の形態3は、目標撮影点からオフラインオフセットのベクトルの反対方向へ、オフラインオフセットよりも小さく移動させた補助撮影点へロボットハンド102を位置決めて、マーカ105を撮影する補助撮影を実行する。そして、補助撮影におけるマーカ105の撮影結果に基づいてオンラインオフセットを非線形に修正する。このため、オフラインオフセットとオンラインオフセットのずれが非線形に発生した場合でもオンライン教示点の誤差を取り除くことができる。
<その他の実施の形態>
実施の形態1では、ロボットハンド102をオフライン補正用教示点へ位置決めてステレオカメラ103によりマーカ105を撮影した。そして、撮影後、撮影画像の処理結果に基づいてロボットアーム101を移動させてロボットハンド102をオンライン補正用教示点へ移動させた。
しかし、撮影後、撮影画像の処理結果に基づいてロボットアーム101を移動させることなく、撮影画像の処理結果に基づいて単にオンライン教示点の座標値及び傾きを求めてもよい。ロボットコントローラ109は、指標131、132、133の撮影結果に基づいて、オフライン教示点とオンライン教示点との位置ずれ量を推定してもよい。
あるいは、撮影後、撮影画像の処理結果に基づいてロボットアーム101を移動させることなく、撮影画像の処理結果に基づいて単にオンライン補正用教示点の座標値及び傾きを求めてもよい。マーカ105を撮影画像上で目標教示点へ移動可能なロボットハンド102の移動ベクトルを求めてもよい。ロボットコントローラ109は、指標131、132、133の撮影結果に基づいて、オフライン補正用教示点とオンライン補正用教示点との位置ずれ量を推定してもよい。
実施の形態1では、三次元視覚センサとしてパッシブ式のステレオカメラ103を用いたが、アクティブ式の光レーザ法、アクティブステレオ法、照度差ステレオ法の作動原理に基づく三次元視覚センサに置き換えてもよい。マーカ105の撮影手段とマーカ105までの距離の計側手段とを別々に備えた三次元視覚センサに置き換えてもよい。
実施の形態1では、ロボットハンド102にステレオカメラ103を把持させて着脱可能に構成した。しかし、ステレオカメラ103をロボットハンド102付近に固定して常設してもよい。作業中にワークや作業台104の指標を撮影するカメラと兼用してもよい。
実施の形態1では、マーカ105は、直方体の板材料に3つの円形の指標を形成したものである。しかし、マーカ105及び指標は、ステレオカメラ103で三次元の位置及び傾きを正確に測定可能なものであれば、別の形状、形式、サイズ、材料等を任意に選択することができる。マーカ105の指標131、132、133は、ステレオカメラ103で計測できる形状であれば白円には限らない。マーカ105の指標は、レーザマーキングやシール等で形成してもよい。ロボットシステム100の実作業で用いるワークが元来備えている開口部やエッジ等の特徴点を指標として設定してもよい。
実施の形態1では、マーカ105は、作業台104上に位置決められていた。しかし、マーカ105は、作業台104上に固定した載置台に設置してもよい。指標は、マーカ105ではなく、実際のワーク上に形成してもよい。
実施の形態1では、オンライン教示作業時だけ、作業台104上にマーカ105を設置する構成とした。しかし、実作業で常時用いる治具や、作業台104そのものに指標を形成してもよい。
100 ロボットシステム、101 ロボットアーム、102 ロボットハンド
103 ステレオカメラ、104 作業台、105 マーカ
106 ビジョンコントローラ、107 画像処理部、109 ロボットコントローラ
110 ロボット制御部、111 演算部、113 不揮発性メモリ
114 オフライン教示装置、115 ユーザインタフェース、118 カードリーダ
118m メモリカード、131、132、133 指標

Claims (16)

  1. 作業部を移動させる多関節ロボットアームと、前記多関節ロボットアームを制御する制御部と、を有するロボット装置において、前記作業部を用いて処理される対象物側に前記作業部を位置決める目標教示点に対応させて指標が設定され、前記指標を撮影して前記指標の三次元の位置を測定する三次元視覚センサが前記作業部に位置決められた状態で、補正前の教示点を前記目標教示点に向かって補正する教示点補正方法であって、
    前記制御部が、前記作業部を、前記補正前の教示点に対して前記三次元視覚センサの被写界深度方向を含む方向にオフセットした撮影点に位置させるように前記多関節ロボットアームを制御するロボットアーム制御工程と、
    前記制御部が、前記ロボットアーム制御工程により前記作業部を前記撮影点に位置させた状態で前記三次元視覚センサにより前記指標を撮影する撮影工程と、
    前記制御部が、前記撮影工程による前記指標の撮影結果に基づいて、前記補正前の教示点を補正する補正工程と、を有することを特徴とする教示点補正方法。
  2. 前記補正工程では、前記制御部が、前記撮影工程による前記指標の撮影結果に基づいて、前記補正前の教示点と前記目標教示点の位置ずれ量を推定することを特徴とする請求項1に記載の教示点補正方法。
  3. 前記補正工程では、前記制御部が、前記撮影工程による前記指標の撮影結果に基づいて、前記撮影点と前記目標教示点に対応する目標撮影点との位置ずれ量を推定することを特徴とする請求項1に記載の教示点補正方法。
  4. 前記撮影工程では、前記制御部が、前記撮影工程による前記指標の撮影結果に基づいて、前記多関節ロボットアームを制御することにより、前記作業部を、前記目標教示点に対応する目標撮影点に移動させることを特徴とする請求項1に記載の教示点補正方法。
  5. 前記補正工程では、前記制御部が、前記教示点から前記撮影点まで前記指標に対してオフセットするベクトルを前記目標撮影点から差し引くことにより前記補正前の教示点を補正することを特徴とする請求項4に記載の教示点補正方法。
  6. 前記撮影工程では、前記制御部が、前記三次元視覚センサの被写界深度内に前記指標が位置する範囲で前記撮影点に向かってオフセットする反対方向へ移動させた補助撮影点へ前記作業部を位置決めて前記指標を前記三次元視覚センサにより1回以上撮影する補助撮影を実行し、
    前記補正工程では、前記制御部が、前記撮影工程における前記指標の撮影結果と、前記補助撮影における前記指標の撮影結果と、に基づいて、前記補正前の教示点を補正することを特徴とする請求項5に記載の教示点補正方法。
  7. 前記撮影点に前記作業部を位置決めたときの前記三次元視覚センサによる前記指標の測定精度は、前記教示点に前記作業部を位置決めたときの前記三次元視覚センサによる前記指標の測定精度よりも高いことを特徴とする請求項1乃至6のいずれか1項に記載の教示点補正方法。
  8. 前記撮影点に前記作業部を位置決めた状態では前記指標が前記三次元視覚センサの測定可能範囲内であって、前記教示点に前記作業部を位置決めた状態では前記指標が前記三次元視覚センサの測定可能範囲外であることを特徴とする請求項1乃至6のいずれか1項に記載の教示点補正方法。
  9. 前記三次元視覚センサは、前記作業部であるロボットハンドに把持されることを特徴とする請求項1乃至8のいずれか1項に記載の教示点補正方法。
  10. 前記指標は、前記対象物を支持する支持部に位置決められた治具に設けられることを特徴とする請求項1乃至9のいずれか1項に記載の教示点補正方法。
  11. 請求項1乃至10のいずれか1項に記載の教示点補正方法をコンピュータに実行させるためのプログラム。
  12. 請求項11に記載のプログラムを記録した記録媒体。
  13. 作業部を移動させる多関節ロボットアームと、前記多関節ロボットアームを制御する制御部と、を有し、
    前記作業部を用いて処理される対象物側に、前記作業部を位置決める目標教示点に対応させて指標が設定され、前記指標を撮影して前記指標の三次元の位置を測定する三次元視覚センサが前記作業部に位置決められた状態で、補正前の教示点を前記目標教示点に向かって補正するロボット装置であって、
    前記制御部は、前記作業部を、前記補正前の教示点に対して前記三次元視覚センサの被写界深度方向を含む方向にオフセットした撮影点に位置させるように前記多関節ロボットアームを制御するロボットアーム制御処理と、前記ロボットアーム制御処理により前記作業部を前記撮影点に位置させた状態で前記三次元視覚センサにより前記指標を撮影する撮影処理と、前記撮影工程による前記指標の撮影結果に基づいて、前記補正前の教示点を補正する補正処理と、を実行することを特徴とするロボット装置。
  14. 前記撮影処理では、前記制御部が、前記三次元視覚センサの被写界深度内に前記指標が位置する範囲で前記撮影点に向かってオフセットする反対方向へ移動させた補助撮影点へ前記作業部を位置決めて前記指標を前記三次元視覚センサにより1回以上撮影する補助撮影を実行し、
    前記補正処理では、前記制御部が、前記撮影工程における前記指標の撮影結果と、前記補助撮影における前記指標の撮影結果と、に基づいて、前記補正前の教示点を補正することを特徴とする請求項13に記載のロボット装置。
  15. 請求項13又は14に記載のロボット装置に供給される撮影点を作成する撮影点作成方法であって、
    コンピュータが、前記指標の位置情報に基づいて、前記作業部を前記補正前の教示点に位置させたときの前記被写界深度方向における前記三次元視覚センサの測定可能範囲内に前記指標が存在するか否かを判断する判断工程と、
    コンピュータが、前記判断工程において前記測定可能範囲外に前記指標が存在すると判断した場合に前記教示点から前記三次元視覚センサの被写界深度方向にオフセットした位置を前記撮影点として設定する撮影点設定工程と、を有することを特徴とする撮影点作成方法。
  16. 請求項13又は14に記載のロボット装置に供給される撮影点を作成する撮影点作成装置であって、
    前記指標の位置情報に基づいて、前記作業部を前記補正前の教示点に位置させたときの前記被写界深度方向における前記三次元視覚センサの測定可能範囲内に前記指標が存在するか否かを判断する判断処理と、前記判断処理において前記測定可能範囲外に前記指標が存在すると判断した場合に前記教示点から前記三次元視覚センサの被写界深度方向にオフセットした位置を前記撮影点として設定する撮影点設定処理と、を実行する制御部を有することを特徴とする撮影点作成装置。
JP2015207631A 2015-10-22 2015-10-22 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法 Active JP6812095B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015207631A JP6812095B2 (ja) 2015-10-22 2015-10-22 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
US15/768,821 US11014233B2 (en) 2015-10-22 2016-09-23 Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus
PCT/JP2016/078965 WO2017068930A1 (en) 2015-10-22 2016-09-23 Teaching point correcting method, program, recording medium, robot apparatus, imaging point creating method, and imaging point creating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015207631A JP6812095B2 (ja) 2015-10-22 2015-10-22 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法

Publications (2)

Publication Number Publication Date
JP2017077614A true JP2017077614A (ja) 2017-04-27
JP6812095B2 JP6812095B2 (ja) 2021-01-13

Family

ID=57233808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015207631A Active JP6812095B2 (ja) 2015-10-22 2015-10-22 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法

Country Status (3)

Country Link
US (1) US11014233B2 (ja)
JP (1) JP6812095B2 (ja)
WO (1) WO2017068930A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192569A (ja) * 2017-05-18 2018-12-06 ファナック株式会社 プログラミング装置及びロボット制御方法
KR20190029276A (ko) 2017-09-12 2019-03-20 한화에어로스페이스 주식회사 이동식 협업 로봇
KR20190079363A (ko) 2017-12-27 2019-07-05 한화정밀기계 주식회사 협업 로봇
CN110712194A (zh) * 2018-07-13 2020-01-21 发那科株式会社 物体检查装置、物体检查系统以及调整检查位置的方法
JPWO2021200743A1 (ja) * 2020-04-02 2021-10-07
WO2021261411A1 (ja) * 2020-06-23 2021-12-30 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
KR102592603B1 (ko) * 2023-02-22 2023-10-23 주식회사 시스템알앤디 비전 검사 장비의 모니터링 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
KR102700027B1 (ko) * 2018-04-12 2024-08-29 코닝 인코포레이티드 이동하는 유리 리본과 결합하기 위한 장치 및 방법
JP7237483B2 (ja) 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
KR102577448B1 (ko) * 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
CN112571412B (zh) * 2019-09-30 2024-03-26 中电九天智能科技有限公司 一种智能制造设备的控制系统
CN113829338B (zh) * 2020-06-24 2023-06-20 中国科学院沈阳自动化研究所 一种基于坐标系伺服对准的结构光手眼标定方法
CN116619395B (zh) * 2023-07-26 2023-12-22 深圳优艾智合机器人科技有限公司 一种机械臂的控制方法、移动机器人及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287164A (ja) * 1989-04-28 1990-11-27 Fujitsu Ltd プロービング機構
JPH04100573A (ja) * 1990-07-11 1992-04-02 Yaskawa Electric Corp カメラ座標系ずれ補正方法
US5400638A (en) * 1992-01-14 1995-03-28 Korea Institute Of Science And Technology Calibration system for compensation of arm length variation of an industrial robot due to peripheral temperature change
JPH0784631A (ja) * 1993-09-14 1995-03-31 Fanuc Ltd ロボットの教示プログラムの補正方法
JPH0970786A (ja) * 1995-09-06 1997-03-18 Ricoh Co Ltd 把持ハンド
DE19930087A1 (de) * 1999-06-30 2001-01-11 Charalambos Tassakos Verfahren und Vorrichtung zur Regelung der Vorhalteposition eines Manipulators eines Handhabungsgeräts
JP2002307348A (ja) * 2001-04-13 2002-10-23 Yaskawa Electric Corp ウェハ搬送用ロボットの教示方法および教示用プレート
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
US20150142171A1 (en) * 2011-08-11 2015-05-21 Siemens Healthcare Diagnostics Inc. Methods and apparatus to calibrate an orientation between a robot gripper and a camera

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4362977A (en) * 1980-06-30 1982-12-07 International Business Machines Corporation Method and apparatus for calibrating a robot to compensate for inaccuracy of the robot
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
US4670849A (en) * 1983-03-31 1987-06-02 Hitachi, Ltd. Position error correcting method and apparatus for industrial robot
US4562391A (en) * 1983-06-08 1985-12-31 Inoue-Japax Research Incorporated Robotic positioning system
US4796200A (en) * 1986-12-09 1989-01-03 Diffracto Ltd. Target based determination of robot and sensor alignment
US4853771A (en) * 1986-07-09 1989-08-01 The United States Of America As Represented By The Secretary Of The Navy Robotic vision system
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
JP2690603B2 (ja) * 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
JP2764485B2 (ja) * 1991-08-27 1998-06-11 ファナック株式会社 リアルタイムセンサの診断方法
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JP3394278B2 (ja) * 1992-12-03 2003-04-07 ファナック株式会社 視覚センサ座標系設定治具及び設定方法
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
US5748505A (en) * 1996-02-06 1998-05-05 Perceptron, Inc. Method and apparatus for calibrating a noncontact gauging sensor with respect to an external coordinate system
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US6075881A (en) * 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
JPH10329065A (ja) * 1997-05-30 1998-12-15 Matsushita Electric Ind Co Ltd ロボットの位置ずれ補正方法
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
US6071060A (en) * 1998-04-08 2000-06-06 Mcms, Inc. Calibration jig for an automated placement machine
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
DE19854011A1 (de) * 1998-11-12 2000-05-25 Knoll Alois Einrichtung und Verfahren zum Vermessen von Mechanismen und ihrer Stellung
SE9804450D0 (sv) * 1998-12-17 1998-12-17 Robotkonsult Ab Metod och anordningar för automatisk in-line kalibrering av robot, verktyg och cell
US6687402B1 (en) * 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6381366B1 (en) * 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
US6748104B1 (en) * 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US6798925B1 (en) * 2000-12-22 2004-09-28 Cognex Corporation Method and apparatus for calibrating an image acquisition system
US6430474B1 (en) * 2001-04-03 2002-08-06 Xerox Corporation Tooling adapter for allowing selected manipulation of a workpiece
JP3793100B2 (ja) * 2002-02-14 2006-07-05 キヤノン株式会社 情報処理方法、装置および記録媒体
KR100485348B1 (ko) * 2002-07-09 2005-04-27 삼성전자주식회사 로봇의 캘리브레이션 방법
JP3735344B2 (ja) * 2002-12-27 2006-01-18 オリンパス株式会社 キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
US7113878B1 (en) * 2005-05-18 2006-09-26 Perceptron, Inc. Target for calibrating a non-contact sensor
US8180487B1 (en) * 2008-09-30 2012-05-15 Western Digital Technologies, Inc. Calibrated vision based robotic system
JP2010139329A (ja) * 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
US8135208B1 (en) * 2009-01-15 2012-03-13 Western Digital Technologies, Inc. Calibrated vision based robotic system utilizing upward and downward looking cameras
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
TWI408037B (zh) * 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
US9189702B2 (en) * 2012-12-31 2015-11-17 Cognex Corporation Imaging system for determining multi-view alignment
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP6261209B2 (ja) 2013-07-04 2018-01-17 キヤノン株式会社 複数の生産装置を備えるシステム
JP6335460B2 (ja) 2013-09-26 2018-05-30 キヤノン株式会社 ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
US9981380B2 (en) * 2014-07-01 2018-05-29 Seiko Epson Corporation Teaching apparatus and robot system
US10525597B2 (en) * 2014-11-21 2020-01-07 Seiko Epson Corporation Robot and robot system
JP2016187844A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6812095B2 (ja) * 2015-10-22 2021-01-13 キヤノン株式会社 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
US10286556B2 (en) * 2016-10-16 2019-05-14 The Boeing Company Method and apparatus for compliant robotic end-effector
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6964989B2 (ja) * 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
US11754672B2 (en) * 2019-05-13 2023-09-12 Gm Cruise Holdings Llc RADAR cross section compensation for calibration of vehicle RADAR

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287164A (ja) * 1989-04-28 1990-11-27 Fujitsu Ltd プロービング機構
JPH04100573A (ja) * 1990-07-11 1992-04-02 Yaskawa Electric Corp カメラ座標系ずれ補正方法
US5400638A (en) * 1992-01-14 1995-03-28 Korea Institute Of Science And Technology Calibration system for compensation of arm length variation of an industrial robot due to peripheral temperature change
JPH0784631A (ja) * 1993-09-14 1995-03-31 Fanuc Ltd ロボットの教示プログラムの補正方法
JPH0970786A (ja) * 1995-09-06 1997-03-18 Ricoh Co Ltd 把持ハンド
DE19930087A1 (de) * 1999-06-30 2001-01-11 Charalambos Tassakos Verfahren und Vorrichtung zur Regelung der Vorhalteposition eines Manipulators eines Handhabungsgeräts
JP2002307348A (ja) * 2001-04-13 2002-10-23 Yaskawa Electric Corp ウェハ搬送用ロボットの教示方法および教示用プレート
JP2014520351A (ja) * 2011-07-08 2014-08-21 レストレーション ロボティクス,インク. カメラシステムの座標系の較正および変換
US20150142171A1 (en) * 2011-08-11 2015-05-21 Siemens Healthcare Diagnostics Inc. Methods and apparatus to calibrate an orientation between a robot gripper and a camera
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10647003B2 (en) 2017-05-18 2020-05-12 Fanuc Corporation Programming device and robot control method
US11364636B2 (en) 2017-05-18 2022-06-21 Fanuc Corporation Programming device and robot control method
JP2018192569A (ja) * 2017-05-18 2018-12-06 ファナック株式会社 プログラミング装置及びロボット制御方法
KR20190029276A (ko) 2017-09-12 2019-03-20 한화에어로스페이스 주식회사 이동식 협업 로봇
KR20190079363A (ko) 2017-12-27 2019-07-05 한화정밀기계 주식회사 협업 로봇
US11082621B2 (en) 2018-07-13 2021-08-03 Fanuc Corporation Object inspection device, object inspection system and method for adjusting inspection position
JP2020012669A (ja) * 2018-07-13 2020-01-23 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
CN110712194A (zh) * 2018-07-13 2020-01-21 发那科株式会社 物体检查装置、物体检查系统以及调整检查位置的方法
JPWO2021200743A1 (ja) * 2020-04-02 2021-10-07
WO2021200743A1 (ja) * 2020-04-02 2021-10-07 ファナック株式会社 ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
JP7481432B2 (ja) 2020-04-02 2024-05-10 ファナック株式会社 ロボットの教示位置を修正するための装置、教示装置、ロボットシステム、教示位置修正方法、及びコンピュータプログラム
WO2021261411A1 (ja) * 2020-06-23 2021-12-30 川崎重工業株式会社 ロボット教示方法及びロボット作業方法
JPWO2021261411A1 (ja) * 2020-06-23 2021-12-30
KR102592603B1 (ko) * 2023-02-22 2023-10-23 주식회사 시스템알앤디 비전 검사 장비의 모니터링 방법

Also Published As

Publication number Publication date
JP6812095B2 (ja) 2021-01-13
WO2017068930A1 (en) 2017-04-27
US11014233B2 (en) 2021-05-25
US20180297198A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6812095B2 (ja) 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US10786904B2 (en) Method for industrial robot commissioning, industrial robot system and control system using the same
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
TWI670153B (zh) 機器人及機器人系統
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5164811B2 (ja) 作業システム及び情報処理方法
US12042942B2 (en) Robot hand-eye calibration method and apparatus, computing device, medium and product
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP7102115B2 (ja) 校正方法、校正装置、3次元測定機、3次元視覚測定装置、ロボットのエンドエフェクタ、プログラム、記録媒体
JP6235664B2 (ja) ロボットの機構パラメータを校正するために使用される計測装置
JP2015182144A (ja) ロボットシステムおよびロボットシステムの校正方法
JP2005201824A (ja) 計測装置
JP2015090298A (ja) 情報処理装置、情報処理方法
US11446822B2 (en) Simulation device that simulates operation of robot
TWI699264B (zh) 視覺導引機器手臂校正方法
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
TW202413026A (zh) 機器人控制裝置
CN116917090A (zh) 使用从视觉传感器的输出得到的三维位置信息的模拟装置
CN115397626A (zh) 坐标系设定系统和位置姿势测量系统
TW202241660A (zh) 程式生成裝置及機器人控制裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201216

R151 Written notification of patent or utility model registration

Ref document number: 6812095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151