JP6429473B2 - ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 - Google Patents

ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP6429473B2
JP6429473B2 JP2014057837A JP2014057837A JP6429473B2 JP 6429473 B2 JP6429473 B2 JP 6429473B2 JP 2014057837 A JP2014057837 A JP 2014057837A JP 2014057837 A JP2014057837 A JP 2014057837A JP 6429473 B2 JP6429473 B2 JP 6429473B2
Authority
JP
Japan
Prior art keywords
robot
calibration
point
coordinate system
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014057837A
Other languages
English (en)
Other versions
JP2015182144A (ja
Inventor
新吾 天野
新吾 天野
鈴木 秀明
秀明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014057837A priority Critical patent/JP6429473B2/ja
Publication of JP2015182144A publication Critical patent/JP2015182144A/ja
Application granted granted Critical
Publication of JP6429473B2 publication Critical patent/JP6429473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視覚センサにより撮像した情報に基づきロボット本体の位置姿勢を制御するロボットシステム前記ロボットシステムにおいて視覚センサの座標系とロボット座標系の校正を行うロボットシステムの校正方法、そのためのプログラム、およびそのプログラムを格納したコンピュータ読み取り可能な記録媒体に関する。
近年、工場の生産ラインにおいて、作業の自動化・省人化を図るために、ロボットを用いた自動組立が多く利用されるようになってきた。この種の工業用途では、多関節アームなどのロボット本体とカメラなどの視覚センサを組合せたロボットシステムが用いられている。特に最近では、作業対象物となるワークは多種多様であり、そのワークの位置のみならず姿勢までも高精度に位置決めするため、視覚センサで3次元計測する必要性が高くなっている。
この種のロボットシステムでは、視覚センサにより撮像した撮像画像に基づきワークの位置および姿勢(以下「位置姿勢」とも表記する)を計測し、それに基づいてロボット本体の動作を補正する。このためには視覚センサを介して計測したワークの位置姿勢データをロボット本体の動作を制御するロボット座標系上のデータに変換する必要がある。そして、視覚センサの計測に用いられる座標系(以下、ビジョン座標系という)と、ロボット本体が動作する座標系(以下、ロボット座標系という)との間の関係を予め求めておかなければならない。
これらビジョン座標系〜ロボット座標系間の校正は一般的にはハンドアイキャリブレーションなどと呼ばれている。ビジョン座標系とロボット座標系の相対位置姿勢の校正精度はそのまま視覚センサを用いたロボット本体の動作位置補正精度に影響する。従って、当然ながら、この種の校正は簡単かつ低(演算)コストな処理により高精度に実行できることが望まれている。
従来より、この校正処理として、下記の特許文献1および非特許文献1に開示されているようにロボット本体に複数の位置姿勢を順次取らせながら、各々の位置姿勢においてカメラにより校正用基準物を計測する手法が知られている。これら文献の手法では、ロボット本体の各位置姿勢におけるロボット本体の先端部への指令値と、カメラからの校正用基準物の計測値との関係から、残差が最小となるように動作座標系と計測座標系との関係を求め、校正値を得ている。
ところで、ロボットの駆動系には減速機やリンク、場合によってはカムなどの機構が含まれるため、このような駆動系を介して制御されるロボット動作にヒステリシス特性が存在し、このヒステリシスによってロボットの位置決め精度が劣化する。従来より、このようなヒステリシスを含むロボットの駆動特性それ自体を同定し、ロボットの位置姿勢制御に反映させようとする技術思想が存在する。例えば、下記の特許文献2は、ロボットの各駆動軸の変位(入力変位)とロボットの先端位置(出力変位)との相関関係を定める関係式の中で用いられる機構パラメータを同定する技術を開示している。この文献では、ロボットの駆動軸の回転方向によって生じるバックラッシュ、リンクの弾性変形、減速機の弾性変形量などが機構パラメータの一部として認識されている。
特開平10−063317号公報 特許第4298757号
Hand-Eye Calibration (Horaud and Dornaika, Int Journal of Robotics Research, Vol.14, No.3, pp.195-210, 1995)
特許文献1に記載された座標校正方法はロボット本体の位置決め誤差を考慮したものではないが、実際には特許文献1記載の構成であってもロボットの駆動系のヒステリシスに起因して位置決め誤差が発生している。この誤差は、従来の座標校正方法では十分に抑制することができず、ロボット本体の位置姿勢の制御において精度向上の妨げとなっていた。
ハンドアイキャリブレーションはロボットの位置情報を用いる必要があるため、ハンドアイキャリブレーションを行ってもその精度がロボットそれ自体のヒステリシスによって劣化するという問題点があった。例えば、特許文献1では校正動作において複数の校正点への移動をどのように行うかについては具体的に開示がないが、例えば校正のタクトタイムを短くするために、ロボットを各校正点に順番に動作させるとヒステリシスの影響が大きくなる問題点がある。例えば、単に、定義した複数の校正点へロボットハンドを順次、移動させるような動作では各校正点への移動でロボットの関節の動作方向、特にその回動方向や角度がまちまちになる。このような校正制御では各校正点への移動でそれぞれ作用するヒステリシスの条件が異なったものとなってしまうため、校正結果に対するロボットのヒステリシスの影響を低減するのは難しい。
また、特許文献2に記載されるようなロボットの機構パラメータを精密に同定し補正しようとする技術思想によると、ヒステリシスをより明示的に同定すべき機構パラメータに加えようとすると、校正動作が複雑かつ困難なものになる可能性がある。例えば、ヒステリシスのパラメータを検出するために1校正点でハンドの姿勢をより多く取るなどの必要が生じ、校正制御が複雑になることが予想される。
また、実際の現場ではロボットにより操作されるワークの位置姿勢にばらつきが想定されるので、校正はこのばらつきを含むように点ではなく広い範囲で行うことが精度向上のために好ましい。しかしながら特許文献2に記載された手法は、タッチアップ方式であるため1点ずつしか校正できない、という問題がある。特許文献2に記載の手法を広い範囲で行なうハンドアイキャリブレーションに適用しようとすれば、校正範囲に含まれる各校正点で複雑な校正制御を行う必要があり、煩雑であり、工数がかかるという問題点があった。
本発明の課題は、上述の事情に鑑み、簡単な制御により、1点ではなく広い範囲で、ロボット座標系とビジョン座標系の校正の精度をより向上できるロボットシステムその校正方法、そのためのプログラム、およびそのプログラムを格納したコンピュータ読み取り可能な記録媒体を提供することにある。
以上の課題を解決するため、本発明は、ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、前記ロボット本体を所定の校正範囲に配置された校正点に動作させて前記視覚センサに前記マーカを撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行う制御装置を備えたロボットシステムにおいて、前記所定の校正範囲に配置された1の校正点において前記ロボット本体を複数の異なる姿勢に制御し、各々の姿勢で前記視覚センサにより前記マーカをそれぞれ撮像し、得られた撮像画像に基づき前記ビジョン座標系における前記マーカの位置と、前記ロボット座標系における前記マーカの位置から校正データを取得するに際して、前記制御装置は、前記1の校正点における前記複数の異なる各姿勢に前記ロボット本体を制御する場合、空間上の特定の1点における特定の位置姿勢に前記ロボット本体を制御し、しかる後に前記特定の1点における特定の位置姿勢を起点として前記複数の異なる姿勢のうち1の位置姿勢に前記ロボット本体を制御して前記視覚センサにより前記マーカを撮像した後、前記複数の異なる姿勢のうち次の姿勢での計測を行うために前記ロボット本体を前記空間上の特定の1点における特定の位置姿勢に復帰させる構成を特徴とする。
あるいは、本発明は、ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、前記ロボット本体を所定の校正範囲に配置された校正点に動作させて前記視覚センサに前記マーカを撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行う制御装置を備えたロボットシステムの校正方法において、前記所定の校正範囲に配置された1の校正点において前記ロボット本体を複数の異なる姿勢に制御し、各々の姿勢で前記視覚センサにより前記マーカをそれぞれ撮像し、得られた撮像画像に基づき前記ビジョン座標系における前記マーカの位置と、前記ロボット座標系における前記マーカの位置から校正データを取得するに際して、前記制御装置は、前記1の校正点における前記複数の異なる各姿勢に前記ロボット本体を制御する場合、空間上の特定の1点における特定の位置姿勢に前記ロボット本体を制御する位置姿勢制御工程と、しかる後に前記特定の1点における特定の位置姿勢を起点として前記複数の異なる姿勢のうち1の位置姿勢に前記ロボット本体を制御して前記視覚センサにより前記マーカを撮像する撮像工程と、前記複数の異なる姿勢のうち次の姿勢での計測を行うために前記ロボット本体を前記空間上の特定の1点における特定の位置姿勢に復帰させる復帰工程と、を実行する構成を特徴とする。
本発明によれば、校正処理において、視覚センサの撮像のため1の校正点における1の位置姿勢にロボット本体を動作させる場合、必ず空間上の特定の1点から校正点へとロボット本体を動作させる。そして、視覚センサの撮影が終了したら次の撮像のため、前記の空間上の特定の1点に復帰するようロボット本体を動作させる。このような制御を行うことにより、各校正点に動作する前にロボットを構成する機構のヒステリシスがリセットされる。これにより、簡単かつ低コストな手法により、ビジョン座標系とロボット座標系のロボット座標系とビジョン座標系の校正に対するロボット機構のヒステリシスの影響を軽減することができ、校正の精度を大きく向上することができる。
本発明の第1の実施形態に係るロボットシステムの概略構成を示した説明図である。 本発明の第1の実施形態に係る校正用のマーカの構成を示した平面図である。 本発明の第1の実施形態に係るロボットシステムにおいてロボット座標系とビジョン座標系の校正処理手順を示したフローチャート図である。 本発明の第1実施形態に係るロボットシステムにおいて校正用データを取得する処理手順を示すフローチャート図である。 本発明の第1の実施形態に係る実工程で視覚センサによる計測値を利用したワークの位置姿勢に動作する前の教示点の近傍の領域を示した説明図である。 本発明の第1の実施形態に係る校正処理における校正用のマーカの位置姿勢制御の一例を示した説明図である。 本発明に係る校正処理と他の校正処理で得られる誤差を示した説明図である。 本発明の第2の実施形態に係るロボットシステムの概略構成を示した説明図である。 本発明の第1実施形態に係るロボットシステムにおいて、実工程でロボット本体を制御する処理手順を示すフローチャート図である。
以下、添付図面を参照して本発明を実施するに好適な実施形態につき詳細に説明する。
<第1の実施形態>
本発明の第1の実施形態について、図1〜図7を用いて説明する。まず、図1を用いて、本実施形態のロボットシステムの概略構成について説明する。
[ロボットシステム]
図1は本実施形態のロボットシステム100の概略構成を示している。本実施形態のロボットシステム100は、概ね制御装置200、ロボット本体10、視覚センサとしてのカメラ3から成る基本構成を有する。
制御装置200は、ロボット本体10の位置姿勢を制御するとともに、カメラ3から得られた撮像画像に基づく計測値を利用してワークの位置姿勢を算出する。制御装置200は、ロボットコントローラ1とビジョンコントローラ2とを有し、ロボットコントローラ1にはロボット本体10とビジョンコントローラ2が接続され、ビジョンコントローラ2には、カメラ3とロボットコントローラ1が接続されている。
ロボット本体10は、多関節のアーム11を有し、アーム11の先端にはエンドエフェクタ(ツール)としてハンド12が装着され、このハンド12を介してワークに対して動作を行う。また、本実施形態の校正制御では、後述のようにハンド12に校正治具20を把持させ、ロボット本体10の各関節を制御することによりロボット本体10の位置姿勢を制御し、所定の校正範囲内の校正点においてカメラ3による撮像を行う。
ワークや後述の校正用のマーカの位置姿勢をロボット本体10が操作する場合、実際にはアーム11の各関節を制御してハンド12で把持した対象物の位置姿勢を制御する。以下の説明では、ワークや校正用のマーカの位置姿勢を制御する動作について、「ロボット本体10の位置姿勢を制御する」といった簡略な表現を用いる。これは煩雑な繰り返し表現を避けるため動作に関与するアーム11や関節、ハンド12に対する言及を省略したものである。当然ながら、このようなロボット本体10の「位置姿勢」の「制御」にはこれらの部材に対してしかるべき制御が行われるのはいうまでもない。
本実施形態において、ロボット本体10のアーム11は、7つのリンクと、各リンクを揺動又は回動可能に連結する6つの関節とを備える6軸の垂直多関節アームとして構成されている。なお、本実施形態ではアーム11として6軸の垂直多関節アームを適用しているが、これにロボットアームの軸数は用途や目的に応じて適宜変更してもよい。また、アーム11は、基台13に固定されており、基台13を基準にしてアーム11の位置や姿勢を表現可能なロボット座標系41が設定されている。このロボット座標系41は、ロボット本体10の動作を制御するために用いられる。
アーム11の各関節には、各関節を各々駆動する駆動手段としてモータが設けられる。この駆動手段は必要に応じて直動アクチュエータなどに置換することができる。アーム11の各関節を駆動するモータや直動アクチュエータなどの駆動手段は、本実施形態の校正システムにおいて出力手段(出力機器)として動作する。また、アーム11の各関節には、モータの回転角度を検知するエンコーダ、各モータに供給する電流を検知する電流センサ、各関節のトルクを検知するトルクセンサが設けられる。これらの検出手段は、本実施形態の校正システムにおいて入力手段(入力機器)として動作する。
アーム11は、制御装置200のロボットコントローラ1から出力される指令値に応じて各関節を駆動し、ハンド12の位置姿勢を調整する。ロボットコントローラ1は、ロボット座標系41を基準とし、ハンド12の座標系であるツール座標系43の相対位置姿勢の目標値に対して、アーム11の各関節の取るべき角度を計算し、各関節に対して指令値を出力する。また、ロボットコントローラ1は、アーム11の各関節に設けられたエンコーダから各関節の現在角度情報を取得し、ツール座標系43の相対位置姿勢を算出することができる。
アーム11の先端部に支持されたハンド12は、アーム11の動作によりその位置姿勢が調整される。ハンド12はワークや校正治具20を把持可能な例えば3本の指を備えている。ハンド12には、ハンド12を基準にしてツール座標系43が設定される。なお、エンドエフェクタとしては、ワークなどを把持可能なハンド12以外にも、把持以外の手段でワークなどを保持する機構や、ワークに加工を施す工具等、ワークに対して作業可能なエンドエフェクタ(ツール)を用いることができる。本実施形態の校正処理は、校正点への移動の形態に特徴があり、エンドエフェクタの形態に制限されることなく実施することができる。
視覚センサとしてのカメラ3は、後述の校正処理を行うためのマーカ21や、実際の作業(実工程)においてはワークなどの対象物を撮影し、ビジョンコントローラ2に画像信号を送信する。本実施形態では、カメラ3は、ロボット本体10の設置環境中の固定位置に設置され、ロボット本体10に対して相対的に位置決めされている。本実施形態では、視覚センサであるカメラ3として例えば単眼カメラを用いるものとするが、カメラ3に対応する視覚センサとしては、(例えばステレオ撮影のための)複眼カメラ、レーザレンジファインダ、あるいは、それらの組合せから構成してもよい。カメラ3には、その光軸方向および撮像視野の縦横方向を基準にしてカメラ3が計測するビジョン座標系42が設定されている。
ロボットコントローラ1は、マイクロプロセッサなどから成るCPU31と、このCPU31にバス接続されたROM32、RAM33、汎用信号インターフェイス34などから構成される。ROM32には、ロボットシステム100を制御するプログラム(後述の校正制御を行なうためのプログラムを含む)が格納される。また、RAM33には、ロボット本体10の動作や、ビジョンコントローラ2への指令送信、ビジョンコントローラ2からの画像処理結果の受信等を制御するプログラムと、制御上必要な関連設定値などが格納される。さらに、RAM33はCPU31による演算実行時の一時記憶用のメモリや必要に応じて設定されるレジスタ領域としても使用される。汎用信号インターフェイス34は、ビジョンコントローラ2やロボット本体10の各軸を制御するサーボ回路、オフラインプログラミング装置、製造ラインの制御部などに対する入出力装置として機能する。
ビジョンコントローラ2は、カメラ3の撮像画像の画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリ(不図示)に格納する。また、ビジョンコントローラ2は、フレームメモリに格納された画像を処理し、ワークやマーカ21などの対象物の識別、位置姿勢を計測する。ここで計測される位置姿勢は、ビジョン座標系42を基準とするマーカ座標系44の位置姿勢に相当するデータである。さらに、画像処理した対象物の識別結果、および位置姿勢をロボットコントローラ1に送信する。また、ビジョンコントローラ2には例えばカメラ3の撮影条件を制御する照明(不図示)が接続されていてもよく、その場合にはビジョンコントローラ2はこの照明の制御も行う。
校正治具20は、ロボットシステム100の校正を行う際にマーカ21を固定するもので、マーカ21はこの校正治具20を介してハンド12あるいはアーム11に固定される。例えば、校正治具20はハンド12により把持されることでハンド12に固定される。なお、校正治具20に対してマーカ21がどのような位置関係で固定されているかは既知でなくともよい。
校正用基準物としてのマーカ21は、後述の校正処理を行うためにカメラ3で撮像され、その撮像画像に基づきマーカ21の位置姿勢を計測できるよう構成される。すなわち、マーカ21には、図2に示すように印刷や穿孔その他の手法により複数のドット22や三角形23のマークが付与される。マーカ21のドット22、三角形23のマークマーカ21上に予め定義されたマーカ座標系44上の所定の位置(座標)に配置される。
マーカ21に所定のパターンで付与された複数のドット22の位置は、例えばマーカ座標系44上の座標表現の設定値として予めビジョンコントローラ2のメモリ(不図示)などの記憶手段に格納しておく。これにより、ビジョンコントローラ2は、カメラ3の撮像画像を介してマーカ21のドット22の位置を求めることにより、ビジョン座標系におけるマーカ21の位置姿勢を計測することができる。
また、マーカ21の三角形23のマークは、マーカ21の特定の一の角部として特定できるよう、マーカ21の特定の一の角部に配置される。ビジョンコントローラ2は、カメラ3の撮像画像を介してこの三角形23の位置を求めることにより、マーカ21の姿勢を一意に求めることができる。なお、図示したマーカ21の構成はあくまでも一例であって、マーカ21はカメラ3から計測できればよく、平面状ではなく立体的に構成されたものであってもよい。
ここで、本実施形態で行う実工程とは、例えばカメラ3による計測値を利用してロボット本体10に指令値を出力してハンド12をワークまで移動させ、そのワークを把持させる工程とする。つまり、生産ラインで順次供給されたワークに対して繰返し行う工程である。以下、このような実工程を成り立たせるためにロボット座標系とビジョン座標系の校正処理で必要な設定項目につき説明する。
図1(あるいは後述の図5)における校正範囲Aは、例えば実工程においてロボット本体10のハンド12で操作されるワークが取り得る位置のばらつきの範囲であって、この校正範囲Aが本実施形態の構成処理において校正点の取り得る範囲である。
校正範囲Aには、例えば5つの校正点P1〜P5を配置し、それぞれの校正点にロボット本体10を動作させることにより、カメラ3によりマーカ21を撮像し、その撮像結果に基づきビジョン座標系におけるマーカ21の位置姿勢を計測する。
また、本実施形態では、ロボット本体10によりマーカ21をある校正点に動作させて撮像する場合、一の校正点においてロボット本体10によりマーカ21を複数の姿勢に制御してマーカ21を撮像する。ここで、校正点P1〜P5のうち、一の校正点において撮像の必要なマーカ21の姿勢数は3以上であればよい。
ここで、校正点の数をN、一の校正点において撮像すべきマーカ21の姿勢数をnとすると、本実施形態のN、nはそれぞれN=5、n=3である。校正点P1〜P5の各々についてマーカ21を3姿勢に制御して、それぞれの姿勢でマーカ21を撮像する場合、校正点P1〜P5でそれぞれ異なる姿勢を3つ取るので、マーカ21に取らせる位置姿勢の数(N*n)はN*n=15(5×3)となる。この校正処理における位置姿勢の数N、nは制御装置200のROM32又はRAM33に記憶させておく。
なお、マーカ21には、一の校正点においてロボット本体10が作業時に必要な動作範囲の中で、なるべく多様な姿勢を取らせることが好ましい。また、校正範囲Aに設置するワークの位置姿勢に実際にはばらつきが想定されるので、このばらつきを含むようにロボット本体10の可動範囲を広めに設定することが精度向上のために好ましい。また、校正点P1〜P5の各々においてマーカ21に取らせるn個の位置姿勢は、ユーザが例えば汎用信号インターフェイス34を介して接続されたティーチングペンダント(不図示)などから教示してもよい。
図1(または後述の図5)に示した教示点P0は、ロボット本体10が配置される空間上の特定の1点であって、例えば実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点を用いることができる。例えば、教示点P0としては、実工程でカメラ3によって位置補正する教示点を通過する前の教示点の1つを選ぶことができる。言い換えれば、教示点P0は実工程においてロボット本体10が通過する軌跡上またはその軌跡の近傍に設定される。
後述の校正処理においては、カメラ3によるの撮像のため1の校正点における1の位置姿勢にロボット本体を動作させる場合、必ず上記の教示点P0から校正点へとロボット本体を動作させる。また、視覚センサの撮影が終了したら次の校正点での撮像のため、教示点P0に復帰するようロボット本体10を動作させる。
以上のように、本実施形態では実工程においてロボット本体10が通過する軌跡上またはその軌跡の近傍に教示点P0を配置する。そして、校正データを得るため、マーカ21を撮像する場合、教示点P0を起点として1つの校正点の位置姿勢にロボット本体10を動作させ、また、撮像後、教示点P0に復帰させる。上記のように教示点P0を配置してロボット本体10を制御することにより、ある校正点における特定の位置姿勢に向かってロボット本体10が制御される軌跡が、実工程においてワークを操作させる時のロボット本体10の軌跡と近くなる。
すなわち、本実施形態では、ロボット本体10を校正点の位置姿勢に動作させる時に、実工程でワークを操作する位置姿勢に動作させる時とほぼ同じ(あるいは類似した)軌跡を取らせる制御を行なう。これによりヒステリシス特性に関しては実工程で作用するのと同等のヒステリシス特性を生じる位置姿勢制御でカメラ3によりマーカ21を撮像し、校正データを取得することができる。また、本実施形態では、ある校正点においてある位置姿勢でマーカ21を撮像し、校正データを取得した後、次の撮像を行う動作につき、上記の教示点P0にロボット本体10を復帰させる制御を行う。この制御により、ロボット本体10の駆動機構のヒステリシス特性により生じた誤差を毎回、リセットすることができる。
本実施形態によれば、上記のように教示点P0を用いた校正制御を行うことにより、簡単かつ低コストにロボット座標系とビジョン座標系の校正に対するロボット機構のヒステリシスの影響を軽減することができ、校正の精度を大きく向上することができる。
後述の校正処理においては、ロボット本体10を教示点P0へ移動(ないし復帰)させる制御を行なうため、上記の教示点P0の座標(例えばロボット座標系における座標)は予め制御装置200のROM32又はRAM33に記憶させておく。また、教示点P0の代わりに、実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点の近傍点を別の教示点P0として用いてもよい。
例えば、教示点P0として採用可能な近傍点の取り得る範囲は、図5に斜線で示したBの範囲とすることができる。図5においては、ロボット本体10(同図中不図示)のアーム11の原点を図5の点Oとする。ここで、校正範囲A(P2P3P4P5)を底面とする角柱状の空間を考える。例えば、この角柱は、校正範囲A(P2P3P4P5)と、校正範囲Aと平行かつ合同な面(P2’P3’P4’P5’)で構成される角柱である。この場合、ロボット本体10のアーム11が制御されるロボット座標系の原点Oとの関係を考慮すると、アーム11の動作方向が実工程と近くなるような空間の範囲Bは、例えば次のようなものとなる。
すなわち、教示点P0として採用可能な近傍点の取り得る範囲Bは、次のような三角形をロボット座標系の原点Oを通る旋回軸の廻りで回転させた回転体と、校正範囲A(P2P3P4P5)を底面とする上記の角柱が重なる領域の内部(境界含む)である。図5の例では、この三角形とは次の3点を頂点とする三角形である:
(1)校正範囲Aの中でアーム原点Oに最も近い点P2
(2)教示点P0を通る校正範囲Aと平行な面(P2’P3’P4’P5’)中において、校正範囲Aを底面とする角柱と交差する点の中でアーム原点Oに最も近い点P2’
(3)教示点P0を通る校正範囲Aと平行な面(P2’P3’P4’P5’)中において、校正範囲Aを底面とする角柱と交差する点の中でアーム原点Oに最も遠い点P4’
この三角形(P2、P2’、P4’)をロボット座標系の原点Oを通る旋回軸の廻りで回転させた回転体と、上記角柱(P2P3P4P5〜P2’P3’P4’P5’)が重なる空間がBの範囲である。そして、このBの空間の範囲では、ロボット本体10のアーム11が制御されるロボット座標系の原点Oとの関係を考慮すると、アームの動作方向が実工程と近くなるものと考えてよい。
このような範囲Bに後述の校正処理で用いる教示点P0を定義することにより、ビジョン座標系〜ロボット座標系の校正と実工程で発生するロボット本体10の(例えば駆動機構に内在する)ヒステリシスの特性が類似したものとなるよう制御できる。これによって、ロボット本体10の機構が持つヒステリシスが校正誤差に与える影響を低減することができる。なお、上述の範囲B内の近傍点を後述の校正処理で用いる教示点P0として用いる場合は、その座標値(例えばロボット座標系およびビジョン座標系における座標値)を予め制御装置200のROM32又はRAM33に記憶させておく。
以上のように構成されたロボットシステム100は、ロボットコントローラ1のメモリに格納された動作プログラムによって、ロボット本体10を制御することができる。例えば、ロボット本体10によって、校正治具20およびマーカ21をロボット本体10の動作範囲内の任意の位置姿勢で位置決めすることができる。
以下、本実施形態におけるロボットシステム100の、ロボット座標系41とビジョン座標系42との校正方法について説明する。
ここで、前提条件として、校正治具20に対して、マーカ21がどこに固定されているか既知ではない場合を考える。制御装置200は、ロボット座標系41とビジョン座標系42との校正を行う際に、校正範囲Aに設定されたN個(本実施形態では、N=5)の校正点のロボット座標系41中の位置とビジョン座標系42中の位置から校正値を算出することができる。
このとき、それぞれの点でロボット座標系41とツール座標系43の相対位置姿勢と、ビジョン座標系42とマーカ座標系44の相対位置姿勢を得る必要がある。この2種類の位置姿勢を校正用データと呼ぶ。これらの校正用データを用いて、校正すべきロボット座標系41とビジョン座標系42の相対位置姿勢を求めることができる。
上述したロボットシステム100の制御装置200により校正値を算出する手順を、図3に示すフローチャートにより説明する。
まず、制御装置200は、ロボットコントローラ1によりロボット本体10を複数の校正点における特定の位置姿勢に位置決めしながら、各々の位置姿勢においてビジョンコントローラ2によりカメラ3でマーカ(校正用基準物)21を撮像する。ビジョンコントローラ2は、得られた撮像画像に基づき、ビジョン座標系におけるマーカの位置姿勢を計測結果として出力する。制御装置200は、校正に必要な校正用データとして、上記のマーカの位置姿勢の計測値、およびその時の(ロボット座標系における)ロボット本体10の位置姿勢を取得して記憶する(ステップS1)。
ここで、本実施形態の特徴であるステップS1の校正用データを取得する手順を、図4に示すフローチャートに沿って詳細に説明する。
まず、制御装置200は、繰返し処理のカウンタi、jを初期化する(ステップS11)。これらのカウンタi、jは、例えばロボットコントローラ1のRAM33やCPU31のレジスタなどを用いて構成される。本実施形態では、これらカウンタのうちカウンタiは、5個(N=5)の校正点P1〜P5をインデックスし、また、カウンタjは各校正点においてロボット本体10に取らせる3つの姿勢(n=3)をインデックスするものとする。
カウンタi、jを適当なパターンで制御することにより、上述のロボット本体10にN*n個の位置姿勢を取らせることができる。例えば、後述の図6に示す例では、1つの校正点においてロボット本体10に3姿勢を取らせ、3姿勢の撮像が終了したら次の校正点での撮像を行う制御を示している。このような制御は、例えばカウンタjの値を1からインクリメントし、カウンタjがnになったらカウンタiをインクリメントし、カウンタjは1にリセットする、といったパターンでカウンタi、jの値を制御することにより可能となる。このようなパターンでカウンタi、jの値を制御し、ロボット本体10をN*n(本実施形態の場合15)個の位置姿勢に制御し、各位置姿勢においてカメラ3によりマーカ21を撮影し、校正データを取得することができる。
なお、本実施形態の場合、後述のように、N*n(本実施形態の場合15)個の各々の位置姿勢における撮像を行うごとにロボット本体10を教示点P0に復帰させ制御を行なう。このため、必ずしも後述の図6のように1校正点における3姿勢の撮像が続けて行われる必要はない。例えば上記とは逆にカウンタiの値を先に1からインクリメントし、カウンタiがNになったらカウンタjをインクリメントし、カウンタiは1にリセットする、といったパターンで制御を行ってもよい。この場合は、撮像校正点P1〜P5において、順次ある一の姿勢での撮像を行い、それが終了したら次の姿勢で撮像校正点P1〜P5の撮像を行う、といった制御になる。もちろん、他の条件で必要であれば、校正点(位置)を制御するカウンタi、撮像時の姿勢を制御するカウンタjのそれぞれの値を上に例示したものとは異なるパターンで制御してもよい。
さて、ステップS11に続き、ロボットコントローラ1によりロボット本体10を実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点P0に位置決めする(ステップS12)。
次に、ロボットコントローラ1によりハンド12でマーカを把持したロボット本体10をカウンタ[i,j]の値により示される位置姿勢に制御する(ステップS13)。上記の通り、カウンタiの値(1〜5)は例えば校正点P1〜P5を示し、カウンタjの値(1〜3)は各校正点における撮像時のロボット本体10の姿勢を示す。
ここで、相対位置姿勢を並進成分とオイラー角で表すものとすれば、(X、Y、Z、Rx、Ry、Rz)となり、それを同次変換行列Hの形で次式のように定義する。
Figure 0006429473
但し、Rotx、Roty、Rotzはそれぞれx、y、z軸まわりの回転を表す3×3の回転行列である。
そして、制御装置200は、ビジョンコントローラ2によりカメラ3でマーカ21を計測する(ステップS14)。さらに、制御装置200はビジョンコントローラ2によりカメラ3から取得したデータに基づいてマーカ21の位置姿勢を計算する。すなわち、ビジョンコントローラ2は、ビジョン座標系42を基準としたマーカ座標系44の相対位置姿勢Hvp[i,j]を算出する。
制御装置200は、ロボット本体10を位置決めした際のハンド12の先端部の位置姿勢Hrt[i,j]を取得して、RAM33に保存し(ステップS15)、また、計測した相対位置姿勢Hvp[i,j]をRAM33に記憶する(ステップS16)。このハンド12の先端部の位置姿勢Hrt[i,j]は、ロボット本体10の位置姿勢を代表する値として取り扱うことができる。なお、ハンド12の先端部の位置姿勢Hrt[i,j]としては、ロボット本体10の位置姿勢の決定後に各関節のエンコーダから現在値を算出して用いることができる。あるいは、これに限らず、例えばハンド12の先端部の位置姿勢の指令値をハンド12の先端部の位置姿勢として用いてもよい。なお、一般には制御の目標値に対して少量の偏差が残るため、現在値の方がより高い精度になりやすい。
そして、制御装置200は、カウンタ[i、j]の値を予め定めた上述のパターンのいずれかによって決定し、次の撮像を行なうロボット本体10の次の位置姿勢をインデックスするよう制御する(ステップS17)。
そして、ステップS18では、カウンタ[i、j]の値を判定し、N*n個(本実施形態では5x3=15)の位置姿勢における撮像を行ったか否かを判定する(ステップS18)。なお、ここでのカウンタ[i、j]の値の判定方式は、上述のカウンタi、jの値を制御するパターンによって適宜決めておけばよい。ここで制御装置200がN*n個の位置姿勢における撮像をまだ終了していないと判定した場合はステップ12に戻り、上述と同様の処理を実行する(ステップS12〜S17)。一方、制御装置200がN*n個の位置姿勢における撮像を終了したと判定した場合は図4の校正用データの取得処理を終了する。
以上のようにして、校正用データの取得処理(図3のステップS1)が終了した時には、ロボット本体10のN*n個の位置姿勢Hrt[i,j](i=1,2,…N、j=1,2,…n)がRAM33に記憶される。同様に、ビジョンコントローラ2がマーカ21の撮像画像を解析することにより得られたマーカ21のN*n個の位置姿勢の計測した相対位置姿勢Hvp[i,j](i=1,2,…N、j=1,2,…n)がRAM33に記憶されている。
ここで、図6を参照して、1つの校正点においてロボット本体10に3姿勢を取らせ、3姿勢の撮像が終了したら次の校正点での撮像を行う場合の動作を詳細に説明する。
図6は校正点P1(カウンタi=1)において、ロボット本体10のハンド12で把持したマーカ21に順次異なる3つの姿勢(カウンタj=1、2、3)を取らせ、撮像を行う様子を詳細に示している。
この校正点P1における制御では、まず図6(a)に示すように、ロボットコントローラ1によりロボット本体10を実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点P0に位置決めする。すなわち、ハンド12で把持したマーカ21を教示点P0の位置姿勢に移動する(図4ステップS12)。
次に、図6(b)に示すように、ロボットコントローラ1によりロボット本体10を校正点P1に位置決めする。ここでは、マーカ21を教示点P0と同じ姿勢のまま校正点P1の位置に移動する(ステップS13)。その後、図4のステップS14〜18を実行する。
続いて図6(c)に示すように、ロボットコントローラ1によりロボット本体10を教示点P0に位置決めすることにより、マーカ21をP0の位置に移動する(ステップS12)。すなわち、マーカ21を教示点P0の位置姿勢に復帰させる。この位置姿勢は図6(a)のものと同じである。
次に、図6(d)に示すように、ロボットコントローラ1でロボット本体10の位置姿勢を制御し、マーカ21を校正点P1において図6(b)とは異なる位置姿勢に制御する。この例では、例えば校正点P1においてマーカ21は、図6(b)の姿勢から鉛直な軸まわりに90°回転させた姿勢に制御される。このように図6(c)から図6(d)の状態に移行する場合、マーカ21をロボット本体10によって回転運動させながら下降させ、校正点P1の位置に移動する(ステップS13、図6(d))。その後、図6(b)の場合と同様に、図4のステップS14〜18を実行する。
次に、図6(e)に示すように、図6(a),(c)と同様、ロボットコントローラ1によりロボット本体10を教示点P0に位置決めする。すなわち、ロボット本体10ないしマーカ21を教示点P0の位置姿勢に復帰させる制御を行う(ステップS12)。
さらに、図6(f)に示すように、ロボットコントローラ1でロボット本体10の位置姿勢を制御し、マーカ21を校正点P1において図6(b)、図6(d)とはさらに異なる位置姿勢に制御する。この例では、校正点P1においてマーカ21の鉛直な軸廻りの回転角度は図6(b)と同じであるが、鉛直な軸に対して所定の傾き(例えば5°前後)を持つ位置姿勢にマーカ21が制御される。このように図6(e)から図6(f)の状態に移行する場合、マーカ21をロボット本体10によって回転運動(傾斜)させながら下降させ、校正点P1の位置に移動する(ステップS13)。その後、図6(b)、図6(d)の場合と同様に、図4のステップS14〜18を実行する。
図6のような順序で校正用データを取得する場合、本実施形態は、ある校正点(P1)においてマーカ21が異なる位置姿勢(図6(b)、(d)、(f))を取る度に、前もってロボット本体10が教示点P0を通る点に特徴がある。すなわち、ロボット本体10(本実施形態の場合マーカ21)を異なる位置姿勢に制御し、その位置姿勢で校正用データ取得のためマーカ21を撮像する場合、その位置姿勢に制御する前に必ず教示点P0における特定の位置姿勢にロボット本体10を制御する。また、本実施形態の制御は、上記のロボット本体10(本実施形態の場合マーカ21)の制御において、ある位置姿勢から次の位置姿勢に移行する場合、必ず上記教示点P0における特定の位置姿勢に復帰させる制御である、と言ってもよい。
このように、本実施形態では、校正データを取得するため特定の位置姿勢にロボット本体10を制御する場合、必ず教示点P0の特定の位置姿勢を起点とする、また、次の位置姿勢への制御のために必ず教示点P0の特定の位置姿勢に復帰させる制御を行う。このような制御を行なうことにより、ロボット本体10の機構部に内在するヒステリシスがリセットされる。これにより、ロボット座標系とビジョン座標系の校正に対するロボット機構のヒステリシスの影響を軽減することができ、校正の精度を大きく向上することができる。
次に、制御装置200は、ロボット座標系41とビジョン座標系42の相対位置姿勢Hrvと、ツール座標系43とマーカ座標系44の相対位置姿勢Htpを演算により求める(図3のステップS2)。これらの相対位置姿勢Hrv、相対位置姿勢Htpは、複数の位置姿勢[i,j]において各々取得したロボット本体10の位置姿勢Hrt[i,j]、およびマーカ21の撮像データから計測した相対位置姿勢Hvp[i,j]に基づき演算することができる。
以下に、具体的な校正演算手順を示す。本実施形態では、ロボット本体10およびカメラ3の間と、ハンド12およびマーカ21の間とは、それぞれ固定されているため、上記のHrvおよびHtpは、ロボット本体10の位置姿勢によらず一定である。カメラ3の計測誤差とロボット本体10の動作誤差が無い場合、各校正点について数式2が成り立つ。
Figure 0006429473
そして、本実施形態ではマーカ21を撮像する位置姿勢はN*n(=15)個あるので、それぞれについて各値を取得すると、数式2をN*n個、連立することができる。実際には、得られるデータには誤差があるため、例えば誤差最小化計算によりN*n組のデータに対する誤差(残差)が最小となるHrvおよびHtpの値を算出し、校正値とすることができる。なお、この校正値を求める演算には最小二乗法などを用いることもできる。
次に、上述したロボットシステム100により、得られた校正値を利用して実工程でロボット本体10に指令値を出力し、ワークを操作する場合の制御を図9のフローチャートを参照して説明する。ここでは、ロボット本体10のハンド12をワークに移動させ、把持させる動作を例に説明する。
まず、ロボットコントローラ1は、ロボット本体10を計測用の位置姿勢に位置決めし、ビジョンコントローラ2によりワークをカメラ3で計測する(図9ステップS3、計測値取得工程)。ここで、カメラ3により計測したワークの位置姿勢の計測値をHvwとする。
次に、ロボットコントローラ1は、計測したワークの位置姿勢の計測値Hvwに基づいて、手先指令値Hrtrefを演算して生成する(ステップS4、指令値生成工程)。ここでは、ロボットコントローラ1は、例えば公知の剛体の座標変換モデルを用い手先指令値Hrtrefを求める。例えば、手先指令値Hrtrefは、上記のようにして求めたロボット座標系41とビジョン座標系42の相対位置姿勢Hrvを校正値として用いて、次の数式3により演算することができる。
Figure 0006429473
そして、ロボットコントローラ1は、上記の手先指令値Hrtrefに基づき、ロボット本体10を位置決めして作業を行わせる(ステップS5、位置姿勢制御工程)。この実工程では、ロボット本体10はカメラ3による計測値を利用したワークの位置姿勢に動作する前に、上述の教示点P0を通る軌道を取る。
そして、上述の校正データ取得処理では、マーカ21を撮像する位置姿勢に移行する場合、実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点P0を起点とし、また次の撮像のために教示点P0に復帰する制御を行っている。このため、校正時と実工程で校正点に向かう、あるいはワークに向かう時のロボット本体10の動作方向や軌道が同じか、または類似したものになり、校正処理と実工程で発生するヒステリシスには大きな差が生じない。従って、上述の校正処理の後、上記のようにして演算された手先指令値によって、実工程においてロボット本体10のハンド12にワークへのアプローチを高精度に実行させることができる。
以上のようにして、本実施形態によれば、ビジョン座標系とロボット座標系を簡単な制御により高精度に校正することができる。これにより、例えば実工程において、ツール座標系43と、ワーク座標系とを高精度に一致させ、ハンド12によるワークの操作を高精度に実施することができる。
図7は、実施例と比較例とにおける、ロボット座標系41とビジョン座標系42との校正誤差を示した図である。図7はロボット座標系41とビジョン座標系42との校正誤差(単位mm)を縦軸に取って示したものである。図7において、校正誤差E1とE2が比較例の校正誤差、校正誤差E3が上述の本実施形態における校正処理を行った場合に得られた校正誤差である。
図7の校正誤差E1は、図4の制御においてステップS12の教示点P0への移動(ないし復帰)を行わずに校正処理を行った場合の校正誤差である。この校正誤差E1は、例えば、図3のステップ1において、実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点P0を通らずに校正点P1〜PNを順繰りに移動して校正データを取得した場合のものである。
また、図7の校正誤差E2は、図4の制御においてステップS12を実行するが、上記の教示点P0ではなく、例えば、実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点の近傍の範囲外の点P0’を用いた場合である。この点P0’は、例えば図5に斜線で示したワークの位置姿勢に動作する前の教示点の近傍の範囲Bから外れた位置のひとつで、図7の校正誤差E2は点P1と同じ点をステップS12で教示点P0’として用いた場合のものである。すなわち、この校正誤差E2を得た校正では、ステップS12の教示点P0’への移動(ないし復帰)を行っている。
図7から明らかなように、本実施形態の校正誤差E3は、マーカ撮像のための位置姿勢制御ごとに特定の教示点を起点とする、あるいは教示点への復帰を行わない場合の校正誤差E1に対して校正誤差を約40%程度小さい。また、本実施形態の校正誤差E3は、ワークの位置姿勢に動作する前の教示点の近傍の範囲(斜線の内部)から外れた点P0’を起点とする、あるいは点P0’へ復帰する制御を行った場合の校正誤差E2に対して校正誤差に対して約17%程度小さい。
なお、教示点P0として好適と考えられる図5の範囲Bの中でも、図5の教示点P0との距離のほぼ半分を半径とし、教示点P0を中心とする球の範囲内に教示点P0を取った場合に、校正誤差を小さくする効果が高いことが判った。
上記のような考察結果を考慮すると、校正用データ取得のために複数の位置姿勢にロボット本体10を制御する場合、各位置姿勢への制御ごとに特定の教示点P0を起点とする(あるいは復帰させる)ことにより校正誤差を小さくできることが判る。そして、特に実工程においてワーク操作に向かって動作するロボット本体10が取り得る空間の範囲内(例えば図5のB)に教示点P0を設定すると校正誤差を大きく低減することができる。このような教示点P0の配置によって、校正時と実工程で校正点に向かう、あるいはワークに向かう時のロボット本体10の動作方向や軌道が同じか、または類似したものとなる。これによって、校正処理と実工程で発生するヒステリシス特性が近似のものとなり、校正誤差を低減できるものと考えられる。
以上説明したように、本実施形態のロボットシステム100によれば、校正データを取得する際に、空間上の特定の1の教示点(P0)を起点とする(へ復帰する)動作を用いることにより、各校正点に動作する前にロボットのヒステリシスがリセットされる。これにより、ロボット座標系とビジョン座標系との校正の精度をより向上することができる。
特に、校正時と実工程で校正点に向かう、あるいはワークに向かう時のロボット本体10の動作方向や軌道が同じか、または類似したものとなるよう、教示点(P0)を配置することにより、校正動作データに含まれるヒステリシスの影響を軽減できる。例えば、空間上の特定の教示点(P0)として、実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点の近傍点を用いることで、実工程で通る経路を校正動作で用いることができる。それにより、校正動作における位置姿勢の制御において、ロボット本体の関節の動作方向を実工程と同じ方向にできる。そのため、簡便に、校正と実工程で発生するヒステリシス特性を類似したものに制御することができ、ロボット座標系とビジョン座標系の校正の精度を大きく向上することができる。
また、本実施形態のロボットシステム100によれば、マーカを複数の校正点で計測することにより、簡便に、1点ではなく広い範囲でロボット座標系とビジョン座標系との校正処理を実施することができる。
<第2の実施形態>
上述の第1の実施形態では、視覚センサとしてのカメラ3をロボット本体10とは別の位置に固定した構成について説明した。しかしながら、本発明は、ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、ロボット本体を所定の校正範囲に配置された校正点に動作させて視覚センサにマーカを撮像させる構成において実施できるものである。
例えば、図8に示すように視覚センサとしてのカメラ4をロボット本体10で支持し、校正範囲内の校正点にロボット本体10の位置姿勢を制御して、環境に固定したマーカを撮像する校正動作を行う場合にも同様の制御が可能である。
以下では、第2の実施形態として、図8に示すようなロボットシステム100Aにおける校正処理につき説明する。なお、以下では、第1の実施形態と同一ないし相当する構成については同一の参照符号を用い、それらの説明は省略ないし簡略化するものとし、第1の実施形態と異なる点を中心に説明する。
本実施形態では、カメラ4はアーム11の先端に装着され、ロボット本体10を動作させることにより、ロボット本体10の動作範囲内の任意の位置姿勢に位置決めすることができる。ビジョンコントローラ2には、ロボットコントローラ1とカメラ4が接続されている。
ビジョンコントローラ2は、カメラ4を介して取り込まれた画像信号を、濃淡グレイスケールによる明暗信号に変換した上でフレームメモリ(不図示)に格納する。ビジョンコントローラ2の機能、すなわち、フレームメモリに格納された画像を処理し、対象物を識別し、位置姿勢を計測して得られた対象物の識別結果、および対象物の位置姿勢をロボットコントローラ1に送信する機能は、第1の実施形態と同様である。
本実施形態のカメラ4は、マーカ21(実工程においてはワーク)の対象物を撮像し、ビジョンコントローラ2に撮像画像の画像信号を送信する。カメラ4は本実施形態でも単眼カメラを用いているが、3次元を計測できるセンサであれば良く、複眼カメラ、レーザレンジファインダ、あるいは、それらの組合せによって構成してもよい。
また、本実施形態の校正治具20は、マーカ21をロボット本体10の設置環境中の固定位置に設置される。マーカ21を固定する好適な位置としては、例えば、基台13上の実際の作業時にワーク(不図示)が固定される位置が考えられる。なお、校正治具20に対して、マーカ21がどこに固定されているかは既知でなくともよい。本実施形態で用いるマーカ21は第1の実施形態と同じものでよい。
以上のように、本実施形態では、視覚センサとしてのカメラ4はロボット本体10の先端部に固定されたカメラである。また、マーカ21はロボット本体10の環境中の固定位置に設置され、ロボット本体10に対して相対的に位置決めされている。
ここで、第1実施形態と同様に、本実施形態で想定する実工程とは、カメラ4による計測値を利用してロボット本体10に指令値を出力してハンド12をワークに移動させ把持させる工程とする。つまり、生産ラインで順次供給されたワークに対して繰返し行う工程である。以下に、その実工程を成り立たせるために、ビジョン座標系とロボット座標系の校正処理で必要な設定項目を述べる。
図8において、校正範囲Aは第1実施形態と同様、例えばワークの位置のばらつきの範囲であって、校正点の取り得る範囲である。
校正点P1〜P5は校正範囲Aに設定された点で、これら各校正点において特定の姿勢にロボット本体10を制御し、各々の位置姿勢においてカメラ4によりマーカ21を撮像する。
校正点の数Nは本実施形態においてもN=5であるものとし、また、各校正点において撮像のためにロボット本体10を制御する姿勢の数nはn=3であるものとする。第1の実施形態と同様、校正処理において各々撮像のためにロボット本体10を制御する位置姿勢はN*n個、すなわちN*n=15(5x3)である。この校正処理において各々撮像のためにロボット本体10を制御すべき位置姿勢は制御装置200のROM32又はRAM33に記憶させておく。
第1の実施形態と同様、校正点の位置姿勢の決め方としては、ロボット本体10が作業時に必要とし得る動作範囲の中で、なるべく多様な姿勢を取らせることが好ましい。例えば、校正範囲Aに設置するワークの位置姿勢に実際にはばらつきが想定されるので、ばらつきを含むようにロボット本体10の可動範囲を広めに設定することが精度向上のために好ましい。また、N個の校正点は、ユーザが例えばティーチングペンダントなどの汎用信号インターフェイス34により教示してもよい。
なお、本実施形態では、マーカ21側を固定し、カメラ4をロボット本体10に支持させている。このため、各校正点においてロボット本体10の位置姿勢を制御することにより、実際にはそれぞれマーカ21を撮像する時にカメラ4がN*n個分の位置姿勢に制御されることになる。本実施形態では簡略化のため、第1の実施形態の図6のような図示を省略するが、1校正点においてカメラ4に取らせる3つの姿勢は、例えば次のようなものが考えられる:
(1)カメラ4の撮影光軸をマーカ21に正対させた姿勢、
(2)(1)の姿勢からカメラ4の撮影光軸(あるいはハンド12の中心軸)廻りにカメラ4を所定角度(例えば90°)回転させた姿勢、
(3)(1)の姿勢からカメラ4の撮影光軸を数°(例えば5°)傾斜させた姿勢、
である。
本実施形態において、教示点P0を実工程でカメラ4による計測値を利用したワークの位置姿勢に動作する前の教示点に取るのは第1実施形態と同様で、実工程でカメラ4によって位置補正する教示点を通過する前の教示点であるものとする。この教示点P0は、予め制御装置200のROM32又はRAM33に記憶させておく。
また、教示点P0の代わりに、実工程でカメラ4による計測値を利用したワークの位置姿勢に動作する前の教示点の近傍点を別の教示点P0として用いてもよい。教示点P0として用いることができる近傍点の取り得る範囲は、上述の第1実施形態と同様、図5の範囲Bとすることができる。図5の範囲Bについては第1実施形態で詳細に説明したので、ここでは重複した説明は省略する。
次に、本実施形態のロボットシステム100Aの校正方法について説明する。ロボットシステム100Aにより校正値を算出する手順を、図3に示すフローチャートにより説明する。本実施形態においても、構成処理全体の手順は図3の通り第1実施形態と同様である。ただし、各手順において第1実施形態と異なる部分があり、以下では、その異なる部分を中心に説明する。
まず、制御装置200は、ロボットコントローラ1によりロボット本体10を複数の校正点における特定の位置姿勢に位置決めしながら、各々の位置姿勢においてビジョンコントローラ2によりカメラ3でマーカ(校正用基準物)21を撮像する。ビジョンコントローラ2は、得られた撮像画像に基づき、ビジョン座標系におけるマーカの位置姿勢を計測結果として出力する。制御装置200は、校正に必要な校正用データとして、上記のマーカの位置姿勢の計測値、およびその時の(ロボット座標系における)ロボット本体10の位置姿勢を取得して記憶する(ステップS1)。
ステップS1の校正用データの取得処理の詳細は図4のステップS11〜S18と同様である。本実施形態においても、ロボットコントローラ1によりロボット本体10を実工程でカメラ3による計測値を利用したワークの位置姿勢に動作する前の教示点P0に位置決めする制御(ステップS12)は同じである。また、制御装置200は、ロボット本体10が動作し得る範囲、かつマーカ21がカメラ4の視野に収まる範囲でロボット本体10を順次位置決めし、マーカ21を計測する(ステップS13〜16)。そして、本実施形態においても、制御装置200はN*n個の校正点の位置姿勢Hrt[i,j]および計測したN*n個の相対位置姿勢Hvp[i,j]をRAM33に記憶する。
次に、制御装置200は、第1実施形態とは異なる校正値を演算して取得する。具体的には、制御装置200は、ツール座標系43とビジョン座標系42との位置姿勢関係Htvと、ロボット座標系41とマーカ座標系44との位置姿勢関係Hrpとを演算して取得する(ステップS2)。カメラ4の計測誤差とロボット本体10の動作誤差が無い場合、各校正位置姿勢について数式4が成り立つ。
Figure 0006429473
本実施形態においても、第1実施形態と同様に、校正点の位置姿勢はN*n(=15)個あるので、それぞれについて各値を取得すると、数式4をN*n個、連立することができる。実際には、得られるデータには誤差があるため、誤差最小化計算によりN*n組のデータに対する誤差(残差)が最小となるHtvおよびHrpの値を算出し、校正値とする。なお、この校正値を求める演算には最小二乗法などを用いることもできる。
次に、図8のロボットシステム100Aにおいて、得られた校正値を利用して、実工程でロボット本体10に指令値を出力してハンド12をワークを操作する手順を、図9に示すフローチャートにより説明する。実工程における制御手順は、第1の実施形態で説明した図9の手順とほぼ同様である。ただし、各手順において第1実施形態と異なる部分があるので、以下では、その異なる部分を中心に説明する。
図9の実工程制御において、まず、制御装置200は、ロボット本体10を計測用の位置姿勢に位置決めし、ビジョンコントローラ2がワークをカメラ4によって計測し、計測値Hvwを得る(ステップS3、計測値取得工程)。
次に、制御装置200は、計測したワークの位置姿勢の計測値Hvwに基づいて、手先指令値Hrtrefを演算して生成する(ステップS4、指令値生成工程)。本実施形態では、制御装置200は手先指令値Hrtrefを次の数式5により算出する。
Figure 0006429473
ただし、Hrtはワーク計測時のツール座標系の位置姿勢である。
そして、制御装置200は、第1実施形態と同様に、指令値Hrtrefに基づき、ロボット本体10を位置決めして作業を行わせる(ステップS5、位置姿勢制御工程)。この実工程では、ロボット本体10はカメラ3による計測値を利用したワークの位置姿勢に動作する前に、上述の教示点P0を通る軌道を取る。
本実施形態のロボットシステム100Aにおいても、校正データを取得する際に、空間上の特定の1の教示点(P0)を起点とする(へ復帰する)動作を校正動作で用いることにより、各校正点に動作する前にロボットのヒステリシスがリセットされる。これにより、ロボット座標系とビジョン座標系との校正の精度をより向上することができる。
特に、上記の特定の教示点(P0)として、実工程でカメラ4による計測値を利用したワークの位置姿勢に動作する前の教示点の近傍点を用いることで、実工程で通る経路を校正動作で用いることができる。これにより、校正動作で行う関節の動作方向を実工程と同じ方向にできる。そのため、簡便に校正と実工程で発生するヒステリシス特性を類似したものに制御できるので、ロボット座標系41(ツール座標系43)とビジョン座標系42との校正の精度をより向上することができる。
以上の通り、本実施形態のようにカメラ4がロボット本体10に固定され、マーカ21がそれとは別に環境に固定される構成であっても、マーカ21を撮像する特定の位置姿勢への制御毎に教示点P0を起点とする(あるいは教示点P0に復帰)動作を行わせる。これにより、前述した第1の実施形態と同様の理由で、ロボットシステム100Aの校正精度を向上させることができる。また、本実施形態でも、マーカの相対位置姿勢を複数の校正点で計測するようにしているため、簡便に、1点ではなく広い範囲で、ロボット座標系とビジョン座標系の校正を行うことができる。
なお、各実施の形態で手先指令値Hrtrefを求めるために用いた校正値は、最小二乗法で導出したものを用いたが、他の演算方法を用いて算出するようにしてもよい。この校正値としては、最も近い校正点に最適化したものを校正値としてもよく、また校正範囲の複数点で多項式を用いて校正値を得るようにしても構わない。
また、以上述べた第1の実施形態および第2の実施形態の校正処理における制御手順は具体的には制御装置200により実行されるものである。従って上述した機能を実現するソフトウェアのプログラムを記録した記録媒体を制御装置200に供給し、制御装置200のCPU31が記録媒体に格納されたプログラムを読み出し実行することによって達成されるよう構成することができる。この場合、記録媒体から読み出されたプログラム自体が上述した各実施の形態の機能を実現することになり、プログラム自体およびそのプログラムを記録した記録媒体は本発明を構成することになる。
また、各実施の形態では、コンピュータで読み取り可能な記録媒体がROM32或いはRAM33であり、ROM32或いはRAM33にプログラムが格納される場合について説明したが、本発明はこのような形態に限定されるものではない。本発明を実施するためのプログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、HDD、外部記憶装置、記録ディスク等を用いてもよい。
1…ロボットコントローラ;2…ビジョンコントローラ;3、4…カメラ(視覚センサ);10…ロボット本体;20…校正治具;21…マーカ(校正用基準物);31…CPU(コンピュータ);32…ROM(記録媒体);33…RAM(記録媒体);41…ロボット座標系;42…ビジョン座標系;43…ツール座標系;44…マーカ座標系;100、100A…ロボットシステム;200…制御装置

Claims (11)

  1. ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、前記ロボット本体を所定の校正範囲に配置された校正点に動作させて前記視覚センサに前記マーカを撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行う制御装置を備えたロボットシステムにおいて、
    前記所定の校正範囲に配置された1の校正点において前記ロボット本体を複数の異なる姿勢に制御し、各々の姿勢で前記視覚センサにより前記マーカをそれぞれ撮像し、得られた撮像画像に基づき前記ビジョン座標系における前記マーカの位置と、前記ロボット座標系における前記マーカの位置から校正データを取得するに際して、
    前記制御装置は、前記1の校正点における前記複数の異なる各姿勢に前記ロボット本体を制御する場合、空間上の特定の1点における特定の位置姿勢に前記ロボット本体を制御し、しかる後に前記特定の1点における特定の位置姿勢を起点として前記複数の異なる姿勢のうち1の位置姿勢に前記ロボット本体を制御して前記視覚センサにより前記マーカを撮像した後、前記複数の異なる姿勢のうち次の姿勢での計測を行うために前記ロボット本体を前記空間上の特定の1点における特定の位置姿勢に復帰させることを特徴とするロボットシステム。
  2. 前記空間上の特定の1点は、実工程において前記ロボット本体が通過する軌跡上またはその軌跡の近傍に設定されることを特徴とする請求項1記載のロボットシステム。
  3. 前記空間上の特定の1点は、
    前記校正範囲の中で前記ロボット座標系の原点に最も近い点と、
    実工程で前記視覚センサによる計測値を用いて前記ロボット本体を所定の位置姿勢に動作させる前に用いられる教示点を含む前記校正範囲と平行な面が前記校正範囲を底面とする角柱と交差する点の中で前記ロボット座標系の原点に最も近い点と、
    前記教示点を含む前記校正範囲と平行な面が前記校正範囲を底面とする角柱と交差する点の中で前記ロボット座標系の原点に最も遠い点、
    とからなる三角形を前記ロボット座標系の原点を通る旋回軸の廻りに回転させた回転体と、前記校正範囲を底面とする前記角柱とが、重なる領域の内部に設定されることを特徴とする請求項1記載のロボットシステム。
  4. 前記視覚センサは、前記ロボット本体に対して相対的に位置決めされたカメラであり、前記制御装置は、前記ロボット本体の先端部により支持された前記校正用のマーカを前記カメラにより撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行うことを特徴とする請求項1記載のロボットシステム。
  5. 前記視覚センサは、前記ロボット本体の先端部に固定されたカメラであり、前記制御装置は、前記ロボット本体に対して相対的に位置決めされた前記校正用のマーカを前記カメラにより撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行うことを特徴とする請求項1記載のロボットシステム。
  6. ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、前記ロボット本体を所定の校正範囲に配置された校正点に動作させて前記視覚センサに前記マーカを撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行う制御装置を備えたロボットシステムの校正方法において、
    前記所定の校正範囲に配置された1の校正点において前記ロボット本体を複数の異なる姿勢に制御し、各々の姿勢で前記視覚センサにより前記マーカをそれぞれ撮像し、得られた撮像画像に基づき前記ビジョン座標系における前記マーカの位置と、前記ロボット座標系における前記マーカの位置から校正データを取得するに際して、
    前記制御装置は、
    前記1の校正点における前記複数の異なる各姿勢に前記ロボット本体を制御する場合、空間上の特定の1点における特定の位置姿勢に前記ロボット本体を制御する位置姿勢制御工程と、
    しかる後に前記特定の1点における特定の位置姿勢を起点として前記複数の異なる姿勢のうち1の位置姿勢に前記ロボット本体を制御して前記視覚センサにより前記マーカを撮像する撮像工程と、
    前記複数の異なる姿勢のうち次の姿勢での計測を行うために前記ロボット本体を前記空間上の特定の1点における特定の位置姿勢に復帰させる復帰工程と、
    を実行することを特徴とするロボットシステムの校正方法。
  7. 前記空間上の特定の1点は、実工程において前記ロボット本体が通過する軌跡上またはその軌跡の近傍に設定されることを特徴とする請求項6記載のロボットシステムの校正方法。
  8. 前記空間上の特定の1点は、
    前記校正範囲の中で前記ロボット座標系の原点に最も近い点と、
    実工程で前記視覚センサによる計測値を用いて前記ロボット本体を所定の位置姿勢に動作させる前に用いられる教示点を含む前記校正範囲と平行な面が前記校正範囲を底面とする角柱と交差する点の中で前記ロボット座標系の原点に最も近い点と、
    前記教示点を含む前記校正範囲と平行な面が前記校正範囲を底面とする角柱と交差する点の中で前記ロボット座標系の原点に最も遠い点、
    とからなる三角形を前記ロボット座標系の原点を通る旋回軸の廻りに回転させた回転体と、前記校正範囲を底面とする前記角柱とが、重なる領域の内部に設定されることを特徴とする請求項6記載のロボットシステムの校正方法。
  9. 請求項6から8のいずれか1項に記載のロボットシステムの校正方法の各工程を前記制御装置に実行させるためのプログラム。
  10. 請求項6から8のいずれか1項に記載のロボットシステムの校正方法を前記制御装置に実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  11. ロボット本体が校正用のマーカまたは視覚センサのうちいずれか一方を支持し、前記ロボット本体を所定の校正範囲に配置された校正点に動作させて前記視覚センサに前記マーカを撮像させ、撮像画像の処理結果に基づいて前記ロボット本体を基準としたロボット座標系と前記視覚センサを基準としたビジョン座標系との校正を行う制御装置を備えたロボットシステムにおいて、
    前記所定の校正範囲に配置された1の校正点において前記ロボット本体を複数の異なる姿勢に制御し、各々の姿勢で前記視覚センサにより前記マーカをそれぞれ撮像し、得られた撮像画像に基づき前記ビジョン座標系における前記マーカの位置と、前記ロボット座標系における前記マーカの位置から校正データを取得するに際して、
    前記制御装置は、前記複数の校正点それぞれについて、前記ロボット本体を1の校正点に動作させる前に前記ロボット本体を空間上の特定の1点に移動し、しかる後に前記特定の1点から前記1の校正点へ前記ロボット本体を動作させ前記視覚センサにより前記マーカの位置を撮像した後、前記複数の校正点のうち次の校正点における計測を行うために前記ロボット本体を前記空間上の特定の1点に復帰させることを特徴とするロボットシステム。
JP2014057837A 2014-03-20 2014-03-20 ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 Active JP6429473B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014057837A JP6429473B2 (ja) 2014-03-20 2014-03-20 ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057837A JP6429473B2 (ja) 2014-03-20 2014-03-20 ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2015182144A JP2015182144A (ja) 2015-10-22
JP6429473B2 true JP6429473B2 (ja) 2018-11-28

Family

ID=54349301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057837A Active JP6429473B2 (ja) 2014-03-20 2014-03-20 ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP6429473B2 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100202A (ja) * 2015-11-30 2017-06-08 株式会社アイキューブテクノロジ ロボットシステム、制御装置、制御方法、及びプログラム
CN105729468B (zh) * 2016-01-27 2018-01-09 浙江大学 一种基于多深度摄像机增强的机器人工作台
KR101850118B1 (ko) * 2016-08-09 2018-04-19 한국생산기술연구원 이동 로봇과 카메라의 캘리브레이션 방법 및 시스템
WO2018043525A1 (ja) * 2016-09-02 2018-03-08 倉敷紡績株式会社 ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
WO2018043524A1 (ja) * 2016-09-02 2018-03-08 倉敷紡績株式会社 ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US10076842B2 (en) 2016-09-28 2018-09-18 Cognex Corporation Simultaneous kinematic and hand-eye calibration
JP6735208B2 (ja) * 2016-10-21 2020-08-05 株式会社アマダ キャリブレーション治具、板金搬入システム、及びキャリブレーション方法
CN108000499B (zh) * 2016-10-27 2020-07-31 达明机器人股份有限公司 机器人视觉坐标的编程方法
JP6396516B2 (ja) 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP7003463B2 (ja) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
CN107363810B (zh) * 2017-07-17 2021-07-20 上海大学 多球面拉线测量适配器机构
JP6886620B2 (ja) 2017-08-09 2021-06-16 オムロン株式会社 キャリブレーション方法、キャリブレーションシステム及びプログラム
JP7062911B2 (ja) * 2017-10-11 2022-05-09 セイコーエプソン株式会社 ロボットシステム
KR20190079326A (ko) 2017-12-27 2019-07-05 한화정밀기계 주식회사 로봇 위치 보정 시스템 및 방법
JP7070127B2 (ja) * 2018-06-15 2022-05-18 オムロン株式会社 ロボット制御システム
CN108942927B (zh) * 2018-06-29 2022-04-26 齐鲁工业大学 一种基于机器视觉的像素坐标与机械臂坐标统一的方法
CN113015604B (zh) 2018-12-11 2024-03-08 株式会社富士 机器人控制系统及机器人控制方法
KR102577448B1 (ko) 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
JP7246955B2 (ja) * 2019-02-13 2023-03-28 株式会社東芝 補正方法及びシステム
US10369698B1 (en) 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
CN110170995B (zh) * 2019-05-09 2022-09-23 广西安博特智能科技有限公司 一种基于立体视觉的机器人快速示教方法
CN112710308A (zh) * 2019-10-25 2021-04-27 阿里巴巴集团控股有限公司 机器人的定位方法、装置和系统
KR102111655B1 (ko) * 2019-11-01 2020-06-04 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
KR102220173B1 (ko) * 2019-11-01 2021-02-25 주식회사 뉴로메카 로봇 비전 시스템을 위한 자동 캘리브레이션 방법 및 장치
CN115697652A (zh) * 2020-07-17 2023-02-03 株式会社富士 相机的位置偏差测定方法
JP7365567B2 (ja) 2020-11-12 2023-10-20 オムロン株式会社 計測システム、計測装置、計測方法及び計測プログラム
CN112525074B (zh) * 2020-11-24 2022-04-12 杭州素问九州医疗科技有限公司 标定方法、系统、机器人、计算机装置和导航系统
CN112792816B (zh) * 2021-01-26 2022-03-01 杭州素问九州医疗科技有限公司 基于几何的手眼标定方法、机器人、计算机及存储介质
TW202233366A (zh) * 2021-02-26 2022-09-01 日商發那科股份有限公司 機器人的設置位置測定装置、設置位置測定方法、機器人控制装置、教示系統以及模擬裝置
JP7437343B2 (ja) 2021-03-29 2024-02-22 株式会社日立製作所 ロボット制御用のキャリブレーション装置
CN113370221B (zh) * 2021-08-12 2021-11-02 季华实验室 机器人tcp标定系统、方法、装置、设备及存储介质
CN115890638A (zh) * 2021-09-30 2023-04-04 台达电子工业股份有限公司 自动化机械手臂系统
CN114102256B (zh) * 2021-11-04 2022-09-06 清华大学 机床旋转轴几何误差识别方法、装置及存储介质
CN114920000A (zh) * 2022-04-22 2022-08-19 歌尔科技有限公司 搬运装置、机械设备以及搬运装置的控制方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063317A (ja) * 1996-08-13 1998-03-06 Fanuc Ltd ロボット−視覚センサシステムにおける座標系結合方法
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法

Also Published As

Publication number Publication date
JP2015182144A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
CN106483963B (zh) 机器人系统的自动标定方法
US11285609B2 (en) Working position correcting method and working robot
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
US9884425B2 (en) Robot, robot control device, and robotic system
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
CN113001535A (zh) 机器人工件坐标系自动校正系统与方法
JP2015089575A (ja) ロボット、制御装置、ロボットシステム及び制御方法
JP2019069493A (ja) ロボットシステム
JP6565175B2 (ja) ロボットおよびロボットシステム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
CN114174006A (zh) 机器人手眼标定方法、装置、计算设备、介质以及产品
US20220402131A1 (en) System and method for error correction and compensation for 3d eye-to-hand coordinaton
CN115446847A (zh) 用于提高机器人系统的3d眼手协调准确度的系统和方法
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
CN116194252A (zh) 机器人系统
WO2023013739A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R151 Written notification of patent or utility model registration

Ref document number: 6429473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151