JPH08210816A - ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 - Google Patents
ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法Info
- Publication number
- JPH08210816A JPH08210816A JP7037787A JP3778795A JPH08210816A JP H08210816 A JPH08210816 A JP H08210816A JP 7037787 A JP7037787 A JP 7037787A JP 3778795 A JP3778795 A JP 3778795A JP H08210816 A JPH08210816 A JP H08210816A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- coordinate system
- sensor
- camera
- reference points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】 (修正有)
【目的】 センサ座標系とロボット先端部の関係を簡便
に定める。 【構成】 キャリブレーション治具5のプレート50を
移動テーブル52上で位置決めする。タッチアップ用ハ
ンドで基準点53,54,55をタッチアップし、ロボ
ット座標系Σr 上における位置Pri(i=1〜3)のデ
ータを獲得し、座標系Σr と治具座標系Σs の間の座標
変換行列[G]を求める。次に、ロボットを移動させて
カメラを位置決めし、フェイスプレート座標系Σf (ロ
ボットの先端部)を表わす行列[Rf ]から、座標系Σ
f から見た座標系Σs の位置を表わす行列[H]を求め
る。更に、この位置でカメラのキャリブレーションを実
行する。プレート50の2つの位置で参照点51a〜5
1dの画像データを取得し、画像処理装置を用いて参照
点51a〜51dの画像上の位置を検出し、カメラに関
するパラメータを算出して記憶する。
に定める。 【構成】 キャリブレーション治具5のプレート50を
移動テーブル52上で位置決めする。タッチアップ用ハ
ンドで基準点53,54,55をタッチアップし、ロボ
ット座標系Σr 上における位置Pri(i=1〜3)のデ
ータを獲得し、座標系Σr と治具座標系Σs の間の座標
変換行列[G]を求める。次に、ロボットを移動させて
カメラを位置決めし、フェイスプレート座標系Σf (ロ
ボットの先端部)を表わす行列[Rf ]から、座標系Σ
f から見た座標系Σs の位置を表わす行列[H]を求め
る。更に、この位置でカメラのキャリブレーションを実
行する。プレート50の2つの位置で参照点51a〜5
1dの画像データを取得し、画像処理装置を用いて参照
点51a〜51dの画像上の位置を検出し、カメラに関
するパラメータを算出して記憶する。
Description
【0001】
【産業上の利用分野】本願発明は、ワーク等の対象物の
位置あるいは位置と姿勢(適宜「位置」で両者を表わ
す。)を計測する視覚センサをロボットの先端部に取り
付けて使用する型のロボット−視覚センサシステムにお
いて、ロボットの先端部に対して固定された座標系とセ
ンサ座標系を結合する為の方法に関する。本願発明は、
例えば、組み立て作業、加工作業等を行なう製造ライン
で利用されるロボット−視覚センサシステムに適用され
る。
位置あるいは位置と姿勢(適宜「位置」で両者を表わ
す。)を計測する視覚センサをロボットの先端部に取り
付けて使用する型のロボット−視覚センサシステムにお
いて、ロボットの先端部に対して固定された座標系とセ
ンサ座標系を結合する為の方法に関する。本願発明は、
例えば、組み立て作業、加工作業等を行なう製造ライン
で利用されるロボット−視覚センサシステムに適用され
る。
【0002】
【従来の技術】工場の製造ラインにおける組み立て作
業、加工作業等においては、作業の自動化・省力化を図
る為に、ロボット等の自動機械とCCDカメラのような
カメラ手段(以下、単に「カメラ」とも言う。)を用い
た視覚センサを組み合わせたシステムが利用されてい
る。カメラを用いた視覚センサには、単体のカメラで撮
影された被計測対象物(以下、単に「対象物」と言
う。)の画像から、主として2次元的な位置情報(例え
ば、平面上の位置ずれ量)を得るもの、2台以上のカメ
ラを用いてステレオ視の原理によって3次元的な情報
(例えば、3次元な位置ずれ量)を得るもの、あるい
は、スリット状の光を対象物に投射して高輝度の光帯を
形成し、その画像から三角測量の原理によって対象物の
3次元計測を行なうものなどがある。
業、加工作業等においては、作業の自動化・省力化を図
る為に、ロボット等の自動機械とCCDカメラのような
カメラ手段(以下、単に「カメラ」とも言う。)を用い
た視覚センサを組み合わせたシステムが利用されてい
る。カメラを用いた視覚センサには、単体のカメラで撮
影された被計測対象物(以下、単に「対象物」と言
う。)の画像から、主として2次元的な位置情報(例え
ば、平面上の位置ずれ量)を得るもの、2台以上のカメ
ラを用いてステレオ視の原理によって3次元的な情報
(例えば、3次元な位置ずれ量)を得るもの、あるい
は、スリット状の光を対象物に投射して高輝度の光帯を
形成し、その画像から三角測量の原理によって対象物の
3次元計測を行なうものなどがある。
【0003】これら視覚センサをロボットと組合せて使
用する場合には、いわゆるハンドアイ方式が広く利用さ
れている。このハンドアイ方式には次のような利点があ
る。
用する場合には、いわゆるハンドアイ方式が広く利用さ
れている。このハンドアイ方式には次のような利点があ
る。
【0004】(1)複数台の視覚センサを設置したり、
視覚センサの移動機構を別途設けたりしなくとも、ロボ
ットを移動させることによって視覚センサの位置を変更
し、複数の位置で計測を行うことが出来る。 (2)ロボット移動量と視覚センサの移動量は等しいか
ら、ロボットの移動量から視覚センサの移動量が判る。 (3)対象物近辺の作業スペースを視覚センサが占有し
ないので、システムのフレキシビリティが高い。
視覚センサの移動機構を別途設けたりしなくとも、ロボ
ットを移動させることによって視覚センサの位置を変更
し、複数の位置で計測を行うことが出来る。 (2)ロボット移動量と視覚センサの移動量は等しいか
ら、ロボットの移動量から視覚センサの移動量が判る。 (3)対象物近辺の作業スペースを視覚センサが占有し
ないので、システムのフレキシビリティが高い。
【0005】このような視覚センサを用いて対象物の位
置を計測し、それに基づいてロボットの動作を補正する
為には、視覚センサの出力する対象物に関する位置のデ
ータをロボットが動作する座標系上のデータに変換する
ことが必要となる。
置を計測し、それに基づいてロボットの動作を補正する
為には、視覚センサの出力する対象物に関する位置のデ
ータをロボットが動作する座標系上のデータに変換する
ことが必要となる。
【0006】ロボットが任意の姿勢をとった時、ロボッ
トが動作する座標系(以下、「ロボット座標系」と言
う。)から見たロボットのアームの先端(単に、「ロボ
ット先端部」とも言う。)の位置は、ロボットが持って
いる現在位置データから知ることが出来る。従って、ハ
ンドアイ方式の場合、ロボットアーム先端位置とセンサ
座標系(センサ側の計測データの表現に使用される座標
系)の関係が既知であれば、センサ座標系とロボット座
標系の関係を求めることが原理的に可能となる。
トが動作する座標系(以下、「ロボット座標系」と言
う。)から見たロボットのアームの先端(単に、「ロボ
ット先端部」とも言う。)の位置は、ロボットが持って
いる現在位置データから知ることが出来る。従って、ハ
ンドアイ方式の場合、ロボットアーム先端位置とセンサ
座標系(センサ側の計測データの表現に使用される座標
系)の関係が既知であれば、センサ座標系とロボット座
標系の関係を求めることが原理的に可能となる。
【0007】しかし、実際にロボットアーム先端とセン
サ座標系との関係を正確に求めることは容易なことでな
く、以下に述べるような困難があった。
サ座標系との関係を正確に求めることは容易なことでな
く、以下に述べるような困難があった。
【0008】ロボットアーム先端とセンサ座標系との関
係を求める為に従来から用いいられている方法の一つ
は、ロボットアーム先端に対する視覚センサの取り付け
位置(正確に言えば、センサ座標系の原点位置)が既知
となるように視覚センサを取り付ける方法である。この
方法では、ロボットアーム先端とセンサ座標系の関係は
視覚センサの取り付け位置に関する幾何学的データ(通
常は設計図面上のデータ)で表わされる。
係を求める為に従来から用いいられている方法の一つ
は、ロボットアーム先端に対する視覚センサの取り付け
位置(正確に言えば、センサ座標系の原点位置)が既知
となるように視覚センサを取り付ける方法である。この
方法では、ロボットアーム先端とセンサ座標系の関係は
視覚センサの取り付け位置に関する幾何学的データ(通
常は設計図面上のデータ)で表わされる。
【0009】その為、ロボットとワークの衝突等の衝撃
によって視覚センサの取り付け位置に狂いが生じた時に
は、これを修復する簡便で適切な方法が無く、取り付け
位置のずれ量を正確に知ることも極めて困難である。
によって視覚センサの取り付け位置に狂いが生じた時に
は、これを修復する簡便で適切な方法が無く、取り付け
位置のずれ量を正確に知ることも極めて困難である。
【0010】また、実際のセンサ座標系はカメラの光学
系を基準とした座標系であり、その座標原点はカメラ内
部(レンズ系の焦点)にあり、ピント調節を行なっただ
けでもその位置が変化する。即ち、視覚センサのロボッ
トアーム先端に対する機械的な取り付け位置を決めただ
けでは、センサ座標系の位置が決まらない。従って、設
計図面上のデータからセンサ座標系の位置を正確に決定
することは実際上困難である。
系を基準とした座標系であり、その座標原点はカメラ内
部(レンズ系の焦点)にあり、ピント調節を行なっただ
けでもその位置が変化する。即ち、視覚センサのロボッ
トアーム先端に対する機械的な取り付け位置を決めただ
けでは、センサ座標系の位置が決まらない。従って、設
計図面上のデータからセンサ座標系の位置を正確に決定
することは実際上困難である。
【0011】このように、ロボットアーム先端部とセン
サ座標系の関係を求めることが困難な為、現在使用され
ているハンドアイ方式のカメラにおいては、ロボットは
単に視覚センサの移動/位置決め手段としての役割を果
たすのみで、単に視覚センサを予め設定された計測位置
に位置決めするだけである。また、各計測位置毎につい
てセンサ座標系とロボット座標系を結合する作業が必要
とされており、なんらかの理由によって視覚センサの位
置が変更された場合には、座標系結合をやり直す必要が
あった。
サ座標系の関係を求めることが困難な為、現在使用され
ているハンドアイ方式のカメラにおいては、ロボットは
単に視覚センサの移動/位置決め手段としての役割を果
たすのみで、単に視覚センサを予め設定された計測位置
に位置決めするだけである。また、各計測位置毎につい
てセンサ座標系とロボット座標系を結合する作業が必要
とされており、なんらかの理由によって視覚センサの位
置が変更された場合には、座標系結合をやり直す必要が
あった。
【0012】
【発明が解決しようとする課題】そこで、本願発明の目
的は、視覚センサの設計図面上データに頼らずに、簡単
な治具を用いてセンサ座標系とロボット先端部の関係を
簡便に定めることが出来る座標系結合方法を提供するこ
とにある。また、本願発明は、そのことを通して従来必
要とされていた計測位置毎のセンサ座標系とロボット座
標系の結合作業を不要することを企図している。
的は、視覚センサの設計図面上データに頼らずに、簡単
な治具を用いてセンサ座標系とロボット先端部の関係を
簡便に定めることが出来る座標系結合方法を提供するこ
とにある。また、本願発明は、そのことを通して従来必
要とされていた計測位置毎のセンサ座標系とロボット座
標系の結合作業を不要することを企図している。
【0013】
【課題を解決するための手段】本願発明は、ロボットと
該ロボットの先端部にカメラ手段を支持させた視覚セン
サを含むロボット−視覚センサシステムにおいて、セン
サ座標系とロボット先端部の関係をキャリブレーション
治具を用いて簡便に定める座標系結合方法を提供するこ
とにより、上記従来技術の問題点を解決した。
該ロボットの先端部にカメラ手段を支持させた視覚セン
サを含むロボット−視覚センサシステムにおいて、セン
サ座標系とロボット先端部の関係をキャリブレーション
治具を用いて簡便に定める座標系結合方法を提供するこ
とにより、上記従来技術の問題点を解決した。
【0014】本願発明の方法に従えば、先ず、ロボット
によりタッチアップ可能な複数の基準点を提供すると共
に前記センサに使用されているカメラ手段のキャリブレ
ーションに使用される複数の参照点を提供するキャリブ
レーション治具を前記ロボットの動作範囲内に設置す
る。そして、ロボットにより複数の基準点のタッチアッ
プを行なってキャリブレーション治具とロボット座標系
の関係を表わすデータを求める。更に、ロボットを用い
てカメラ手段を前記参照点の撮影が可能な位置に位置決
めし、該位置決め時のロボットの現在位置データと、キ
ャリブレーション治具とロボット座標系の関係を表わす
データから、ロボットの先端部に対するキャリブレーシ
ョン治具の位置を表わすデータを求める。
によりタッチアップ可能な複数の基準点を提供すると共
に前記センサに使用されているカメラ手段のキャリブレ
ーションに使用される複数の参照点を提供するキャリブ
レーション治具を前記ロボットの動作範囲内に設置す
る。そして、ロボットにより複数の基準点のタッチアッ
プを行なってキャリブレーション治具とロボット座標系
の関係を表わすデータを求める。更に、ロボットを用い
てカメラ手段を前記参照点の撮影が可能な位置に位置決
めし、該位置決め時のロボットの現在位置データと、キ
ャリブレーション治具とロボット座標系の関係を表わす
データから、ロボットの先端部に対するキャリブレーシ
ョン治具の位置を表わすデータを求める。
【0015】また、この位置決め状態において、カメラ
手段のキャリブレーションを前記参照点の位置データを
治具座標系上で与える形で実行する。これにより、前記
求めたロボットの先端部に対するキャリブレーション治
具の位置を表わすデータは、ロボットの先端部に対する
センサ座標系の関係を表わすデータとして使用出来るよ
うになる。
手段のキャリブレーションを前記参照点の位置データを
治具座標系上で与える形で実行する。これにより、前記
求めたロボットの先端部に対するキャリブレーション治
具の位置を表わすデータは、ロボットの先端部に対する
センサ座標系の関係を表わすデータとして使用出来るよ
うになる。
【0016】キャリブレーション治具は、移動テーブル
と該移動テーブル上に位置決め可能に載置された部材
(例えば、プレート)を備え、該プレート上に少なくと
も一つの基準点と少なくとも一つの参照点を設けたもの
とすることが出来る。
と該移動テーブル上に位置決め可能に載置された部材
(例えば、プレート)を備え、該プレート上に少なくと
も一つの基準点と少なくとも一つの参照点を設けたもの
とすることが出来る。
【0017】また、プレート等の部材上には目視可能な
パターンを形成し、基準点及び参照点をこのパターン上
の特徴点として設けらることが出来る。
パターンを形成し、基準点及び参照点をこのパターン上
の特徴点として設けらることが出来る。
【0018】例えば、プレート上に格子状のパターンを
形成し、3個の基準点と4個の参照点をパターン上の特
徴点(格子点)として設けられる。
形成し、3個の基準点と4個の参照点をパターン上の特
徴点(格子点)として設けられる。
【0019】
【作用】上記ロボットによりタッチアップ可能な複数の
基準点と複数の参照点を備えたキャリブレーション治具
をロボットの動作範囲内に設置し、複数の基準点のタッ
チアップを行ない、ロボットの現在位置認識機能が利用
すれば、キャリブレーション治具とロボット座標系の関
係を表わすデータを得ることが出来る。このデータは、
ロボット座標系と治具座標系の関係を表わす座標変換行
列のデータに相当するものとなる。
基準点と複数の参照点を備えたキャリブレーション治具
をロボットの動作範囲内に設置し、複数の基準点のタッ
チアップを行ない、ロボットの現在位置認識機能が利用
すれば、キャリブレーション治具とロボット座標系の関
係を表わすデータを得ることが出来る。このデータは、
ロボット座標系と治具座標系の関係を表わす座標変換行
列のデータに相当するものとなる。
【0020】更に、ロボットを用いてカメラ手段を前記
参照点の撮影が可能な位置に位置決めし、該位置決め時
のロボットの現在位置データと、キャリブレーション治
具とロボット座標系の関係を表わすデータ(ロボット座
標系と治具座標系の関係を表わす座標変換行列のデー
タ)から、ロボットの先端部に対するキャリブレーショ
ン治具の位置を表わすデータを求める。このデータは、
ロボットの先端部に固定された座標系と治具座標系の関
係を表わす座標変換行列のデータに相当するものとな
る。
参照点の撮影が可能な位置に位置決めし、該位置決め時
のロボットの現在位置データと、キャリブレーション治
具とロボット座標系の関係を表わすデータ(ロボット座
標系と治具座標系の関係を表わす座標変換行列のデー
タ)から、ロボットの先端部に対するキャリブレーショ
ン治具の位置を表わすデータを求める。このデータは、
ロボットの先端部に固定された座標系と治具座標系の関
係を表わす座標変換行列のデータに相当するものとな
る。
【0021】また、この位置決め状態において、カメラ
手段のキャリブレーションを参照点の位置データを治具
座標系上で与える形で実行する。これにより、前記求め
たロボットの先端部に対するキャリブレーション治具の
位置を表わすデータ(ロボットの先端部に固定された座
標系と治具座標系の関係を表わす座標変換行列のデー
タ)は、ロボットの先端部に対するセンサ座標系の関係
を表わすデータとして使用出来るようになる。
手段のキャリブレーションを参照点の位置データを治具
座標系上で与える形で実行する。これにより、前記求め
たロボットの先端部に対するキャリブレーション治具の
位置を表わすデータ(ロボットの先端部に固定された座
標系と治具座標系の関係を表わす座標変換行列のデー
タ)は、ロボットの先端部に対するセンサ座標系の関係
を表わすデータとして使用出来るようになる。
【0022】即ち、カメラのキャリブレーション時に使
用する参照点の位置データを治具座標系上で与えること
により、治具座標系はそのカメラキャリブレーションを
実行したした時点におけるセンサ座標系と同等の座標系
となる。従って、カメラキャリブレーションを実行時の
治具とロボット先端部との関係を表わすデータ(座標系
変換データ)は、ロボットが任意の位置にある時にセン
サ座標系とロボット先端部との関係を表わすデータ(座
標系変換データ)として使用出来る。
用する参照点の位置データを治具座標系上で与えること
により、治具座標系はそのカメラキャリブレーションを
実行したした時点におけるセンサ座標系と同等の座標系
となる。従って、カメラキャリブレーションを実行時の
治具とロボット先端部との関係を表わすデータ(座標系
変換データ)は、ロボットが任意の位置にある時にセン
サ座標系とロボット先端部との関係を表わすデータ(座
標系変換データ)として使用出来る。
【0023】キャリブレーション治具は、少なくとも3
個の基準点とカメラキャリブレーションに必要な個数の
参照点を提供しなければならないが、キャリブレーショ
ン治具を移動テーブル上とその上で可動な部材(例え
ば、プレート)で構成すれば、見かけ上、参照点あるい
は基準点の数を減らすことが出来る。
個の基準点とカメラキャリブレーションに必要な個数の
参照点を提供しなければならないが、キャリブレーショ
ン治具を移動テーブル上とその上で可動な部材(例え
ば、プレート)で構成すれば、見かけ上、参照点あるい
は基準点の数を減らすことが出来る。
【0024】例えば、格子模様を描いたプレートを移動
テーブル上に位置決め可能に載置し、3個の基準点と4
個の参照点を格子点等で与えれば、タッチアップを1回
のプレートの位置決めで実行し、ピンホールカメラのモ
デルを適用したカメラのキャリブレーションを2回のプ
レートの位置決め(その内に1回はタッチアップと共通
で良い。)で実行することが出来る。
テーブル上に位置決め可能に載置し、3個の基準点と4
個の参照点を格子点等で与えれば、タッチアップを1回
のプレートの位置決めで実行し、ピンホールカメラのモ
デルを適用したカメラのキャリブレーションを2回のプ
レートの位置決め(その内に1回はタッチアップと共通
で良い。)で実行することが出来る。
【0025】本来の作業時の対象物の計測時には、セン
サ側からセンサ座標系上で表現されたセンサデータが出
力される。このセンサデータは、ロボットがいかなる位
置にあっても、その時のロボット先端部の位置を表わす
データと、本願発明の方法を通して求められたセンサ座
標系とロボット先端部との関係を表わすデータ(座標系
変換データ)に基づいて、ロボット座標系上で表現され
たデータに変換され、例えば、ロボットの動作補正に利
用される。
サ側からセンサ座標系上で表現されたセンサデータが出
力される。このセンサデータは、ロボットがいかなる位
置にあっても、その時のロボット先端部の位置を表わす
データと、本願発明の方法を通して求められたセンサ座
標系とロボット先端部との関係を表わすデータ(座標系
変換データ)に基づいて、ロボット座標系上で表現され
たデータに変換され、例えば、ロボットの動作補正に利
用される。
【0026】
【実施例】図1は、本願発明の方法を実施する際に使用
されるキャリブレーション治具を含むロボット−視覚セ
ンサシステムの概要を例示した要部ブロック図である。
システム全体は、大別して、ロボットコントローラ1、
画像処理装置2、視覚センサ部10、ロボット20並び
にキャリブレーション治具5から構成される。
されるキャリブレーション治具を含むロボット−視覚セ
ンサシステムの概要を例示した要部ブロック図である。
システム全体は、大別して、ロボットコントローラ1、
画像処理装置2、視覚センサ部10、ロボット20並び
にキャリブレーション治具5から構成される。
【0027】[視覚センサ部]視覚センサ部10は通常
のCCDカメラで構成され、画像処理装置に映像信号を
出力する。画像処理装置2は周知の構造と機能を有する
もので、センサ部10からの映像信号をカメラインター
フェイスを介して取り込み、濃淡グレイスケールによる
明暗信号に変換した上でフレームメモリに格納する。フ
レームメモリに格納された画像データは、画像処理装置
内のプロセッサによって解析され、対象物のの画像上の
位置や視線方程式が計算される。計算結果は必要に応じ
てロボットコントローラ1へ伝送される。なお、画像処
理装置を構成するこれら個別要素の図示及び詳細な説明
は省略する。
のCCDカメラで構成され、画像処理装置に映像信号を
出力する。画像処理装置2は周知の構造と機能を有する
もので、センサ部10からの映像信号をカメラインター
フェイスを介して取り込み、濃淡グレイスケールによる
明暗信号に変換した上でフレームメモリに格納する。フ
レームメモリに格納された画像データは、画像処理装置
内のプロセッサによって解析され、対象物のの画像上の
位置や視線方程式が計算される。計算結果は必要に応じ
てロボットコントローラ1へ伝送される。なお、画像処
理装置を構成するこれら個別要素の図示及び詳細な説明
は省略する。
【0028】[ロボットコントローラ及びロボット]ロ
ボットコントローラ1は通常使用されている型のもので
あり、マイクロプロセッサからなる中央演算処理装置
(以下、「CPU」と言う。)と、CPUにバス結合さ
れたROMメモリ、RAMメモリ、教示操作盤、ロボッ
トの軸制御器、汎用信号インターフェイスを備えてい
る。ROMメモリには、システム全体を制御するプログ
ラムが格納される。ROMメモリには、ロボット動作や
画像処理装置への指令送信、画像処理装置からの画像解
析結果の受信等を制御するプログラム、関連設定値等が
格納される。
ボットコントローラ1は通常使用されている型のもので
あり、マイクロプロセッサからなる中央演算処理装置
(以下、「CPU」と言う。)と、CPUにバス結合さ
れたROMメモリ、RAMメモリ、教示操作盤、ロボッ
トの軸制御器、汎用信号インターフェイスを備えてい
る。ROMメモリには、システム全体を制御するプログ
ラムが格納される。ROMメモリには、ロボット動作や
画像処理装置への指令送信、画像処理装置からの画像解
析結果の受信等を制御するプログラム、関連設定値等が
格納される。
【0029】また、RAMメモリの一部は、CPUによ
る演算実行時の一時記憶用のメモリとしても使用され
る。軸制御器は、ロボット20の各軸をサーボ回路を介
して制御する。汎用信号インターフェイスは、画像処理
装置2との指令やデータのやりとりに使用される。な
お、ロボットコントローラ1を構成するこれら個別要素
の図示及び詳細な説明は省略する。
る演算実行時の一時記憶用のメモリとしても使用され
る。軸制御器は、ロボット20の各軸をサーボ回路を介
して制御する。汎用信号インターフェイスは、画像処理
装置2との指令やデータのやりとりに使用される。な
お、ロボットコントローラ1を構成するこれら個別要素
の図示及び詳細な説明は省略する。
【0030】ロボット20の動作は、ロボットコントロ
ーラ1のメモリに格納された動作プログラムによって制
御される。ロボット20は6自由度のアームを有し、ア
ーム先端部21にはCCDカメラ10がタッチアップ用
ハンド3と共に取り付けられている。ロボット20を動
作させることにより、CCDカメラ10をロボット20
の動作範囲内の任意の位置に任意の姿勢で位置決めする
ことが出来る。
ーラ1のメモリに格納された動作プログラムによって制
御される。ロボット20は6自由度のアームを有し、ア
ーム先端部21にはCCDカメラ10がタッチアップ用
ハンド3と共に取り付けられている。ロボット20を動
作させることにより、CCDカメラ10をロボット20
の動作範囲内の任意の位置に任意の姿勢で位置決めする
ことが出来る。
【0031】また、ロボットには、ロボット座標系と共
にロボットアーム先端部に固定された座標系として、フ
ェイスプレート座標系Σf (後述図2参照)が既に設定
済みであるものとする。従って、ロボットアーム先端部
の位置はこのフェイスプレート座標系Σf の原点の位置
で代表され、その値(変換行列データ)は、ロボットコ
ントローラ1内部でロボット20の現在位置データから
随時計算可能となっている。
にロボットアーム先端部に固定された座標系として、フ
ェイスプレート座標系Σf (後述図2参照)が既に設定
済みであるものとする。従って、ロボットアーム先端部
の位置はこのフェイスプレート座標系Σf の原点の位置
で代表され、その値(変換行列データ)は、ロボットコ
ントローラ1内部でロボット20の現在位置データから
随時計算可能となっている。
【0032】タッチアップ用ハンド3はキャリブレーシ
ョン実行時に装着されるもので、後述するキャリブレー
ション治具5の所定位置に設けられた基準点をタッチア
ップする為に使用される。ロボット20に本来の作業を
行なわせる際には、タッチアップ用ハンド3を外して別
途用意される作業用のハンドと交換する。
ョン実行時に装着されるもので、後述するキャリブレー
ション治具5の所定位置に設けられた基準点をタッチア
ップする為に使用される。ロボット20に本来の作業を
行なわせる際には、タッチアップ用ハンド3を外して別
途用意される作業用のハンドと交換する。
【0033】[キャリブレーション治具]図1中のキャ
リブレーション治具5の周辺部を座標系と共に拡大して
示した図2を参照図に加えて、キャリブレーション治具
について説明する。符号5で指示されたキャリブレーシ
ョン治具は、格子模様を描いたプレート50と移動テー
ブル52で構成される。プレート50は、移動テーブル
52上に精密位置決め可能な態様で載置されている。こ
の治具5の移動テーブル52上に固定された関係で設定
され座標系をこの段階では「治具座標系」と呼び記号Σ
s で表わす。本事例では、図2に示したように、プレー
ト50が移動可能な方向を±Zs 軸方向に設定する。
リブレーション治具5の周辺部を座標系と共に拡大して
示した図2を参照図に加えて、キャリブレーション治具
について説明する。符号5で指示されたキャリブレーシ
ョン治具は、格子模様を描いたプレート50と移動テー
ブル52で構成される。プレート50は、移動テーブル
52上に精密位置決め可能な態様で載置されている。こ
の治具5の移動テーブル52上に固定された関係で設定
され座標系をこの段階では「治具座標系」と呼び記号Σ
s で表わす。本事例では、図2に示したように、プレー
ト50が移動可能な方向を±Zs 軸方向に設定する。
【0034】プレート50の格子模様上には、CCDカ
メラ10によって取得される画像中で参照される参照点
が定められる。本事例では、参照点として格子模様の4
つの格子点51a〜51dを使用する。プレート50の
移動テーブル52上の位置(Zs 軸上の位置)を変えな
がら、各移動位置において図3に例示したような画像6
のデータが取得され、4個の参照点像51a’〜51
d’が検出されて座標系結合に利用される。
メラ10によって取得される画像中で参照される参照点
が定められる。本事例では、参照点として格子模様の4
つの格子点51a〜51dを使用する。プレート50の
移動テーブル52上の位置(Zs 軸上の位置)を変えな
がら、各移動位置において図3に例示したような画像6
のデータが取得され、4個の参照点像51a’〜51
d’が検出されて座標系結合に利用される。
【0035】また、プレート50のコーナ部には、ロボ
ット20に装着されたタッチアップ用ハンド3でタッチ
アップされる3個の基準点53,54,55が設けられ
ている。これら3つの基準点は治具座標系Σs を定める
基準となるもので、基準点53→基準点55の方向が+
Xs 方向を与え、基準点53→基準点54の方向が+Y
s 方向を与える。+Zs 方向は、治具座標系Σs が右手
座標系を構成するように定められる。
ット20に装着されたタッチアップ用ハンド3でタッチ
アップされる3個の基準点53,54,55が設けられ
ている。これら3つの基準点は治具座標系Σs を定める
基準となるもので、基準点53→基準点55の方向が+
Xs 方向を与え、基準点53→基準点54の方向が+Y
s 方向を与える。+Zs 方向は、治具座標系Σs が右手
座標系を構成するように定められる。
【0036】キャリブレーション治具5は、これら基準
点53,54,55に対する格子点(参照点)51a〜
51dの相対位置が精密な既知値となるように設計・製
作されている。例えば、格子模様面は精密仕上げの平面
上に格子間隔D=100.0mmを以て正確に描かれて
いる。治具座標系Σs の原点位置は任意に定めれば良
く、例えばプレート50が移動テーブ52上に設定され
た基準位置にある時の基準点53の位置を原点にとるこ
とが出来る。
点53,54,55に対する格子点(参照点)51a〜
51dの相対位置が精密な既知値となるように設計・製
作されている。例えば、格子模様面は精密仕上げの平面
上に格子間隔D=100.0mmを以て正確に描かれて
いる。治具座標系Σs の原点位置は任意に定めれば良
く、例えばプレート50が移動テーブ52上に設定され
た基準位置にある時の基準点53の位置を原点にとるこ
とが出来る。
【0037】このような座標系設定により、プレート5
0が移動テーブル52上の任意の位置に精密に位置決め
された時、参照点51a〜51d並びに基準点53,5
4,55の各位置は治具座標系Σs 上で直ちに把握され
る。例えば、上記例示した原点の定め方を採用した場合
には、プレート50が基準位置から+Zs 方向に距離z
0 だけ変位した位置に位置決めされた時の各参照点51
a〜51d並びに基準点53,54,55の座標値は、
格子模様の格子間隔をDとして次のように表わされる。
0が移動テーブル52上の任意の位置に精密に位置決め
された時、参照点51a〜51d並びに基準点53,5
4,55の各位置は治具座標系Σs 上で直ちに把握され
る。例えば、上記例示した原点の定め方を採用した場合
には、プレート50が基準位置から+Zs 方向に距離z
0 だけ変位した位置に位置決めされた時の各参照点51
a〜51d並びに基準点53,54,55の座標値は、
格子模様の格子間隔をDとして次のように表わされる。
【0038】参照点51a;(2D, D, z0 ) 参照点51b;( D, D, z0 ) 参照点51c;( D,2D, z0 ) 参照点51d;(2D,2D, z0 ) 基準点53;( 0, 0, z0 ) 基準点54;( 0,3D, z0 ) 基準点55;(3D, 0, z0 ) 次に、以上の事柄を前提に、座標系結合の手順並びに必
要となる処理について、図4のフローチャートを参照図
に加えて説明する。なお、ロボットコントローラ1ある
いは画像処理装置2内で実行されるプロセッサ処理を全
く伴わない段階については、図4のフローチャートに記
載されていない。
要となる処理について、図4のフローチャートを参照図
に加えて説明する。なお、ロボットコントローラ1ある
いは画像処理装置2内で実行されるプロセッサ処理を全
く伴わない段階については、図4のフローチャートに記
載されていない。
【0039】先ず、キャリブレーション治具5をロボッ
ト20の動作範囲内に設置する。そして、プレート50
を適当な位置に位置決めする。位置決めされたプレート
50のZs 軸上の位置(参照点51a〜51d、基準点
53,54,55の乗っている平面とZs 軸上の交点の
Zs 軸座標値)をz1 とする。また、この時の基準点5
3,54,55の位置を順にPsi(xsi,ysi,zsi;
i=1,2,3)で表わす。
ト20の動作範囲内に設置する。そして、プレート50
を適当な位置に位置決めする。位置決めされたプレート
50のZs 軸上の位置(参照点51a〜51d、基準点
53,54,55の乗っている平面とZs 軸上の交点の
Zs 軸座標値)をz1 とする。また、この時の基準点5
3,54,55の位置を順にPsi(xsi,ysi,zsi;
i=1,2,3)で表わす。
【0040】既に説明したように、これらの位置はキャ
リブレーション治具5の設計データを用いれば既知とな
る(例えば、格子間隔Dをロボットコントローラ1に教
示しておく)。
リブレーション治具5の設計データを用いれば既知とな
る(例えば、格子間隔Dをロボットコントローラ1に教
示しておく)。
【0041】キャリブレーション治具5の設置とプレー
ト50の位置決めが完了したら、ロボット20をジョグ
送りで移動させ、タッチアップ用ハンド3で基準点5
3,54,55をタッチアップし、その都度各基準点5
3,54,55のロボット座標系Σr 上における位置P
ri(xri,yri,zri;i=1,2,3)をロボットコ
ントローラ1に記憶させる。即ち、ロボット座標系上の
基準点位置を教示する(ステップS1)。
ト50の位置決めが完了したら、ロボット20をジョグ
送りで移動させ、タッチアップ用ハンド3で基準点5
3,54,55をタッチアップし、その都度各基準点5
3,54,55のロボット座標系Σr 上における位置P
ri(xri,yri,zri;i=1,2,3)をロボットコ
ントローラ1に記憶させる。即ち、ロボット座標系上の
基準点位置を教示する(ステップS1)。
【0042】ロボット座標系Σr と治具座標系Σs の関
係を表わす座標変換行列を[G]として次式(1)で表
わすと、Psi,Pri(i=1,2,3)の値の組との間
に式(2)で表わされる関係が成立する。そこで、下記
(2)式を解いて座標変換行列[G]の行列要素を求め
る(ステップS2)。この処理は、ロボットコントロー
ラ1内で行なわれる。
係を表わす座標変換行列を[G]として次式(1)で表
わすと、Psi,Pri(i=1,2,3)の値の組との間
に式(2)で表わされる関係が成立する。そこで、下記
(2)式を解いて座標変換行列[G]の行列要素を求め
る(ステップS2)。この処理は、ロボットコントロー
ラ1内で行なわれる。
【0043】
【数1】 次に、ロボット20を移動させてカメラ10を撮影位置
に位置決めする(ステップS3)。この撮影位置は、プ
レート50上に設けられた参照点51a〜51dが適当
な大きさを以て視野に入る位置であれば、任意の位置に
選ぶことが出来る。カメラ10が位置決めされたなら
ば、その時のロボットの先端部の位置(フェイスプレー
ト座標系Σf の原点位置)を表わす行列[Rf ]を求め
る。行列[Rf ]を求める計算処理は、ロボットコント
ローラ1内で現在位置データに基づいて実行され、結果
は所定のメモリに記憶される(ステップS4)。
に位置決めする(ステップS3)。この撮影位置は、プ
レート50上に設けられた参照点51a〜51dが適当
な大きさを以て視野に入る位置であれば、任意の位置に
選ぶことが出来る。カメラ10が位置決めされたなら
ば、その時のロボットの先端部の位置(フェイスプレー
ト座標系Σf の原点位置)を表わす行列[Rf ]を求め
る。行列[Rf ]を求める計算処理は、ロボットコント
ローラ1内で現在位置データに基づいて実行され、結果
は所定のメモリに記憶される(ステップS4)。
【0044】フェイスプレート座標系Σf (ロボット先
端部)から見た治具座標系Σs の位置を表わす行列を
[H]とすれば(図2参照)、行列[Rf ]、行列
[G]との間に次の(3)式の関係が成立する。そこ
で、ロボットコントローラ1内部で、次式(4)式によ
って行列[H]を計算し、所定のメモリに記憶する(ス
テップS5)。 [G]=[Rf ][H] ・・・(3) [H]=[Rf ]-1[G] ・・・(4) 次いで、この配置(ロボット20を動かさない。)でカ
メラ10のキャリブレーションを実行する(ステップS
6)。ステップS6におけるカメラ10のキャリブレー
ションは一般的な手順にした従って行なえば良い。即
ち、プレート50を移動テーブ上52上でZs 軸に沿っ
て移動させ、2つの位置(zs =z1 ;zs =z2 )を
とらせ、各位置においてカメラ10で参照点51a〜5
1dの画像6(51a’〜51d’)を取得し、画像処
理装置2を用いて参照点51a〜51dの位置を検出す
る。そして、2組の検出結果から、カメラ10に関する
パラメータを算出し、結果を画像処理装置2内の所定の
メモリに記憶することでカメラ10のキャリブレーショ
ンは完了する。
端部)から見た治具座標系Σs の位置を表わす行列を
[H]とすれば(図2参照)、行列[Rf ]、行列
[G]との間に次の(3)式の関係が成立する。そこ
で、ロボットコントローラ1内部で、次式(4)式によ
って行列[H]を計算し、所定のメモリに記憶する(ス
テップS5)。 [G]=[Rf ][H] ・・・(3) [H]=[Rf ]-1[G] ・・・(4) 次いで、この配置(ロボット20を動かさない。)でカ
メラ10のキャリブレーションを実行する(ステップS
6)。ステップS6におけるカメラ10のキャリブレー
ションは一般的な手順にした従って行なえば良い。即
ち、プレート50を移動テーブ上52上でZs 軸に沿っ
て移動させ、2つの位置(zs =z1 ;zs =z2 )を
とらせ、各位置においてカメラ10で参照点51a〜5
1dの画像6(51a’〜51d’)を取得し、画像処
理装置2を用いて参照点51a〜51dの位置を検出す
る。そして、2組の検出結果から、カメラ10に関する
パラメータを算出し、結果を画像処理装置2内の所定の
メモリに記憶することでカメラ10のキャリブレーショ
ンは完了する。
【0045】ところで、ここで行なわれるカメラ10の
キャリブレーションは、治具座標系Σs 上の位置が既知
データとして与えられる参照点51a〜51dについ
て、画像上の位置(カメラ座標系上の位置)との対応関
係を知り、それに基づいて治具座標系Σs 上の位置と画
像上の位置(カメラ座標系上の位置)との関係を一般的
に表わすパラメータを求める手続きに他ならない。従っ
て、これまでの説明で治具座標系と呼んで来た座標系Σ
s は、ここで実行されるキャリブレーションにおいては
完全にセンサ座標系の役割を果している。
キャリブレーションは、治具座標系Σs 上の位置が既知
データとして与えられる参照点51a〜51dについ
て、画像上の位置(カメラ座標系上の位置)との対応関
係を知り、それに基づいて治具座標系Σs 上の位置と画
像上の位置(カメラ座標系上の位置)との関係を一般的
に表わすパラメータを求める手続きに他ならない。従っ
て、これまでの説明で治具座標系と呼んで来た座標系Σ
s は、ここで実行されるキャリブレーションにおいては
完全にセンサ座標系の役割を果している。
【0046】治具座標系Σs (実はセンサ座標系でもあ
る。)とロボット先端部(フェイスプレート座標系Σf
)の関係はステップS5で求められているから、この
ステップS6のキャリブレーションを完了した時点で、
ロボット先端部とセンサ座標系の結合が達成されたこと
になる(処理おわり)。
る。)とロボット先端部(フェイスプレート座標系Σf
)の関係はステップS5で求められているから、この
ステップS6のキャリブレーションを完了した時点で、
ロボット先端部とセンサ座標系の結合が達成されたこと
になる(処理おわり)。
【0047】ここで、治具座標系Σs がセンサ座標系の
役割を果していることを判り易くする為に、ステップS
6で実行されるカメラのキャリブレーション操作の一例
について説明する。
役割を果していることを判り易くする為に、ステップS
6で実行されるカメラのキャリブレーション操作の一例
について説明する。
【0048】3次元空間内の点とこの点をカメラで撮影
した際に得られる点像の画像上における2次元位置との
関係は透視変換として一般に知られている。図5は透視
変換における点と点像との関係を説明する図である。図
中、符号Fはカメラ10のレンズ中心(焦点に相当)、
Sはカメラの投影面(画像面)を表わしている。3次元
空間内の任意の一点P(x,y,z)の像は、点Pと点
Fを結ぶ直線Lと投影面Sの交点p(u,v)に結像さ
れる。逆に、点p(u,v)に結像される点の3次元空
間内の位置は必ず直線L上にある。このような直線Lは
視線と呼ばれ、この視線Lを3次元空間上で表わす方程
式は視線方程式と呼ばれている。
した際に得られる点像の画像上における2次元位置との
関係は透視変換として一般に知られている。図5は透視
変換における点と点像との関係を説明する図である。図
中、符号Fはカメラ10のレンズ中心(焦点に相当)、
Sはカメラの投影面(画像面)を表わしている。3次元
空間内の任意の一点P(x,y,z)の像は、点Pと点
Fを結ぶ直線Lと投影面Sの交点p(u,v)に結像さ
れる。逆に、点p(u,v)に結像される点の3次元空
間内の位置は必ず直線L上にある。このような直線Lは
視線と呼ばれ、この視線Lを3次元空間上で表わす方程
式は視線方程式と呼ばれている。
【0049】カメラの光学系をピンホールカメラと等価
であると見なせば、3次元空間内の点P(x,y,z)
と像点位置p(u,v)との間には次式(5),(6)
で表わされる関係がある。
であると見なせば、3次元空間内の点P(x,y,z)
と像点位置p(u,v)との間には次式(5),(6)
で表わされる関係がある。
【0050】
【数2】 逆に、上式中の11個のパラメータc11〜c33の値が既
知であれば、p(u,v)の値から視線Lを表わす視線
方程式を次式(7),(8)で決定することが出来る。
知であれば、p(u,v)の値から視線Lを表わす視線
方程式を次式(7),(8)で決定することが出来る。
【0051】
【数3】 従って、カメラのキャリブレーションは上記未知パラメ
ータc11〜c33の値を定めることに帰着される。実際に
キャリブレーションを行なうには、多数の参照点P(x
i ,yi ,zi ;i=1,2,3・・・)の画像から、
画像上の位置データpi (ui ,vi)を得る。本実施
例のケースで言えば、プレート50の二つの位置につい
て計8組のデータセットが取得し、上記方程式(7),
(8)を解いてパラメータc11〜c33の値を定めること
が出来る。
ータc11〜c33の値を定めることに帰着される。実際に
キャリブレーションを行なうには、多数の参照点P(x
i ,yi ,zi ;i=1,2,3・・・)の画像から、
画像上の位置データpi (ui ,vi)を得る。本実施
例のケースで言えば、プレート50の二つの位置につい
て計8組のデータセットが取得し、上記方程式(7),
(8)を解いてパラメータc11〜c33の値を定めること
が出来る。
【0052】カメラをピンホールカメラと見なさない場
合には、上記方程式(7),(8)に代えて、適用する
カメラモデルに適合した関係式を用いてカメラのパラメ
ータが決定される。しかし、どのようなカメラモデルが
適用される場合であっても、3次元空間内で位置が既知
である複数個の参照点をカメラで撮影し、参照点の3次
元位置とその点の画像上の位置を表わすデータからカメ
ラのパラメータを計算することはカメラのキャリブレー
ション一般に共通した手順である。
合には、上記方程式(7),(8)に代えて、適用する
カメラモデルに適合した関係式を用いてカメラのパラメ
ータが決定される。しかし、どのようなカメラモデルが
適用される場合であっても、3次元空間内で位置が既知
である複数個の参照点をカメラで撮影し、参照点の3次
元位置とその点の画像上の位置を表わすデータからカメ
ラのパラメータを計算することはカメラのキャリブレー
ション一般に共通した手順である。
【0053】複数台のカメラを使用したステレオ方式の
視覚センサやスリット光投影方式の視覚センサにおいて
もカメラのキャリブレーションは上記と同様の方法によ
って行なわれる。
視覚センサやスリット光投影方式の視覚センサにおいて
もカメラのキャリブレーションは上記と同様の方法によ
って行なわれる。
【0054】ここで重要なことは、一般に視線方程式
(上記例では(7),(8)式)が表現される座標系
は、キャリブレーションで参照点の位置を表現する際に
使用される座標系と一致しているということである。即
ち、本願発明では、ロボット座標系と結合される治具座
標系をカメラのキャリブレーション時には参照点の位置
表現に使用する方式を採用した為、その治具座標系は直
ちにセンサ座標系に転用され得るのである。
(上記例では(7),(8)式)が表現される座標系
は、キャリブレーションで参照点の位置を表現する際に
使用される座標系と一致しているということである。即
ち、本願発明では、ロボット座標系と結合される治具座
標系をカメラのキャリブレーション時には参照点の位置
表現に使用する方式を採用した為、その治具座標系は直
ちにセンサ座標系に転用され得るのである。
【0055】本来の作業時の対象物の計測時には、セン
サ側からセンサ座標系上で表現されたセンサデータが出
力される。このセンサデータは、ロボットがいかなる位
置にあっても、その時のロボット先端部の位置を表わす
データと、本願発明の方法を通して求められたセンサ座
標系とロボット先端部との関係を表わすデータ(座標系
変換行列[H]のデータ)に基づいて、ロボット座標系
Σr 上で表現されたデータに変換され、例えば、ロボッ
トの動作補正に利用される。カメラ10による対象物撮
影時のロボットの先端部(フェイスプレート座標系)の
位置を[R]、センサデータをPs で表わすと、センサ
データPs は次式(9)でロボットデータ[Pr ]に変
換され、ロボットの動作補正等に利用される。
サ側からセンサ座標系上で表現されたセンサデータが出
力される。このセンサデータは、ロボットがいかなる位
置にあっても、その時のロボット先端部の位置を表わす
データと、本願発明の方法を通して求められたセンサ座
標系とロボット先端部との関係を表わすデータ(座標系
変換行列[H]のデータ)に基づいて、ロボット座標系
Σr 上で表現されたデータに変換され、例えば、ロボッ
トの動作補正に利用される。カメラ10による対象物撮
影時のロボットの先端部(フェイスプレート座標系)の
位置を[R]、センサデータをPs で表わすと、センサ
データPs は次式(9)でロボットデータ[Pr ]に変
換され、ロボットの動作補正等に利用される。
【0056】 [Pr ]=[R][H][Ps ] ・・・(9) なお、以上説明した実施例で使用したキャリブレーショ
ンはあくまで例示であり、ロボットによりタッチアップ
可能な複数の基準点を提供すると共にセンサに使用され
ているカメラ手段のキャリブレーションに使用される複
数の参照点を提供するものであれば、他の任意の形態の
ものを使用し得る。例えば、移動テーブルに位置決め可
能に載置される部材としてブロック状の部材を用い、そ
の面上のいくつかの特徴点を基準点や参照点に使用する
ようにしても良い。
ンはあくまで例示であり、ロボットによりタッチアップ
可能な複数の基準点を提供すると共にセンサに使用され
ているカメラ手段のキャリブレーションに使用される複
数の参照点を提供するものであれば、他の任意の形態の
ものを使用し得る。例えば、移動テーブルに位置決め可
能に載置される部材としてブロック状の部材を用い、そ
の面上のいくつかの特徴点を基準点や参照点に使用する
ようにしても良い。
【0057】
【発明の効果】本願発明によって、ロボットアーム先端
部に装着した視覚センサの座標系と、ロボットアーム先
端部の関係を簡便な手順で正確に求めることが可能にな
った。
部に装着した視覚センサの座標系と、ロボットアーム先
端部の関係を簡便な手順で正確に求めることが可能にな
った。
【0058】より具体的に言えば、本願発明は次のよう
な利点を有している。
な利点を有している。
【0059】(1)実際に使用するロボット、センサ及
びキャリブレーション治具以外の要素が介在しないの
で、高精度の座標系結合が可能となる。 (2)ロボットアームに対するセンサ(カメラ)の取り
付け位置に関する幾何学データが不要である。 (3)干渉事故等によってセンサの取り付け位置に狂い
が生じた場合でも、座標系の結合を簡単にやりなおすこ
とが出来る。
びキャリブレーション治具以外の要素が介在しないの
で、高精度の座標系結合が可能となる。 (2)ロボットアームに対するセンサ(カメラ)の取り
付け位置に関する幾何学データが不要である。 (3)干渉事故等によってセンサの取り付け位置に狂い
が生じた場合でも、座標系の結合を簡単にやりなおすこ
とが出来る。
【0060】(4)キャリブレーション治具は、実際に
センサを使用する場所と異なる場所に設置可能なので、
実際の作業領域にキャリブレーション治具を設置する必
要がない。
センサを使用する場所と異なる場所に設置可能なので、
実際の作業領域にキャリブレーション治具を設置する必
要がない。
【図1】本願発明の方法を実施する際に使用されるキャ
リブレーション治具を含むロボット−視覚センサシステ
ムの概要を例示した要部ブロック図である。
リブレーション治具を含むロボット−視覚センサシステ
ムの概要を例示した要部ブロック図である。
【図2】図1中のキャリブレーション治具の周辺部を座
標系と共に拡大して示した図である。
標系と共に拡大して示した図である。
【図3】本実施例においてカメラで撮影された参照点の
画像を例示した図である。
画像を例示した図である。
【図4】本実施例において実行される処理について説明
するフローチャートである。
するフローチャートである。
【図5】透視変換における点と点像との関係を説明する
図である。
図である。
1 ロボットコントローラ 2 画像処理装置 3 タッチアップ用ハンド 5 キャリブレーション治具 6 プレートの画像 10 センサ部(CCDカメラ) 20 ロボット 21 ロボットアーム先端部 50 プレート 51a〜51d 参照点(格子点) 51a’〜51d’ 参照点(格子点)の像 52 移動テーブル 53〜55 基準点 Σs 治具座標系(センサ座標系) Σr ロボット座標系 Σf フェイスプレート座標系
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 B25J 19/04 G01B 11/24 C G06T 7/00 7/60
Claims (4)
- 【請求項1】 ロボットと該ロボットの先端部にカメラ
手段を支持させた視覚センサを含むロボット−視覚セン
サシステムにおいてセンサ座標系とロボット先端部の関
係を定める座標系結合方法であって、 前記ロボットによりタッチアップ可能な複数の基準点を
提供すると共に前記センサに使用されているカメラ手段
のキャリブレーションに使用される複数の参照点を提供
するキャリブレーション治具を前記ロボットの動作範囲
内に設置する段階と、 前記ロボットにより前記複数の基準点のタッチアップを
行なって前記キャリブレーション治具とロボット座標系
の関係を表わすデータを求める段階と、 前記ロボットを用いて、前記カメラ手段を前記参照点の
撮影が可能な位置に位置決めする段階と、 該位置決め時のロボットの現在位置データと、前記前記
キャリブレーション治具とロボット座標系の関係を表わ
すデータから、前記ロボットの先端部に対する前記キャ
リブレーション治具の位置を表わすデータを求める段階
と、 前記位置決めした状態で、前記カメラ手段のキャリブレ
ーションを前記参照点の位置データを治具座標系上で与
える形で実行する段階を含む、前記座標系結合方法。 - 【請求項2】 前記キャリブレーション治具は、移動テ
ーブルと該移動テーブル上に位置決め可能に載置された
部材を備え、該部材上に少なくとも一つの前記基準点と
少なくとも一つの前記参照点が設けられている、請求項
1に記載された座標系結合方法。 - 【請求項3】 前記キャリブレーション治具は、移動テ
ーブルと該移動テーブル上に位置決め可能に載置された
プレートを備え、該プレート上には目視可能なパターン
が形成されており、少なくとも一つの前記基準点と少な
くとも一つの前記参照点が前記パターン上の特徴点とし
て設けられている、請求項1に記載された座標系結合方
法。 - 【請求項4】 前記キャリブレーション治具は、移動テ
ーブルと該移動テーブル上に位置決め可能に載置された
プレートを備え、該プレート上には目視可能なパターン
が形成されており、少なくとも3個の前記基準点と少な
くとも4個の参照点が前記パターン上の特徴点として設
けられている、請求項1に記載された座標系結合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7037787A JPH08210816A (ja) | 1995-02-03 | 1995-02-03 | ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7037787A JPH08210816A (ja) | 1995-02-03 | 1995-02-03 | ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08210816A true JPH08210816A (ja) | 1996-08-20 |
Family
ID=12507208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7037787A Withdrawn JPH08210816A (ja) | 1995-02-03 | 1995-02-03 | ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08210816A (ja) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10167053A (ja) * | 1996-12-06 | 1998-06-23 | Toshiba Corp | 作業装置 |
JPH1158273A (ja) * | 1997-08-12 | 1999-03-02 | Denso Corp | 移動ロボット装置 |
US6671574B1 (en) | 2002-08-30 | 2003-12-30 | Fujitsu Limited | Position detecting apparatus and library apparatus |
US7567688B2 (en) | 2004-11-30 | 2009-07-28 | Honda Motor Co., Ltd. | Apparatus for and method of extracting image |
US7590263B2 (en) | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7599521B2 (en) | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7616806B2 (en) | 2004-11-30 | 2009-11-10 | Honda Motor Co., Ltd. | Position detecting apparatus and method of correcting data therein |
US7620237B2 (en) | 2004-11-30 | 2009-11-17 | Honda Motor Co., Ltd. | Position detecting apparatus and method of correcting data therein |
JP2010160051A (ja) * | 2009-01-08 | 2010-07-22 | Mitsutoyo Corp | 画像機器の校正用パターン |
KR20100125015A (ko) * | 2009-05-20 | 2010-11-30 | 삼성전자주식회사 | 캘리브레이션 장치 및 방법, 캘리브레이션 용 격자판 |
US7894661B2 (en) | 2002-12-27 | 2011-02-22 | Olympus Corporation | Calibration apparatus, calibration method, program for calibration, and calibration jig |
JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定系统 |
KR101155446B1 (ko) * | 2010-11-01 | 2012-06-15 | 대우조선해양 주식회사 | 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법 |
KR20130104284A (ko) * | 2012-03-13 | 2013-09-25 | 삼성테크윈 주식회사 | 센서 캘리브레이션 장치 |
US8639021B2 (en) | 2010-01-27 | 2014-01-28 | Samsung Electronics Co., Ltd. | Apparatus and method with composite sensor calibration |
CN104165584A (zh) * | 2013-05-17 | 2014-11-26 | 上海三菱电梯有限公司 | 机器人基坐标系的非接触式高精度标定方法及其应用 |
CN104476044A (zh) * | 2014-11-21 | 2015-04-01 | 安徽省库仑动力自动化科技有限公司 | 一种用于大面积焊接的自动行走焊接机器人 |
CN105965495A (zh) * | 2016-05-12 | 2016-09-28 | 英华达(上海)科技有限公司 | 一种机械臂定位方法及系统 |
KR20170006397A (ko) * | 2015-07-08 | 2017-01-18 | 현대자동차주식회사 | 로봇 티칭 보정 시스템, 및 로봇 티칭 보정 방법 |
JP2017100240A (ja) * | 2015-12-01 | 2017-06-08 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
EP3272472A2 (en) | 2016-07-22 | 2018-01-24 | Seiko Epson Corporation | Control device, robot, and robot system |
CN109227532A (zh) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
US10525597B2 (en) | 2014-11-21 | 2020-01-07 | Seiko Epson Corporation | Robot and robot system |
JP2020069549A (ja) * | 2018-10-30 | 2020-05-07 | Thk株式会社 | キャリブレーション方法および把持システム |
JP2020089963A (ja) * | 2018-11-27 | 2020-06-11 | ファナック株式会社 | ロボットシステムおよび座標変換方法 |
JP2020116734A (ja) * | 2019-01-28 | 2020-08-06 | コグネックス・コーポレイション | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 |
CN113043329A (zh) * | 2021-03-24 | 2021-06-29 | 清华大学 | 一种测量模组的精度标定试验装置 |
CN114543669A (zh) * | 2022-01-27 | 2022-05-27 | 珠海亿智电子科技有限公司 | 机械臂校准方法、装置、设备及存储介质 |
CN116277019A (zh) * | 2023-04-14 | 2023-06-23 | 清能精控机器人技术(佛山)有限公司 | 一种机器人与流水线相对位置检测方法及装置 |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
DE112021005353T5 (de) | 2020-12-10 | 2023-08-31 | Fanuc Corporation | Bildverarbeitungssystem und Bildverarbeitungsverfahren |
-
1995
- 1995-02-03 JP JP7037787A patent/JPH08210816A/ja not_active Withdrawn
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10167053A (ja) * | 1996-12-06 | 1998-06-23 | Toshiba Corp | 作業装置 |
JPH1158273A (ja) * | 1997-08-12 | 1999-03-02 | Denso Corp | 移動ロボット装置 |
US6671574B1 (en) | 2002-08-30 | 2003-12-30 | Fujitsu Limited | Position detecting apparatus and library apparatus |
US7894661B2 (en) | 2002-12-27 | 2011-02-22 | Olympus Corporation | Calibration apparatus, calibration method, program for calibration, and calibration jig |
US7599521B2 (en) | 2004-11-30 | 2009-10-06 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7616806B2 (en) | 2004-11-30 | 2009-11-10 | Honda Motor Co., Ltd. | Position detecting apparatus and method of correcting data therein |
US7620237B2 (en) | 2004-11-30 | 2009-11-17 | Honda Motor Co., Ltd. | Position detecting apparatus and method of correcting data therein |
US7590263B2 (en) | 2004-11-30 | 2009-09-15 | Honda Motor Co., Ltd. | Vehicle vicinity monitoring apparatus |
US7567688B2 (en) | 2004-11-30 | 2009-07-28 | Honda Motor Co., Ltd. | Apparatus for and method of extracting image |
JP2010160051A (ja) * | 2009-01-08 | 2010-07-22 | Mitsutoyo Corp | 画像機器の校正用パターン |
KR20100125015A (ko) * | 2009-05-20 | 2010-11-30 | 삼성전자주식회사 | 캘리브레이션 장치 및 방법, 캘리브레이션 용 격자판 |
JP2011067889A (ja) * | 2009-09-25 | 2011-04-07 | Ihi Corp | キャリブレーション装置及びキャリブレーション方法 |
US8639021B2 (en) | 2010-01-27 | 2014-01-28 | Samsung Electronics Co., Ltd. | Apparatus and method with composite sensor calibration |
CN102294695A (zh) * | 2010-06-25 | 2011-12-28 | 鸿富锦精密工业(深圳)有限公司 | 机器人标定方法及标定系统 |
KR101155446B1 (ko) * | 2010-11-01 | 2012-06-15 | 대우조선해양 주식회사 | 러그를 이용한 로봇과 레이저 비전 시스템 간의 캘리브레이션 방법 |
KR20130104284A (ko) * | 2012-03-13 | 2013-09-25 | 삼성테크윈 주식회사 | 센서 캘리브레이션 장치 |
CN104165584A (zh) * | 2013-05-17 | 2014-11-26 | 上海三菱电梯有限公司 | 机器人基坐标系的非接触式高精度标定方法及其应用 |
CN104476044A (zh) * | 2014-11-21 | 2015-04-01 | 安徽省库仑动力自动化科技有限公司 | 一种用于大面积焊接的自动行走焊接机器人 |
US10525597B2 (en) | 2014-11-21 | 2020-01-07 | Seiko Epson Corporation | Robot and robot system |
KR20170006397A (ko) * | 2015-07-08 | 2017-01-18 | 현대자동차주식회사 | 로봇 티칭 보정 시스템, 및 로봇 티칭 보정 방법 |
US10201900B2 (en) | 2015-12-01 | 2019-02-12 | Seiko Epson Corporation | Control device, robot, and robot system |
JP2017100240A (ja) * | 2015-12-01 | 2017-06-08 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
CN105965495A (zh) * | 2016-05-12 | 2016-09-28 | 英华达(上海)科技有限公司 | 一种机械臂定位方法及系统 |
EP3272472A2 (en) | 2016-07-22 | 2018-01-24 | Seiko Epson Corporation | Control device, robot, and robot system |
CN109227532B (zh) * | 2017-07-11 | 2023-08-29 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
CN109227532A (zh) * | 2017-07-11 | 2019-01-18 | 精工爱普生株式会社 | 机器人的控制装置及其系统、机器人及摄像机的校正方法 |
JP2019014030A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 |
JP2020069549A (ja) * | 2018-10-30 | 2020-05-07 | Thk株式会社 | キャリブレーション方法および把持システム |
JP2020089963A (ja) * | 2018-11-27 | 2020-06-11 | ファナック株式会社 | ロボットシステムおよび座標変換方法 |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
JP2020116734A (ja) * | 2019-01-28 | 2020-08-06 | コグネックス・コーポレイション | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 |
US11911914B2 (en) | 2019-01-28 | 2024-02-27 | Cognex Corporation | System and method for automatic hand-eye calibration of vision system for robot motion |
DE112021005353T5 (de) | 2020-12-10 | 2023-08-31 | Fanuc Corporation | Bildverarbeitungssystem und Bildverarbeitungsverfahren |
CN113043329A (zh) * | 2021-03-24 | 2021-06-29 | 清华大学 | 一种测量模组的精度标定试验装置 |
CN113043329B (zh) * | 2021-03-24 | 2022-08-23 | 清华大学 | 一种测量模组的精度标定试验装置 |
CN114543669A (zh) * | 2022-01-27 | 2022-05-27 | 珠海亿智电子科技有限公司 | 机械臂校准方法、装置、设备及存储介质 |
CN114543669B (zh) * | 2022-01-27 | 2023-08-01 | 珠海亿智电子科技有限公司 | 机械臂校准方法、装置、设备及存储介质 |
CN116277019A (zh) * | 2023-04-14 | 2023-06-23 | 清能精控机器人技术(佛山)有限公司 | 一种机器人与流水线相对位置检测方法及装置 |
CN116277019B (zh) * | 2023-04-14 | 2023-09-29 | 清能精控机器人技术(佛山)有限公司 | 一种机器人与流水线相对位置检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH08210816A (ja) | ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法 | |
KR102280663B1 (ko) | 비전 가이드 로봇 암 교정 방법 | |
JP4191080B2 (ja) | 計測装置 | |
US7532949B2 (en) | Measuring system | |
JP3946711B2 (ja) | ロボットシステム | |
KR970005616B1 (ko) | 자동 캘리브레이션(calibration) 방법 | |
US8520067B2 (en) | Method for calibrating a measuring system | |
JP4267005B2 (ja) | 計測装置及びキャリブレーション方法 | |
US20180021955A1 (en) | Robot zero-point calibration device and method | |
CN109556510B (zh) | 位置检测装置以及计算机可读存储介质 | |
EP1315056A2 (en) | Simulation apparatus for working machine | |
JPH08132373A (ja) | ロボット−センサシステムにおける座標系結合方法 | |
JPH1063317A (ja) | ロボット−視覚センサシステムにおける座標系結合方法 | |
JP3402021B2 (ja) | ロボット装置の相対位置姿勢検出方法 | |
KR20100104166A (ko) | 카메라 캘리브레이션 방법 | |
JPH05248819A (ja) | カメラによる測定対象物の三次元位置測定のための較正対象データの較正方法及び三次元位置測定方法 | |
CN114820820B (zh) | 一种电脑后壳的3d检测方法 | |
JPH08328624A (ja) | センサとロボットとの結合方法及びロボットシステム | |
JPH03259705A (ja) | 折曲機の角度計測装置 | |
JPH03268818A (ja) | 折曲機の角度計測装置 | |
JP2001191285A (ja) | ロボットシステムおよびその利用方法 | |
JP7188481B2 (ja) | 位置検出装置およびプログラム | |
WO2024062535A1 (ja) | ロボット制御装置 | |
US20230191612A1 (en) | Coordinate system setting system and position/orientation measurement system | |
US20230388482A1 (en) | Method of Visualizing Calibration State of Camera, System, and Non-Transitory Computer-Readable Storage Medium Storing Computer Program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020507 |