JPH1063317A - ロボット−視覚センサシステムにおける座標系結合方法 - Google Patents

ロボット−視覚センサシステムにおける座標系結合方法

Info

Publication number
JPH1063317A
JPH1063317A JP22943896A JP22943896A JPH1063317A JP H1063317 A JPH1063317 A JP H1063317A JP 22943896 A JP22943896 A JP 22943896A JP 22943896 A JP22943896 A JP 22943896A JP H1063317 A JPH1063317 A JP H1063317A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
sensor
visual sensor
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22943896A
Other languages
English (en)
Inventor
伸介 ▲榊▼原
Shinsuke Sakakibara
Katsutoshi Takizawa
克俊 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP22943896A priority Critical patent/JPH1063317A/ja
Publication of JPH1063317A publication Critical patent/JPH1063317A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【課題】 ロボット手先部と視覚センサのセンサ座標系
の間の関係を結合する簡便な方法。 【解決手段】 ロボット20を移動させて複数の計測位
置R1 〜R4 に順次位置決めし、センサ部10の投光器
11からレーザスリット光を位置が未知の対象物5の面
上に投光する。レーザスリット光像61,62の画像を
画像処理装置2で解析し、点P1 ,Q1 ,P2 ,Q2 の
3次元位置を計測し、穴の中心54のセンサ座標系上の
位置を求める。各計測位置R1 〜R4 におけるロボット
の現在位置データと穴の中心54の計測結果とを併せ、
ロボット手先部と視覚センサのセンサ座標系の関係を表
わす同次変換行列Xの行列要素を未知数とする連立方程
式を解くことで、ロボット手先部と視覚センサのセンサ
座標系の間の関係を定めることが出来る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ワーク等の対象物
の位置あるいは位置と姿勢(以下、適宜両者を「位置」
で表わす。)を計測する視覚センサをロボットの手先部
に取り付けて使用する型のロボット−視覚センサシステ
ムにおいて、ロボットの手先部に固定された座標系とセ
ンサ側で得られる位置データの表現に使用されるセンサ
座標系とを結合する為の方法に関する。本発明は、例え
ば、工場の製造ラインにおける組み立て作業、加工作業
等に利用されるロボット−視覚センサに適用される。
【0002】
【従来の技術】工場の製造ラインにおける組み立て作
業、加工作業等においては、作業の自動化・省力化を図
る為に、ロボット等の自動機械と視覚センサとを組み合
わせたシステムが利用されている。視覚センサには、単
体のカメラで撮影された対象物の画像から主に対象物の
2次元的な位置ずれを計測するものや、スリット光やス
ポット光を対象物に投射し、対象物面上に周辺よりも高
輝度の光帯あるいは光点を形成し、これをCCDカメラ
等のカメラ手段によって観測し、三角測量の原理によっ
て対象物の3次元計測を行なう3次元視覚センサが知ら
れている。また、2台のカメラを用いたステレオ視の原
理によって対象物の位置を3次元的に計測する3次元視
覚センサもある。
【0003】これら視覚センサの設置形態の一つにハン
ドアイと呼ばれる方式がある。この方式は、ロボットの
手先部(フェイスプレート)にカメラを取り付け、カメ
ラにロボットの手先部と同一の動きをさせるもので、カ
メラ台数を増やすことなく複数の位置で計測が可能なこ
とから、コスト面や作業スペース節約の面から見て非常
に有利である。
【0004】ところで、視覚センサを用いて対象物の位
置を計測し、それに基づいてロボットの動作(位置)を
補正するには、視覚センサの出力する対象物の位置デー
タをロボットが動作する座標系上のデータに変換する必
要が生じる。即ち、視覚センサの出力データの表現に使
用される座標系(以下、「センサ座標系」と言う。)
と、ロボットが動作する座標系(以下、「ロボット座標
系」と言う。)の間の関係を予め求めておかなければな
らない。
【0005】ハンドアイ方式を採用したシステムにおい
ては、カメラを固定したロボット手先部とセンサ座標系
の空間的位置関係が既知、言い換えれば、ロボット手先
部に固定された座標系(以下、「フェイスプレート座標
系」と言う。)とセンサ座標系が結合されていれば、こ
の問題は解決する。何故ならば、ロボットは常にロボッ
ト手先部の位置(フェイスプレート座標系の位置と姿
勢)をロボット座標系上で表わす現在位置データを持っ
ており、そのデータと上記既知の関係を用いればセンサ
座標系上で表現されたデータをロボット座標系上で表現
されたデータに変換することが可能になるからである。
【0006】実際にロボット手先部とセンサ座標系の関
係を求める方法としては、次の2つの方法が知られてい
る。 (1)ロボットの手先(フェイスプレート)に対して既
知の位置にセンサに取り付ける方法。 (2)座標系結合用にロボット座標系上で位置や姿勢が
既知の物体あるいはマークを複数個用意する方法。
【0007】(1)の方法は、ロボット手先に対するセ
ンサ取り付け位置(正確に言えば、センサ座標系の原点
位置)が既知となるようにセンサを取り付ける方法で、
センサ座標系とロボット座標系の関係は、取り付け位置
に関する幾何学的なデータで表わされる。このデータと
して通常使われるのは、設計データ(設計図面上のデー
タ)である。その為、当初は設計データが正確にセンサ
の取り付け位置を表わしていたとしても、ロボットとワ
ーク等の衝突等の原因でセンサの取り付け位置に狂いが
生じた場合に適切な対処法が無い。一旦狂ったセンサの
取り付け位置を元の状態に復元することや、元の状態か
らのずれ量を知ることは極めて困難である。
【0008】また、実際のセンサ座標系はカメラの光学
系を基準とした座標系であり、その座標系の原点はカメ
ラの内部(レンズ系の焦点位置)に存在するから、レン
ズ系の焦点調整を行なうだけでセンサ座標系の位置が変
化する。従って、設計データで表わされたロボット手先
に対するセンサ取り付け位置からロボット座標系とセン
サ座標系の位置関係を正確に知ることは実際には困難で
ある。
【0009】(2)の方法では、キャリブレーション用
の治具として用意された物体あるい治具上のマークにつ
いて複数点の位置を視覚センサで計測する一方、それら
複数点の位置がタッチアップツールを取り付けたロボッ
トのタッチアップによって求められる。そして、これら
データからロボット座標系上のセンサ座標系の位置が求
められる。これに視覚センサによる計測時のロボットの
現在位置データを併せれば、フェイスプレート座標系と
センサ座標系の関係が求められる。
【0010】この方法ではロボットによるタッチアップ
が不可欠であるから、最終的な精度がタッチアップの精
度に依存する。そのため、精密に加工したタッチアップ
ツールをロボット手先部に注意深く取り付ける必要があ
る。また、タッチアップ動作を自動化することは困難で
あり、熟練したオペレータによる手動操作で行なわれ必
要がある。
【0011】更に、座標系結合後にロボットをワークな
どにぶつけるなどの理由でセンサ座標系の位置に狂いが
生じた場合には座標系結合をやり直す必要があるが、工
場の生産現場において、専用のジグを設置して上記操作
を支障なく再実行する為のスペース(ジグ設置の為のス
ペースとロボットにタッチアップ動作を安全に行なわせ
る為のスペース)を確保することは容易ではない。
【0012】
【発明が解決しようとする課題】本発明の目的は、ハン
ドアイ方式を採用したロボット−視覚センサシステムに
おいて、ロボット手先部とセンサ座標系の位置関係を簡
便に割り出すことが出来る座標系結合方法を提供するこ
とにある。より具体的に言えば、本発明はハンドアイ方
式を採用したロボット−視覚センサシステムにおいて、
下記要件を満たすフェイスプレート座標系−センサ座標
系結合方法を提供することにある。
【0013】(1)視覚センサの設計図面上のデータに
依存しない。 (2)高精度に製作された特別な治具のようなものは使
用しない。 (3)ロボットによるタッチアップ作業を必要としな
い。従って、タッチアップツールも要らない。
【0014】(4)これら(1)〜(3)の結果とし
て、煩雑で時間のかかるキャリブレーションの作業から
オペレータを解放することが出来る。また、システム稼
働後に干渉事故などによってカメラ位置がずれてしまっ
た場合でも、フェイスプレート座標とセンサ座標系を再
結合してシステムを短時間で復旧出来る。
【0015】
【課題を解決するための手段】本発明によれば、ハンド
アイ方式のロボット−視覚センサシステムにおける上記
技術課題が、ロボットを複数の異なる計測位置に順次位
置決めし、各計測位置において、位置が未知の同一対象
物に関する位置計測を3次元視覚センサを用いて実行
し、それら位置計測結果をセンサ座標系上で表わすデー
タと、ロボット手先部に固定された座標系の各計測時の
位置を表わすデータとに基づいて、ロボットの手先部に
固定された座標系とセンサ座標系の相対的な位置関係を
ロボット−視覚センサシステム内部のソフトウェア処理
で求めることによって解決される。
【0016】複数の計測位置を辿るロボット動作と各計
測位置における位置計測の動作は、予めロボット−視覚
センサシステムに教示しておくことが好ましい。ロボッ
ト手先部に固定された座標系は、一般にフェイスプレー
ト座標系と呼ばれるもので、通常のロボットに設定され
ている。従って、各計測時のロボット手先部の位置を表
わすデータとしては、フェイスプレート座標系の現在位
置データを用いることが出来る。
【0017】本発明の方法は、ロボット手先部とセンサ
座標系の関係を求めるために視覚センサで計測する対象
物に要求される条件を大幅に緩和し、座標系結合の作業
を簡素化することが出来る。即ち、本発明では、計測対
象の位置が既知である必要がなく、ロボットによるタッ
チアップも不要である。また、計測対象は1個所で良
く、特別な治具も一切不要である。
【0018】
【発明の実施の形態】図1は、本発明が適用されるロボ
ット−視覚センサシステムの構成の概略を例示した要部
ブロック図である。システム全体は、ロボットコントロ
ーラ1、画像処理装2、センサ部コントローラ3、セン
サ部10、ロボット20から構成されている。ロボット
コントローラ1にはロボット20と画像処理装2が接続
され、画像処理装置2にはセンサ部コントローラ3が接
続されている。更に、センサ部コントローラ3はセンサ
部10に接続されており、センサ部10に装備された投
光器11を制御するための指令を出力する。以下、各部
分について個別に説明する。
【0019】[視覚センサ部]センサ部10は、投光器
11とカメラ12から構成された周知のものである。投
光器11はレーザ発振器、円筒レンズ及び偏向ミラーを
内蔵し、レーザ発振器の出力光を円筒レンズを介してス
リット状のレーザ光に変換し、これを偏向ミラーで対象
物4上の希望個所に投光するものである。カメラ12は
典型的にはCCDカメラであり、スリット光投光時/非
投光時に応じて2種類の撮影方式が選択出来るようにな
ている。前者の方式では対象物4上に投光されたスリッ
ト光像14が撮影され、前者の方式では対象物4の通常
の明暗像が撮影される。
【0020】本発明を実施する際には、前者の方式が適
用される。即ち、ロボットコントローラ1から画像処理
装置2に伝えられた投光指令がセンサ部コントローラ3
を介して投光器11に送られると、投光器11が点灯さ
れてレーザスリット光13が対象物4上に投光される。
更に、ロボットコントローラ1から画像処理装置2、セ
ンサ部コントローラ3を介してカメラ12に撮影指令が
送られると、対象物4上に形成されたスリット光像14
が反射光15の形でカメラ12に捉えられ、カメラ12
から出力された画像信号は、センサ部コントローラ3を
介して画像処理装置2へ送られる。
【0021】画像処理装置2は、CPU、カメラインタ
ーフェイス、フレームメモリ、画像処理プロセッサ、ロ
ボットコントローラとの間の通信インターフェイス等を
内蔵した通常の型のものであり、カメラインターフェイ
スを介して取り込まれた画像信号を濃淡グレイスケール
による明暗信号に変換した上でフレームメモリに格納す
る。画像処理装置2は更に画像処理プロセッサを利用し
てレーザスリット光像を解析し、三角測量の原理に基づ
いて、その屈曲点、端点等に対応した対象物4上の点の
3次元位置を算出する。このような3次元位置計測方法
自体は既に知られているものであるから、詳しい説明は
省略する。
【0022】投光器11によるレーザスリット光13の
投光方向の制御は、投光器11に内蔵された偏向ミラー
の角度位置を制御する指令に基づいて行なわれる。偏向
ミラーの角度位置を定める指令は、画像処理装置2から
センサ部コントローラ3を介して投光器11に与えられ
る。偏向ミラーの角度位置を変更することにより、対象
物4上の異なる位置にレーザスリット光像14を形成す
ることが出来る。
【0023】[ロボットコントローラ及びロボット]ロ
ボットコントローラ1も通常の型のものを用いることが
出来る。マイクロプロセッサからなる中央演算処理装置
(以下、「CPU」と言う。)と、CPUにバス結合さ
れたROMメモリ、RAMメモリ、不揮発性メモリ、教
示操作盤、ロボットの軸制御のためのディジタルサーボ
回路と、サーボアンプ、外部信号の入出力装置、画像処
理装置2と結ばれた通信インターフェイス等を備えてい
る。
【0024】ROMメモリにはシステムを制御するシス
テムプログラムが格納され、RAMメモリはCPUが行
なう処理のためのデータの一時記憶等に使用される。ま
た、不揮発性メモリには動作プログラムのデータや、シ
ステムの動作に必要な各種設定値が格納される。特に後
者には、ロボットの現在位置データとして、ロボット手
先部に固定された座標系であるフェイスプレートの原点
の位置・姿勢をロボット座標系上で表わすデータを計算
するための構造パラメータが含まれる。
【0025】動作プログラムには、ロボット20の動作
の他にセンサ部10の動作を制御するための処理を定め
たプログラムデータが含まれる。本発明実施時の処理内
容については後述する。ロボット20は、アーム21,
22,23を備え、アーム23の先端にセンサ部10が
装着されている。ロボット20を動作させることによ
り、センサ部10をロボット20の動作範囲内の任意の
位置に任意の姿勢で位置決めすることが出来る。なお、
アーム23の先端には、センサ部10と並んで作業用の
ハンドが装着されているが、ここでは図示を省略した。
【0026】次に、図2は上記の構成と機能を有するロ
ボット−視覚センサシステムを小型ロボットの組み立て
作業に利用するケースを例にとり、本発明の方法を適用
してセンサ座標系とロボット座標系の関係を求めるプロ
セスを説明する為の全体配置である。
【0027】同図において、図1と共通の符号をもって
指示した要素、即ち、ロボットコントローラ1、画像処
理装2、センサ部コントローラ3、センサ部10及びロ
ボット20の構成、機能及び接続関係については、既に
説明した通りである。
【0028】先ず、ここで作業例として取り上げられた
小型ロボットの組み立て作業の概要について簡単に説明
する。計測対象物4は、ここでは作業空間内に次々と供
給される組み立て工程中の小型ロボットの機構部の一部
分5(以下、「機構部5」と略称する。)として示され
ている。機構部5は、ベース50とその回転軸51の周
りに回転するアーム52を含んでいる。その為、ロボッ
トハンドHに把持された減速機、モータ等の部品6(以
下、「取り付け部品」と言う。)が取り付けられる取り
付け面53の位置・姿勢が供給される機構部5毎にばら
つく。同時に、取り付け部品の凸部が差し込まれる円形
穴(中心54で代表)の位置・姿勢にも同様のばらつき
による位置ずれが発生する。
【0029】そこで、図2中、位置ずれを補正して部品
6の組み付け作業を実行する為に、スリット光を投光し
た下で行なわれる3次元計測と通常撮影による画像の解
析を組み合わせて、機構部5の穴の中心54の位置・姿
勢が求められ、それに基づいてロボットの動作が補正さ
れる。
【0030】機構部50の取り付け面53上にレーザス
リット光像61,62が順次形成され、カメラ12によ
る撮影が各1回実行される。レーザスリット光像61,
62の画像は画像処理装置2内で解析され、取り付け面
53の穴円形の外縁上の諸点に対応した屈曲点P1 ,P
2 及び端点Q1 ,Q2 の3次元位置が計算される。その
結果に基づいて取り付け面53の位置・方向が計算さ
れ、更に、基準位置・方向からのずれが計算される。ま
た、本実施例で座標系結合のために着目される特徴点は
円形穴の中心54であり、その位置はP1 ,,Q1 ,P
2 ,Q2 の4点を通る円Cの中心として求められる。な
お、一般に被計測点は同一円弧C上で最小3点あれば良
い。
【0031】次いで、ロボット20を取り付け面53に
正対する位置に移動させ、通常撮影を行なう。画像処理
装置2に取り込まれた通常画像は画像処理プロセッサを
用いて解析され、穴の中心54の位置を求める。その結
果と取り付け面53の位置・姿勢に基づき、穴の3次元
的な位置・姿勢と基準位置・姿勢からのずれが算出さ
れ、ロボットの位置・姿勢(即ち、ツール先端点Tの位
置・姿)を補正した動作が実行される。
【0032】上記プロセスの中で、視覚センサ側(画像
処理装置内)で得られる取り付け面53や穴の中心54
の位置・姿勢あるいはそのずれ量を表わすデータ(セン
サ座標系上で表現されたデータ)をロボット座標系上で
表現されたデータに変換する処理が実行される。
【0033】既に述べたように、センサ座標系上で表現
されたセンサ出力をロボット座標系上のデータに変換す
るためには、ロボット手先部に固定されたフェイスプレ
ート座標系Σf (原点をOf で表示)とセンサ座標系Σ
s (原点をOs で表示)の関係を求めておけば良い。以
下、その為に必要なプロセスの概要を図3及び図4を参
照図に加えて説明する。
【0034】先ず、本発明を適用するための準備とし
て、例えば最初の組立対象とされる機構部5を適当な位
置に置く。位置計測が終わるまで面53の向きが変わら
ないように注意する必要があるが、機構部5あるいは面
53の位置や向きに関するデータを予め用意する必要は
全くない。即ち、対象物の位置は未知で良い。次いで、
図3のフローチャートに記した処理に基づいて座標系結
合を実行する。処理に含まれる諸ステップの要点は次の
通りである。
【0035】〔S1〕ロボット20のツール先端点Tを
第1の計測位置R1 に移動させ、センサ部10を位置決
めする。
【0036】〔S2〕第1の計測位置R1 を表わすデー
タとして、ロボット座標系Σr 上で見たフェイスプレー
ト座標系Σf の原点Of の位置を記憶する。このデータ
は、下記(1)式で表わされる同次変換行列R[i] につ
いて、i=1とした時の各行列要素r(1)11 〜r(1)34
の値を定めるものである。
【0037】
【数1】 〔S3〕センサ部10を動作させ、円弧C上の少なくと
も3点の3次元位置計測を行ない、被計測点の位置をセ
ンサ座標系Σs 上で表わすデータを記憶する。ここでは
4点P1 ,Q1 ,,P2 ,Q2 の位置を計測する。
【0038】〔S4〕これら4点P1 ,Q1 ,P2 ,Q
2 が通る円の中心54の位置を計算して第1の計測結果
データとして記憶する。このデータは下記(2)式でi
=1とした場合の中心54の位置をセンサ座標系Σs 上
で表わすベクトルp1 について、x,y,z各成分p
(1)x,p(1)y,p(1)zの値を定めるものである。
【0039】
【数2】 〔S5〕ロボット20を第2の計測位置R2 に移動さ
せ、センサ部10を位置決めする。
【0040】〔S6〕第2の計測位置R2 を表わすデー
タとして、ロボット座標系Σr 上で見たフェイスプレー
ト座標系Σf の原点Of の位置を記憶する。このデータ
は、前記(1)式でi=2とした時の各行列要素r(2)1
1 〜r(2)34 の値を定めるものである。
【0041】〔S7〕センサ部10を動作させ、ステッ
プS3と同様に、円弧C上の3点以上の3次元位置計測
を行ない、被計測点の位置をセンサ座標系Σs 上で表わ
すデータを記憶する。なお、これら被計測点はステップ
S3における被計測点P1 ,Q2 ,P1 ,Q2 と同じで
ある必要はない。
【0042】〔S8〕ステップS7における4個の被計
測点が通る円弧の中心54の位置を計算して第2の計測
結果データとして記憶する。このデータは前記(2)式
でi=2とした場合の中心54の位置をセンサ座標系Σ
s 上で表わすベクトルp2 について、x,y,z各成分
p(2)x,p(2)y,p(2)zの値を定めるものである。
【0043】〔S9〕ロボット20を第3の計測位置R
3 に移動させ、センサ部10を位置決めする。
【0044】〔S10〕第3の計測位置R3 を表わすデ
ータとして、ロボット座標系Σr 上で見たフェイスプレ
ート座標系Σf の原点Of の位置を記憶する。このデー
タは、前記(1)式でi=3とした時の各行列要素r
(3)11 〜r(3)34 の値を定めるものである。
【0045】〔S11〕センサ部10を動作させ、ステ
ップS3,S7と同様に、円弧C上の3点以上に3次元
位置計測を行ない、被計測点の位置をセンサ座標系Σs
上で表わすデータを記憶する。これら被計測点について
もステップS3,S7における被計測点と同じである必
要はない。
【0046】〔S12〕ステップS11における4個の
被計測点が通る円弧Cの中心54の位置を計算して第3
の計測結果データとして記憶する。このデータは前記
(2)式でi=3とした場合の中心54の位置をセンサ
座標系Σs 上で表わすベクトルp3 について、x,y,
z各成分p(3)x,p(3)y,p(3)zの値を定めるものであ
る。
【0047】〔S13〕ロボット20を第4の計測位置
R4 に移動させ、センサ部10を位置決めする。
【0048】〔S14〕第4の計測位置R4 を表わすデ
ータとして、ロボット座標系Σr 上で見たフェイスプレ
ート座標系Σf の原点Of の位置を記憶する。このデー
タは、前記(1)式でi=4とした時の各行列要素r
(4)11 〜r(4)34 の値を定めるものである。
【0049】〔S15〕センサ部10を動作させ、ステ
ップS3,S7と同様に、円弧C上の3点以上の3次元
位置計測を行ない、被計測点の位置をセンサ座標系Σs
上で表わすデータを記憶する。これら被計測点について
もステップS3,S7,S11における被計測点と同じ
である必要はない。
【0050】〔S16〕ステップS15における4個の
被計測点が通る円弧Cの中心54の位置を計算して第4
の計測結果データとして記憶する。このデータは前記
(2)式でi=4とした場合の中心54の位置をセンサ
座標系Σs 上で表わすベクトルp4 について、x,y,
z各成分p(4)x,p(4)y,p(4)zの値を定めるものであ
る。
【0051】〔S17〕ステップS2,S6,S10,
S14で記憶された各計測位置R1〜R4 のデータr(1)
11 ,r(1)12 ・・・r(4)34 と、ステップS4,S
8,S12,S16で記憶された点54の位置を表わす
データp(1)x,p(2)y・・・p(4)zの値から、フェイス
プレート座標系Σf とセンサ座標系Σs の関係を表わす
下記(3)の同次変換行列Xの各行列要素x(1)11 ,x
(1)12 ・・・x(4)34 を求めて記憶し、処理を終了す
る。
【0052】
【数3】 同次変換行列Xの各行列要素x(1)11 ,x(1)12 ・・・
x(4)34 を求めるための計算法について、図4を参照し
て説明すれば次のようになる。先ず重要なことは、穴の
中心54のロボット座標系Σr 上での位置は未知ではあ
るが不動であるということである。そこで、このロボッ
ト座標系Σr 上で不動の位置に面53の向きと一致した
姿勢を与え未知行列Pで表わすことにすれば、ロボット
のフェイスプレート座標系Σf が任意の一つの位置R
[i] にある時、次式の関係が成立する。 R[i] Xp[i] =P ・・・(4) ここで、p[i] はフェイスプレート座標系Σf が位置R
[i] にある時の点54のセンサ座標系Σs 上の位置であ
る。
【0053】同様に、ロボットのフェイスプレート座標
系Σf が位置R[i] とは異なる任意の一つの位置R[j]
(i≠j)にある時、次式の関係が成立する。 R[j] Xp[j] =P ・・・(5) ここで、p[j] はフェイスプレート座標系Σf が位置R
[j] にある時の点54のセンサ座標系Σs 上の位置であ
る。
【0054】(4),(5)式から、任意の2つのフェ
イスプレート座標系Σf の位置R[i],R[j] (R[i]
≠R[j] )に関して次式(6)が成立する。
【0055】 R[i] Xp[i] =R[j] Xp[j] =P ・・・(6) 1組に異なる(i,j)の組について上記の(6)式を
展開、整理すれば、求めるべき行列Xの要素x11,x12
・・・x34を未知数とする3個の一次方程式が得られ
る。各方程式において未知数x11,x12・・・x34にか
かる係数はいずれもR[i] あるいはp[i] のいずれかの
成分(既知)である。例えば第1行について展開、整理
するとすれば次の方程式(7)が得られる。
【0056】
【数4】 従って、本事例のように、異なる4個の計測位置R1 〜
R4 で同一点54の位置計測を行なった場合には、最大
5組の異なる(i,j)の組について前記(6)式を立
て、そこから最大15個(未知数の数以上)の方程式を
導出し、これら全部または一部(但し、12個以上)の
方程式を12個の未知数x11,x12・・・x34に関する
連立方程式とみて解く計算処理を行なえば、前記(3)
式の形を持つ同次変換行列Xが決定される。
【0057】また、計測の信頼性を高めるために、5個
所以上の計測位置で同一対象の計測を行なって多数の方
程式を立て、最小2乗法などを適用して未知数x11,x
12・・・x34を決定する処理を行なっても良い。
【0058】更に、同次変換行列Xに含まれる下記
(8)式の部分行列X’が回転移動を表わす直交行列で
あることに着目すれば、全ての行ベクトル及び列ベクト
ルのノルムが1であり、且つ、行ベクト同士及び列ベク
トル同士はすべて直交する(内積が0)という条件を利
用して、ラグランジェの未定係数法によって同次変換行
列Xを定めることも出来る。
【0059】
【数5】 なお、以上の説明において、ロボット20の移動はジョ
グ送り操作で行なっても良いし、予め計測位置R1 ,R
2 ,R3 ,R4 を辿るロボット移動を動作プログラムで
教示しておき、計測位置R1 ,R2 ,R3 ,R4 に位置
決めされる毎にマニュアル指令で3次元視覚センサを動
作(カメラ撮影と画像処理)させても良い。動作プログ
ラムによる教示内容に3次元視覚センサの動作(カメラ
撮影と画像処理のタイミンッグ)を含めれば、上記諸ス
テップS1〜S17のすべてを動作プログラムの再生運
転の形で実行出来る。
【0060】更に、本実施形態では3次元視覚センサと
してスリット光投光器と1台のカメラとを組み合わせた
ものを使用したが、これに代えて、他の型の3次元視覚
センサ(例えば、2台の視線方向の異なるカメラを使用
したものやスポット光投光型の3次元視覚センサ)を用
いても構わない。
【0061】
【発明の効果】本発明の方法は、ロボット手先部とセン
サ座標系の関係を求めるために視覚センサで計測する対
象物に要求される条件を大幅に緩和した。即ち、本発明
で使用される対象物(実施形態ではロボット機構部組立
部品)について、次のような条件緩和が実現されてい
る。 (1)計測対象の位置(ロボット座標系上)が既知であ
る必要がない。従って、ロボットによるタッチアップも
不要である。 (2)計測対象は1個所で良い。 (3)計測対象あるいはタッチアップア用に用意される
特別な治具が不要である。
【0062】また、ロボット移動や3次元視覚センサの
動作を予め教示しておけば、座標系結合作業を自動化出
来る。そして、一旦座標系結合を行なった後に干渉事
故、センサの故障(センサ交換)などでセンサ座標系の
位置がずれてしまっても、復旧作業を極めて簡単に済ま
せることが出来る。
【図面の簡単な説明】
【図1】本発明が適用されるロボット−視覚センサシス
テムの構成の概略を例示した要部ブロック図である。
【図2】図1に示した構成と機能を有するロボット−視
覚センサステムを小型ロボットの組み立て作業に利用す
るケースを例にとり、本発明の方法に従った座標系結合
のプロセスを説明する為の全体配置である。
【図3】本実施形態における座標系結合のための処理の
概要を説明する為のフローチャートである。
【図4】同次変換行列Xの各行列要素を求めるための計
算法について説明するための概念図である。
【符号の説明】
1 ロボットコントローラ 2 画像処理装置 3 センサ部コントローラ 4 被計測対象物 5 機構部 6 組み付け部品 10 センサ部 11 投光器 12 CCDカメラ 20 ロボット 21〜23 ロボットアーム 50 ベース 51 回転軸 52 アーム 53 取り付け面 54 穴 61,62 レーザスリット光像 H ハンド R1 〜R4 計測位置 T ツール先端点

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 ロボットと、該ロボットの手先部に固定
    されたカメラ手段を含む3次元視覚センサを備えたロボ
    ット−視覚センサシステムにおける座標系結合方法であ
    って、 複数の異なる計測位置に前記ロボットを順次位置決め
    し、前記複数の異なる計測位置の各々において、位置が
    未知の同一対象物に関する位置計測を前記3次元視覚セ
    ンサを用いて実行し、 前記複数の異なる計測位置を前記ロボットの手先部に固
    定された座標系の位置として表わすデータと、前記複数
    の異なる計測位置において実行された前記位置計測の結
    果を前記3次元視覚センサに設定されたセンサ座標系上
    で表わすデータとに基づいて、前記ロボットの手先部に
    固定された座標系と前記センサ座標系の相対的な位置関
    係を前記ロボット−視覚センサシステム内部のソフトウ
    ェア処理で求めるようにした前記座標系結合方法。
  2. 【請求項2】 前記複数の計測位置を辿る移動経路が予
    め前記ロボット−視覚センサシステムに教示されてお
    り、前記ロボットの移動と位置決めが前記ロボット動作
    の教示に基づく再生運転によって実行される、請求項1
    に記載されたロボット−視覚センサシステムにおける座
    標系結合方法。
  3. 【請求項3】 前記複数の計測位置における前記位置計
    測の動作が予め前記ロボット−視覚センサシステムに教
    示されており、前記複数の計測位置における前記位置計
    測動作が前記位置計測動作の教示に基づく再生運転によ
    って実行される、、請求項1または請求項2に記載され
    たロボット−視覚センサシステムにおける座標系結合方
    法。
JP22943896A 1996-08-13 1996-08-13 ロボット−視覚センサシステムにおける座標系結合方法 Pending JPH1063317A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22943896A JPH1063317A (ja) 1996-08-13 1996-08-13 ロボット−視覚センサシステムにおける座標系結合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22943896A JPH1063317A (ja) 1996-08-13 1996-08-13 ロボット−視覚センサシステムにおける座標系結合方法

Publications (1)

Publication Number Publication Date
JPH1063317A true JPH1063317A (ja) 1998-03-06

Family

ID=16892230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22943896A Pending JPH1063317A (ja) 1996-08-13 1996-08-13 ロボット−視覚センサシステムにおける座標系結合方法

Country Status (1)

Country Link
JP (1) JPH1063317A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1431706A2 (en) 2002-12-20 2004-06-23 Fanuc Ltd Reducing measurement error in an optical sensor for measuring an object in three dimensions
US7202957B2 (en) 2004-01-19 2007-04-10 Fanuc Ltd Three-dimensional visual sensor
JP2008068342A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 運搬システム
JP2009006452A (ja) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd カメラとロボット間のキャリブレーション方法及びその装置
US7532949B2 (en) 2004-01-16 2009-05-12 Fanuc Ltd Measuring system
JP2010528273A (ja) * 2007-05-24 2010-08-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 自由形状面の形状を測定するための装置及び方法
JP2010534013A (ja) * 2007-07-18 2010-10-28 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP2011031346A (ja) * 2009-08-03 2011-02-17 Fanuc Ltd ロボットのツール先端点の位置の計測装置および計測方法
JP2011235400A (ja) * 2010-05-11 2011-11-24 Daihen Corp マニピュレータのキャリブレーション方法及びロボット制御システム
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム
EP2767370A2 (en) 2013-02-14 2014-08-20 Canon Kabushiki Kaisha Robot system and method for controlling the same
EP2853356A1 (en) 2013-09-26 2015-04-01 Canon Kabushiki Kaisha Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
WO2015129473A1 (ja) * 2014-02-28 2015-09-03 ソニー株式会社 ロボットアーム装置、キャリブレーション方法及びプログラム
JP2015182144A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法
CN108015762A (zh) * 2016-11-04 2018-05-11 广明光电股份有限公司 机器人视觉定位的验证方法
CN108942929A (zh) * 2018-07-10 2018-12-07 广州供电局有限公司 基于双目立体视觉的机械臂定位抓取的方法及装置
JP2019014030A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
CN109506652A (zh) * 2018-10-23 2019-03-22 珠海市微半导体有限公司 一种基于地毯偏移的光流数据融合方法及清洁机器人
CN109539990A (zh) * 2019-01-17 2019-03-29 延锋彼欧(上海)汽车外饰系统有限公司 一种用于产品尺寸自动测量的方法
CN115229803A (zh) * 2022-09-19 2022-10-25 国网浙江宁波市鄞州区供电有限公司 基于视觉识别的集成化机械臂末端执行件及其操控方法

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1431706A2 (en) 2002-12-20 2004-06-23 Fanuc Ltd Reducing measurement error in an optical sensor for measuring an object in three dimensions
US6970802B2 (en) 2002-12-20 2005-11-29 Fanuc Ltd Three-dimensional measuring device
EP1431706A3 (en) * 2002-12-20 2007-05-23 Fanuc Ltd Reducing measurement error in an optical sensor for measuring an object in three dimensions
US7532949B2 (en) 2004-01-16 2009-05-12 Fanuc Ltd Measuring system
US7202957B2 (en) 2004-01-19 2007-04-10 Fanuc Ltd Three-dimensional visual sensor
JP2008068342A (ja) * 2006-09-13 2008-03-27 Hitachi Ltd 運搬システム
JP2010528273A (ja) * 2007-05-24 2010-08-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 自由形状面の形状を測定するための装置及び方法
JP2009006452A (ja) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd カメラとロボット間のキャリブレーション方法及びその装置
JP2010534013A (ja) * 2007-07-18 2010-10-28 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP2011031346A (ja) * 2009-08-03 2011-02-17 Fanuc Ltd ロボットのツール先端点の位置の計測装置および計測方法
JP4763074B2 (ja) * 2009-08-03 2011-08-31 ファナック株式会社 ロボットのツール先端点の位置の計測装置および計測方法
JP2011235400A (ja) * 2010-05-11 2011-11-24 Daihen Corp マニピュレータのキャリブレーション方法及びロボット制御システム
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム
EP2767370A2 (en) 2013-02-14 2014-08-20 Canon Kabushiki Kaisha Robot system and method for controlling the same
JP2014151427A (ja) * 2013-02-14 2014-08-25 Canon Inc ロボットシステム及びロボットシステムの制御方法
US9221176B2 (en) 2013-02-14 2015-12-29 Canon Kabushiki Kaisha Robot system and method for controlling the same
JP2015066603A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
US9669545B2 (en) 2013-09-26 2017-06-06 Canon Kabushiki Kaisha Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
US10279479B2 (en) 2013-09-26 2019-05-07 Canon Kabushiki Kaisha Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
EP2853356A1 (en) 2013-09-26 2015-04-01 Canon Kabushiki Kaisha Robot calibrating apparatus and robot calibrating method, and robot apparatus and method of controlling robot apparatus
JPWO2015129473A1 (ja) * 2014-02-28 2017-03-30 ソニー株式会社 ロボットアーム装置、キャリブレーション方法及びプログラム
CN106029308A (zh) * 2014-02-28 2016-10-12 索尼公司 机械臂设备、校准方法和程序
EP3112096A4 (en) * 2014-02-28 2017-11-15 Sony Corporation Robot arm apparatus, calibration method, and program
WO2015129473A1 (ja) * 2014-02-28 2015-09-03 ソニー株式会社 ロボットアーム装置、キャリブレーション方法及びプログラム
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
JP2015182144A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法
CN108015762A (zh) * 2016-11-04 2018-05-11 广明光电股份有限公司 机器人视觉定位的验证方法
CN108015762B (zh) * 2016-11-04 2021-01-15 达明机器人股份有限公司 机器人视觉定位的验证方法
JP2019014030A (ja) * 2017-07-11 2019-01-31 セイコーエプソン株式会社 ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
CN108942929A (zh) * 2018-07-10 2018-12-07 广州供电局有限公司 基于双目立体视觉的机械臂定位抓取的方法及装置
CN108942929B (zh) * 2018-07-10 2020-11-27 广东电网有限责任公司广州供电局 基于双目立体视觉的机械臂定位抓取的方法及装置
CN109506652A (zh) * 2018-10-23 2019-03-22 珠海市微半导体有限公司 一种基于地毯偏移的光流数据融合方法及清洁机器人
CN109539990A (zh) * 2019-01-17 2019-03-29 延锋彼欧(上海)汽车外饰系统有限公司 一种用于产品尺寸自动测量的方法
CN115229803A (zh) * 2022-09-19 2022-10-25 国网浙江宁波市鄞州区供电有限公司 基于视觉识别的集成化机械臂末端执行件及其操控方法
CN115229803B (zh) * 2022-09-19 2023-02-28 国网浙江宁波市鄞州区供电有限公司 基于视觉识别的集成化机械臂末端执行件及其操控方法

Similar Documents

Publication Publication Date Title
JPH1063317A (ja) ロボット−視覚センサシステムにおける座標系結合方法
KR102280663B1 (ko) 비전 가이드 로봇 암 교정 방법
US5987591A (en) Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information
CN106457562B (zh) 用于校准机器人的方法和机器人系统
EP0493612B1 (en) Method of calibrating visual sensor
JP4021413B2 (ja) 計測装置
JP3733364B2 (ja) 教示位置修正方法
US6763284B2 (en) Robot teaching apparatus
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP4191080B2 (ja) 計測装置
JP2510216B2 (ja) 産業用ロボットのセンサを校正するための方法
US8520067B2 (en) Method for calibrating a measuring system
EP1315056A2 (en) Simulation apparatus for working machine
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
JP3644991B2 (ja) ロボット−センサシステムにおける座標系結合方法
JPH08210816A (ja) ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JP2017056546A (ja) ロボットの機構パラメータを校正するために使用される計測装置
JPH07286820A (ja) 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法
US4868473A (en) Industrial robot device including a robot and a processing machine
CN114310868A (zh) 机器手臂的坐标系校正设备及校正方法
JP2682763B2 (ja) ロボット機体の作動誤差の自動測定方法
CN114012719A (zh) 一种六轴机器人的零点标定方法及系统
JPH08328624A (ja) センサとロボットとの結合方法及びロボットシステム
JPH09222913A (ja) ロボットの教示位置補正装置
TW202233366A (zh) 機器人的設置位置測定装置、設置位置測定方法、機器人控制装置、教示系統以及模擬裝置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010321