JPH02183102A - 視覚センサにおけるキャリブレーション自動調整方式 - Google Patents

視覚センサにおけるキャリブレーション自動調整方式

Info

Publication number
JPH02183102A
JPH02183102A JP1001372A JP137289A JPH02183102A JP H02183102 A JPH02183102 A JP H02183102A JP 1001372 A JP1001372 A JP 1001372A JP 137289 A JP137289 A JP 137289A JP H02183102 A JPH02183102 A JP H02183102A
Authority
JP
Japan
Prior art keywords
camera
coordinate system
visual sensor
determined
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1001372A
Other languages
English (en)
Inventor
Atsushi Watanabe
淳 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP1001372A priority Critical patent/JPH02183102A/ja
Publication of JPH02183102A publication Critical patent/JPH02183102A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、ロボット等の装置の視覚として使用される視
覚センサにおけるキャリブレーション方式に関する。
従来の技術 視覚センサを用いるシステムにおいては、視覚センサの
カメラでとらえた対象物の位置を、視覚センサはロボッ
ト等の装置の座標系上の位置に変換し補正データとして
出力し、ロボット等の装置はこの補正データを受信して
対象物の位置を認識する。例えば、装置がロボットであ
れば、この補正データを受信して対象物位置へロボット
ハンドを移動させる。
このように、視覚センサのカメラでとらえた対象物の位
置をロボット等の装置が正確に認識するには、視覚セン
サのカメラ座標系とロボット等の装置座標系とを整合さ
せ、座標系を定義する必要があるが、この整合をとらせ
る作業をキャリブレーションと称し、2次元キャリブレ
ーションの場合、カメラの位置、カメラの方向、縮尺度
を設定する必要がある。
すなわち、第 図に示すように、カメラ座標系xy上の
点(x、y)と装置の座標系XY上の点(X、Y)が一
致する場合、次の第(1)式の関係が成立する。
・・・・・・ (1) なお、Sはカメラの縮尺度、θはカメラの方向、(X 
O,Y O)はカメラの装置座標系上の位置である。
上記第(1)式からも明らかのように、カメラの位置(
X O,Y O)、方向θ、及びカメラの縮尺度Sがわ
かれば、視覚センサのカメラでとらえた位置(x、y)
から装置座標系の位置(X、Y)は求めることができ、
視覚センサは、この位ffi (X。
Y)を補正データとしてロボット等の装置へ出力できる
上記第(1)式が意味するように、キャリブレーション
データであるカメラの位1(XO,YO)、方向θ、縮
尺度Sが正確に設定されなければ正確な補正データが得
られなく、ロボット等の装置は視覚センサのとらえた位
置を正しく認識し移動等をすることができない。
そのため、従来は、キャリブレーション作業でキャリブ
レーションデータを設定しても正確な補正データが得ら
れない場合にはS最初からキャリブレーション作業をや
り直し、精度の高い補正データが得られるまで、キャリ
ブレーション作業行っている。
発明が解決しようとする課題 キャリブレーション作業は非常に手間のかかる作業であ
り、最初からキャリブレーション作業をやり直す従来の
方式だと非常に時間を要し、多大な労働を必要とする。
そこで、本発明は視覚センサにキャリブレーションデー
タを自動調整させ、正確なキャリブレーションデータの
設定ができる自動調整方式を提供することにある。
課題を解決するための手段 本発明は、次の工程を行うことによって、上記課題を解
決し、正確なキャリブレーションデータを設定する。
イ、視覚センサのカメラ座標系と視覚センサを使用する
装置の座標系を整合させるためのキャリブレーションを
行い、カメラ位置、方向、縮尺度のキャリブレーション
データを得る第1の工程、 口、視覚センサで複数の点を検出し、各点のカメラ座標
系の位置を求める第2の工程、ハ、上記複数の点に対す
る装置座標系上の実際の位置を視覚センサに入力する第
3の工程、二、視覚センりにより、上記第1の工程で求
められたカメラ方向、縮尺度を所定刻みで順次変更して
上記第2の工程で求められたカメラ座標系上の各点の位
置を装置座標系上の位置に変換し、装置座標系上の各点
間の距離を求める第4の工程、 ホ、視覚センサにより、上記第3の工程で入力された各
点の位置間の距離と、上記第4の工程で求めた対応する
各点間の距離の差の総和が最小となるカメラ方向、縮尺
度を求める第5の工程、へ、視覚センサにより、上記第
1の工程で求められたカメラ位置を所定刻みで順次変更
して、上記第5の工程で求められたカメラ方向、縮尺度
を使用し、第2の工程で求められたカメラ座標系上の各
点の位置を装置座標系上の位置に変換する第6の工程、 ト、視覚センサにより、上記@6の工程で求められた各
点の座標位置と対応する上記第3の工程から求められた
各点の位置間の距離が最小となるカメラ位置を求める第
7の工程、 へ、?1覚センサが上記第5の工程及び第7の工程で求
められたカメラ方向、縮尺度、カメラ位置をキャリブレ
ーションデータとして自動設定する第8の工程。
作  用 まず、通常のキャリブレーション作業である第1の工程
を行ってキャリブレーションデータのカメラ位If (
XO,YO)、方向θ、縮尺度Sを得る。
次に、第2の工程で視覚センサに複数n個の点を検出さ
せ、各点のカメラ座標系上の位置(xiVi)を得る(
ただし、1==1〜nである)。
次に、第3の工程で上記n個の点の装置座標系上の位置
(Xi、Yi)を視覚センサに入力する。すなわち、装
置がロボットであれば、ロボットハンドを上記n個の各
点に移動させ、その位置(Xi。
yt)を求め視覚センサに入力する。第4の工程は、視
覚センサによって第1の工程によって得られたカメラ方
向θ、縮尺度Sを微少きざみで変化させて、第2の工程
で得られたカメラ座標系上の位置(xi、yi)を装置
座標系の位置に変換して装置座標系上の各点の距離を求
める。
例えば、θ′−θ十m・Δθ、S’−8+J・ΔSとし
て、Δθ、ΔSをきざみ幅とし、パラメータm、lを整
数値として、負の値から正の値まで所定量変化させ求め
るものとすると、カメラ座標系上の2点の位置(Xj、
Vj)、  (xk、yk)と該位置が装置座標系上に
変換された位置(x j’tyj’) 、  (xko
、 yko)には次の関係が成立する。
(Xk、Yk)fB+7)Il[((Xj−Xk)  
+ (Yj−Yk)” )の差を取って各点間のこの差
の総和が最小となるθ′、S′を求めれば、この値θ′
、S′が正確なカメラの方向及び縮尺度として求められ
る。
すなわち、第5の工程で次の第(3)式、第(4)式の
演算を各θ′、S′毎に行ってEの値が最小となるもの
を求める。
Ejk−(Xj’−Xk’) 2+ (Yj’−Yk’
) 2− (Xj−Xk)2− (Yj −Yk)2・
・・・−(3) 1/2 上記′第(2)式において、(Xj’−Xk’) 、(
Yj’−Yk’)は、2点1のX軸上、Y軸上の距離で
あり、かつ、この距離は縮尺度S′、カメラの方向θ′
のみに関係し、カメラの位置(X O,Y O)には無
関係である。
その結果、2点(Xj’、 Yj’) 、(Xk’、 
Yk’)fffiffミノi((Xj’−Xk’)  
+ (Yj’−Yk’) 2) 1/2と第3工程で入
力された対応する点(X j、 Y j)。
(なお、第(3)式においては、2点間の距離の差では
なく、これと同等の意味を持つ2点間の距離の2乗の差
にしている。) 上記第(4)式におけるEの値が最小なものとは、カメ
ラ座標系上の点から装置座標系へ変換された、各点間の
距離とこの各点に対応する、正しい各点間の距離の差が
最小であることを意味し、正確な座標変換が行われたこ
と、すなわち、カメラの方向θ′及び縮尺度S′が正確
であることを意味する。
第“6の工程では、こうして求められたカメラ方向θ′
、縮尺度S′を用いて、カメラ座標系上の各点(xi、
yi)を装置座標系に次の第(5)式によって変換する
上記第(5)式において、XOo、YOoの値を第1の
工程で求められたカメラ位置(X O,Y O)を所定
きざみで変化させて位1 (Xi’、 Yi’)を求め
る。
例えば、XO’=XO+m−ΔX、YO°=yo+1・
ΔY(ΔX、ΔYは設定されたきざみ、m。
lは整数で、負の値から正の値までの所定幅)として、
第(5ン式の演算を行う。
そして、第7の工程で次の第(6)式の演算を行う。
Ei’= (Xi −Xi’> 2+ (Yi−Yi’
)”・・・・・・ (6) すなわち、正しい各位fly(Xi、Yi)と変換され
た対応する各位置くXio、Yi゛)間の距離(第(6
)式においては、その距離の2乗が求められる)を求め
、各点間の距離の総和が最小となるxOo。
YOoを求める。
各点間の距離の総和が最小であれば、カメラ位置(XO
o、YOo)の値が負の値に一番近いことを意味するの
で、この値(XOo、YO’)をカメラ位置の座標位置
とする。
こうして、求められたカメラ方向θ′、縮尺度31、カ
メラ位置(XOo、 YO’)をキャリブレーションデ
ータとして視覚センサは自動設定する。
以上のような工程により、オペレータは複数の点を視覚
センサのカメラにとらえさせ、そして、該複数の点の装
置座標系上における位置を入力するのみで、後は視覚セ
ンサが自動的にキャリブレーションデータを調整するか
ら、正確なキャリブレーションデータ設定が容易となる
実施例 第4図は、本発明の方式を実施する一実施例の視覚セン
サシステムの要部ブロック図である。
図中、10は画像中央処理装置で、該画像中央処I!I
!装置10は主中央処理装置(以下、メインCPtJと
いう)11゛を有し、該メインCPLJ11には、カメ
ラインタフェイス122画像処理プロセッサ13.コン
ソールインタフェイス141通信インタフェイス15.
モニタインタフェイス16゜フレームメモリ17.RO
Mで形成されたコントロールソフト用メモリ18.RA
M等で構成されたプログラムメモリ19.不揮発性RA
Mで構成されたデータメモリ20がバス21で接続され
ている。
カメラインタフェイス12には部品等の対象物を撮影す
るカメラ22が接続され、該カメラ22の視野でとらえ
た画像は、グレイスケールによる濃淡画像に変換されて
フレームメモリ17に格納される。
画像処理プロセッサ13はフレームメモリ17に格納さ
れた画像を処理し、対象物の識別9位置。
姿勢を計測する。
コンソールインタフェイス14にはコンソール23が接
続され、該コンソール23は、液晶表示部の外、各種指
令キー、アプリケーションプログラムの入力1編集、登
録、実行などの操作を行うための数字キー等を有してお
り、上記液晶表示部には、各種データ設定のためのメニ
ューやプログラムのリストなどが表示できるようになっ
ている。
また、コントロールソフト用メモリ18にはメインCP
L111が該視覚センサシステムを制御するためのコン
トロールプログラムが格納されており、また、プログラ
ムメモリ19にはユーザが作成するプログラムが格納さ
れている。
通信インタフェイス15にはロボット等の該視覚センサ
システムを利用するシステムが接続されている。また、
TVモニタインタフェイス16にはカメラ22が撮影し
た映像を表示するすモニタテレビ24が接続されている
以上の構成は、従来の視覚センサシステムの構成と同様
であって、本発明においては、キャリブレーション時に
キャリブレーションデータを自動調整できる機能を有し
ている点が、従来の視覚センサシステムと相違している
第゛1図は、キャリブレーション自動調整処理の動作フ
ローチャートである。
まず、オペレータは従来と同様な方法により、キャリブ
レーション作業を行い、キャリブレーションデータであ
るカメラ位!(XO,YO)、方向(θ)、及び縮尺度
Sを求める。これらのデータはデータメモリ20内に格
納される。そして、カメラ22で対象物を撮影し、視覚
セン+110は対象物を検出認識し、上記キャリブレー
ションデータに基いて、カメラ座標系から装置本体(本
実施例では該装置をロボットとしている)の座標系に変
換した補正データを作成し、ロボットの制御装置に送出
し、ロボット制御装置はこの補正データを受信し補正動
作を行う。ここで、ロボットハンドがカメラ22でR影
した対象物の位置を正確に゛移動しない場合、キャリブ
レーションデータが正確でないことを意味するので、視
覚センサ10をキャリブレーション自動調整モードにす
る。
キャリブレーションモードになると、視覚センサ10の
CPLlllは指標iを「1」にセットしくステップ1
00)、対象物をカメラ22で撮影し、対象物の検出、
認識を行い、従来と同様、データメモリ20に格納され
たキャリブレーションデータ(XO,YO)、θ、Sに
基いてカメラ座標系上の位置(xi、yi)からロボッ
ト座標系上の位置(xt、yt)及び対象物の向きの補
正データを作成する。また、このとき得られたカメラ座
標系上の位置(x i、 y i)をデータメモリ20
内に記憶する(ステップ101)。次に、CPU11は
該補正データをロボット制御装置に出力し、ロボットに
補正動作をさせる(ステップ1o2)。そこで、オペレ
ータは正確な対象物位置に移動していないロボットハン
ドを正確な対象物位置へ手動送りで移動させ、そのとき
のロボットハンドのロボット座標系上の位置(xt、y
t)をコンソール23の数値キーより入力し、CPU1
1はこの入力されたロボット座標系上の座標(Xi、Y
i)を、すでに記憶されているカメラ座標系上の位置(
xi、yi)に対応させてデータメモリ20内に記憶さ
せる(ステップ103.104>。
次に、CPLJllは指標iが「3」か否か判断し、「
3」でなければ、該指標1を「1」インクリメントする
(ステップ105.106)、なお、本実施例は説明を
簡単にするために、3点の位置よりキャリブレーション
データを自動調整するものとしており、ステップ105
ではこの3点の位置がすでに得られたか否かを判断する
ものである。
そこで、オペレータは対象物を移動させ、スナップ指令
を入力する。CPLlllはこのスナップ指令が入力さ
れたことを検出すると、再びステップ101以下の処理
を行う。以下、この処理を繰返し、ステップ105で指
標1が「3」と判断され、3点のカメラ座標系上の位@
(Xl、l)。
(x 2. y 2)、  (X 3. V 3)とこ
れに対応するロボット座標系上の正しい位置、すなわち
、ステップ103で入力された位1 (Xl、Yl)、
  (X2.Y2)。
(X3.Y3)カ得うレルト、CPU11はカメラの方
向及び縮尺度の正確な値θ′、S′を求める処理(ステ
ップ108)を開始する。
この処理は第2図に示す処理であり、まず、カメラの方
向を設定所定きざみΔθで変化させるためのパラメータ
mに−Mを設定する(ステップ200)。なお、Mは正
の整数である。そして、キャリブレーション作業によっ
て得られ、データメモリ20内に格納されているカメラ
の方向θにm・Δθを加算し、カメラの方向θ′(=θ
十m・Δθ)とする(ステップ201)。次に、縮尺度
を設定所定きざみΔSで変化させるためのパラメータオ
に−Lを設定する(ステップ202)。
なお、しは正の整数である。そして、キャリブレーショ
ン作業で得られた縮尺度Sに1・ΔSを加算し、縮尺度
S’  (=8−1−j!・ΔS)とする(ステップ2
03)。こうして設定されたカメラ方向θ′、縮尺度S
′を使用し、データメモリ20に格納さ−れているカメ
ラ座標系上の3点の位置(xi、yl)、  (x2.
y2)、  (x3.y3)より第(2)式の演算を行
い、(X1’−X2°)、  (Ylo−Y2°)(X
io−X3’)、  (Yl’−Y3°)、(X2°−
X3°)、(Y2°−Y3°)を求める。これらの値は
、カメラ方向θ′、縮尺度S′でカメラ座標系からロボ
ット座標系に変換した3点間の各X軸、Y軸上の長さを
意味する。そして、これらの値とデータメモリ20内に
格納されている3点の実際のロボット座標系上の位置(
Xl、Yl)、  (X2.Y2)。
(X 3. Y 3)を用いて第(3)式の演算を行い
、変換された3点間の長さの2乗と対応する実際の位置
間の長さの2乗の差Ejkを求める(ステップ204)
すなわち、 F12 = (X1’−X2’) 2+ (Yl“−Y
2°)2− (Xl −X2 ’)  −(Yl −Y
2 )2  ・・・・・・(7)E13=(X1°−X
3’) 2+ (Ylo−Y3°)2− (Xl −X
3 ) 2− (Yl −Y3 ”) 2  ・・・・
・・(8)E23= (X2’−X3°) 2+ (Y
2’−Y3’) 2− (X2−X3 )2− (Y2
−Y3 )2−・・・・(9)となる。
次に、第(4)式の演算を行い記憶する(ステップ20
5)、3点の場合、第〈4)式の演算を行うと、 Eil=2 (E12+E13+E23)となるが、本
実施例では、E ml = E 12−1− E 13
+E23の演算を行って求める。単に、2倍されるか否
かの違いであり、2倍されるか否かによって、以下の処
理上差異は生じない。
次に、パラメータオの値が+Lの値になったか否か判断
しくステップ206) 、達してなければパラメータ1
を「1」インクリメントし、ステップ203以下の処理
を行い、パラメータlが+Lになるまで、Filの値を
順次求め記憶する。
かくして、パラメータmの値が−Mでパラメータlの値
が+しに達し、パラメータlの値を−Lから+Lまで変
えてElの値を求め記憶した後、次に、パラメータmの
値が→−Mか否か判断しくステップ208)、+Mの値
でなければパラメータmを「1」インクリメントしくス
テップ208)、ステップ201以下の処理を行う。す
なわち、カメラの方向θ′を1きざみ変更させて再びス
テップ202以下の処理を行い、Elの値を求め記憶す
る。そして、パラメータmの値が十Mに達すると、デー
タメモリ20に記憶されたElの値の中から最小のもの
を検出しくステップ210)、この最小のElのときの
パラメータm、1で決まるカメラの方向θ′、縮尺度S
’  (θ′=θ十m・Δθ、S′=θ→−1・ΔS)
をキャリブレーションデータとしてデータメモリ20内
に格納されているデータθ、Sに代えて記憶させる(ス
テップ211)。
すなわち、3点のカメラ座標系上の(xl、yl)。
(x2.y2)、  (x3.y3)からロボット座標
系に変換サレタ位置(X1’、 Y1’) 、  (X
2°、Y2°)。
(X3’、 Y3°)の2点間距離の2乗から現実の3
点のロボット座標系上の座標位置(Xl、Yl)。
(X2.Y2)、  (X3.Y3)(7)対応する2
点間ノ距離の2乗の差の総和が最小ということは、誤差
が最小であることであり、カメラ座標系から[1ポツト
座標系への変換におけるカメラ方向θ′、縮尺度S′が
正確であることを意味する。
こうして求められたθ′、S′を自動調整されたカメラ
方向θ′、縮尺度S′のキャリブレーションデータとし
てデータメモリ内に格納する。
そして、次に、カメラの位置の自動調整(ステップ10
9)を行う。
この処理は、第3図に示されるように、パラメータmを
−M(Mは正の整数)にセットし、カメラ位置のロボッ
ト座標系上のX軸位置をXO゛=XO十m・ΔX (X
Oはキャリプレーシコンで求められたカメラ位置のX軸
位置、・ΔXは設定されたきざみ)とし、パラメータ1
を−L(Lは正の整数)にセットし、カメラ位置のロボ
ット座標系上のY軸位置をYO’=YO→・オ・ΔY(
YOはキャリブレーションで求められたカメラ位置のX
軸位置、ΔYは設定されたきざみ)とし、このカメラ位
置(XO’、 YOo)とステップ211で求めた自動
調整されたカメラ方向θ′、縮尺度S′を用いて第(5
)式の演算を行ってカメラ座標系上の各点の位置(xl
、yl)、  (x2.y2)、(x 3. y 3)
をロボット座標系の位置(Xl’、 Y1’) 、  
(X2’。
Y2’)、  (X3°、 Y3°)に変換し、コ(1
’)変換サレた位置と、現実の3点のロボット座標系上
の位置(Xl、Yl)、  (X2.Y3)、  (X
3.Y3)より、第(6)式の゛演算を行い、E1’、
 E2’、 E3’を算出しくステップ304)、この
総和Ell11’ =E1°+E2°十E3°を算出し
記憶する(ステップ305)。そして、パラメータ1が
「+L」になるまで(ステップ306) 、該パラメー
タ1を「1」インクリメントしながらくステップ307
)、ステップ304〜306を繰返して、Eml’を求
め記憶する。
そして、パラメータlが「→−L」に達すると、パラメ
ータmを「1」インクリメントしながら(ステップ30
9)、ス4テップ301〜308の処理を繰返し行い、
各パラメータJ、mの値に応じたEloの値を求め記憶
する。
次に、記憶されているE Il+’の中から最小のもの
を検出しくステップ310)、その最小のEml’での
カメラ位置(XOo、 YO’)を求め、自動調整され
たカメラ位置(XO’、 YOo)として、データメモ
リ20中のキャリブレーションデータのカメラ位置に代
えて記憶する(ステップ311 )。
即ち、カメラ方向θ′、縮尺度S′が正確であれば、こ
のカメラ方向θ′、縮尺度S′を使用してカメラ座標系
からロボット座標系に各点を変換し、コノ変換サレタ各
点(X1°、 Y1’) 、  (X2’。
Y2′)、  (X3’、 Y3°)と現実の各点(X
i、Yl)。
(X2.Y2)、(X3.Y3)の対応する点間の距1
1の2乗(第(6)式参照)Elo、 E2°、E3°
の総和が最小であることは、そのとぎの(XOo、YO
o)の値が正確なカメラ位置を表わしていることを意味
する。
なお、上記実施例では、通常のキャリブレーション作業
を行って、キャリブレーションデータが正確でない場合
に、第1図の自動調整処理を行わせるようにしたが、キ
ャリブレーション作業終了と共に自動的に第1図に示す
処理を行わせてキャリブレーションデータを自動調整す
るようにしてもよい。
発明の効果 本発明においては、通常のキャリブレーション作業を行
った後、複数の点を視覚センサで検出させ、かつ、この
複数の点の装置座標系(CIポット座標系)上の位置を
入力するだけで視覚センサが自動的にキャリブレーショ
ンデータ<xo 、 yo 。
θ、S)を調整し、正確なキャリブレーションデータを
得るから、従来のように、再度キャリブレーション作業
を初めからやり直す必要がなく、キャリブレーション作
業が容易で簡単となる。
【図面の簡単な説明】
第1図は、本発明の一実施例のキャリブレーション自動
調整モード処理のフローチャート、第2図は同実施例に
おけるカメラ方向、縮尺度の自動調整処理のフローチャ
ート、第3図は、同実施例におけるカメラ位置自動調整
処理のフローチャート、第4図は、同実施例を実施する
視覚センサの要部ブロック図、第5図は、カメラ座標系
と装置の座標系の関係を説明する説明図である。 10・・・視覚センサ、22・・・カメラ、23・・・
コンソール、24・・・モニタテレビ。 第 1 口 第 因 第 因

Claims (2)

    【特許請求の範囲】
  1. (1)次の第1工程から第8工程で構成される視覚セン
    サにおけるキャリブレーション自動調整方式。 イ、視覚センサのカメラ座標系と視覚センサを使用する
    装置の座標系を整合させるため のキャリブレーションを行い、カメラ位置、方向、縮尺
    度のキャリブレーションデータ を得る第1の工程、 ロ、視覚センサで複数の点を検出し、各点のカメラ座標
    系の位置を求める第2の工程、 ハ、上記複数の点に対する装置座標系上の実際の位置を
    視覚センサに入力する第3の工 程、 ニ、視覚センサにより、上記第1の工程で求められたカ
    メラ方向、縮尺度を所定刻みで 順次変更して上記第2の工程で求められた カメラ座標系上の各点の位置を装置座標系 上の位置に変換し、装置座標系上の各点間 の距離を求める第4の工程、 ホ、視覚センサにより、上記第3の工程で入力された各
    点の位置間の距離と、上記第4 の工程で求めた対応する各点間の距離の差 の総和が最小となるカメラ方向、縮尺度を 求める第5の工程、 ヘ、視覚センサにより、上記第1の工程で求められたカ
    メラ位置を所定刻みで順次変更 して、上記第5の工程で求められたカメラ 方向、縮尺度を使用し、第2の工程で求め られたカメラ座標系上の各点の位置を装置 座標系上の位置に変換する第6の工程、 ト、視覚センサにより、上記第6の工程で求められた各
    点の座標位置と対応する上記第 3の工程から求められた各点の位置間の距 離が最小となるカメラ位置を求める第7の 工程、 チ、視覚センサが上記第5の工程及び第7の工程で求め
    られたカメラ方向、縮尺度、カ メラ位置をキャリブレーションデータとし て自動設定する第8の工程。
  2. (2)上記第1の工程で正確なキャリブレーションデー
    タが得られなかつた場合のみ第2の工程から第8の工程
    を行う請求項1記載の視覚センサにおけるキャリブレー
    ション自動調整方式。
JP1001372A 1989-01-10 1989-01-10 視覚センサにおけるキャリブレーション自動調整方式 Pending JPH02183102A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1001372A JPH02183102A (ja) 1989-01-10 1989-01-10 視覚センサにおけるキャリブレーション自動調整方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1001372A JPH02183102A (ja) 1989-01-10 1989-01-10 視覚センサにおけるキャリブレーション自動調整方式

Publications (1)

Publication Number Publication Date
JPH02183102A true JPH02183102A (ja) 1990-07-17

Family

ID=11499666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1001372A Pending JPH02183102A (ja) 1989-01-10 1989-01-10 視覚センサにおけるキャリブレーション自動調整方式

Country Status (1)

Country Link
JP (1) JPH02183102A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03113412U (ja) * 1990-02-28 1991-11-20
JP2005186193A (ja) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp ロボットのキャリブレーション方法および三次元位置計測方法
US7359817B2 (en) 2004-07-28 2008-04-15 Fanuc Ltd Method of and device for re-calibrating three-dimensional visual sensor in robot system
JP2010038753A (ja) * 2008-08-06 2010-02-18 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
CN105716527A (zh) * 2016-04-18 2016-06-29 中国计量学院 激光焊缝跟踪传感器标定方法
CN106945034A (zh) * 2016-01-07 2017-07-14 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (ja) * 2019-10-18 2021-04-30 株式会社Mujin ロボット制御のためのキャリブレーション情報を検証及び更新するための方法並びに制御システム
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03113412U (ja) * 1990-02-28 1991-11-20
JP2005186193A (ja) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp ロボットのキャリブレーション方法および三次元位置計測方法
US7359817B2 (en) 2004-07-28 2008-04-15 Fanuc Ltd Method of and device for re-calibrating three-dimensional visual sensor in robot system
JP2010038753A (ja) * 2008-08-06 2010-02-18 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
CN106945034B (zh) * 2016-01-07 2021-09-03 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
CN106945034A (zh) * 2016-01-07 2017-07-14 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
CN105716527B (zh) * 2016-04-18 2018-01-12 中国计量学院 激光焊缝跟踪传感器标定方法
CN105716527A (zh) * 2016-04-18 2016-06-29 中国计量学院 激光焊缝跟踪传感器标定方法
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11590656B2 (en) 2019-03-29 2023-02-28 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11883964B2 (en) 2019-03-29 2024-01-30 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021066008A (ja) * 2019-10-18 2021-04-30 株式会社Mujin ロボット制御のためのキャリブレーション情報を検証及び更新するための方法並びに制御システム

Similar Documents

Publication Publication Date Title
US10647001B2 (en) Calibration device, calibration method, and computer readable medium for visual sensor
KR102280663B1 (ko) 비전 가이드 로봇 암 교정 방법
CN106767393B (zh) 机器人的手眼标定装置与方法
JPH058186A (ja) 自動キヤリブレーシヨン方式
JPH08210816A (ja) ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法
JPH08233556A (ja) 撮像画像処理装置および撮像画像処理方法
JPH02183102A (ja) 視覚センサにおけるキャリブレーション自動調整方式
KR20020052186A (ko) 그래픽 이용자 인터페이스를 통한 카메라의 외부 조정을위한 방법 및 장치
JPH08132373A (ja) ロボット−センサシステムにおける座標系結合方法
US5122971A (en) Method and apparatus for constructing structures
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
Devy et al. Camera calibration from multiple views of a 2D object, using a global nonlinear minimization method
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JPH0847881A (ja) ロボットの遠隔操作方法
JPH0299802A (ja) ハンドアイを用いた視覚センサにおける座標系設定方法
JP3326851B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
JP3208900B2 (ja) 視覚に基く三次元位置および姿勢の認識方法とその装置
TW202235239A (zh) 調整參數的裝置、機器人系統、方法及電腦程式
JPS6257892A (ja) 視覚付ロボツトのカメラ座標較正方法
JPH04269194A (ja) 平面計測方法
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
JPH0882505A (ja) カメラパラメーターのキャリブレーション方法および物体の位置計測方法
JPH01109202A (ja) 視差補正付視覚センサ
JPH05301195A (ja) 視覚センサにおけるカメラ位置ずれ検出方法
JP3422063B2 (ja) 画像処理装置