JPH06278064A - 視覚センサの座標変換方法 - Google Patents

視覚センサの座標変換方法

Info

Publication number
JPH06278064A
JPH06278064A JP9730593A JP9730593A JPH06278064A JP H06278064 A JPH06278064 A JP H06278064A JP 9730593 A JP9730593 A JP 9730593A JP 9730593 A JP9730593 A JP 9730593A JP H06278064 A JPH06278064 A JP H06278064A
Authority
JP
Japan
Prior art keywords
coordinate
visual sensor
coordinate system
work
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9730593A
Other languages
English (en)
Inventor
Yasutaka Nakao
康孝 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Watch Co Ltd
Original Assignee
Citizen Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Watch Co Ltd filed Critical Citizen Watch Co Ltd
Priority to JP9730593A priority Critical patent/JPH06278064A/ja
Publication of JPH06278064A publication Critical patent/JPH06278064A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【目的】視覚センサの座標系に対応する作業座標系への
変換を精度良く行う。 【構成】視覚センサを備えたロボットにおいて、ロボッ
トによって所定の位置に置かれた基準対象物の座標位置
を、視覚センサ座標系12とロボットの作業座標系10
の2通りの組で記憶し、視覚センサ座標系12と作業座
標系10との対応を与える変換式における変換パラメー
タを、記憶した少なくとも3組以上の値に対して最小自
乗法に基づく演算処理を行うことによって算出する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、視覚センサを備えたロ
ボットにおいて、視覚センサの座標系を作業平面上の座
標系に座標変換するための方法に関し、特に、視覚セン
サで作業対象物を撮像し、作業対象物の撮像データを処
理することによって、作業対象物の作業平面上の座標値
を算出し、算出した座標値に基づいて作業対象物をハン
ドリングするロボットの座標変換に関するものである。
【0002】
【従来の技術】一般に、生産現場の様な場所で、ロボッ
トなどを用いて作業対象物をハンドリングするような作
業においては、予め作業対象物の厳密な位置が分かって
いないか、あるいは位置を特定できない場合がある。こ
のような場合、作業対象物に応じた冶具などを作成し、
作業対象物の位置を機械的に特定する方法がある。一
方、カメラなどの視覚センサによって、作業対象物の厳
密な位置を求め、その座標値に基づいて作業を行う方法
もよく用いられる。
【0003】視覚センサを用いて作業対象物の位置を求
め、求めた位置に基づいて作業を行う方法について考え
た場合、視覚センサとしてカメラを想定すると、カメラ
によって形成された視覚センサの座標系と実際の座標系
である作業平面上の座標系(以下、作業座標系と略
す。)とでは、本来同一座標を示すはずの点がそれぞれ
の座標系で同一の点を指し示すとは限らないので、適切
な座標変換を行ない、それぞれの座標系の間で対応をと
らなければ、期待する作業を行うことができない。適切
な座標変換を行うためには、それぞれの座標系の間の対
応関係の簡単なモデルを想定し、各モデル間の対応を表
現する数式の変換パラメータを求めることが必要であ
る。
【0004】代表的な方法として、図3に示す様な、作
業座標系10の座標軸13に対して、視覚センサ座標系
12の座標軸14がφの傾きを持ち、原点のX、Y軸方
向にそれぞれ(δx、δy)をもち、X,Y軸のそれぞ
れのスケールファクタがρx、ρy であるようなモデル
を考える。この場合、5つの変換パラメータ(ρx 、ρ
y 、δx、δy、φ)を求めるために、作業座標系にお
いて、予め座標の分かっている3点を用意し、以下の数
1に示す6本の方程式を求める。
【数1】 数1で示されるこれらの方程式を厳密に満たすような
(ρx 、ρy 、δx、δy、φ)の解は得られないかも
しれないので、一般には実際の作業において問題のない
レベルで変換パラメータ(ρx 、ρy 、δx、δy、
φ)が決められる。
【0005】また別の方法では、予め用意した作業座標
系上の基準直線の長さと傾きから、変換パラメータを算
出し、視覚センサ座標系と作業座標系の間の対応を求め
る簡便なものもある。
【0006】
【発明が解決しようとする課題】しかしながら従来の技
術では、用意した3点の座標や基準直線の傾きが、実際
には予め指定した値からズレていて、そもそも誤差を含
んでいる可能性がある。また、カメラの像の局所的なひ
ずみなどの誤差が存在する場合には、そもそも図3に示
したモデルでは表現し得ないわけであり、まして、一度
の測定結果による変換パラメータでは、最悪の変換パラ
メータを算出してしまう可能性が高い。
【0007】また、実際に変換パラメータの算出のため
に用意した3点や基準直線は、数学的な点(直線)では
ありえず、ある面積を持つ対象物(基準対象物)とな
る。このため、重心位置を対象物の座標値とすることに
して、公知の重心算出アルゴリズムから座標値を求め
て、変換パラメータ算出のために用いている。しかしな
がら、撮像状態によっては、実際の重心位置とズレた値
が計算されてしまう場合がある。この場合、たとえ作業
座標系内に基準対象物が正しい座標値で、あるいは正し
い傾きで置かれていたとしても、視覚センサ座標系での
座標値の算出値がズレていては、変換パラメータの精度
が失われてしまうことになる。
【0008】
【課題を解決するための手段】以上述べたような問題を
解決するために、本発明においては、基準対象物をロボ
ットが作業座標系のある座標に位置決めし、位置決めさ
れた基準対象物を視覚センサで撮像し、視覚センサが撮
像して得た基準対象物の撮像データに対する重心を基準
対象物の視覚センサ座標系における座標値とし、2つの
座標系(作業座標系および視覚センサ座標系)における
座標値の組を、記憶装置に記憶する。同様の操作を3回
以上繰り返して、少なくとも3組以上記憶した座標値の
組に対して最小自乗法を用いて、変換パラメータを算出
する。作業時においては、このようにして算出した変換
パラメータを用いて、視覚センサが得た作業対象物の視
覚センサ座標系における座標値を作業座標系の座標値に
変換することによってロボットの教示を行う。
【0009】また、本発明においては、5個の変換パラ
メータ(ρx 、ρy 、δx、δy、φ)を、後述する数
6に示す6本の方程式より求める。
【0010】
【実施例】以下、本発明の一実施例を説明する。図1
は、本発明の方法の概略を説明するものであり、作業座
標系10上に割り当てられた視覚センサエリア11が、
視覚センサ座標系12を有している状態を示している。
また図2は本発明を実現するための装置構成の一実施例
を示したものである。以下、図に沿って動作を説明す
る。まず、図2に示される様な装置構成において、ロボ
ット21は基準対象物20を、視覚センサ22で撮像
し、図1に示される視覚センサエリア11内に入るよう
にP1(x1 、y1 )の位置に置くものとする。ここ
で、視覚センサエリアの原点V0は、作業座標系上の
(δx、δy)にあり、それぞれの座標軸13、14の
なす角をφとする。また、視覚センサ座標系の作業座標
系に対するX軸方向、Y軸方向のスケールファクタをそ
れぞれρx 、ρy とする。作業座標系におけるP1の座
標が、視覚センサ座標系12ではPc1に位置するとする
と、その座標の値が(xc1、yc1)であるとき、
(xc1、yc1)より推定される作業座標系上の座標値
(xe1、ye1)と(xc1、yc1)の関係は数2の式で示
される。
【数2】 ここで、視覚センサの座標変換装置23は、数2におけ
る(xc1、yc1)と(x1 、y1 )を合わせて(x1
1 、xc1、yc1)の組を記憶装置26に格納する。
【0011】上述した様に、基準対象物をロボットによ
り位置決めし、作業座標系上および視覚センサ座標系上
での基準対象物の重心位置の値を記憶装置に格納する操
作を、後述する条件が満たされるまで繰り返す。i番目
の操作で基準対象物がPi の位置に置かれたときに、視
覚センサ座標系の座標値を用いて、作業座標系の座標値
を推定する関係式を数3で示す形で表現する。
【数3】 この場合も視覚センサの座標変換装置は(xi 、yi
ci、yci)の組を記憶装置に格納し、記憶装置は最終
的にn組のデータを記憶することになる。
【0012】Pi に対して、作業座標系における座標値
は(xi 、yi )であるから、変換パラメータの誤差を
評価する2つの関数を、数4に示す式で定義すると、そ
れぞれ未知の変換パラメータの誤差を最小にするための
条件式は、数5に示す様になる。
【数4】
【数5】 1 =ρx cosφ、C2 =−ρy sinφ、C3 =ρ
x sinφ、C4 =ρycosφとし、数3に示す式を
数4に示す式に代入して数5に示す式を計算すると、数
6に示す式が導き出される。この方程式を解いて数6の
6個の未知パラメータ(C1 、C2 、C3 、C4 、δ
x、δy)を求めることができる。
【数6】
【0013】C1 、C3 の値よりρx 、φが求められ
る。また、C2 、C4 の値よりρy 、φが求められる。
φに関しては2つの値が導き出され、理想的には2つの
φの値は同じになるはずである。しかし実際には、作業
平面の状態や照明光の位置や向きによる画像の明暗の不
均一性に起因して、算出される視覚センサ座標系上での
重心位置に偏りが生じるために、ほとんどの場合、算出
される2つのφの値は異なる値となる。
【0014】従って、得られた2つのφの値の差が予め
経験的に設定されたしきい値を越えるようであれば、視
覚センサにより与えられた視覚センサ座標系での座標値
から数1に示す式を用いて作業座標系上の座標値を求め
て任意の処理を行うのに十分な環境を作業平面は提供し
ていないとして、照明の位置や向きを変化させ、得られ
た2つのφの値の差が小さくなり、定められた所定の値
の範囲内におさまるまで環境の再設定を繰り返す。算出
された2つのφの差が定められた所定の値の範囲内にお
さまれば、φの値は2つの値の中間値を選択することに
より決定する。
【0015】以上の様にして求めた変換パラメータ(ρ
x 、ρy 、δx、δy、φ)を用いれば、作業座標系上
の全領域にわたって作業座標系上の座標値(xi
i )と、視覚センサ座標系上の座標値(xci、yci
とから数3の式を用いて算出した作業座標系上の座標値
の推定値(xei、yei)とはほぼ一致するので、座標値
の推定値(xei、yei)を作業座標系上の座標値
(xi 、yi )の代わりに用いることにより、ロボット
での種々の作業を視覚センサによって求められた座標値
を基に行うことができる。
【0016】また、全領域にわたって、均一な座標変換
を行うことが困難な場合には、上述した手法に加えて以
下のようにしてもよい。すなわち算出された2通りのφ
の差が所定の値を満足する領域ごとに変換パラメータ
(ρx 、ρy 、δx、δy、φ)j (j=1、2、3・
・・)を記憶装置に記憶させる。ロボットは、手先が今
どこの領域にあるかによって、座標変換する際、どの変
換パラメータを用いるかを使い分けるようにする。
【0017】
【発明の効果】以上述べたように、少なくとも3点以上
の座標値の組により複数の条件式を作成し、これらの条
件式に対して最小自乗法を適用することにより、変換パ
ラメータを求めるので、測定上避けられない誤差が含ま
れていても、測定した数多くの条件から一番もっともら
しい変換パラメータを求めることができ、諸誤差要因を
減少させることができ、精度の高い視覚センサ座標系と
作業座標系の対応を提供することができ、高精度の作業
が実現できる。また本発明においては、上述した実施例
で示した様に、5個の変換パラメータを6本の方程式よ
り求めるため、方程式の1つが冗長になっている。その
ため変換パラメータの一つであるφの値が2通り算出さ
れるが、その2つのφの値の差を、変換パラメータのも
っともらしさを評価する一つの定量的な指標として用い
ることができるため、この評価指標を基に照明の位置や
向きなどの環境設定条件を作業平面の状態に応じて細か
く調整することにより、視覚センサ付ロボットの作業を
より高精度で行うことができる。
【0018】以上、本発明によれば、視覚センサを備
え、座標変換を行うことによって位置決め動作を行うロ
ボットなどにおいて、高精度な教示作業を実現すること
ができる。
【図面の簡単な説明】
【図1】本発明の一実施例を示すパラメータ算出におけ
る方法を説明するための図である。
【図2】本発明の一実施例を示す概念図である。
【図3】従来例のパラメータ算出における方法を説明す
るための図である。
【符号の説明】
10 作業座標系 12 視覚センサ座標系 13 作業座標系の座標軸 14 視覚センサ座標系の座標軸 20 基準対象物 21 ロボット 22 視覚センサ 23 座標変換装置

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 視覚センサで作業対象物を撮像し、視覚
    センサの座標系と作業平面上の座標系との対応関係を表
    す座標変換のための変換パラメータを用いて、作業対象
    物の撮像データを処理することにより作業対象物の作業
    平面上の座標値を算出し、算出した作業対象物の作業平
    面上の座標値を基に作業を行うロボットにおける視覚セ
    ンサの座標変換方法において、ロボットにより基準対象
    物を作業平面上の所定の座標に位置決めし、基準対象物
    を撮像し、撮像した基準対象物の撮像データを処理し、
    視覚センサ座標系での座標値を算出し、基準対象物の、
    作業平面上の座標系における第1の座標値と、視覚セン
    サの座標系における第2の座標値とを記憶し、前記第1
    の座標値と第2の座標値は少なくとも3組以上記憶する
    ものとし、記憶した座標値に基づいて最小自乗法を用い
    て、座標変換のための変換パラメータを求め、得られた
    座標変換のための変換パラメータを用いて座標変換する
    ことを特徴とする視覚センサの座標変換方法。
JP9730593A 1993-03-31 1993-03-31 視覚センサの座標変換方法 Pending JPH06278064A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9730593A JPH06278064A (ja) 1993-03-31 1993-03-31 視覚センサの座標変換方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9730593A JPH06278064A (ja) 1993-03-31 1993-03-31 視覚センサの座標変換方法

Publications (1)

Publication Number Publication Date
JPH06278064A true JPH06278064A (ja) 1994-10-04

Family

ID=14188781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9730593A Pending JPH06278064A (ja) 1993-03-31 1993-03-31 視覚センサの座標変換方法

Country Status (1)

Country Link
JP (1) JPH06278064A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067238A (ja) * 1998-08-18 2000-03-03 Meidensha Corp 位置データ較正機能付きビンピッキング方法及びその方法を実現するソフトウェアを記録した媒体並びにこの方法を実施する装置
US7706919B2 (en) 2001-09-07 2010-04-27 Kabushiki Kaisha Yaskawa Denki Wafer position teaching method and teaching jig
JP2015066603A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
CN105373074A (zh) * 2015-12-04 2016-03-02 哈尔滨汽轮机厂有限责任公司 基于型线调整的汽轮机叶片加工方法
JP2016120565A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
WO2020047064A1 (en) * 2018-08-30 2020-03-05 Veo Robotics, Inc. Systems and methods for automatic sensor registration and configuration
JP2020064566A (ja) * 2018-10-19 2020-04-23 ファナック株式会社 複数の撮像条件を用いた画像処理装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067238A (ja) * 1998-08-18 2000-03-03 Meidensha Corp 位置データ較正機能付きビンピッキング方法及びその方法を実現するソフトウェアを記録した媒体並びにこの方法を実施する装置
US7706919B2 (en) 2001-09-07 2010-04-27 Kabushiki Kaisha Yaskawa Denki Wafer position teaching method and teaching jig
JP2015066603A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 ロボット校正装置及びロボット校正方法、並びにロボット装置及びロボット装置の制御方法
JP2016120565A (ja) * 2014-12-25 2016-07-07 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
CN105373074A (zh) * 2015-12-04 2016-03-02 哈尔滨汽轮机厂有限责任公司 基于型线调整的汽轮机叶片加工方法
WO2020047064A1 (en) * 2018-08-30 2020-03-05 Veo Robotics, Inc. Systems and methods for automatic sensor registration and configuration
JP2020064566A (ja) * 2018-10-19 2020-04-23 ファナック株式会社 複数の撮像条件を用いた画像処理装置

Similar Documents

Publication Publication Date Title
US9457470B2 (en) Robot system and method for calibration
US7161321B2 (en) Measuring system
US8861834B2 (en) Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points
US7532949B2 (en) Measuring system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US5329469A (en) Calibration method for a visual sensor
US9889565B2 (en) Method for calibrating a robot and a robot system
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP2774939B2 (ja) ロボットのツールパラメータ導出方法及び較正方法
CN110202560A (zh) 一种基于单个特征点的手眼标定方法
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
WO2019114631A1 (zh) 一种获取机器人tcp坐标的方法和装置
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
US20220395981A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
CN112958960A (zh) 一种基于光学靶标的机器人手眼标定装置
JP2007533963A (ja) 物体の3d位置の非接触式光学的測定方法及び測定装置
JP2007533963A5 (ja)
JPH06278064A (ja) 視覚センサの座標変換方法
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JPH06785A (ja) 視覚センサ座標系の補正方法
JPH08118272A (ja) ロボットのキャリブレーション方法
JPH04269194A (ja) 平面計測方法
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法