JPH0683985B2 - 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法 - Google Patents

視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法

Info

Publication number
JPH0683985B2
JPH0683985B2 JP9607789A JP9607789A JPH0683985B2 JP H0683985 B2 JPH0683985 B2 JP H0683985B2 JP 9607789 A JP9607789 A JP 9607789A JP 9607789 A JP9607789 A JP 9607789A JP H0683985 B2 JPH0683985 B2 JP H0683985B2
Authority
JP
Japan
Prior art keywords
coordinates
robot
work
deviation
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9607789A
Other languages
English (en)
Other versions
JPH02274490A (ja
Inventor
清吾 西川
辰三 中里
信治 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP9607789A priority Critical patent/JPH0683985B2/ja
Publication of JPH02274490A publication Critical patent/JPH02274490A/ja
Publication of JPH0683985B2 publication Critical patent/JPH0683985B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は視覚センサ付ロボットに関し、とくにワークの
位置と回転ずれを自動的に検出する方法に関するもので
ある。
[従来の技術] 従来、視覚センサ付ロボットを用いてワークの位置ずれ
を検出する場合、視覚センサの座標とロボットの座標の
座標間のキャリブレーションにより行なっている(例え
ば特開昭60−159905号公報、特開昭62−226308号公報、
特開昭62−57892号公報)。そのためには視覚センサの
座標の縦横の歪の比と大きさをロボット座標の大きさに
そろえ、次に各々の座標間の傾きを補正するため、視覚
センサの座標の傾きをロボット座標の傾きに変換するマ
トリックスを求める必要がある。
視覚センサの座標とロボット座標の大きさをそろえるた
めに、まず、各々のパターン間の距離が正確に出ている
パターン図を視覚センサで検出させ、検出された視覚セ
ンサ座標上における位置とあらかじめ与えられたパター
ン間の距離により、視覚センサ座標の大きさの補正を行
なう。
視覚センサの座標とロボット座標間の傾きを求めるため
には、パターン図のロボット座標上の位置と視覚センサ
座標上の位置と、3次元上の傾きとを求めるためには最
低3点検出して、座標間の傾きを変換する3*3のマト
リックスにより求めなければならない。
[発明が解決しようとする課題] ところが、視覚センサの座標とロボット座標の大きさを
そろえるためには、距離が正確に出ているパターン図を
準備する必要があるが、視覚センサの視野の大きさが変
われば、その視野に対応したパターン図を準備しなけれ
ばならないため、パターン図を準備するのが非常に煩雑
である。
また、視覚センサの座標とロボット座標間の傾きを求め
る方法では、パターン図のロボット座標上の位置と視覚
センサ上の座標の位置を求めなければならないが、ロボ
ット座標上のパターンの位置は、人がロボットを動かし
て、ロボットの制御点をパターン図の上にもってくる方
法が通常取られるため、作業員にとって非常に煩雑であ
るばかりでなく、誤差が生じやすい。
また、作業ワークが3次元的なものの場合、パターンを
安定して置くスペースを作るのが難しく、パターンの設
定の仕方が難しい。
つまり、前記の問題点により、視覚センサの座標とロボ
ット座標との間でキャリブレーションを行なう場合、ロ
ボットが自動的に一括してキャリブレーションを行なう
ことが難しい。
そして、パターンを検出するのは実際のワーク上のポイ
ントとは異なるため、視覚センサの画像処理方法がパタ
ーン検出時と実際の検出時とが異なり、キャリブレーシ
ョンを行なうときに、実際の画像処理の検証を同時に行
なうことができないなどの欠点があった。
[課題を解決するための手段] 本発明はロボットの手首に視覚センサと作業用ツールを
備え、ティーチングプレイバック方式で駆動される視覚
センサ付ロボットのワーク位置ずれ検出方法において、
ワークの基準点およびびロボットの制御点を設定し、ワ
ークのずれのない状態のセンサ座標上の基準点のベクト
ルと、ワークのずれた状態のセンサ座標上の基準点のベ
クトルとからずれ係数を求め、ロボット座標上の制御点
のベクトルにずれ係数を乗ずることによりロボット座標
上のずれ量を求めるワーク位置ずれ検出方法と、センサ
座標上の基準点のベクトルにより形成される外積ベクト
ルの符号を求め、ロボット座標上の制御点のベクトルに
より形成される外積ベクトルの符号をセンサ座標上の外
積ベクトルと反対の符号にし、ロボット座標上の制御点
の外積ベクトルを単位ベクトルに直し、ワークのずれの
ない状態のワークの傾きと、ワークのずれた状態の傾き
との差分の角度で前記単位ベクトルを回転させることに
より、ワークのロボット座標上における回転のずれ量を
求めるワーク回転ずれ検出方法とからなる視覚センサ付
ロボットのワークずれ検出方法である。
[作用] ワークのずれのない状態のセンサ座標上の基準点のベク
トルと、ワークのずれた状態のセンサ座標上の基準点の
ベクトルとからずれ係数を求める。ロボットが移動する
方向とワークの基準点を視覚センサが検出してセンサ座
標上を移動する方向とは反対方向であるため、求められ
たずれ係数の符号を反転することにより、ロボット座標
上とセンサ座標上の各々に対応する2方向のベクトルの
方向は一致する。したがって、ロボット座標上のベクト
ルにずれ係数を垂ずることによりロボット座標上のずれ
量が求められる。
なお、視覚センサ2の画像は一般に例えばワーク上の円
形が僅かに歪んだ楕円形になるなどの現象があり、セン
サ座標とロボット座標との間の補正をする必要がある
が、本発明の場合は制御点のずれ量のベクトルに上記ず
れ係数を乗ずることによりずれ量を求めるため、歪の補
正を必要としない。
[実施例] 本発明を図に示す実施例について説明する。
第1図は本発明の実施例の要部を示す側面図で、ロボッ
ト1の手首11の先端に視覚センサ2と作業用ツール3を
取り付けてある。ワーク4は視覚センサ2の視野に入る
ように置かれており、ワーク4上の基準となる基準点5
および作業用ツール3上にロボット1の制御点31を決め
ておく。
ワークのずれは一般に平行移動のずれと、回転移動ずれ
との合成として表わされる。平行移動のずれは、ワーク
上の1点の位置ずれとして考えられる。
それでまず、ワーク上の点の位置ずれを検出するステッ
プを説明すると、 (1)ワーク4のずれのない状態でワークに対する制御
点31の移動軌跡のティーチングを行なう。
(2)ティーチング終了後、ワーク4の基準点5が視覚
センサ2の画面の中心付近になるように手首11を移動さ
せ、基準点5を視覚センサ2で検出し、視覚センサ2で
画像処理を行ない、第2図(a)に示すセンサ座標の画
面上で検出された基準点5のポイントP0(VX0,VY0)
と、そのときのロボット1の制御点31の第2図(b)に
示すロボット座標上のポイントQ0(X0,Y0,Z0)を記憶す
る。
(3)手首11が回転しないように姿勢一定制御を行なう
とともに、直線補間を行ないながら手首11を所定の位置
まで移動させ、その位置で視覚センサ2で検出した基準
点5の第3図(a)に示すセンサ座標上のポイントP
1(VX1,VY1)と、制御点31の第3図(b)に示すロボッ
ト座標上のポイントQ1(X1,Y1,Z1)を記憶する。
(4)同様に、手首11が回転しないように、前記(3)
の方向とほぼ直角方向に手首11を移動させ、その位置で
の視覚センサ2で検出した基準点5の第4図(a)に示
すセンサ座標上のポイントP2(VX2,VY2)と、制御点31
の第4図(b)に示すロボット座標上のポイントQ2(X
2,Y2,Z2)を記憶する。
(5)以上(2)〜(4)までで記憶した位置のポイン
トP0,P1,P2,Q0,Q1,Q2の座標をファイルに登録し、前記
各ポイントの座標をもとに、ロボット座標上とセンサ座
標上の各々に対応する2方向のベクトルαとβを形成す
る。
(6)ティーチング終了後の実作業時において、ワーク
がずれた場合に検出される第5図(a)に示すセンサ座
標上の基準点5のポイントPnの座標VX,VYを求め、VX,VY
をワーク4がずれていないときの基準点5の位置である
ポイントP0からの距離とおき、 VX=C1*(αx)+C2*(βx) VY=C1*(αy)+C2*(βy) として、ずれ係数C1とC2を求める。
ただし、センサ座標上のベクトルαx、αy、βx、β
yを αx=VX1−VX0、βx=VX2−VX0 αy=VY1−VY0、βy=VY2−VY0 とする。
(7)求められたずれ係数C1とC2の符号を反転し、これ
を用いて基準となるポイントQ0(X0,Y0,Z0)から制御点
31の第5図(b)に示すロボット座標上のポイントQ
(RX,RY,RZ)までの距離をずれ量として求める。
それぞれの座標軸に沿った距離は、 RX=C1*(Rαx)+C2*(Rβx) RY=C1*(Rαy)+C2*(Rβy) RZ=C1*(Rαz)+C2*(Rβz) として、ずれ量RX、RY、RZが求められる。ただし、ロボ
ット座標上のベクトルRαx、Rβx、Rαy、Rβ
y、Rαz、Rβzを Rαx=X1−X0、Rβx=X2−X0 Rαy=Y1−Y0、Rβy=Y2−Y0 Rαz=Z1−Z0、Rβz=Z2−Z0 とする。
ワーク4の回転方向のずれを検出する場合のステップ
は、 (1)第1図(a)に示すワーク4のセンサ座標上の傾
きθ1を求め、記憶する。
(2)ティーチング終了後の実作業時において、上記ワ
ーク上の点の位置ずれを検出するステップ(7)のあ
と、視覚センサ2により第5図(a)に示すワーク4の
傾きθ2を検出する。
(3)センサ座標上のベクトルα(αx、αy)、β
(βx、βy)により形成される外積ベクトルVKの符号
を求め、ロボット座標上のベクトルRα(Rαx、Rα
y、Rαz)、Rβ(Rβx、Rβy、Rβz)により
形成される外積ベクトルRKの符号をセンサ座標上の外積
ベクトルVKと反対の符号にする。
(4)求められた外積ベクトル▲▼を単位ベクトル
▲▼に直し、この単位ベクトル▲▼を θ=θ2−θ1 の差分θの角度で回転させることにより、次のようにワ
ーク4のロボット座標上における回転のずれ量を、x軸
回りの回転Tx、y軸回りの回転Ty、z軸回りの回転Tzと
して求める。
すなわち、▲▼=kx・+ky・+kz・ (;x軸方向ベクトル) (;y軸方向ベクトル) (;z軸方向ベクトル) とおき、 Tz=atan(Ny/Nx) Ty=atan(−Nz/(cos(Tz)・Nx+sin(Tz)・Ny)) Tx=atan((sin(Tz)・Ax−cos(Tz)・Ay)/(−si
n(Tz)・0x+cos(Tz)・0y)) からロボット座標上の回転ずれ量Tx,Ty,Tzを求める。
以上の、ワーク上の点の位置ずれを検出するステップと
ワーク4の回転方向のずれを検出するステップとにより
求められた位置ずれ量RX、RY、RZと回転ずれ量Tx,Ty,Tz
とにより、あらかじめティーチングされた作業軌跡をそ
れぞれ位置ずれ量または回転ずれ量によりシフトし、ま
たは位置ずれ量と回転ずれ量とを組み合わせてシフト
し、ワークに適合した軌跡上で作業をさせる。
[発明の効果] 以上のように、本発明によれば通常のキャリブレーショ
ンを行なうために必要な座標の大きさを補正するパター
ン図を必要とせず、かつロボットの制御点を人が移動さ
せる必要もないため、ロボットが一括して自動的にキャ
リブレーションを行ない、さらにキャリブレーション時
に実際のワークにおける画像処理の検証をも行なうこと
ができる効果がある。
【図面の簡単な説明】
第1図は本発明の実施例を示す側面図、第2図(a)は
センサ座標上の基準点の位置を示す説明図、(b)はロ
ボット座標上の基準点および制御点の位置を示す説明
図、第3図(a)は移動後のセンサ座標上の基準点の位
置を示す説明図、(b)は移動後のロボット座標上の制
御点の位置を示す説明図、第4図(a)は2回目の移動
後のセンサ座標上の基準点の位置を示す説明図、(b)
は2回目の移動後のロボット座標上の制御点の位置を示
す説明図、第5図は(a)は実作業後のセンサ座標上の
基準点の位置を示す説明図、(b)は実作業後のロボッ
ト座標上の制御点の位置を示す説明図である。 1……ロボット、11……手首、2……視覚センサ、3…
…作業用ツール、31……制御点、4……ワーク、5……
基準点。
フロントページの続き (56)参考文献 特開 昭62−191904(JP,A) 特開 昭62−57892(JP,A) 特開 昭60−262216(JP,A) 特開 昭62−226308(JP,A) 特開 昭60−159905(JP,A)

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】ロボットの手首に視覚センサと作業用ツー
    ルを備え、ティーチングプレイバック方式で駆動される
    視覚センサ付ロボットのワーク位置ずれ検出方法におい
    て、ワークの基準点およびロボットの制御点を設定し、
    ワークのずれのない状態のセンサ座標上の基準点のベク
    トルと、ワークのずれた状態のセンサ座標上の基準点の
    ベクトルとからずれ係数を求め、ロボット座標上の制御
    点のベクトルにずれ係数を乗ずることによりロボット座
    標上のワークのずれ量を求めることを特徴とする視覚セ
    ンサ付ロボットのワーク位置ずれ検出方法。
  2. 【請求項2】ロボットの手首に視覚センサと作業用ツー
    ルを備え、ティーチングプレイバック方式で駆動される
    視覚センサ付ロボットのワーク回転ずれ検出方法におい
    て、センサ座標上の基準点のベクトルにより形成される
    外積ベクトルの符号を求め、ロボット座標上の制御点の
    ベクトルにより形成される外積ベクトルの符号をセンサ
    座標上の外積ベクトルと反対の符号にし、ロボット座標
    上の制御点の外積ベクトルを単位ベクトルに直し、ワー
    クのずれのない状態のワークの傾きと、ワークのずれた
    状態の傾きとの差分の角度で前記単位ベクトルを回転さ
    せることにより、ワークのロボット座標上における回転
    のずれ量を求めることを特徴とする視覚センサ付ロボッ
    トのワーク回転ずれ検出方法
  3. 【請求項3】前記ワーク位置ずれ検出方法が、下記
    (1)〜(7)までのステップで行なわれることを特徴
    とする請求項1記載の視覚センサ付ロボットのワークず
    れ検出方法。 (1)ワークのずれのない状態でワークに対するロボッ
    トの移動軌跡のティーチングを行なう。 (2)ティーチング終了後、ワークの基準点を視覚セン
    サで検出し、センサ座標上で検出された基準点のポイン
    トと、そのときのロボットの制御点のロボット座標上の
    ポイントを記憶する。 (3)ロボットの手首が回転しないように姿勢一定制御
    を行なうとともに、直線補間を行ないながら手首を所定
    の位置まで移動させ、その位置で視覚センサで検出した
    基準点のセンサ座標上のポイントと、制御点のロボット
    座標上のポイントを記憶する。 (4)手首が回転しないように、前記(3)の方向とほ
    ぼ直角方向に手首を移動させ、その位置での視覚センサ
    で検出した基準点のセンサ座標上のポイントと、制御点
    のロボット座標上のポイントを記憶する。 (5)前記(2)〜(4)までで記憶した位置のポイン
    トの座標をファイルに登録し、前記各ポイントの座標を
    もとに、ロボット座標上とセンサ座標上の各々に対応す
    る2方向のベクトルを形成する。 (6)ティーチング終了後の実作業時において、ワーク
    がずれた場合に検出されるセンサ座標上の基準点のポイ
    ントの座標を求め、前記座標をワークがずれていないと
    きの基準点の位置であるポイントからの距離を前記セン
    サ座標上のベクトルによって表わし、ずれ係数を求め
    る。 (7)求められたずれ係数の符号を反転し、前記ずれ係
    数とロボット座標上のベクトルを用いてロボット座標上
    の基準となるポイントからの距離をずれ量として求め
    る。
  4. 【請求項4】前記ワーク回転ずれ検出方法が下記(1)
    〜(4)までのステップで行なわれることを特徴とする
    請求項2記載の視覚センサ付ロボットのワーク回転ずれ
    検出方法。 (1)ワークのセンサ座標上の傾きθ1を求め、記憶す
    る。 (2)ティーチング終了後の実作業時において、ワーク
    がずれた場合に視覚センサによりワークの傾きθ2を検
    出する。 (3)センサ座標上の基準点のベクトルにより形成され
    る外積ベクトルの符号を求め、ロボット座標上の制御点
    のベクトルにより形成される外積ベクトルの符号をセン
    サ座標上の外積ベクトルと反対の符号にする。 (4)求められたロボット座標上の外積ベクトルを単位
    ベクトルに直し、前記傾きθ2とθ1の差分の角度で回
    転させることにより、ワークのロボット座標上における
    回転のずれ量を求める。
  5. 【請求項5】請求項1または3記載のワーク位置ずれ検
    出方法により求められたずれ量と、請求項2または4記
    載のワーク回転ずれ検出方法により求められたずれ量と
    によりワークのずれ量を求めることを特徴とする視覚セ
    ンサ付ロボットのワーク位置ずれおよび回転ずれ検出方
    法。
JP9607789A 1989-04-14 1989-04-14 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法 Expired - Lifetime JPH0683985B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9607789A JPH0683985B2 (ja) 1989-04-14 1989-04-14 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9607789A JPH0683985B2 (ja) 1989-04-14 1989-04-14 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法

Publications (2)

Publication Number Publication Date
JPH02274490A JPH02274490A (ja) 1990-11-08
JPH0683985B2 true JPH0683985B2 (ja) 1994-10-26

Family

ID=14155339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9607789A Expired - Lifetime JPH0683985B2 (ja) 1989-04-14 1989-04-14 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法

Country Status (1)

Country Link
JP (1) JPH0683985B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761390A (en) * 1991-12-12 1998-06-02 Hitachi, Ltd. Robot for removing unnecessary portion on workpiece
JP3339090B2 (ja) * 1993-02-25 2002-10-28 ソニー株式会社 位置検出方法
JP3796449B2 (ja) 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
CN111504183B (zh) * 2020-04-22 2021-03-09 无锡中车时代智能装备有限公司 线激光三维测量传感器与机器人相对位置的标定方法

Also Published As

Publication number Publication date
JPH02274490A (ja) 1990-11-08

Similar Documents

Publication Publication Date Title
US11433541B2 (en) Automated calibration system and method for a workpiece coordinate frame of a robot
CN111300481B (zh) 基于视觉及激光传感器的机器人抓取位姿纠正方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
CN109550649B (zh) 一种基于机器视觉的点胶定位方法及装置
JPH0553587B2 (ja)
CN109397282A (zh) 机械手臂加工方法、系统及计算机可读取纪录媒体
CN108994876A (zh) 示教位置修正装置和示教位置修正方法
EP1661669A2 (en) Processing program generating device
CN106426172A (zh) 一种工业机器人工具坐标系的标定方法与系统
CN110788863B (zh) 一种机器视觉的标定方法及机械臂定位抓取方法
JPS63285604A (ja) 多関節ロボツトの工具位置決め方法
CN106341956B (zh) 一种固定相机校正方法
JPH08132373A (ja) ロボット−センサシステムにおける座標系結合方法
JPH0683985B2 (ja) 視覚センサ付ロボットのワーク位置ずれおよび回転ずれ検出方法
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
JPS60151711A (ja) ロボツト手先視覚座標系較正方式
JPH06785A (ja) 視覚センサ座標系の補正方法
JPH1011146A (ja) 移動体の停止姿勢補正装置
CN113686278B (zh) 一种高精度工业机器人工具tcp标定方法
JPH04269194A (ja) 平面計測方法
JP2932445B2 (ja) カメラ座標系ずれ補正方法
JP3188130B2 (ja) マニピュレーターの曲面なぞり制御方法
JPH0774964B2 (ja) ロボットの位置決め誤差補正方法
JP2000263477A (ja) ロボットのキャリブレーション方法
JPH012104A (ja) ロボットの位置決め誤差補正方法