JPS62241011A - 視覚センサ座標系の定義方式 - Google Patents

視覚センサ座標系の定義方式

Info

Publication number
JPS62241011A
JPS62241011A JP8386286A JP8386286A JPS62241011A JP S62241011 A JPS62241011 A JP S62241011A JP 8386286 A JP8386286 A JP 8386286A JP 8386286 A JP8386286 A JP 8386286A JP S62241011 A JPS62241011 A JP S62241011A
Authority
JP
Japan
Prior art keywords
coordinate system
visual sensor
points
point
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8386286A
Other languages
English (en)
Inventor
Hajime Kishi
甫 岸
Mitsuo Hiraizumi
平泉 満男
Bunichi Terawaki
寺脇 文一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP8386286A priority Critical patent/JPS62241011A/ja
Publication of JPS62241011A publication Critical patent/JPS62241011A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野〕 本発明はロボット基準座標系と視覚センサ座標系との関
係を定義する視覚センサ座標系の定義方式に関するもの
である。
〔従来の技術〕
近年、被対象物体を逼像してその位置、角度を示す姿勢
情報を得る視覚センサと、視覚センサからの姿勢情報に
基づいて被対象物体に対して把持等の作業を行なうロボ
ットとを組合わせたシステムを用い、ワークの組立作業
等を自動化することが多く行なわれるようになってきて
いる。
〔発明が解決しようとする問題点〕
然し乍ら、従来の視覚センサば撮像装置を1台のみしか
使用していないため、被対象物体が大きい場合、精度の
高い姿勢情報を得ることができず、従って精度の高い作
業をロボットに行なわせることができない問題があった
本発明は前述の如き問題点を解決したものであり、その
目的は被対象物体が大きい場合に於いても、ロボッ1−
が精度の高い作業を行なえるようにすることにある。
〔問題点を解決するための手段〕
本発明は前述の如き問題点を解決するため、ロボット基
準座標系と視覚センナ座標系との関係を定義する視覚セ
ンサ座標系の定義方式に於いて、 前記視覚センサは第1.第2.第3の撮像装置を有し、 教示時、被対象物体上の第1.第2の点が前記第1の撮
像装置の視野内に入り、前記被対象物体上の前記第1の
点と第2の点とを結ぶ線分の延長線上の第3.第4の点
が前記第2の撮像装置の視野内に入り、前記被対象物体
上の前記線分と平行な線分上の第5.第6の点が前記f
53の撮像装置の視野内に入るように前記被対象物体を
位置決めし、 前記第1の点を視覚センサ座標系の原点とし、前記第1
の点と第3の点とを結ぶ線分を視覚センサ座標系のX軸
とした時の視覚センサ座標系と前記第1.第2.第3の
撮像装置それぞれの座標系とのオフセット量及び回転角
度を教示すると共に、前記第1.第3.第5の点のロボ
ット基準座標系に於ける座標値を教示するようにしたも
のである。
〔作 用〕
各撮像装置の座標系と視覚センサ座標系との関係は前記
オフセット量及び回転角度により定義され、視覚センサ
座標系とロボット基準座標系との関係は教示時に教示さ
れた第1.第3.第5の点のロボット基準座標系に於け
る座標値により定義される。従って、再生時、再生時に
得られた被対象物体上の第1.第3.第5の点の前記第
1.第2、第3の撮像装置それぞれの座標系に於ける座
標値と前記オフセット量9回転角度と教示時に教示され
た前記第1.第3.第5の点のロボット基準座標系に於
ける座標値とに基づいてロボット可動部の動作を制御す
る数値情報を補正することができるので、被対象物体が
大きな場合に於いても、ロボットの精度の高い作業を行
なわせることが可能となる。
〔実施例〕
第1図は本発明方式を実施する際に使用する装置の一例
を示すブロック線図であり、1は視覚センサ、2はロボ
ット制御部、11はマイクロプロセッサ、12〜1〜1
2−3はテレビカメラ等の撮像装置、13−1〜13−
3はAD変換器、14−1〜14−3はフレームメモリ
、15はキーボード、16はマイクロプロセッサ11に
所定の動作を行なわせるための制御プログラム等が記憶
されているROM、17はRAM、18はインターフェ
ース、21はマイクロプロセッサ、22は操作盤、23
はインターフェース、24はマイクロプロセッサ21に
所定の動作を行なわせるための制御プログラムが記憶さ
れているROM%怒はRAM、26はロボット本体の動
作を制御するためのプログラムが記憶される磁気バブル
メモリ等の不揮発性メモリ、27.2B、29.30.
31はそれぞれα軸、θ軸、R軸、α軸、β軸の軸制御
部、32〜36は各軸対応のモータ、37〜41は各軸
制御部27〜31に各モータ32〜36の回転位置情報
をフィードバックする位置検出器である。また、第2図
はロボット制御部2によってその動作が制御されるロボ
ット本体50の斜視図であり、台座51上に2軸方向に
伸縮自在で且つθ軸方向に回転可能に設けられたアーム
52と、アーム52の先端に設けられたハンド詔とから
構成されている。尚、アーム52はR軸方向にも伸縮自
在になっており、また、ハンド詔はα、β軸方向に回転
自在になっているものである。
また、第3図は教示時に於ける視覚センサ1側のマイク
ロプロセッサ11の処理内容を示すフロ−チャーI・、
第4図は教示時に於けるロボット制御部2側のマイクロ
プロセッサ21の処理内容を示すフローチャート、第5
図は再生時に於ける視覚センサ1例のマイクロプロセッ
サ11の処理内容を示すフローチャート、第6図は再生
時に於けるロボット制御部2側のマイクロプロセッサ2
1の処理内容を示すフローチャートであり、以下第3図
〜第レークは先ずパレット74に開けられている基準孔
A、Bが撮像装置12−1の視野71内に入り、基準孔
C,Dが撮像装置12−2の視野72内に入り、基準孔
り、Eが撮像装置12−3の視野73内に入るようにパ
レット74を位置決めする。尚、基準孔A、B、C。
Dは同一直線上に配置され、また基準孔E、Fは線分A
Cと平行な直線上に配置されているものである。尚、同
図に於いて、75はワーク、76はハンド53の移動経
路を示している。
次いで、オペレータは操作盤22を操作して手動送り等
によりロボットのハンド53を基準孔A上に配置し、次
いで基準孔Aのロボット基準座標系に於ける座標値A 
(Xa、Ya)をマイクロプロセッサ21に算出させ、
これをRAM25に記憶させる。
次いで、オペレータは基準孔C,Eについても基準孔A
と同様の操作を行ない、基準孔C,Eのロボット基準座
標系に於ける座標値C(Xc、Yc) 、E (Xe 
+ Ye )をRAM25に記憶させる。
次いで、オペレータはキーボード15より教示指令を入
力する。教示指令が入力されると、視覚センサ1側のマ
イクロプロセッサ11は第3図のフローチャートに示す
処理を開始し、先ずAn変換器13−1〜13−3から
出力されるディジタル画像をそれぞれフレームメモリ1
4−1〜14−3に記憶させ(ステップS1)、次いで
フレームメモリ14−1に記憶されているディジタル画
像に基づいて基準孔A、Bの第1のカメラ座標系に於け
る座標値A(xla。
y+a)、B (xIb、ylb)を求め(ステップS
2)、次いでフレームメモリ14−2に記憶されている
ディジタル画像に基づいて基準孔C,Dの第2のカメラ
座標系に於ける座標値C(x2c。
y2c)、D (X2d、)F1a)を求め(ステップ
S3)、次いでフレームメモリ14−3に記憶されてい
るディジタル画像に基づいて基準孔B、  Fの第3の
カメラ座標系に於ける座標値IE (x313 *V3
e)、F (X3f+ )’3f)を求め(ステップS
4)、次いでステップ82〜4で求めた座標値をインタ
ーフェース18を介してロボット制御部2側に転送する
(ステップS5)。尚、第1〜第3のカメラ座標系はそ
れぞれ撮像装置12−1〜12−3の視野71〜73の
左下の部分を原点とし、横軸をXII  X2.X3軸
とし、縦軸を)’II  )121 3F3軸としたも
のである。
また、ロボット制御部2側のマイクロプロセッサ21は
教示指令が入力されると第4図のフローチャートに示す
処理を開始し、視覚センサ1側から基準孔A−Fの座標
値A (X I8+  ’J ta) 〜F(x3f、
y3F)が座標値が送られてくると(ステップS6)、
各基準孔A−F点の座標値A(xla、3F+a)〜F
 (x−3f 、73f)をRAM25に記憶させ(ス
テップS7)、次いで線分ABとXi軸との成す角度θ
l、線分CD (!: X 2軸との成す角度θ2及び
線分EFとX3軸との成す角度θ3とを求め(ステップ
S8)、これらをRAM25に記憶させ(ステップS9
)、次いで基準孔A、C,Eの視覚センサ座標系に於け
る座標値をそれぞれA <0. 0)、 C(0,ll
)、 E (12x、J2y)としてRAM25に記憶
する(ステップ510)。即ち、ステップSlOでは基
準孔Aの位置を視覚センサ座標系の原点とし、線分AC
を視覚センサ座標系のXS軸とする処理が行なわれるこ
とになる。従って、ステップS8で求めたθl〜θ3は
それぞれ第1〜第3のカメラ座標系の!1.X2.X3
軸と視覚センサ座標系のXS軸との成す角度を示し、第
1のカメラ座標系に於けるA点の座標値A (X1a+
  y ta)は視覚センサ座標系の原点とカメラ座標
系の原点との軸方向のオフセット量を表していることに
なる。
次に再生時の動作を説明する。再生°時、オペレータは
先ず第8図に示すように、パレット74″に開けられて
いる基準孔A′が撮像装置12−1の視野71内に入り
、基準孔C”が撮像装置12−2の視野72内に入り、
基準孔D°が撮像装置12−3の視野73内に入るよう
にバレン]・74″を位置決めする。尚、第8図に示し
たバレンl−74’ は基準孔B、C,Dが設けられて
いない以外は第7図に示したパレット74と全く同一の
形状を有するものである。また、ワーク75”のパレy
ドア4’ に対する取付は位置とワーク75のパレット
74に対する取付は位置とは全(同一になっているもの
である。次いで、オペレータはキーボード15より再生
指令を入力する。再生tit令が入力されることにより
、視覚センサ1例のマイクロプロセッサ11は第5図の
フローチャートに示す処理を開始し、先ずAD変換器1
3−1〜13−3から出力されるディジタル画像をそれ
ぞれフレームメモリ14−1−14−3に記、憶させ(
ステップ511) 、次いでフレームメモリ14−1〜
14−3に記憶されているディジタル画像に基づいて基
準孔A″、C”。
Eoの第1.第2.第3のカメラ座標系に於ける座標値
A’  (X+a’ 、)’+a’ )、C’  (x
2c、yzc)、E’  (x3e、y3e)を求め(
ステップ512)、これらをロボット制御部2に転送す
る(ステップ513)。
また、ロボット制御部2側のマイクロプロセッサ11は
再生指令が入力されると第6図のフローチャー1−に示
す処理を開始し、基準孔A’ 、C’ 。
Eoの第1.第2.第3のカメラ座標系に於ける座標値
A’  (xla’ +  3’+a’ )、C’  
(x2C,yzc)、E’  (x3e、)’313)
が転送されてくると(ステップ514)、これらをRA
M25に記憶させる(ステップ315)。次いで、マイ
クロプロセッサ21は基準孔A’ 、 B’ 、 C’
の視覚センサ座標系に於ける座標値A’  (Xsa’
 、Ysa’ )、C’  (X5c、Y5c)、E’
  (Xse、Y5e)を求め(ステップ316)、次
いでステップ516で求めた座標値A’  (X5 a
 ’ 、 Y5a’ )+  C’  (Xs CI 
 Ys c)+ E’  (Xs 81YGe)とステ
ップSIOでRAM25に記憶させた座標値p、(0,
0)、c (0,11)、E (12x、  7!2y
)とに基づいて、教示時のワーク75の姿勢に対する再
生時のワーク75°の姿勢(各軸方向の移動量1回転角
度)がどのように変化したかを示す変化情報を求め(ス
テップ517)、次いでステップ317で求めた変化情
報と教示時にRAM四に記憶させた基準孔A、C,Eの
ロボット基準座標系に於ける座標値A (Xa、Ya)
、C(Xc r Yc ) + E (X e + Y
e )とに基づいて不揮発性メモリ四に記憶されている
ロボットハンド53の動作を制御する数値情報を補正し
くステップ818)、この後補正した数値情報に従って
ハンド詔の動作を制御する(ステップ519)。
〔発明の効果〕
以上説明したように、未発明は、ロボット基準座標系と
視覚センサ座標系との関係を定義する視覚センサ座標系
の定義方式に於いて、前記視覚センサは描像装置12−
1−12−3等の第1.第2.第3の撮像装置を有し、
教示時、被対象物体上の第1゜第2の点(実施例に於い
ては基準孔A、B)が前記第1の撮像装置の視野内に入
り、前記被対象物体上の前記第1の点と第2の点とを結
ぶ線分の延長線上の第3.第4の点(実施例に於いては
基準孔C,D)が前記第2の撮像装置の視野内に入り、
前記被対象物体上の前記線分と平行な線分上の第5、第
6の点(実施例に於いては基準孔E、F)が前記第3の
撮像装置の視野内に入るように前記被対象物体を位置決
めし、前記第1の点を視覚センサ座標系の原点とし、前
記第1の点と第2の点とを結ぶ線分を視覚センサ座標系
のX軸とした時の視覚センサ座標系と前記第1.第2.
第3の撮像装置それぞれの座標系とのオフセット量及び
回転角度を教示すると共に、前記第1.第3.第5の点
のロボット基準座標系に於ける座標値を教示するように
したものであり、再生時、再生時に得られた被対象物体
上の第1.第3.第5の点の前記第1.第2.第3の撮
像装置それぞれの座標系に於ける座標値と前記オフセン
ト量2回転角度と教示時に教示された前記第1.第3.
第5の点のロボット基準座標系に於ける座標値とに基づ
いてロボット可動部の動作を制御する数値情報を補正す
ることが′できるので、被対象物体が大きい場合に於い
てもロボットに精度の高い作業を行なわせることができ
る利点がある。
【図面の簡単な説明】
第1図は本発明方式を実施≠する装置の一例を示すブロ
ック線図、第2図はロボット本体の斜視図、第3図、第
5図はマイクロプロセッサ11の処理内容を示すフロー
チャート、第4図、第6図はマイクロプロセッサnの処
理内容を示すフローチャート、第7図は教示時の説明図
、第8図は再生時の説明図である。 ■は視覚センサ、2はロボット制御部、11はマイクロ
プロセッサ、12−1〜12−3はテレビカメラ等の撮
像装置、13−1〜13−3はAD変換器、14−1〜
14−3はフレームメモリ、15はキーボード、16は
ROM。 17はRAM、18はインターフェース、21はマイク
ロプロセッサ、22は操作盤、23はインターフェース
、24はROM525はRAM、妬は不揮発性メモリ、
27.28,29.30.31はそれぞれα軸、θ軸、
R軸。 α軸、β軸の軸制御部、32〜36はモータ、37〜4
1は位置検出器、50はロボット本体、51は台座、5
2はアーム、詔はハンド、71〜73は視野、74.7
4“はパレット、75.75’ はワーク、?6.76
° はハンド53の移動経路、A〜F、A’ 、C’ 
、E”は基準孔である。 特許出願人 ファナック株式会社 代理人弁理士玉蟲久五部(外2名) 「□”□゛   □ニ ロボット本体の斜視図 第  2  図 処理内容を示すフローチャート 第  6  図 処理内容を示す70−チで一ト 第  4  図 処理内容を示すフローチャート 第  5  図 処理内容を示すフローチャート 第  6  図 教示時の説明図 再生時の説明図

Claims (1)

  1. 【特許請求の範囲】 ロボット基準座標系と視覚センサ座標系との関係を定義
    する視覚センサ座標系の定義方式に於いて、 前記視覚センサは第1、第2、第3の撮像装置を有し、 教示時、被対象物体上の第1、第2の点が前記第1の撮
    像装置の視野内に入り、前記被対象物体上の前記第1の
    点と第2の点とを結ぶ線分の延長線上の第3、第4の点
    が前記第2の撮像装置の視野内に入り、前記被対象物体
    上の前記線分と平行な線分上の第5、第6の点が前記第
    3の撮像装置の視野内に入るように前記被対象物体を位
    置決めし、 前記第1の点を視覚センサ座標系の原点とし、前記第1
    の点と第3の点とを結ぶ線分を視覚センサ座標系のX軸
    とした時の視覚センサ座標系と前記第1、第2、第3の
    撮像装置それぞれの座標系とのオフセット量及び回転角
    度を教示すると共に、前記第1、第3、第5の点のロボ
    ット基準座標系に於ける座標値を教示することを特徴と
    する視覚センサ座標系の定義方式。
JP8386286A 1986-04-11 1986-04-11 視覚センサ座標系の定義方式 Pending JPS62241011A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8386286A JPS62241011A (ja) 1986-04-11 1986-04-11 視覚センサ座標系の定義方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8386286A JPS62241011A (ja) 1986-04-11 1986-04-11 視覚センサ座標系の定義方式

Publications (1)

Publication Number Publication Date
JPS62241011A true JPS62241011A (ja) 1987-10-21

Family

ID=13814487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8386286A Pending JPS62241011A (ja) 1986-04-11 1986-04-11 視覚センサ座標系の定義方式

Country Status (1)

Country Link
JP (1) JPS62241011A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284890A (ja) * 2005-03-31 2006-10-19 Fuji Photo Film Co Ltd アライメントセンサの位置校正方法、基準パターン校正方法、露光位置補正方法、校正用パターン及びアライメント装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284890A (ja) * 2005-03-31 2006-10-19 Fuji Photo Film Co Ltd アライメントセンサの位置校正方法、基準パターン校正方法、露光位置補正方法、校正用パターン及びアライメント装置

Similar Documents

Publication Publication Date Title
JP3946711B2 (ja) ロボットシステム
JP4167954B2 (ja) ロボット及びロボット移動方法
US7532949B2 (en) Measuring system
EP1676679A2 (en) Robot controller for correcting a target position of a robot hand by means of a visual sensor
US20110029131A1 (en) Apparatus and method for measuring tool center point position of robot
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
EP0796704A1 (en) Apparatus and method for correcting a travelling route for a robot
JP3711105B2 (ja) 3次元計測装置
JP2005300230A (ja) 計測装置
JP2684359B2 (ja) ロボットのワーク直交座標系設定装置
KR101658417B1 (ko) 로봇, 로봇의 제어 방법, 및 로봇의 제어 프로그램
US10029371B2 (en) Robot
JP3207409B2 (ja) ロボットのツール姿勢制御方法
JP2013049102A (ja) ロボットの制御装置及びロボットの姿勢決定方法
JPS62241011A (ja) 視覚センサ座標系の定義方式
JP2011083883A (ja) ロボット装置
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JPH0299802A (ja) ハンドアイを用いた視覚センサにおける座標系設定方法
JPH08293026A (ja) 画像認識装置
JP3175623B2 (ja) ロボットの制御装置
WO2024062535A1 (ja) ロボット制御装置
JP6273783B2 (ja) ツール先端点情報補正プログラム、ツール先端点情報補正装置、及び、ツール先端点情報補正方法
JPH05301195A (ja) 視覚センサにおけるカメラ位置ずれ検出方法
JPS61131887A (ja) 視覚付ロボツトのキヤリブレ−シヨン方式
JPS6257892A (ja) 視覚付ロボツトのカメラ座標較正方法