JPS63104105A - ロボツト視覚座標系の換算方法 - Google Patents
ロボツト視覚座標系の換算方法Info
- Publication number
- JPS63104105A JPS63104105A JP25114486A JP25114486A JPS63104105A JP S63104105 A JPS63104105 A JP S63104105A JP 25114486 A JP25114486 A JP 25114486A JP 25114486 A JP25114486 A JP 25114486A JP S63104105 A JPS63104105 A JP S63104105A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- visual
- coordinate system
- jig
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 40
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 14
- 238000000034 method Methods 0.000 title claims description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔発明の目的〕
(産業上の利用分野)
本発明は、視覚センサ座標系の位置情報をロボットの基
準座標系の位置情報に換算する換算方法に関するもので
ある。
準座標系の位置情報に換算する換算方法に関するもので
ある。
(従来の技術)
本発明に係る従来技術としては、特開昭60−2529
14号公報に記載されたものがある。
14号公報に記載されたものがある。
これは第4図に示すようにロボット基準座標系XYと視
覚センサ座標系xyをとり、 0:ロボット原点から視覚原点0°までのベクトル rrzy軸方向基本ベクトル l:x軸方向基本ベクトル a、b、ca′gA覚座標値止座標値置のロボット座標
値 としたとき、視覚センサ座標上の任意の点(Xs。
覚センサ座標系xyをとり、 0:ロボット原点から視覚原点0°までのベクトル rrzy軸方向基本ベクトル l:x軸方向基本ベクトル a、b、ca′gA覚座標値止座標値置のロボット座標
値 としたとき、視覚センサ座標上の任意の点(Xs。
ys)のロボット基準座標系での座標値(X R。
YR)は、次式が成立する。
となる。
また、ベクトル1.mは
となる。
以上のように従来のものは、a、b、cの3点を用い、
(1)式によって座標変換を行うものであった。
(1)式によって座標変換を行うものであった。
(発明が解決しようとする問題点)
しかし上記の従来技術は、変換のための位置データの数
が3点のため、データをロボットに教示する場合に時間
がかかる。また、ロボットのコンピュータの変換プログ
ラムが複雑となり変換に時間がかかる。
が3点のため、データをロボットに教示する場合に時間
がかかる。また、ロボットのコンピュータの変換プログ
ラムが複雑となり変換に時間がかかる。
更には、ロボットのコンピュータメモリ領域の変換デー
タによる使用量が多いという問題があった。
タによる使用量が多いという問題があった。
本発意は上記問題に鑑み、変換のためのデータを減らし
、それによって変換プログラムを簡素化することを、そ
の技術的課題とするものである。
、それによって変換プログラムを簡素化することを、そ
の技術的課題とするものである。
(問題点を解決するための手段)
上記技術的課題を解決するために講じた技術的手段は、
視覚センサの視野内の2点の位置情報と、該視野内の2
点におけるロボットの位置情報とを各々ロボットに教示
し、それに基づいて視覚座標のオフセット量と傾きを求
め、視覚座標上の位置情報をロボット座標上の位置情報
Gこ変換するようにしたことである。
視覚センサの視野内の2点の位置情報と、該視野内の2
点におけるロボットの位置情報とを各々ロボットに教示
し、それに基づいて視覚座標のオフセット量と傾きを求
め、視覚座標上の位置情報をロボット座標上の位置情報
Gこ変換するようにしたことである。
(作用)
上記により、変換のためのデータが2点であるため、デ
ータ情報の収集時間が少なくてすみ、また変換のための
プログラムの複雑化も防止できる。
ータ情報の収集時間が少なくてすみ、また変換のための
プログラムの複雑化も防止できる。
(実施例)
以下、本発明の実施例について図面に基づき説明する。
第1図は本発明を実施したシステムの一例を示す構成図
である。
である。
第1図において、ロボット1はX−Yロボット2とロボ
ット制御装置3とによって構成される。
ット制御装置3とによって構成される。
X−Yロボット2のY軸にはハンド4が取付けられ、ハ
ンド4には治具5が把持されている。6はITVカメラ
であり、その出力信号は視覚処理装置7にて処理され、
ITVカメラ6と視覚処理装置7によって視覚センサが
構成される。また、視覚センサは8のデータ通信(R3
232C方式)によりロボットlと位置情報を交換し両
者で視覚ロボットを構成している。
ンド4には治具5が把持されている。6はITVカメラ
であり、その出力信号は視覚処理装置7にて処理され、
ITVカメラ6と視覚処理装置7によって視覚センサが
構成される。また、視覚センサは8のデータ通信(R3
232C方式)によりロボットlと位置情報を交換し両
者で視覚ロボットを構成している。
9は視覚、即ち、ITVカメラ6の視野である。
X、YはX−Yロボット2の座標系であり、Oはその原
点であり、またx、yは視覚座標系であり0゛ はその
原点である。
点であり、またx、yは視覚座標系であり0゛ はその
原点である。
次に本実施例の動作を説明する。
先ず、X−Yロボット2のY軸に取付けられたハンド4
の軸中心に第2図に示す治具を把持させる。
の軸中心に第2図に示す治具を把持させる。
次にX−Yロボット2を操作して視覚視野9の任意の点
aに置く。そして、このときのX−Yロボット2の座標
(Xa、Ya)を制御装置3内にあるメモリに記憶させ
る。
aに置く。そして、このときのX−Yロボット2の座標
(Xa、Ya)を制御装置3内にあるメモリに記憶させ
る。
次にX−Yロボット2を視覚視野9から退避し、ロボッ
ト制御装置3より8のデータ通信により視覚処理装置7
へ第2図に示す治具5の穴5aの重心を算出するように
指令を出す。指令された視覚処理装置7はITVカメラ
6より視覚視野9内の治具5の穴5aの重心を計算し、
その座標値(Xa、ya)を8のデータ通信により、ロ
ボット制御装置3へ転送する。
ト制御装置3より8のデータ通信により視覚処理装置7
へ第2図に示す治具5の穴5aの重心を算出するように
指令を出す。指令された視覚処理装置7はITVカメラ
6より視覚視野9内の治具5の穴5aの重心を計算し、
その座標値(Xa、ya)を8のデータ通信により、ロ
ボット制御装置3へ転送する。
次にX−Yロボット2がa点にある治具を把持して次の
視覚視野9内の任意のポイント5点に置き、視覚視野9
より退避し、視覚処理装置7へ指令を出す。指令された
視覚処理装置7はITVカメラ6により視覚視野9内の
治具5の穴5aの重心を計算し、その座標値(x b、
y b)を8のデータ通信により、ロボット制御装
置3へ転送する。
視覚視野9内の任意のポイント5点に置き、視覚視野9
より退避し、視覚処理装置7へ指令を出す。指令された
視覚処理装置7はITVカメラ6により視覚視野9内の
治具5の穴5aの重心を計算し、その座標値(x b、
y b)を8のデータ通信により、ロボット制御装
置3へ転送する。
以上のようにして動作が終了するとロボット制御装置3
は制御装置3内にある4点(xa、ya)(Xa、Ya
)(xb、yb)(Xb、Yb)の位置座標(第3図参
照)を用いて下記に示す変換式(2)を計算し、変数c
osθ、sinθ、A。
は制御装置3内にある4点(xa、ya)(Xa、Ya
)(xb、yb)(Xb、Yb)の位置座標(第3図参
照)を用いて下記に示す変換式(2)を計算し、変数c
osθ、sinθ、A。
Bを決定する。
・・・変換式(2)
AB:o”のx、 yオフセット量
θ:視覚座標系のロボット座標系に対する傾き角度 上
記により、視覚視野9内の任意の位置がロボット座標系
での座標値に変換可能となる。
記により、視覚視野9内の任意の位置がロボット座標系
での座標値に変換可能となる。
以上の如く、2点の視覚センサ座標系における座標値と
、そのロボット座標系における座標値の情報から、視覚
座標原点のロボット座標に対するオフセット量と傾きを
換算するようにしたものであり、簡単に視覚センサ座標
系の位置情報をロボット座標系の位置情報に換算できる
。また、変換のためのデータが2点であるため、このデ
ータ情報の収集に時間が少なくて済み、更に、変換式が
簡単であるため、ロボットのマイクロコンピュータの負
荷(演算時間、メモリ消費量)も軽減できる。
、そのロボット座標系における座標値の情報から、視覚
座標原点のロボット座標に対するオフセット量と傾きを
換算するようにしたものであり、簡単に視覚センサ座標
系の位置情報をロボット座標系の位置情報に換算できる
。また、変換のためのデータが2点であるため、このデ
ータ情報の収集に時間が少なくて済み、更に、変換式が
簡単であるため、ロボットのマイクロコンピュータの負
荷(演算時間、メモリ消費量)も軽減できる。
第1図は本発明実施例によるシステムの一例を示す構成
図、第2図はロボットハンドに把持される治具の外観斜
視図、第3図は本発明の原理説明図、第4図は従来技術
の原理説明図である。 1・・・ロボット XY・・・ロボット座標系。 xy・・・視覚センサ座標系
図、第2図はロボットハンドに把持される治具の外観斜
視図、第3図は本発明の原理説明図、第4図は従来技術
の原理説明図である。 1・・・ロボット XY・・・ロボット座標系。 xy・・・視覚センサ座標系
Claims (1)
- 視覚センサ座標系の位置情報をロボット座標系の位置情
報に換算する方法において、視覚センサの視野内の2点
の位置情報と、該視野内の2点におけるロボットの位置
情報とを各々ロボットに教示し、それに基づいて視覚座
標のオフセット量と傾きを求め、視覚座標上の位置情報
をロボット座標上の位置情報に変換する、ロボット視覚
座標系の換算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25114486A JPS63104105A (ja) | 1986-10-22 | 1986-10-22 | ロボツト視覚座標系の換算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25114486A JPS63104105A (ja) | 1986-10-22 | 1986-10-22 | ロボツト視覚座標系の換算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63104105A true JPS63104105A (ja) | 1988-05-09 |
Family
ID=17218326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25114486A Pending JPS63104105A (ja) | 1986-10-22 | 1986-10-22 | ロボツト視覚座標系の換算方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63104105A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1990000778A1 (en) * | 1988-07-15 | 1990-01-25 | Fanuc Ltd | Drawing coordinates system and scale setting method |
US5157734A (en) * | 1989-12-19 | 1992-10-20 | Industrial Technology Research Institute | Method and apparatus for picking and placing a surface mounted device with the aid of machine vision |
JP2014014912A (ja) * | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60204006A (ja) * | 1984-03-27 | 1985-10-15 | Seiko Epson Corp | ロボツトの制御装置 |
JPS60252914A (ja) * | 1984-05-30 | 1985-12-13 | Fanuc Ltd | 視覚センサ座標情報とロボツト基準座標情報の換算方式 |
-
1986
- 1986-10-22 JP JP25114486A patent/JPS63104105A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60204006A (ja) * | 1984-03-27 | 1985-10-15 | Seiko Epson Corp | ロボツトの制御装置 |
JPS60252914A (ja) * | 1984-05-30 | 1985-12-13 | Fanuc Ltd | 視覚センサ座標情報とロボツト基準座標情報の換算方式 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1990000778A1 (en) * | 1988-07-15 | 1990-01-25 | Fanuc Ltd | Drawing coordinates system and scale setting method |
US5157734A (en) * | 1989-12-19 | 1992-10-20 | Industrial Technology Research Institute | Method and apparatus for picking and placing a surface mounted device with the aid of machine vision |
JP2014014912A (ja) * | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
US11707842B2 (en) | 2018-11-27 | 2023-07-25 | Fanuc Corporation | Robot system and coordinate conversion method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Figueredo et al. | Robust kinematic control of manipulator robots using dual quaternion representation | |
JPH0435885A (ja) | 視覚センサのキャリブレーション方法 | |
Zergeroglu et al. | Robust visual-servo control of robot manipulators in the presence of uncertainty | |
JPS60263681A (ja) | ロボツトの教示方法 | |
JPS63104105A (ja) | ロボツト視覚座標系の換算方法 | |
JPS60252914A (ja) | 視覚センサ座標情報とロボツト基準座標情報の換算方式 | |
JPH05329784A (ja) | マスタ・スレーブロボットの制御方式 | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
Maruyama et al. | Robust visual servo control for planar manipulators with the eye-in-hand configurations | |
JPS62214403A (ja) | 視覚センサ付ロボツトシステムにおけるキヤリブレ−シヨン方法 | |
JPH05303425A (ja) | 直接教示方式ロボット | |
JP2979552B2 (ja) | ロボットの制御方法 | |
US20210146538A1 (en) | Method for imitation of human arm by robotic arm, computer readable storage medium, and robot | |
JPS63212491A (ja) | 視覚付きロボットの座標換算方法 | |
JPS643661Y2 (ja) | ||
JP2913661B2 (ja) | ロボットの制御方法 | |
JP2752784B2 (ja) | ロボットの姿勢修正方法 | |
JP2767920B2 (ja) | 移動ロボットシステムにおけるプログラム実行方法 | |
JP2649463B2 (ja) | 回転外部軸を有する産業用ロボットの教示方法およびそれに用いる教示装置 | |
Vertut et al. | Sensor-aided and/or computer-aided bilateral teleoperator system (SCATS) | |
JPH0283406A (ja) | ロボットと視覚座標系のワークの位置に関する換算方式 | |
JPS62190505A (ja) | 産業用ロボツトの制御装置 | |
JPS60159905A (ja) | 視覚を備えたロボツトの制御装置 | |
JP2620688B2 (ja) | ロボツト制御装置 | |
JPS60204006A (ja) | ロボツトの制御装置 |