JPS60252913A - ロボツトの制御装置 - Google Patents

ロボツトの制御装置

Info

Publication number
JPS60252913A
JPS60252913A JP10866184A JP10866184A JPS60252913A JP S60252913 A JPS60252913 A JP S60252913A JP 10866184 A JP10866184 A JP 10866184A JP 10866184 A JP10866184 A JP 10866184A JP S60252913 A JPS60252913 A JP S60252913A
Authority
JP
Japan
Prior art keywords
data
robot
coordinate system
camera
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10866184A
Other languages
English (en)
Inventor
Motonobu Sasaki
佐々木 元延
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP10866184A priority Critical patent/JPS60252913A/ja
Publication of JPS60252913A publication Critical patent/JPS60252913A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は、位置検出機能を有するロボットの制御装置に
関するものである。更に詳しくは、本発明は、プログラ
ムの実行中に自由九複数のカメラを使い別けて情報を得
ることができるようにしたロボットの制御装置に関する
ものである。
〔従来技術〕
第7図は、従来のロボットの制御装置の一例を示す構成
ブロック図である。この図において、(1)はロボット
(7)の制御装置で、制御演算部(2)、ロボット位置
指令出力部(3)、ロボット位置記憶部(4)、位置検
出制御部+8)Ic結合するセンサー人出カ部(5)、
諸データ記憶部(6)及び命令格納部Qlで構成されて
いる。なお、(91Fiカメラのような検出器で、位置
検出制御部(8)に接続されている。ビジョンカメラを
使って部品の大きさや向き、位置等を検出するビジョン
システムには、カメラをロボットの位置、姿勢とは関係
ない絶対座標系上のカメラ取付台に固定する方法(Fi
x −EYE)と、ロボットハンドに取付ける方法(H
AND−EYE )の2つがある。
これらの2つの方法とも、概略手順としては同じである
まず、ロボットの1どこかの座標系”とセンサー座標系
(センサーが計測する座標値の座標系8B−XS YR
)との補間データ(カメラ側の座標系とロボット座標系
の関係を表わすデータ〕を得て、これを諸データ記憶部
(6)に記憶させ、プログラム実行可とする。次に1プ
ログラム実行でセンサー交信命令を実行した場合は、セ
ンサー人出力部(5)を通してセンサー(9)から得た
センサー座標系上のワークの位置データ、ロボット位置
記憶部(4)よシ得られるロボットの現在位置データ、
及び諸データ記憶部に記憶されているロボットの1どこ
かの座標系″とセンサー座標系との補間データから、ロ
ボット座標系(ロボット制御装置il+が扱う座標値の
座標系例−XRYRZR)上でのワークの位置データを
、制御演算部(2)の演算により得る。
従って、ロボット(7)を、ワークのある位置に移動さ
せたい場合は、前記した手法で得られたロボット座標系
上のワークの位置データを目標位置データとするように
10ボツト(7)に対して、位置指令出力部(3)を介
してロボット移動命令を出力する。
第8図は、従来のFix−EyEのデータの合成説明図
である。Fix−EYEでの補間データ(131は、ロ
ボット座標系からみたセンサー座標系原点の位置データ
としてめる。この場合、ロボット座標系上でのワークの
位置データIとの合成によりめられる。
第9図は、従来のHAND−EYEのデータの合成説明
図である。HAND−EYEでの補間データは、ロボッ
ト7の先端部の座標系(OF−XF YF ZF)から
見たセンサー座標系原点の位置データとしてめる。この
場合のロボット座標系上でのワークノ位tf−タ(1!
19tf、I(AND −EYE O−m間データOe
と、センサー座標系上のワークの位置データ04)と、
ロボットの現在位置データ17と、ロボットのハンド部
からの補正データ(旧との合成よりめられる。
従来の位置検出センサーと接続可能なロボットの制御装
置は、プログラム実行中に前記したような固定方法が異
なるFjX−EYEとHAND−EYEからでは、それ
ぞれデータの処理手法が異なるため、自由にデータを使
い分けることができないという欠点があった。
〔発明の概要〕
本発明は、固定方法が異なる複数個の位置検出手段(例
えばカメラ)からの信号を入力するセンサー人出力部と
、各位置検出手段とロボット本体の位置関係を表現する
複数の座標系を表わすデータを入力するデータ入力部と
、各検出器が認識対象とする対象物体のデータと前記デ
ータ入力部に入力された諸データとよりロボット本体に
固有ガロボット座標系における対象物体の座標系を演算
する演算部とを設け、これによルプログラム実行中K、
複数個のカメラから自由に必要なデータを得ることので
きるロボットの制御装置を提供するものである。
〔発明の実施例〕
第1図は、本発明に係る装置の一例を示す構成ブロック
図である。この図において、第7図装置の各部分と対応
する部分には同一符号を付して示す。(9)はFiX−
EYEとして用いられるカメラ、0υはロボット(力の
手先の先端に固定されたHAND−EYEとして使われ
ているカメラである。O2dカメラの固定方法のデータ
取り入れ部、03は制御演算部(2)内に設けられたカ
メラの固定方法を判断し、それに合った演算を行なう演
算部である。
この様に構成した装置の動作について、まず、各カメラ
+91.11υごとの補間データ(そのカメラを使用し
た時のセンサー座標系と、ロボット座標系の関係を表わ
すデータ)をめる手順につき、第2図の座標系の合成説
明図を参照しながら、次に説明する。けじめに、第2区
、(Xo r Yo 、ZO)を座標系において、(x
I、 YI、ZI )を座標系の平行移θ2)とする。
i fc (XI 、YI 、ZI )tmll系K 
第いて(x!t YI−Zz)を座標系の平行移動量ヲ
(xz。
yz+”*)t、オイラー角を(θ3:z r ’ y
l r 02りtとする(ここで ltlは、転置行列
を意味する〕。
この場合、(んp Yor Zo )を座標系からみた
(xI、YI、ZI)を座mxu、rllT表わfこ(
!:d!できる。
(1)式及び121式から、(3)式が得られる。
(3)式において、M+−Mxの物理的な意味としては
、(Xo・Yo・ム)を座標系からみた(ん、Y、。
’Zd)を座標系を表わすマトリックスである。
このように(Xo、Yo、Zo ) を座標系からみた
( Xl−Yl、 Zl )を座標系の平行移染量と、
オイラー角から決定されるマトリックスをLA 、()
G tY+、Zl)を座標系からみた( Xz、Yt、
Z2 ) tm標系の平行移動量と、オイラー角から決
定されるマトリックスをLBとしたときの、(Xo 、
Yo・Zo)を座標系からみた( %+ Yz+ zl
 )を座標系の平行移動量と、オイラー角から決定され
るマトリックスをLCとした時の関係を以下、(4)式
の通り表わすものとする。
LC=LA:LB ・・・・・・・・・・・・(4)ま
ず、各カメラの固定方法を、第6図の画面によって定義
する。次に各カメラととに補間データを決定するための
測定を行なうことになるが、どのカメラの補間データを
決定しようとしているかは、第4図のように対象となる
画面を選択表示させることで得ている。カメラの固定方
法が、FIX−EYEの場合は、従来通りの方法で補間
データを決定し、仮にこれをLRPFlとして、諸デー
タ記憶部(6)K格納する。カメラの固定方法が、HA
ND−EYEの場合は、第5図に示すように1従来の方
法でめた補間データ(19を、ロボット制御先端座標糸
(−8,−Xf Yf Zf )からみた補間デーpu
shしてめる。なお、第5図において、(I7)はロボ
ット座標系(Q、−XRYRZR)からみたロボット手
先の座標系、a8Viロボット制御先端座標系からみた
ロボット手先の座標系を図示したものである、ここでマ
トリックスMの逆マトリックスをM−1と表わすとし、
第5図におけるflL (17)、 (+81.α優を
それぞれLRPF2.LCURR,LTOOL、LRP
FMと記すと、LRPF2は、LRPF’2= LTO
OL :(LCURR)−’ : LRPFM で表わされ、これを諸データ記情部(6)に格納する。
次に、実際にプログラム実行中の動作について説明する
。ロボット言語のセンサー交信命令として仮に、 PSEMS (I+ というものを用意する。0内は使用カメラの指定 □が
できるものとする。まずに)内の引数より対象カメラを
判断し、そのカメラを使用して計測するようにセンサー
人出力部(5)よりセンサーを起動する。
これによって、該当するセンサーからの計測データが人
出力部建入力される。ここでのセンサーからの入力デー
タは、センサー座標系上の計測物の位置データなので、
これをロボット座標系からみた計測物の位置データとし
て変換して出力する(この出力データを仮にLR8EN
とよぶことにする)。ロボット(7)を移動させる場合
は、このLR8ENを目的地とすればよいことになる。
次に、センサーからの入力データをId’tSENとい
う出力データとして出力するまでの演算処理部(13の
処理の流れを、第6図のフローチャートを用いて説明す
る。1ず、センサーからの入力データは、センサー座標
糸上のxl y座標(r、y)と、センサー座標系と計
測物の持つ座標系上の座標糸の傾きθである。これをマ
トリックスで表示すると次の通り表わされる。
カメラデータ取入部α2より命令で指定されたカメラの
固定方法の情報を入力し、演算処理部u3で判断し、F
i)(−EYE用の演算か、HAND −EYE用の演
算かを実行する。FiX−EYEの場合は、諸データ記
憶部(6)からLRPFl (FiX−ETE 用の補
間データ〕を取り出し、 LR8EN= LRPF’1 : LSENを演算する
ことにより、ロボット座標系からみた、計測物の持つ座
標糸原点(LR8EN)を得て、これを諸データ記憶部
(6)に格納する。
次に、HAND−EYEの場合は、諸データ記憶部(6
)からLRPF2 (HAND−EYE用の補間データ
)を取り出す。また、ロボット位fit記憶部(4)か
ら、ロボット制御先端座標系からみたロボット手先の座
S系原点(LT9αLおよぶ)、ロボット座標系からみ
た現在のロボット手先の座標系原点(LCtJRRとよ
ぶ)を、それぞれ取シ出す。そして、LR8EN= L
CURR: (LT8L)−” : LRPF2 : 
LSENを演算することにより、ロボット座標系からみ
た計測物の持つ座標系原点(LR8EN)を得て、これ
を諸データ記憶部(6)K格納する。制御演算部2は、
このようにして諸データ記憶部(6)K格納された各デ
ータを自由に用い、ロボット(力を制御する。
なお、上記実施例では、第6図に示すようなカメラ定義
画面を用いたが、本発明はこれに限るものではなく、ま
た、対象となるカメラの台数も2台に限るものではない
。センサーシステムが使いわけることができる限シのカ
メラの、補間データと固定方法に対応した記憶容量を持
たせれば良い。
〔発明の効果〕
以上のように、本発明によれば、プログラム実行中に、
カメラの固定方法に関係なく、複数のカメラを使いわけ
ることができるので、FiX −EYEであらく位置を
決めてロボット手先をその上方まで移動させ、詳しいワ
ークの位置情報はあらためてそこでHAND−EYEを
使うなどの、汎用的な精度の高いロボット制御を行なえ
るロボット制御装置が実現できる。
【図面の簡単な説明】
第1図は本発明に係る装置の一例を示す構成ブロック図
、第2図は各座標系の合成説明図、第6図は本発明装置
によるカメラの固定方法を定義する定義画面を示す図、
第4図は各カメラに対応した補間データ作成時の表示画
面を示す図、第5図はHAND−EYEの補間データを
決定するときのデータの合成説明図、第6図はカメラの
固定方法を判断し、それに合った演算を行なう時のフロ
ーチャート図、第7図は従来装置の構成ブロック図、第
8図は従来のFiX−EYEのデータ合成の説明図、第
9図は従来の)IAND−EYEのデータ合成の説明図
である。 1・・・制御装置、2・・・制御演算部、5・・・セン
サー人出力部、6・・・諸データ記憶部、7・・・ロボ
ット、9.11・・・カメラ、12・・・データ入力部
、13・・・座標系演算部 なお、図中同一符号は同−又は相当部分を示すものとす
る。 代理人 弁理士 木 村 三 朗 第1図 II 第2図 第4図 第5 図

Claims (1)

  1. 【特許請求の範囲】 【11位置検出器からの信号を入力し、ロボット座標系
    上のワークの位置データを目標位置データとするように
    ロボツ)K対して移動命令を出力する装置において、固
    定方法が異なる複数個の位置検出手段からの信号を入力
    するセンサー人出力部と、前記各位置検出手段とロボッ
    ト本体の位置関係を表現する複数の座標系を表わすデー
    タを入力するデータ入力部と、 前記各検出器が認識対象とする対象物体のデータと前記
    データ入力部に入力された諸データとよりロボット本体
    に固有なロボット座標系における対象物体の座標系を演
    算する演算部とを設けたことを特徴とするロボットの制
    御装置。
JP10866184A 1984-05-30 1984-05-30 ロボツトの制御装置 Pending JPS60252913A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10866184A JPS60252913A (ja) 1984-05-30 1984-05-30 ロボツトの制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10866184A JPS60252913A (ja) 1984-05-30 1984-05-30 ロボツトの制御装置

Publications (1)

Publication Number Publication Date
JPS60252913A true JPS60252913A (ja) 1985-12-13

Family

ID=14490467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10866184A Pending JPS60252913A (ja) 1984-05-30 1984-05-30 ロボツトの制御装置

Country Status (1)

Country Link
JP (1) JPS60252913A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1988000366A1 (en) * 1986-07-09 1988-01-14 Fanuc Ltd Position control method
JPH0192078A (ja) * 1987-10-01 1989-04-11 Fanuc Ltd 位置補正方法の切換え可能なロボット制御装置
CN104260112A (zh) * 2014-09-18 2015-01-07 西安航天精密机电研究所 一种机器人手眼定位方法
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法
CN110193849A (zh) * 2018-02-27 2019-09-03 北京猎户星空科技有限公司 一种机器人手眼标定的方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1988000366A1 (en) * 1986-07-09 1988-01-14 Fanuc Ltd Position control method
US4862381A (en) * 1986-07-09 1989-08-29 Fanuc Ltd Position control method in which a cartesian point is transformed through two cartesian coordinate systems
JPH0192078A (ja) * 1987-10-01 1989-04-11 Fanuc Ltd 位置補正方法の切換え可能なロボット制御装置
CN104260112A (zh) * 2014-09-18 2015-01-07 西安航天精密机电研究所 一种机器人手眼定位方法
CN110193849A (zh) * 2018-02-27 2019-09-03 北京猎户星空科技有限公司 一种机器人手眼标定的方法及装置
CN108818535A (zh) * 2018-07-05 2018-11-16 杭州汉振科技有限公司 机器人3d视觉手眼标定方法

Similar Documents

Publication Publication Date Title
JP3394322B2 (ja) 視覚センサを用いた座標系設定方法
JPS60252913A (ja) ロボツトの制御装置
EP0121250B1 (en) Input-output coordinate transforming method and apparatus for input-integrated display
Borthwick et al. Simultaneous localisation and map building for autonomous guided vehicles
JPH0454629A (ja) 画像表示装置
JPH1011122A (ja) 情報提示装置
US5517639A (en) System for outputting execution time of industrial automated apparatus
JPH08304581A (ja) プラント点検支援装置および方法
JPH09174468A (ja) ロボット教示装置
JPH04105005A (ja) 画像表示装置
JPH06175716A (ja) マニピュレータの物体把持作業における位置・姿勢補正方法
JP3560216B2 (ja) 作業支援装置
JPH0454628A (ja) 画像表示装置
US5457645A (en) Pattern recognition system including a circuit for detecting maximum or minimum data elements which determines the standard pattern closest to the input pattern
JPH04365584A (ja) 遠隔操作ロボット支援装置
JP2992432B2 (ja) 三次元座標測定機の測定座標設定方法及びその装置
CN114161428B (zh) 机器人控制方法、装置、电子设备和存储介质
JPH0829152A (ja) 座標測定機の測定処理方法及びその装置
JPS6278609A (ja) プラント監視画面切替装置
JPS59142617A (ja) ロボツトの制御装置
JP3499000B2 (ja) 水平垂直方向の指定方法
JP2522787Y2 (ja) 画像処理装置
JPS61151486A (ja) 信号源位置表示方法
JPH05119913A (ja) 座標入力装置
JP3198467B2 (ja) センサ位置姿勢経路追従制御法