JPH027108A - 手先視覚付きロボット・自動機械の教示および制御方法 - Google Patents

手先視覚付きロボット・自動機械の教示および制御方法

Info

Publication number
JPH027108A
JPH027108A JP15694888A JP15694888A JPH027108A JP H027108 A JPH027108 A JP H027108A JP 15694888 A JP15694888 A JP 15694888A JP 15694888 A JP15694888 A JP 15694888A JP H027108 A JPH027108 A JP H027108A
Authority
JP
Japan
Prior art keywords
robot
work
teaching
automatic machine
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP15694888A
Other languages
English (en)
Other versions
JPH07122823B2 (ja
Inventor
Akira Miyagawa
晃 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP15694888A priority Critical patent/JPH07122823B2/ja
Publication of JPH027108A publication Critical patent/JPH027108A/ja
Publication of JPH07122823B2 publication Critical patent/JPH07122823B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野コ 本発明はロボットあるいは自動機械の制御方法に係り、
特に手先視覚の撮像・認識処理を動作中に行なって得ら
れる認識データに基づいて動作経路を補正する制御方法
の精度を上げるに好適な手先視覚付きロボット・自動機
械の教示および制御方法に関する。
[従来の技術] 従来の手先視覚により作業対象物を認識して得られた認
識データに基づいて作業対象物の位置・姿勢を求めてロ
ボット・自動機械を作業対象物へ位置決めする方法は以
下に説明する方法がある。
なおこの種の視覚付きロボットおよびロボット教示方法
については例えば特開昭60−249583号公報およ
び特開昭60−262215号公報に記載されている。
第5図は従来の手先視覚付きロボットの位置決め方法の
第1例を示す説明図である。第5図において1手先にT
Vカメラ(視覚)1を付けたロボット2の例を示す。T
Vカメラ1の視野内に作業対象物4を入れるようにロボ
ット2の手先を位置決めすると、TVカメラ1の視野(
視覚の画像)に固定の視覚座標系XV−○V  YVは
第5図に示す位置になる。ここでロボット2の持つ固有
の直交座標系(ロボット座標系)XRORYRにおいて
、視覚座標系の原点位置OvはベクトルV工で表わされ
る。さらに視覚座標系での作業対象物4の位置を表わす
ベクトルV、が視覚の認識処理によVIYをロボット座
標軸成分に変換する手段によっ成分を表わす。従って作
業対象物4のロボット座られれば求まり、これによりロ
ボット2のハンドを作業対象物4の位置に位置決めする
ことができる。なお第5図の座標系は2次元平面上での
関係を代表して示しである。
しかし上記のようにロボット2の動作領域全域にわたっ
て1つの固定座標系を定めて、その座標値に従ってロボ
ット2のハンドを位置決めする方法を採ると1位置決め
精度をよくすることが難しい。これはロボット2は機構
誤差が存在し、かつ個々のロボット(において誤差が異
なるためであって、理論上の計算位置にロボット2のハ
ンドの実際位置を許容誤差内で一致させるには個別のロ
ボットごとに極めて綿密な較正処理が必要となる。
従って製品化されているロボットには次の位置決め方法
が採られている。
第6図は従来の手先視覚付きロボットの位置決め方法の
第2例を示す説明図である。第6図において、通常の電
子機器などの組立作業を対象とする視覚の視野の大きさ
は高々100mm角程度の範囲であって、ロボットを動
かして複数の視野を設定すればさらに広い範囲を認識で
きるが、実用上は1回の視野内に入る程度の位置ずれ誤
差を持って供給される作業対象物の位置・姿勢を視野で
L’l識することを想定する。従来の使用例はこの範囲
であって、この部分領域内で基準となる作業点を前もっ
て定める。すなわち第6図の基準となる作業対象物3を
ロボットのハンドで把持するか組付けるかまたは他の作
業を行なうかのいずれかの基準の作業位@pwtとして
ロボットの教示を行ない記憶する1次にこの作業対象物
3をそのままの状態でTVカメラで認識を行なう。この
時の視野(視覚座標系XVt  ov□−YV工)の位
置(原点位置Ov□)はロボット座標系XR−OR−Y
Rのベクトルv3で表わされ、また視野の傾きはO□で
ある。
またこの視野内での基準の作業対象物3の位置べは記憶
される0次に通常の作業時に供給された現在の作業対象
物4を認識するために設定した視野(視覚座標系X V
 !  Ov t  Y v t )の位置(原点位置
○v、)はベクトルv5で表わされ、また視野の傾きθ
、である。さらにこの視野内での現在の作業対象物4の
位置ベクトルV6が認識処理により求められる。
しかし上記位置ベクトルV□tvsはロボット座標系x
R−〇RYRで表わされたベクトルであって、ロボット
の場合であれば各部の長さおよび各関節の変位量をもと
に幾何演算により算出される理論上の位置を表わす。こ
れに対して第5図で説明したようにロボットあるいは自
動機械には必ず機構誤差(例えば腕の長さ誤差とか軸の
偏心など)が存在するために、実際の位置は位置ずれ誤
差を持つ。一般にこの機構誤差による位置ずれ誤差は距
離に比例して大きくなり、そのような誤差関数で誤差が
分布するため1位置ベクトルv、。
■、の絶対値が大きいほど誤差の程度は大きくなる。そ
こでベクトルV、、V5の差ベクトルv5V、を求める
。ただし両方の視野の位置は十分に近い位置とする。す
るとその差ベクトルv7の絶対値は小さく、したがって
相対位置ずれの誤差も小さくなる。一方の位置ベクトル
V、、VGはそれぞれの視覚座標系で表わされているが
、これを座標変換する手段によってロボット座標系で表
わしたベクトルに変換できる。この変換手段(変換係数
)を求める方法は従来公知である。上記によりルvIl
は基準の作業点PWzから実際の作業対象物4に作業を
加える作業位置Pwtまでの相対変位量(第6図では2
次元変位を示している)を表わす。
この相対変位量を求めれば、ロボットのハンドを実際の
作業対象物4に位置決めする時に、すでに記憶しである
基準の作業点P、□より相対変位した位置を目標点Pw
!として移動可能となる。
[発明が解決しようとする課題] 上記従来技術は第2例で説明した基準となる作業点Pl
ftをロボット座標系側と視覚座標系側の座標値でそれ
ぞれ記憶しておき、その後に実際の作業対象物4を認識
してその位置・姿勢のデータが得られたら相対変位量を
演算して目標点pHllへロボットの動作を制御する。
しかし上記の基準の位置PViおよび実際の作業対象物
4をTVカメラで撮像する位置は教示によって指定した
定点または状況に修正した撮像目標停止点に限られてい
た。
したがってこの撮像をするために一旦停止することはロ
ボットの一連の作業動作の時間を遅くする問題があった
。このようなロス時間の短縮を計る方法として動作中に
作業対象物を撮像する方法が考えられる。
第4図は上記の手先視覚付きロボットの動作中に撮像・
認識して位置決めする処理方法の概要説明図である。第
4図において、TVカメラ1はロボット2の手首にオフ
セットを持って付いているため、動作の制御を工夫すれ
ば(例えばTVカメラ1を動作方向前方(破線矢印方向
)に旋回する)、ロボット2のハンドより先行して基準
となる作業対象物3の上方に到達できる。したがってこ
の瞬間に撮像して認識を行なった視覚座標系Xv−OV
−YVのデータをもとに、動作中のロボット2の基準作
業点pwtへ向かう動作経路(破線で示す)R8に補正
を加えて、認識した実際の作業対象物4の作業位置Pw
!へ位置決めする動作経路Rよへロボット2を制御する
。すなわちロボット2の動作中に撮像した瞬間のTVカ
メラ1の位置をロボット制御装置内で演算することがで
きるならば、実際の認識対象物4ヘロボツト2を位置決
めする制御量を演算する方法は従来方法と同様にして実
現できる。
しかしロボット2の手先の位置すなわちTVカメラ1の
位置を演算する場合に一ロボット2が停止した状態にあ
るかまたは動作中の状態にあるかによって演算結果にわ
ずかの誤差が生ずる。すなわち上記の位置の演算とはロ
ボットの各関節の角変位および各部の寸法をもとにして
幾何演算により求めるもので、この場合に各関節の角変
位が同じ値の状態にあっても、停止している状態と比べ
て動作中の状態では機構各部がわずかずつたわんだこと
によるか、軸受やハーモニックドライブや歯車などの間
隙が変化したことなどが原因となって、ロボット2の手
先の位置(TVカメラ1の位置)に誤差が生ずると推測
される。そのため、もし基準の作業位!pwtを認識す
る時にロボット2を停止して認識をする教示を行ない、
この停止中の認識データを基準にして動作中に実際の作
業対象物4を認識したデータとの相対変位量を求めると
、上記した誤差が演算結果に含まれる問題がある。
本発明の目的は手先視覚の撮像・認識処理を動作中に行
なったデータに基づいて作業対象物に位置決めする処理
において発生する動作に起因した誤差成分を低減させて
精度よくハンドまたはツールを位置決めできる手先視覚
付きロボット・自動機械の教示および制御方法を提供す
るにある。
[課題を解決するための手段] 上記目的は、ロボット・自動機械に同じ指令値を与えて
動作をくり返すとその動作経路上の位置の再現性がよく
、この条件を前提とするならば基準の作業対象(位置)
を認識する教示処理においても同条件の動作を行なって
撮像・認識をすることにより相対変位に含まれる上記誤
差を相殺できる点に着目し、まずロボットの教示として
手動操作によって前もってロボットを適当な位置へ動か
しておいて該位置データをメモリに記録(登録)してお
き、つぎに視覚の教示として基準の作業対象物を撮像・
認識して視野内の位置データをメモリに記録(登録)す
ると同時に視野の位置(TVカメラの位置)も記録し、
これらの教示によって算出・登録(記録)したデータに
従ってロボットによる作業を行なうべく、より詳しくは
上記教示処理の前処理として不可欠な作業シーケンスを
ロボット言語プログラムで登録する処理をしてから。
上記ロボットの教示処理では動作経路上の主要な位置を
登録する処理、および基準の作業対象に対してロボット
のハンド(ツール)を位置合わせして基準の作業位[p
wtを登録する処理、およびロボットを手動操作して基
準の作業対象物が視野に入りかつ動作経路を予測した位
置から大きくはずれない位置を選んで撮像位置PVを登
録する処理を行ない、上記視覚の教示処理では上記登録
したデータをもとにロボットに通常の使用時(プレイバ
ック時)と同じ条件で視覚が撮像を行なう撮像位WPv
を通過する前後の動作を行なわせる処理。
および該ロボット動作中に撮像位置pvの通過時に撮像
・認識を行ない基準の作業対象物を認識して基準の作業
位置PWIを求める処理、および該処理で認識した基準
の作業位置Plftのデータを登録する処理を行ない、
これらの教示処理によって算出・登録(記録)したデー
タに従ってロボットによる実際の作業を行なうようにし
た手先視覚付きロボット・自動機械の教示および制御方
法により達成される。
[作用] 上記手先視覚付きロボット・自動機械の教示および制御
方法では、ロボットの教示処理は従来手法で手動により
ロボットを動作の要点に位置決めして該位置を記憶する
作業を前もって行なうが、手先視覚を付けたロボットの
教示はロボットの動作の要点を記憶するだけでなしに視
覚により基準の位置PV、の認識処理を実行して基準の
認識データを記憶しておく処理が必要となり、この視覚
による撮像・認識処理を動作中に実行するために、ロボ
ットの動作の要点の教示およびロボット言語によって動
作のシーケンスをプログラムする処理を先に行ない、こ
のさい視覚の撮像位置PVをプログラム上に指定して視
覚の教示処理を宣言する。
しかる後に視覚の教示処理はプログラムの実行によって
動作を行ない指定した位置Pvで撮像・認識を行なうが
、とのさい基準の作業対象物を所定位置PV1に前もっ
て置いてロボットの動作は撮像位置PVの前後の動作を
通常の作業時と同様に再現すればよく、このとき認識し
たデータは基準の位置データPWxとして登録する。こ
の認識データの扱いは第6図の手先視覚付きロボットの
位置決め方法の第2例で示した方法で行なうが、この基
準の位置データPWxにはロボット動作による誤差成分
を含んでいる。そしてその後に上記教示処理によるデー
タに従ってロボットによる実際の作業を行なうと、その
作業時に現在の作業対象物を同一条件の動作中に撮像し
て認識した位置データにも同傾向の動作による誤差成分
を含んでいるから、そこで両データの相対変位ベクトル
を算出すれば動作による誤差成分を相殺して、ロボット
の位置決め精度を向上できる。
[実施例] 以下に本発明の一実施例を第1図ないし第3図および第
4.6図により説明する。
第1図は本発明による手先視覚付きロボット・自動機械
の教示および制御方法の一実施例を示す手先視覚付きロ
ボットの教示処理手順のフローチャートである。第1図
において、処理101は作業シーケンス命令をロボット
言語プログラムで登録する処理であり、従来の手順と同
様であって、本処理は教示処理とは別の処理であるが、
あとの視覚の教示処理でロボットを動かすことになるた
め。
前処理として不可欠な処理であると考えて含めである。
処理102は動作経路上の主要な位置を教示して登録す
る従来の教示手法による処理であり、従来から手動によ
ってロボットの動作の要点に位置決めして該位置を記憶
する作業を前もって行なうロボットの教示モードであっ
て、後にロボットを動作させる場合には教示点間を指定
した補間法により経路で結んで該経路に追従させてロボ
ットを制御する。処理103は基準の作業対象物に対し
てロボットのハンド(ツール)を位置合わせして、基準
の作業位置PWtを登録する処理であり1手先視覚を付
けたロボットの教示にはロボットの動作の要点を記憶す
るだけでなく、基準の作業対象物を所定位置pwxに前
もって置いて該基準位置PVtを撮像・認識して記憶す
る処理が必要となる。処理104はロボットを手動操作
して基準の作業対象物を視野に入るようにし、かつ動作
経路を予測した位置から大きくはずれない位置を選んで
撮像位置pvとして登録する処理であり、この撮像位置
pvが後にロボットを動かす時の動作経路上の中間点に
なるようにロボットを制御する。上記の処理102〜1
04がロボットの教示処理の手順である。
つぎの処理105は視覚の教示のために上記の処理10
1〜104で登録したデータにもとづいてロボットに通
常の使用時(プレイバック時)と同じ動作を行なわせる
処理であって、ただしその動作は視覚が撮像を行なう搬
像位置PVを通過する前後の動作だけでよく、しかしあ
まり部分的に限定すると通常の作業時の動作と同条件に
はならない可能性があるので可能な範囲で連続した動作
を行なうようにする。処理106は上記処理105のロ
ボット動作中に撮像位[P vの通過時に基準の作業位
置PVtを撮像・認識する処理であり、このさい基準の
作業対象物を認識するようにして基準の作業位置Pw1
を求める。処理107は上記処理106で認識して得た
基準の作業位置Pw1のデータを登録する処理であり、
これで処理105〜107までの視覚の教示処理を終え
る。
上記の処理101〜107までの教示処理はロボットを
使用するさいの準備作業とみなせるものであり、この教
示処理によって算出・登録(記録)したデータに従って
ロボットによる作業を行なう。このとき視覚の教示のさ
いロボットの撮像位置前後の動作を作業時と同様に再現
して得た基準の位置データにはロボット動作による誤差
成分を含んでおり、そしてまた作業時に作業対象物を同
一条件の動作中に撮像して認識した位置データにも同傾
向の動作による誤差成分を含んでいるため、第6図に示
した方法で両データの相対変位ベクトルを算出すれば、
動作による誤差成分を相殺してロボットの位置決め精度
を向上できる。なお上記に処理手順の各項目の内容を説
明したが、上記の処理101〜104の項目の順序は必
ずしも図示の通りでなくてもよく入れ換え可能であり、
また再処理も可能である。つぎの処理105〜107の
項目は後に必ず続けられる。本方法は一般の自動機械に
も同様に適用可能である。
ここに上記のロボットの教示処理で記憶した位置のデー
タには識別用にラベル付けされ、例えばpl、 p、と
いったラベルが付く、上記の位置のデータとはロボット
の各関節の角変位のデータであり、このデータとロボッ
ト各部の寸法値をもとに幾何演算により、ロボットの手
先の位置を求めることができる。上記の作業シーケンス
命令登録処理101はロボット言語でロボットの作業シ
ーケンスを記述する。例えば動作命令MOVE  I、
P。
を入力すると、ロボットを現在の位置から前もって教示
しておいた点P1までパラメータIによって決まる補間
経路で動かすことを指定している。
このロボット言語によって動作シーケンスを表わすプロ
グラムを記述する方法および教示によってロボットの主
要な位置を記録する方法は従来方法に準じてよい。ただ
し上記の動作中に視覚で認識する処理および視覚の教示
を行なう処理を本発明による方法で新たに加えているの
で、これらの処理を記述する言語仕様例およびその処理
例を次に説明する。まず言語仕様の新しい項目としては
次の3項目がある。
(1)撮像目標位置を明示するラベルPVを設ける。
(2)動作命令(MOVE)のパラメータに撮像目標位
置が入れられた時にはロボットの動作が撮像目標位置p
vを通過した時点で撮像・認識処理が開始することを定
義する。
(3)視覚の教示処理を指示する命令(VTEACH)
を新たに設ける。
つぎに処理例を説明する。第1図の処理103の基準の
作業位置Pw1とはロボットのハンドで作業をする場合
に第1にハンドを位置決めするべき位置を表わす。この
基準位置Pw□はロボットに位置を教え込むために設定
した位置であり、実際の作業位@P w tは基準位置
Pw□から誤差を持った位置である。この誤差を視覚の
認識データより演算して、基準位置Pwlから誤差分だ
けシフトした位置へロボットを位置決めして作業を行な
うが、この方法は従来の視覚付きロボットの制御方法に
準する。第1図の処理104は手先に視覚を付けたロボ
ットにおいて必要となる教示であり、これは手先に付け
たTVカメラで作業対象物を見る(視野に収める)位置
を手動によって探し、適切な撮像位置PVを教示する。
ここで従来の手先視覚付きロボットは作業対象物を認識
するために撮像位置Pvへ動いてから停止して撮像・認
識するのに対して、本発明が狙いとするのはロボットが
撮像位置PV上を停止せずに通過した瞬間に撮像して認
識する方法である。この撮像位置PV上を通過する瞬間
のロボットの手先の状態すなわちTVカメラの姿勢は撮
像位置pvを教示した時と同じ姿勢となるようにロボッ
トを制御する。このさいロボットを撮像位置PV上を通
過するように動作制御する方法に関しては従来方法に準
するものとするが、ただ撮像する位置Pvを教示処理に
よって設定することは視覚の認識条件を調べる点でも必
要となる。
また通常の教示処理はロボットを手動によって動かして
作業経路上の主要な点(位II)および作業位置を教え
込んでおり、この操作は第1図の処理102などの教示
処理の中で同様に行なっているが、ただし異なる点はこ
の後の視覚の教示処理においてロボットに作業動作を実
行させることである。すなわち第1図の処理105は視
覚の教示のためロボットの動作を実行させる処理を表わ
し、その動作は実際の作業時(プレイバック時)と同じ
速度および経路で撮像位置pv上を通過することが条件
である。このため視覚の教示処理において、作業時と同
じ動作命令(ロボット言語)を使用したプログラムを実
行して、撮像位置PV上を作業時と同じ条件で動かす。
そして第1図の処理106は撮像位置PV上を通過した
瞬間に基準の作業対象物(処理103の項で使用した基
準の作業対象物と同じもの)を撮像して基準の作業位置
PVtを認識し1次の処理107は処理106で認識し
た基準の作業位置P111を登録して視覚の教示処理を
終える。
以上が視覚の教示処理であるが、このさいロボットが動
作する必要がある経路は撮像位II P vを通過する
前後だけでよい。そこで教示処理時に実行するロボット
言語のプログラムは撮像位置PV上を通過させる動作命
令と、その前後の動作命令と。
動作後に視覚より基準の作業位@Pw□の認識データを
受ける命令と、視覚の認識データより基準の作業位fl
E P wlを表わすデータおよび視野の位置データを
演算して登録する視覚の教示処理を指示する命令とを含
んだものとする。
第2図(a)、 (b)は第1図の視覚の教示処理プロ
グラム例および動作経路の説明図である。第2図(a)
 、 (b)において、第2図(a)の(1)のPRO
GRAM  TEACHでプログラムの識別名TEAC
Hを定義し、(2)の5PEED800で動作速度を8
001m/secと定義する。つぎのMOVEが動作命
令であり、第1パラメータIは直線経路を演算して動作
することを指定するもので、(3)のMOVEI、PI
によって現在の位置(現在ロボットが停止している位置
)から第2パラメータの点P1(第2図(b))まで直
線経路で動いて点P1で停止する。続いて(4)のMO
VE  T、Pvによって点P1から点Pv(第2図(
b))へ至る直線経路を演算するが、第1パラメータT
の指定により次の(5)(7)MOVE T、P2と結
びツイテ、点P1から点P2(第2図(b))へ至る経
路と連続した経路を求め、すなわち点P1から点PVを
経由して点P2へ至る連続した経路を演算してロボット
を動かす。
ここで点pvは撮像位置を表わすので、ロボットが撮像
位置PV上を通過した時点でロボットより視覚へ撮像指
令が送られ、視覚はその指令に従って基準の作業位置p
wt(第2図(b))の撮像・認識処理を行なう。また
(5)の第1パラメータもTであることから点PVから
点P2へ至る経路と次の(6)のMOVE命令が表わす
点P2から点Pwへ至る経路が連続して円滑経路(第2
図(b)の実線)を演算する。ここで(6)の第2パラ
メータがPVt+<o、o、−to>となっているが、
これは教示しである基準の作業位置PViにZ方向で一
10mのシフトを与えた位置(鉛直上方に10mの位置
)を表わす。また第3パラメータの5=200は鉛直方
向の速度が200閣八ecと指定している(第1パラメ
ータは■)、よってロボットは第6図(b)の点ptか
ら点Pw□+<O,O,−10>まで連続して動いて、
点P wx +< O、O、−io>で停止する。
つぎの(7)のRECV命令で視覚の認識データを受け
とり、(8)のVTRACH命令で視覚の教示処理を実
行して、(9)のENDで終了する。ここでのロボット
動作は実際の作業時(プレイバック時)の動作の一部と
同等である。
第3図は第1図の教示および制御処理を行なう制御装置
のブロック図である。第3図において。
5はロボット制御装置で、この例ではマルチCPU構成
となっている。このうちCP U 3 (18)はシリ
アル通信制御専用である。6は画像処理装置(視りであ
る。ロボット言語で記述したプログラム(シーケンスプ
ログラム)はオペレーションパネル7より入力して、メ
モリ1(9)に格納される。またロボット2の教示処理
はティーチングボックス8を操作してロボット2を位置
決めしたのち、その位置の教示を指示するとロボット2
のパルスエンコーダ25が示す関節角をロボット制御装
置5のサーボカウンタ14が読み取ってメモリ9に記憶
する。ここでオペレーションパネルフ上のキー人力によ
ってロボット言語プログラムの起動が行なわれ、ロボッ
ト制御表[5のCP U 1 (10)はメモリ9より
該当プログラムを一命令ずつ順次に読み出して解釈し、
各命令ごとに用意された処理プログラムを実行する。こ
のうち動作命令はパラメータの位置データをメモリ9よ
り読み出したのち、いったんメモリ2 (11)に格納
してCPU2(12)が順次に実行する。その処理は教
示点(位置データ)間の動作経路を指定された補間方法
によって演算し、その演算した経路データ゛に所定のサ
ンプリング時間(例えば10+m5ec)ごとに追従し
てロボット2を制御する。その制御指令値はサーボアン
プ15およびパワーアンプ16を介してロボット2のサ
ーボモータ26を制御する。このさいCPU12は動作
経路上の撮像位置(撮像目標点)Pvにロボット2が達
した時(第4図のTVカメラ1の位Wt)に、画像処理
装置(視覚)302に対して撮像開始指令をパラレルI
10インタフェース14゜20を介して送信する。画像
処理装置6はこの指令信号を受けると、そのカメラ制御
部21がTVカメラ(視覚)1を制御して、TVカメラ
1が撮像した画像データを画像メモリ22に入力し、こ
れをCPU24が読み出して認識処理を行ない、認識結
果をシリアルインタフェース23.19を介してロボッ
ト制御装置5へ送る。この画像処理装置6から送られて
きた認識データを通信制御専用のCPU18が受信して
メモリ3 (17)に格納する。つぎにロボット制御装
置5はこの認識データを使用して、視覚の教示処理を行
なう場合と、ロボットを作業対象に位置決めして作業を
行なう場合がある。ここでは本発明の教示方法に関する
教示処理を次に説明する。
ロボット制御装置5のCPU12は第2図(a)の視覚
教示用のプログラムを実行すると、ロボット2は第2図
(b)の実線で示した点P1を通る経路上を動き、撮像
位置Pv上を通過した時点で撮像開始指令を送る。この
撮像開始指令を送った直後にCPU12はサーボカウン
タ14に各関節のパルスエンコーダ25のパルスをカウ
ントしてレジスタにラッチしておく指令を発行する。こ
のエンコーダパルス数は撮像指令を発行した時のロボッ
ト2の各関節の関節角変位を表わし、これらの関節角変
位をもとに幾何演算を行なえば、撮像指令を発行した時
のロボット2の手先の位置すなわちTVカメラ(視覚)
1の位置を求めることができる。CPU12は上記エン
コーダパルスのラッチを指令したのち1通常のサーボモ
ータ26の制御を行ない、その後にサーボカウンタ14
のレジスタよりラッチしたエンコーダパルス数を読み出
してメモリ11に記録しておく。ついでCPU12はロ
ボット2の動作終了後にRECV命令(第2図(a)の
(7))によって視覚の教示処理を実行する。この処理
はCPU18が視覚の認識データを受けて、メモ1月7
に格納した後に実行される。メモリ11のエンコーダパ
ルス数より撮像した瞬間のTVカメラ1すなわち視野の
位置を求める。この位置をロボット座標系ベクトルV、
(第6図)で表わす。なお第6図は水平面内の位置関係
を示す、ここではTVカメラ1で鉛直方向に撮像してい
る例を示している。ついでメモリ17に格納された視覚
の認識データを読み出して視野内の位置を表わすベクト
ルV、をロボおよび視野の傾きθ、をメモリ9に記憶し
て視覚の教示処理を終了する。なおこの処理において視
覚で認識した位置3(第6図)は基準の作業位置Pw□
である。
つぎに上記の教示処理をしたのちロボット2で作業をす
る場合は、作業シーケンスを記述したロボット言語プロ
グラム(すでに登録されている)を起動する。ロボット
2は動作中に撮像位置PV上を通過し、ロボット制御装
置5は同様に撮像指令を画像処理装置(視覚)6へ送る
。画像処理装置6はTVカメラ(視覚)1で撮像して作
業位置を認識処理し、その認識データをロボット制御装
置5へ送信する。このときの作業位置Pw、は基準の作
業位置Pw1と誤差がある。ロボット制御装置5のCP
U12はロボット2の動作の制御を行なうのと並行して
、撮像指令の送信後にCPU1gが画像処理装置6の認
識データを受信してメモリ17へ格納するのを監視する
。そしてメモ1J17へ格納後に直ちに読み出して、メ
モリ11に格納しであるエンコーダパルス数とともに、
撮像した瞬間の視野の位置ベクトルV、(第6図)およ
び現在の作業対象物4の位置ベクトルv6(第6図)を
演算する。現在の作業位置pwtは基準の作業位置PV
iを基準にして相対変位量ベクトル■。で表わされ。
る(第6図)。これよりCPU12は教示処理で記憶し
たV、、V、をメモリ9より読み出してベクトル■。を
演算し、ロボット2のハンドを現在の作業位置Pwtへ
位置決めして、その後に作業を行なう。
以上に説明したように本発明による手先視覚付きロボッ
ト・自動機械の教示方法は、従来の手動によるロボット
の位置決め後に停止位置を登録し。
視覚の教示もその停止位置で認識して記録するという方
法ではなく、作業時(プレイバック時)と同じ動作(た
だし撮像位置前後の動作だけでよい)を行なって、同条
件で撮像・認識を行なったデータをもとにして教示を行
なう点を特徴としている。
本発明による教示方法を実施する理由は、上記したよう
に動作中に撮像・認識する方法を採用すると撮像した瞬
間の絶対位置を正確に求めることができず、すなわち撮
像した瞬間の各関節の変位を記録して該変位をもとにT
Vカメラの位置(視野の位置)を演算すると動作速度お
よび動作方向に依存した誤差を生じ、この誤差の原因は
ロボットの機構誤差や変位の測定系の誤差や特性などに
起因することになるが不明の点も多いため、そこでこれ
らの誤差が同条件速度および経路でロボットを動かした
時の同一点においては同様に再現すると仮定し、実際に
測定した結果も誤差の再現性が存在することが判明した
ことによるもので、そのため本発明による教示処理にお
いても同条件の動作中に基準の作業位置を認識しておき
、そして認識した作業位置と基準の作業位置との相対変
位を求めることにより、動作に起因する固有の誤差を相
殺することが可能となって位置決め精度が向上でき、ロ
ボットまたは一般の自動機械に適用できる。
[発明の効果] 本発明によれば、手先視覚付きロボット・自動機械の動
作中に撮像して認識を行なったデータに従って作業対象
物に位置決めする処理において発生する動作に起因した
誤差成分を低減させて精度のよい位置決めを実現でき、
ロボットの位置決め精度の測定実験を行なった結果から
本動作を行なって教示する方法によって従来の静止教示
方法に比べて位置決め精度を例えば倍以上に向上できる
見通しを得ている。
【図面の簡単な説明】 第1図は本発明による手先視覚付きロボット・自動機械
の教示および制御方法の一実施例を示す手先視覚付きロ
ボットの教示処理フローチャート、第2図(a)、 (
b)は第1図の視覚の教示処理プログラム例および動作
経路の説明図、第3図は第1図の教示および制御処理を
行なう制御装置のブロック図、第4図は手先視覚付きロ
ボットの動作中に撮像・認識して位置決めする処理方法
の概要説明図、第5図は従来の手先視覚付きロボットの
位置決め方法の第1例を示す説明図、第6図は従来の手
先視覚付きロボットの位置決め方法の第2例を示す説明
図である。 101・・・作業シーケンス命令登録(ロボット言語プ
ログラム) 、 102・・・動作経路の主要な位置の
登録、103・・・基準の作業位置pwtの登録、10
4・・・作業対象の撮像位置Pvの登録、105・・・
撮像位置PVを通過して基準作業位置Pw1へ至るロボ
ット動作の実行、106・・・撮像位置pv通過時の基
準の作業位置Pv1の撮像・認識、107・・・基準の
作業位置PVtの認識結果の登録(視覚の教示)、1・
・・TVカメラ(視覚)、2・・・ロボット、3・・・
基準の作業対象物。 4・・・実際の作業対象物、5・・・ロボット制御装置
、6・・・画像処理装置(視覚)、7・・・オペレージ
3ンパネル、8・・・ティーチングボックス、 PV・
・・撮像位置、P’itt・・・基準の作業位置、 p
w*・・・実際の作業位置。 第11M 代理人 弁理士  秋 本 正 実 第 2 面 TEACH−−−−−(1) L Pl            −−−−(3)T、
 Pv             −−−−(4)T、
 P2           −−−−(5)工、Pユ
+<o、o、−10>、5=200 −−−(6)−−
−・(8) PROGRAM PEED OVE OV E OVE OVE ECV TEACH ND 第 図 すR 第 図 R

Claims (1)

  1. 【特許請求の範囲】 1、手先視覚を持つロボットあるいは自動機械のプログ
    ラムで制御されるロボット・自動機械において、作業領
    域内に置かれた作業対象物の位置・姿勢を視覚で撮像し
    認識して、該認識データに従ってハンドあるいは作業工
    具を位置合わせする制御を行なう場合において、前準備
    段階として、ロボット・自動機械の動作シーケンスをロ
    ボット言語などのプログラムで登録する作業、および動
    作経路上の主要な位置を教示する作業、および基準位置
    に置いてある基準の作業対象物にロボット・自動機械の
    ハンドあるいは作業工具を手動で位置合わせして、該位
    置を基準の作業位置として登録する作業などの準備操作
    をした後、視覚の教示として、撮像を行なう撮像目標位
    置を手動で位置決めして登録してから、ロボット・自動
    機械を通常のプレイバック使用時と同条件で撮像目標位
    置前後の動作を再現して、該動作中に撮像目標位置を通
    過時に手先視覚で撮像して、該基準の作業対象物の位置
    ・姿勢を認識して該基準の認識結果および基準の視覚位
    置のデータの登録を行なうことを特徴とする手先視覚付
    きロボット・自動機械の教示方法。 2、請求項1記載の手先視覚付きロボット・自動機械の
    教示処理を実行した後、ロボットあるいは自動機械をプ
    レイバック動作させて作業を行なう場合において、作業
    領域内に供給された現在の作業対象物を手先視覚で動作
    中に撮像して認識を行ない、該認識結果および視覚位置
    のデータと上記基準の認識結果および基準の視覚位置の
    データとの相対変位量を求めることにより、現在の作業
    対象物の基準の作業対象物からの相対変位量を求めて、
    現在の作業対象物にロボット・自動機械のハンドあるい
    は作業工具を位置決め補正する制御を行なうことを特徴
    とする手先視覚付きロボット・自動機械の制御方法。
JP15694888A 1988-06-27 1988-06-27 手先視覚付きロボット・自動機械の教示および制御方法 Expired - Lifetime JPH07122823B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15694888A JPH07122823B2 (ja) 1988-06-27 1988-06-27 手先視覚付きロボット・自動機械の教示および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15694888A JPH07122823B2 (ja) 1988-06-27 1988-06-27 手先視覚付きロボット・自動機械の教示および制御方法

Publications (2)

Publication Number Publication Date
JPH027108A true JPH027108A (ja) 1990-01-11
JPH07122823B2 JPH07122823B2 (ja) 1995-12-25

Family

ID=15638840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15694888A Expired - Lifetime JPH07122823B2 (ja) 1988-06-27 1988-06-27 手先視覚付きロボット・自動機械の教示および制御方法

Country Status (1)

Country Link
JP (1) JPH07122823B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260271A (ja) * 2005-03-17 2006-09-28 Fanuc Ltd オフライン教示装置
JP2007061940A (ja) * 2005-08-30 2007-03-15 Toyota Motor Corp ロボットおよびロボットの情報表示方法
CN114435827A (zh) * 2021-12-24 2022-05-06 北京无线电测量研究所 一种智慧仓储系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260271A (ja) * 2005-03-17 2006-09-28 Fanuc Ltd オフライン教示装置
JP2007061940A (ja) * 2005-08-30 2007-03-15 Toyota Motor Corp ロボットおよびロボットの情報表示方法
CN114435827A (zh) * 2021-12-24 2022-05-06 北京无线电测量研究所 一种智慧仓储系统

Also Published As

Publication number Publication date
JPH07122823B2 (ja) 1995-12-25

Similar Documents

Publication Publication Date Title
US5727132A (en) Robot controlling method for tracking a moving object using a visual sensor
JP4167940B2 (ja) ロボットシステム
JP4265088B2 (ja) ロボット装置及びその制御方法
JP3665353B2 (ja) ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
US8744625B2 (en) Robot controlling device
US4969108A (en) Vision seam tracking method and apparatus for a manipulator
US20110218675A1 (en) Robot system comprising visual sensor
JP6538751B2 (ja) プログラミング装置及びロボット制御方法
JP2007011978A (ja) ロボットの運動制御装置
JP3412465B2 (ja) 移動ロボット装置
JPH11156764A (ja) 移動ロボット装置
US20100017032A1 (en) Device for controlling a robot
JP2779072B2 (ja) ロボットの教示方法
JPH027108A (ja) 手先視覚付きロボット・自動機械の教示および制御方法
JPH0746288B2 (ja) 手先視覚を持つロボットの制御方法とその装置
JPH09222913A (ja) ロボットの教示位置補正装置
JP5324397B2 (ja) 情報処理方法及び装置並びにプログラム
JP3175623B2 (ja) ロボットの制御装置
JP3562096B2 (ja) 位置検出方法
JPH0876829A (ja) 連続作業経路のロボットへの教示方法
JP2023182423A (ja) 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム
US20230381969A1 (en) Calibration Method And Robot System
JPH07205068A (ja) ロボットの座標系設定方法
JPH0866881A (ja) ロボット制御装置
JP2022162340A (ja) ピッキング装置