JPH01106107A - 手先視覚を持つロボットの制御方法とその装置 - Google Patents

手先視覚を持つロボットの制御方法とその装置

Info

Publication number
JPH01106107A
JPH01106107A JP26183087A JP26183087A JPH01106107A JP H01106107 A JPH01106107 A JP H01106107A JP 26183087 A JP26183087 A JP 26183087A JP 26183087 A JP26183087 A JP 26183087A JP H01106107 A JPH01106107 A JP H01106107A
Authority
JP
Japan
Prior art keywords
robot
route
target
point
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP26183087A
Other languages
English (en)
Other versions
JPH0746288B2 (ja
Inventor
Akira Miyagawa
晃 宮川
Hiroo Furuichi
浩朗 古市
Michinaga Kono
河野 通長
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP26183087A priority Critical patent/JPH0746288B2/ja
Publication of JPH01106107A publication Critical patent/JPH01106107A/ja
Publication of JPH0746288B2 publication Critical patent/JPH0746288B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は手先カメラ等の手先視覚を有するロボットや自
動機械(以下ロボットという)の制御装置に係り、特に
、ロボットを動かしたときの実際経路を目標経路に近づ
けるのに好適な制御装置に関する。
〔従来の技術〕
TVカメラ等を手先に取り付けた手先視覚付ロボットに
おいて、視覚装置により作業対象の実際経路位置を測定
し目標経路に対する補正を行なう場合、従来の制御装置
では、特開昭60−249583号公報に記載されてい
るように、視覚装置の視野内に認識対象が入る位置でロ
ボットを一旦停止させ、該認識対象を撮像して得た画像
を画像処理装置で処理しロボットの位置を認識した後に
、ロボットに位置補正値を与えてロボットハンドの位置
決めを行なっている。
〔発明が解決しようとする問題点〕
上記従来技術は、作業対象を視覚装置で見る(撮像およ
び認識)ためにロボット動作中に停止動作が入るので、
全体の作業速度が低いという問題がある。撮像目標位置
は、操作者が予めロボットをマニュアル操作しながら、
視齋内に対象物が見える位置を確かめ、さらに通過経路
、最適な認識条件が得られる位置を考慮して決定し、教
示しなければならない。従来のロボットの経路の演算方
法は、教示により与えられた2点間を指定速度に対応す
るようサンプリングタイムごとに補間し、経路上の中間
点を定めている。ここで演算した経路がロボットの目標
経路である。この補間方法は種々あるが、例えば直線補
間は、教示点の間を第9図(alのように直線で結ぶ方
法である。この直線補間では、始点Sと終点E以外の中
間−点Mは通常折点であり、ロボットハンドの各折点M
における速度はゼロでなければならない。これは、中間
点Mでのロボットハンドの速度が有限であれば、速度の
方向を変える際の加速度が無限大となり制御不可能とな
るからである。このため、直線補間ではこのような中間
点Mでロボットを必ず静止させなければならず、作業時
間を長引かせる原因になっている。そこで、この時間的
ロスを解消するため、第9図(b)に示される様な円弧
補間や第9図(C1に示される様な放物線補間が案出さ
れている。円弧補間は、折線箇所を円弧でつないで制御
するものであり、放物線補間は放物線でつなぐものであ
る。この様な曲線で折線箇所をつなぐことで、ロボット
ハンドの静止動作を省き、連続動作が可能なようにして
いる。しかし、この円弧補間、放物線補間は、動作経路
が折点Mを通らないという欠点を有する。
また、ロボットの実際の動作制御は、前もって演算した
サンプリングタイムごとの目標位置(目標経路上の位置
)または目標速度に到達する様にサーボモータを制御す
るが、追従制御であることから通常、目標経路と実際経
路との間には経路誤差が生じる。第1O図は、動作速度
1500+es八ecで動作する4軸ロボツトで実測し
た目標経路(実線)と実際経路(点線)である。実際経
路上の×印及び直線補間で演算された目標経路上のO印
は、夫々40m5ecのサンプリングタイム毎の実際位
置及びそれに対する目標点(数字をもって順番を示す)
を示す。第10図に示されるように、実際経路は目標経
路に対してずれ(誤差)が生じている。
ロボットの制御は、目標経路の目標点を基準として実行
されるので、そのままでは、目標と実際の誤差分だけ視
覚装置との同期位置にずれを生じることになる。
以上の目標経路と実際経路の誤差は、目標経路を補間す
る補間方式、サーボモータを制御する上での操作量の決
定方式、制御動作の選択、パラメータ調整、制御関数の
演算方式などの相違により、また、ロボット個々の機構
誤差、および、ロボット起動時と一定時間動作後の特性
差異などにより種々の影響を受ける0以上の誤差を、ソ
フトウェア上で、実時間で補償する方法は、考慮すべき
要因の多さ、及びプロセッサの性能などから判断して現
状では実現困難である。
本発明の目的は、ロボット動作中に停止動作が入ること
なく、しかも、実際経路が目標経路に対して精度良く一
致する手先視覚を持つロボットの制御装置を提供するこ
とにある。
〔問題点を解決するための手段〕 上記目的は、手先視覚を持つプログラムで制御されるロ
ボットにおいて、使用状態と同じ条件で動かした時のロ
ボットの制御上の目標経路と実際経路のサンプリングタ
イム毎の位置データを記憶する手段と、記憶してある経
路データを動作後に読み出して所定の教示目標点である
手先視覚の撮像位置の目標点と実際経路間の距離誤差を
測定する手段と、測定した誤差を修正し実際経路をして
前記所定の目標点上を通過させるに必要な補正量を演算
しこの補正量を記憶する手段と、補正後の実際経路が前
記目標点上を通過する時点での対応する目標経路上の位
置即ちロボットを制御する時間の基準となるサンプリン
グ点からの時間誤差を演算して記憶する手段と、ロボッ
トの使用時に記憶してある補正量を読み出して目標経路
を補正し実際経路を該補正後の目標点上を通過させる手
段と、該目標点をロボットの手先視覚が通過した時点で
画像処理装置に対して撮像開始命令を発行する処理を記
憶してある前記時間誤差データに従って目標経路上の指
定時期に実行する手段とから成る制御装置を設けること
で、達成される。
〔作用〕
同一条件の下でロボットを動かした時の実際の経路を分
析した結果、実際経路の再現性が高いことが判明してい
る。そこで、本発明では、ロボットを実際に動かした時
の実際経路と目標経路との誤差を求め、該誤差に基づい
て目標経路を補正し、補正後の目標経路をロボットが追
従したときの実際経路が目標点上を通過するようにする
。このため、ロボットの動作モードに付加した学習モー
ドで、通常の作業時と同じ条件でロボットを動かした時
のロボットの目標経路と実際経路を解析し、ロボットの
実際経路が、視覚撮像目標点上を通過する様に目標経路
を補正する補正量を演算し、記憶する。さらに、補正後
の実際経路を解析して、ロボット(手先に付けた視覚装
置)が撮像目標点上を通過した瞬間に、ロボット制御装
置から画像処理装置に撮像開始命令を送信する時点を目
標経路上に決め、その時刻のデータをメモリに記憶する
。以上の学習処理を実行して記憶したデータを、通常の
ティーチングプレイバック動作時に読み出して、目的と
するロボット制御を実現する。
〔実施例〕
以下、本発明の一実施例を図面を参照して説明する。
第1図は、本発明の一実施例を適用したロボットの経路
補正原理の一例を説明するものである。
第1図(a)において、点Pi、P2.P3はいずれも
教示点であり、前もってティーチング処理で教える。ロ
ボットを点P1から点P2を経由して点P3へ動かす。
ここで、点P2は撮像目標点として指定してあり、ロボ
ットが点P2に達した時に撮像して認識する。さらに、
点P2でロボットは停止せず、連続した速度を維持する
。ロボットの経路の補間方法は種々考えられるが、実現
容易な方法として、PL−R2間を直線で補間し、R2
−R3間を直線で補間し、さらに点P2の近傍で円滑に
補間する方法が考えられる。本発明ではこの補間法は特
定しない。経路補間処理で、点P1゜R2,R3を入力
して演算すると、第1図(a)に実線で示す目標経路R
1が求まる。この目標経路に追従させてロボットを動作
させると、その実際経路は、破線で示したR2(多少誇
張している)となる。次に、補正処理を加える。後述す
る学習処理で補正データが求められて格納されていると
すると、この補正データにより、点P2をシフトした点
P2’を前処理で求め、点Pi、P2’、P3を使用し
前述と同様にして目標経路を演算する。
この目標経路を第1図山)のR3とすると、それに追従
して動かした後の実際経路R4は、補正データが適正で
あるならば、点R2上を通過することになる。
第2図は、ロボット制御ソフトウェアの中に組込んだ学
習モード処理の位置付けを説明する図である。オペレー
ションパネルより入力されたロボット用動作プログラム
(ロボット言語で記述)を、トランスレータを介して、
計算機処理の容易な中間言語と各種テーブルに変換する
。ついでティーチングボックスを用いて、“目的位置に
誘導してその位置情報を入力し、位置情報テーブルに格
納する。そして、この動作シーケンスデータ(中間言語
)と位置情報をもとに、ロボット動作を実行する。本シ
ステムの実行方式はインクブリタ方式であり、インタプ
リタは、動作シーケンスを示す中間コード(中間言語)
を順次読み出し、そのコード別にあらかじめ作られた処
理プログラムへの分岐を行なう。以上までは従来の機能
と同じである。
本実施例では、学習命令においても同様にインタプリタ
を起動゛してロボットの動作を行なう。ただし、その動
作は撮像目標点前後の一連の動作だけを実行すればよい
。学習モー′ドにおいては以下の処理を行なう。サンプ
リングタイムごとの目標点に追従させてサーボモータの
操作量を演算するサーボ処理において、ロボットの目標
経路と実際経路のデータ(ロボットの目標位置と現在位
置のデータ)を経路情報テーブルに記憶する。そして、
動作終了時に、経路解析ルーチンがこれらの経路データ
を読み出し、実際経路と撮像目標点間のずれ量を計算し
て、実際経路が撮像目標点上を通る様に目標経路を補正
する補正データを算出して補正情報テーブルに登録する
。学習モードの処理は、ティーチングプレイバック処理
をする前に、1回または必要に応じて複数回実行する。
すなわち、1回実行するごとに補正データを演算して登
録する。次にその効果を確かめるため再度実行し、その
効果(実際経路と撮像目標点のずれ量)をオペレーショ
ンパネル上のモニタで確認する。補正デ゛−タは毎回更
新され改善がなされる。なお、前回のずれ量と今回のず
れ量を比較し、改善されていなければ、処理を終了する
。学習処理を実行後、実行命令によってインタプリタを
起動すると、経路補間処理では、補正情報を読み出して
、このデータに従って目標経路を演算する。
上記の学習処理では、実際経路と、撮像目標点間のずれ
量(距離)を測定し、このずれの範囲内で実際経路が目
標点上を通過するようにしている。
そして、この通過時のデータ、すなわち、いずれかのサ
ンプリングタイム時点を基準として、そこからの誤差時
間を、同様に、補正情報テーブルに登録する。このデー
タは、ティーチングプレイバック実行時に同様に読み出
され、目標経路上の対応する時期において、ロボットの
制御処理手段は、画像処理装置に撮像開始命令を送信す
る。
第3図は、本発明の一実施例を適用したロボットの手先
部分の外観図である。このロボットは、ロボットハンド
1の手先にTVカメラ”2を付けて作業対象5を認識す
る。この例ではコネクタ4をボード3上のハウジング5
に挿入する例であるが、ボード3の位置決め精度が悪い
ために、視覚装置(TVカメラ2)の認識データに従っ
てロボットの組付は動作経路誤差dだけ補正する処理を
必要とする。この際、TVカメラ2はハンド1に対して
オフセットtを持っているため、ロボットのハンド1に
先行して作業対象5の上に位置決めされるので、動作中
にハウジング5の撮像・認識を行ない、ロボットが組付
は降下動作に入った途中で、視覚装置(TVカメラ2)
の認識データに従って目標経路を補正して、正しくコネ
クタ4がハウジング5に組付けられるようにする。
第4図は、本発明の一実施例に係る制御装置のブロック
構成図である。第4図において、401はロボット制御
装置、402は画像処理装置を表わす。
第1 CP U2O5は制御装置の入出力、命令の読み
出し、解釈、および1部実行など全体の制御を受持つと
共に、オペレーティングパネル404からの入力、およ
びシステムの出力をオペレーティングパネル404上の
CRTに出力する処理等を管理する。オペレーティング
パネル404からの起動指令に従って、ロボット言語で
記述したシーケンスプログラムが起動されると、第1 
CP U2O5は、第1メモリ405に格納されている
動作シーケンスデータ(シーケンスプログラムが中間言
語に変換されて格納さたもの)を1命令ずつ読み出して
解釈を行ない、インタプリタの実行ルーチンにより前処
理する。この際、前もって教示しておいた位置情報を第
1メモリ405から読み出して、ロボット動作の制御に
使用するため第2 CP U2O5に受は渡たす。第1
 CP U2O5の実行ルーチンでの処理は前処理にと
どまり、実際のロボットの動作制御に関しては、第2 
CP U2O5が受は持つ構成となっている。この様に
、本実施例ではマルチCPUシステムを採用している。
第2 CP U2O5は、第1 CP U2O5が前処
理した命令を共通メモリ407を介して受けとり、イン
タプリタの実行ルーチンにより命令を実行する。例えば
ロボットを動かす動作命令を実行すると、ロボットの経
路演算(補間処理)を行ない、その補間データ(目標経
路データ)を共通メモリ407に格納しておき、それを
所定のサンプリングタイムごとに起動がかかるサーボ処
理によって1つずつ読み出して、目標経路に追従してロ
ボットを制御する動作指令値を演算する。尚、前記イン
タプリタとは、中間言語を読み出して命令の種別を判定
し、各々の命令に対応した実行ルーチンへ分岐する処理
を行なうものである。
前記動作指令値は、サーボアンプ408、パワーアンプ
409を介して、ロボットのサーボモータ410を制御
する。この処理において、目標経路上の撮像開始指令発
行点に達した時、ロボット制御装置401より画像処理
装置402に撮像開始指令をパラレルI10インタフェ
ース411.412を介して送信する(本処理は補正情
報に従って後述のように実行される)。画像処理装置4
02は、この信書を受けると、カメラ制御部413によ
り撮像して画像メモリ414に画像データを入力し、C
P U4!5によって認識処理を行ない、認識結果をシ
リアルインタフェース416.417を介して、ロボッ
ト制御装置401に送る。
CP U 2406における経路補間処理では、ティー
チング(教示)で与えた教示点間を、指定速度に対応す
るようサンプリングタイムごとに補間して中間目標点を
定める。
ここで、始点位置ベクトルをxo、終点位置ベクトルを
x2、指定速度を■、サンプリングタイムをTとすれば
中間目標位置ベクトルX、は、x、=x、−、+vT 
 IXr  x、l  −−−−−−(1)で表わされ
る。直交座標系で与えられているこの中間目標点の位置
データを対偶(各駆動軸)の変位に座標変換する。この
ようにして得られた中間目標点対偶変位を目標点として
各対偶を駆動するアクチュエータを制御する。以上の制
御のブロック線図を第5図に示す。この例では、始点か
ら終点に直接的に移動しているが、この様な補間方法と
しでは、■直線補間、■円弧補間、■放物線補間、その
他がある。尚、第5図において、θ、は中間目標点対偶
変位ベクトル、Uは制御ベクトル、bは対偶速度ベクト
ル、θは対偶変位ベクトルである。
目標経路は、上述した中間目標点により構成されるが、
ロボットの実際経路は目標経路に対して多少誤差が在る
。そこで、後述する学習モード処理によって補正データ
を演算し、補正情報テーブルに格納しておく。通常の使
用時(ティーチングプレイバック時)の経路補間処理で
は、補正情報テーブルに補正データが在ると、以下の処
理を行なう。
撮像目標点も1つの教示点であり、本発明の狙いは、ロ
ボットの実際経路を撮像目標点上を通過させることであ
る。補正データを補正情報テーブルから読み出し、撮像
目標点に補正データを加えた補正教示点を求め、このデ
ータを使用して経路補間処理を実行する。この処理では
、第1図(blでいえば、補正された目標経路R3を演
算する。この目標経路R3に追従させてロボットを動作
させると、実際経路R4は撮像目標点P2上を通過する
。本方式の特徴は、教示点に補正を加えるだけで、経路
の補間方式は従来のままでよいことである。
次に学習モード処理を説明する。オペレーションパネル
404より起動すると、ティーチングプレイバック処理
と同様に動作命令を実行し、目標経路を演算してロボッ
トを追従制御する。ただし、所定のサンプリングタイム
(例えば40m5ec)ごとのロボットの実際経路の位
置データを経路情報テーブルに記録する。位置データは
、各時点における各駆動軸のエンコーダ値(変位)とす
る。動作終了後、経路解析命令を実行して、経路解析処
理を行なう。経路解析処理では、経路情報テーブルより
位置データを読み出し、直交座標系の位置データに変換
して、サンプリング時間ごとの位置を頂点とする折れ線
経路を求める。なお、この折れ線経路は、撮像目標点(
教示点)近傍の範囲内でよい。
次に、撮像目標点から、上記折れ線経路までの最短距離
を求める。これを第6図で説明する。第6図(a)の点
P2は撮像目標点であり、点Pイ、〜Pm1lは、サン
プリング時間ごとのロボットの実際位置(手先の代表点
の位置)を折れ線で結んだ実際経路である。描像目標点
P2の位置は、教示をした時の各駆動軸のエンコーダ値
(変位)と、機構各部の寸法がわかっていれば求まる。
P2の位置を(X2 、  Yz +  Zg )とす
る。同様の演算をして、点P、〜Pffi8の位置は、
(xlllll  )’ 1lll+zm+) 〜(X
11+11.)’l!lll+  Zllm)と求まる
。実際経路は折れ線で近似しているが、撮像目標点P2
と実際経路の誤差は、P2より実際経路への最短距離で
表わされる。まず、線分P1・PmZと点P2との距離
I)+zを求める。
・・・・・・・・・(2) と点P2との距離δは次式で求まる。
+ ((zz−zffil)1−(X2−Ltl)n)
 ”・・・・・・・・・・・・・・・・・・ (3)た
だし 1=x、z−X11m= yaz  )’alln ”
” z at −z 1  とする。    ・・・・
・・・・・・・・(4)さらに、線分の両端点と点P2
との距離δ1.δ2は と求まる。また、線分の長さδ、は、 δ3 =  (X+st xmz) ” +(y□−)
’ex)”+(Zニー2J”  ・・・・・・(7)で
与えられる。点P2.p、、、p、□で3角形となるが
lP2.PI+lI+  P、□=、4A、、4P2.
PII□。
P□=tBを調べる。
上式より角A、Bが求まる。
もし、ZB>−gであれば、D I 2 =δz −(
10)lA >      ”   D+z= 6 +
 −QDD + ! =δ ・・・叩 となる。同様にして他の線分と点P2との距離D23〜
D?aを求める。
撮像目標点P2と実際経路の距離りは、D=Min(D
+□、D23〜D7.)   ・・・・・・・・・・・
・α濁で求まる。また、距離ベクトル百の成分は、第6
図(C)の点pH14+点P□間に垂線の足P、、を求
めると、P、の座標は次の様になる。
x+l =x、+ (xas−Xa4)  ・t ・・
・・・・・・・・・・Q4)yts = ’/ma +
 0’IIs  )’114)  ・t ・・・・・・
・・・・・・αつzD =ZII4+ (Z、s  2
164)  ’ t−7・・””・・・・’CLQただ
し ・・・・・・・・・・・・・・・ 0η距離ベクトル百
の成分(Xa、 ’Ja、 Za )は、xa =Xl
、−X2  ・・・・・・・・・・・・・・・α団ya
=3’p−Yz  ・・・・・・・・・・・・・・・α
ωz、=z、−z、  ・・・・・・・・・・・・・・
・t2のと求まる。
距離ベクトルを求めて、補正値として、−r5(” d
、−)’ d+ −” Z a )を補正情報テーブル
に登録する。ただし、前回に作成した補正ベクトルW(
Xr+3’r、Zr)が補正情報テーブルにすでに登録
されていれば、以下の演算式により、 更新して、補正情報テーブルに登録する。ただし、今回
測定した撮像目標点P2と実際経路の距離りと、前回測
定した距離り、(もし前回測定していればデータが在る
)と比べて、D<D、が成立していれば、前回の補正デ
ータの効果があると判定して、今回の補正データをCO
弐によって加算して更新を行なう。ただし、今回の補正
データの効果は、次回に動かして測定をしてみなければ
わからない。また、DADpとなっていたなら、前回の
補正データの効果が無かったと判定し、前回の補正ベク
トルから、前回の距離ベクトルの更新骨を元に戻して、
補正値を修正する。そして、補正情報の更新はそれ以上
行なわない。また、D=Dpならば、前回の補正値の修
正を行なわずに、補正情報の更新を終了する。以上が、
学習処理における距離の誤差の補正である。
次に時間の誤差の補正を説明する。
第7図(a)に、補正情報によって補正した後の実際経
路(実線)を示す。前述と同様に点P2より誤差を測定
し、距離ベクトルの足をP、とする。
点P T%4とP+++sの時間間隔は1サンプリング
時間Tである。点P、が線分p 、+  p m、を内
分する比率をa:b (第7図Q)))とする。
よって、ロボットは、点Pm4を通過後、時間a・T後
に、百の誤差を持って撮像目標点P2を通過することが
わかる。
ロボットは、第7図(alの破線で示した目標経路に追
従して制御される。ロボットの現在位置が点P、にある
時、点P、4′が制御の目標に対応し、P14′の位置
データをメモリから読み出して制御を開始した時に対応
する。ロボットの制御は、目標経路を基準としているた
め、時間の補正データaTを使用して、点P14′のデ
ータを処理した時点よりaT後に、撮像開始指令を発行
する。学習処理では、目標経路上の点P14′を識別す
るための符号と、遅れ時間aTを記録する。
学習処理は、1回の実行により、1回の動作と、動作後
の経路の解析を行ない、補正データの登録を行なう。本
処理は、1回の実行にとどまらず、複数回実行して、補
正データを更新することを狙いとしている。特に、撮像
目標点と実際経路間の誤差を測定して、その補正データ
を演算して登録をしたとすると、その効果を確かめるた
めには、再度、学習処理を実行する必要がある。また、
時間の誤差の補正は、前回の効果を確かめた際の補正値
を登録することになる。従って、学習処理は距離の誤差
の補正が収束するまでくり返すのが良い。
以上詳細に述べた学習処理を流れ図で表わしたのが第8
図である。この第8図に示される学習処理を実行する場
合のハードの動作を第4図で説明する。
オペレーションパネル404の起動スイッチにより起動
すると、ティーチングプレイバック時と同様に、第1 
CP U2O5は、第1メモリ405に格納されている
シーケンスプログラムを読み出して、解釈・実行する。
第2 CP U2O5は動作命令を実行する際に、サン
プリングタイムごとに現在位置データを共通メモリ40
7に格納する。動作終了後、第2 CP U2O5の経
路解析処理では、共通メモリ407上の経路データを読
み出して誤差を測定し、補正データを、第1メモリ40
5の補正情報テーブルに書込む(メモリ1は不揮発メモ
リである。)。
また、同時に、距離ベクトル、距離を共通メモリ407
に記録しておき、次回の学習処理時に使用する。以上の
学習処理で求めた結果(距離、前回の結果との比較判定
)を第1 CP U2O5がオペレーションパネルに表
示して知らせる。
〔発明の効果〕
本発明によれば、ロボットの手先視覚が所定の 。
撮像目標点上を実際に通過し、また通過時の速度が滑ら
か且つ連続的となり、手先視覚が撮像目標点上を通過し
た瞬間に制御装置から画像処理装置に撮像開始命令を送
信し且つ同時にその位置を後処理で知るためロボットの
エンコーダ値を記憶することができる。
【図面の簡単な説明】
第1図(al、 (b)は本発明の一実施例に係る経路
補正原理説明図、第2図はロボット制御ソフトウェアの
中の学習モード処理の位置付は説明図、第3図はロボッ
トハンドの手先の一外観図、第4図は本発明の一実施例
に係る制御装置の構成図、第5図は制御ブロック線図、
第6図(al、 (b)、 (C)は実際経路と撮像目
標点の誤差を測定する方法を説明する図、第7図(a)
、 (b)は時間誤差を測定する方法を説明する図、第
8図は学習処理の概略手順を示すフローチャート、第9
図(at、 (b)、 (c)は夫々直線補間、円弧補
間、放物線補間の説明図、第10図は4軸ロボツトの目
標経路に対する実際経路のずれ(誤差)を示す図である
。 1・・・ロボットハンド、2・・・TVカメラ、401
・・・制御装置、402・・・画像処理装置、403・
・・第1CPU、405・・・第1メモリ、406・・
・第2CPU、407・・・共通メモリ、t・・・オフ
セット、d・・・ずれ(誤差)。 代理人 弁理士  秋 本 正 実 第1図 第2図 第3図 第5図 第6図 (F5) (b)      (C) 第7図 (a) P2’ m8 (b) 第9図 (a) (b)       (C) 藺 第1o図

Claims (1)

  1. 【特許請求の範囲】 1、手先視覚を持つプログラムで制御されるロボットに
    おいて、使用状態と同じ条件で動かした時のロボットの
    制御上の目標経路と実際経路のサンプリングタイム毎の
    位置データを記憶する手段と、記憶してある経路データ
    を動作後に読み出して所定の教示目標点である手先視覚
    の撮像位置の目標点と実際経路間の距離誤差を測定する
    手段と、測定した誤差を修正し実際経路をして前記所定
    の目標点上を通過させるに必要な補正量を演算しこの補
    正量を記憶する手段と、補正後の実際経路が前記目標点
    上を通過する時点での対応する目標経路上の位置即ちロ
    ボットを制御する時間の基準となるサンプリング点から
    の時間誤差を演算して記憶する手段と、ロボットの使用
    時に記憶してある補正量を読み出して目標経路を補正し
    実際経路を該補正後の目標点上を通過させる手段と、該
    目標点をロボットの手先視覚が通過した時点で画像処理
    装置に対して撮像開始命令を発行する処理を記憶してあ
    る前記時間誤差データに従って目標経路上の指定時期に
    実行する手段とを備えてなることを特徴とする手先視覚
    を持つロボットの制御装置。 2、動作中に経路を記憶し動作終了後に読み出して解析
    を行ない経路の誤差及び時間誤差を測定して補正データ
    を演算する前記処理は、通常のティーチングプレイバッ
    クモードとは異なる他の学習モードを分離して実行する
    ことを特徴とする特許請求の範囲第1項記載の手先視覚
    を持つロボットの制御装置。
JP26183087A 1987-10-19 1987-10-19 手先視覚を持つロボットの制御方法とその装置 Expired - Lifetime JPH0746288B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26183087A JPH0746288B2 (ja) 1987-10-19 1987-10-19 手先視覚を持つロボットの制御方法とその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26183087A JPH0746288B2 (ja) 1987-10-19 1987-10-19 手先視覚を持つロボットの制御方法とその装置

Publications (2)

Publication Number Publication Date
JPH01106107A true JPH01106107A (ja) 1989-04-24
JPH0746288B2 JPH0746288B2 (ja) 1995-05-17

Family

ID=17367327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26183087A Expired - Lifetime JPH0746288B2 (ja) 1987-10-19 1987-10-19 手先視覚を持つロボットの制御方法とその装置

Country Status (1)

Country Link
JP (1) JPH0746288B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994027199A1 (en) * 1993-05-12 1994-11-24 Tetsuya Kosaka Method and apparatus for controlling robot having sensor
JP2011062793A (ja) * 2009-09-18 2011-03-31 Denso Wave Inc ロボットの制御装置
JP2012096307A (ja) * 2010-10-29 2012-05-24 Yaskawa Electric Corp ロボット制御装置、ロボット制御方法およびロボットシステム
JP2015030086A (ja) * 2013-08-07 2015-02-16 キヤノン株式会社 ロボット制御方法、ロボットシステム、プログラム及び記録媒体
US9715225B2 (en) 2013-12-24 2017-07-25 Fanuc Corporation Numerical controller for smoothing tool path in operation based on table format data
JP2019136841A (ja) * 2018-02-14 2019-08-22 ファナック株式会社 加工結果に基づいた学習制御を行うロボットシステム及びその制御方法
WO2022176762A1 (ja) * 2021-02-18 2022-08-25 三菱電機株式会社 制御装置、ロボットシステム、学習装置、制御方法、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5912627B2 (ja) * 2012-02-14 2016-04-27 川崎重工業株式会社 撮像検査装置ならびにその制御装置および制御方法
JP5672322B2 (ja) * 2013-03-14 2015-02-18 株式会社安川電機 ロボット装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994027199A1 (en) * 1993-05-12 1994-11-24 Tetsuya Kosaka Method and apparatus for controlling robot having sensor
JP2011062793A (ja) * 2009-09-18 2011-03-31 Denso Wave Inc ロボットの制御装置
JP2012096307A (ja) * 2010-10-29 2012-05-24 Yaskawa Electric Corp ロボット制御装置、ロボット制御方法およびロボットシステム
JP2015030086A (ja) * 2013-08-07 2015-02-16 キヤノン株式会社 ロボット制御方法、ロボットシステム、プログラム及び記録媒体
US9715225B2 (en) 2013-12-24 2017-07-25 Fanuc Corporation Numerical controller for smoothing tool path in operation based on table format data
JP2019136841A (ja) * 2018-02-14 2019-08-22 ファナック株式会社 加工結果に基づいた学習制御を行うロボットシステム及びその制御方法
US11117257B2 (en) 2018-02-14 2021-09-14 Fanuc Corporation Robot system for performing learning control based on machining results and control method therefor
WO2022176762A1 (ja) * 2021-02-18 2022-08-25 三菱電機株式会社 制御装置、ロボットシステム、学習装置、制御方法、およびプログラム

Also Published As

Publication number Publication date
JPH0746288B2 (ja) 1995-05-17

Similar Documents

Publication Publication Date Title
JP5743495B2 (ja) ロボット制御装置
JP4002250B2 (ja) ロボットシステム及びその制御方法
JP3644991B2 (ja) ロボット−センサシステムにおける座標系結合方法
US4683543A (en) Time-based interpolation control of a robot
JPH01106107A (ja) 手先視覚を持つロボットの制御方法とその装置
KR20020067893A (ko) 로봇
JPH05345291A (ja) ロボットの動作範囲制限方式
EP1671759B1 (en) Robot controller and robot control method
JP3208467B2 (ja) ロボットの制御装置
JPH08257955A (ja) マニピュレーターの曲面なぞり制御方法
CN114728411B (zh) 控制装置、机器人系统和控制方法
JPH01147608A (ja) 位置決め誤差補正方式
JPS5828024B2 (ja) 倣い方法及び装置
US11628567B2 (en) Obstacle search device of robot system
JPH07205068A (ja) ロボットの座標系設定方法
JPH0991022A (ja) ロボット制御装置
JPH09196622A (ja) 位置検出方法
JPH07122823B2 (ja) 手先視覚付きロボット・自動機械の教示および制御方法
JP2576176B2 (ja) ロボットの制御方法
JPS60200313A (ja) ロボツト座標補正装置
JP2024033790A (ja) 制御方法およびロボットシステム
JPS60146301A (ja) ロボツト位置補正方法
JPS5826562B2 (ja) ロボットの軌跡制御方法
JP2024027267A (ja) 制御方法およびロボットシステム
JPS59142617A (ja) ロボツトの制御装置