JP3002097B2 - ビジュアルトラッキング方法 - Google Patents

ビジュアルトラッキング方法

Info

Publication number
JP3002097B2
JP3002097B2 JP6222693A JP22269394A JP3002097B2 JP 3002097 B2 JP3002097 B2 JP 3002097B2 JP 6222693 A JP6222693 A JP 6222693A JP 22269394 A JP22269394 A JP 22269394A JP 3002097 B2 JP3002097 B2 JP 3002097B2
Authority
JP
Japan
Prior art keywords
robot
tracking
work
sensor
arrival
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6222693A
Other languages
English (en)
Other versions
JPH0863214A (ja
Inventor
太郎 有松
隆 十文字
和久 大塚
裕昭 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP6222693A priority Critical patent/JP3002097B2/ja
Priority to US08/518,713 priority patent/US5727132A/en
Publication of JPH0863214A publication Critical patent/JPH0863214A/ja
Application granted granted Critical
Publication of JP3002097B2 publication Critical patent/JP3002097B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本願発明は、ベルトコンベア等の
搬送手段によって移動中の対象物(例えば、組立部品)
に対するロボット作業を遂行する為にロボットに該対象
物に対するトラッキングを伴う動作をさせる技術に関
し、更に詳しくは、視覚センサを利用して、前記移動中
の対象物の位置ずれを補正したトラッキング動作をロボ
ットに行なわせる為のビジュアルトラッキング方法に関
する。
【0002】
【従来の技術】ロボットを利用して対象物に対する作業
を実行する場合、対象物が作業中に静止しているケース
であれば、通常のティーチング・プレイバック方式ある
いはオフラインティーチング方式によってロボット教示
を行なえば、再生運転時に所期のロボット経路移動動作
を実現することが出来る。また、対象物の位置(特に断
わりのない限り、一般に「姿勢」を含む。以下、同
様。)にばらつきがある場合には、視覚センサによって
対象物の位置を計測し、計測結果に基づいて教示経路を
補正する方法が採用されている。
【0003】工場のプロセスライン等においては、作業
対象物となるワークがコンベアで次々と搬送されて行く
ことが通常である。このようなワーク(対象物)に対し
てロボット作業を実行するケースでは、大別して次の2
つの方法が採用されている。
【0004】[I]搬送装置を間欠運転とする方法。こ
れは、ワークが搬送装置によってロボット作業位置付近
に搬送されてきた時点で搬送装置を一旦停止させ、ワー
ク専用の治具によって位置決めを行ない、その位置決め
されたワーク(静止ワーク)に対してロボットが所期の
作業を行なう方式である。
【0005】この方式では、ワークの種類毎に適合した
治具が必要とされる。汎用治具を用いる方法もあるが、
その場合には治具の構造が複雑となる。
【0006】更に、製造ライン等を構成する搬送装置を
間欠的に停止させるタイムロスがある上に位置決めの作
業が加わることは、作業効率の面からみて明らかに不利
である。また、作業効率を上げる為に搬送装置の搬送速
度を高速化すると、ワークのすべりの問題や、駆動源の
大型化、高コスト化の問題等を招く原因となる。
【0007】[II]ロボットにトラッキング動作を行
なわせる方法。これは、搬送装置を停止させることな
く、移動中のワークを追尾するトラッキング動作をロボ
ットに行なわせることによって、ワークに対する所期の
ロボット作業を実現させる方法である。ロボットにトラ
ッキング動作(ここではライントラッキング)を行なわ
せる従来の方法を図1を参照して簡単に説明すれば、概
略次のようになる。
【0008】図1において、符号1はモータを内蔵した
駆動部2によって駆動されるベルトコンベアで、その上
に載置したワークWを図中左方から右方へ向けて搬送す
る。コンベア1の走行量(モータの回転量)は、駆動部
2に結合されたパルスコーダ3によって計測される。符
号4,4’は、コンベア1の側方または上方に配置され
たセンサで、ワークWが符号50で示したラインの位置
まで到達したことを検知する。センサ4(以後は4’の
記載を省略)には、光学方式、機械方式、磁気方式など
種々の型のものが使用される。符号10は、ロボットR
B、パルスコーダ3及びセンサ4に接続されたロボット
コントローラで、パルスコーダ3及びセンサ4からの検
出信号を受け取るとともにロボットRBの動作を制御す
る。
【0009】このような配置の下でトラッキングを行な
う手順は以下の通りである。 (1)トラッキング座標系の設定 先ず、ロボットRBとコンベア1の座標系の共有化を行
なう為に、トラッキング座標系を設定する。例えば、X
軸をコンベアの走行方向に合わせてロボットRBに設定
済みのベース座標系Σb (Ob −XYZ)に対して、同
じ姿勢のトラッキング座標系Σtr(Otr−xyz)を設
定する。トラッキング座標系Σtrは、トラッキング範囲
60〜70にワークWがある間、コンベア1の走行と同
期してベース座標系Σb に対してX軸方向に移動する座
標系である。なお、図中でZ軸、及びz軸は図示を省略
した(以下、同様)。
【0010】(2)スケールファクタの決定 トラッキング座標系Σtrの移動位置は、パルスコーダ3
の計数出力によって決められる。そこで、パルスコーダ
3の計数出力(インクリメンタル量Δn)とそれに対応
するコンベア1の走行距離dとの間の関係を表わすスケ
ールファクタ(換算係数)α=d/Δnを求める作業を
次のような手順で実行する。
【0011】1.ロボットRBの動作範囲の位置にワー
クをセットし、その時のパルスコーダ3の計数出力n1
をロボットコントローラRCに記憶させる。 2.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X1 ,Y1
,Z1)をロボットコントローラRCに記憶させる。 3.コンベア1を適当な距離だけ走行させ、ロボットR
Bの動作範囲内の適当な位置にワークを停止させ、その
時のパルスコーダ3の計数出力n2 をロボットコントロ
ーラRCに記憶させる。 4.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X2 ,Y2 ,
Z2 )をロボットコントローラRCに記憶させる。な
お、前記仮定により、Y2 =Y1 ,Z2 =Z1 の筈であ
る。
【0012】5.ロボットコントローラRCに、α=
(X2 −X1 )/(n2 −n1 )の計算を行わせてスケ
ールファクタαを求め、記憶させる。
【0013】(3)センサ4のセンシング位置を示すラ
イン50よりも左方のコンベア1上にワークWをセット
した上でコンベア1を走行させ、ワークWがセンサ4で
検出された瞬間(ライン50に到達した瞬間)における
パルスコーダ出力値ns をロボッコントローラRCに記
憶させる。
【0014】(4)コンベア1を更に走行させ、ロボッ
トRBにトラッキング動作を開始させるに適した位置6
0にワークWをもって来る。そして、その時のパルスコ
ーダ計数出力値n60またはΔn60-s=n60−ns をロボ
ットコントローラRCに記憶させる。
【0015】(5)コンベア1を再び更に走行させ、ロ
ボットRBが所期の作業(例えば、ハンドによる把持)
を行うに適した位置にワークWをもって来る。 (6)その時のパルスコーダ計数出力値ntcまたはΔn
tc-s=ntc-nsをロボットコントローラRCに記憶させ
る。
【0016】(7)ロボットRBに所期の作業(例え
ば、ハンドによる把持)の実行に必要な動作を教示す
る。 (8)コンベア1を再び更に走行させ、ロボットRBの
トラッキング動作を終了させるに適した位置70にワー
クWをもって来る。そして、その時のパルスコーダ計数
出力値n70またはΔn70-s=n70-nsをロボットコント
ローラRCに記憶させる。 (9)以上で、トラッキング実行の為の準備作業が完了
するので、トラッキングによる本作業を開始する。シス
テムの動作推移を簡単に記せば、次のようになる。 1.ワークWをコンベア上に供給する。 2.ワークWがライン50を通過する際にセンサ4がこ
れを検知し、ロボットコントローラRCへ伝える。 3.その時点におけるパルスコーダ計数出力値ns'をロ
ボットコントローラRCが記憶する。
【0017】4.コンベア1が更に走行し、パルスコー
ダ計数出力値が、ns'+Δn60-s=ns'+(n60−ns
)に達した時点で、トラッキング座標系Σtrの移動を
開始させる。移動量は、パルスコーダ3の計数出力値の
インクリメンタル量にスケールファクタαを乗じて決定
される。ロボットRBの再生運転をこのトラッキング座
標系に準拠して行なえば、ロボットRBはワークWを追
尾してワークWに追いつき、トラッキングを継続しなが
ら所期の動作(例えば、ワークWの把持)を行なう。
【0018】5.コンベア1が更に走行し、パルスコー
ダ計数出力値が、ns'+Δn70-s=ns'+(n70−ns
)に達した時点で、トラッキング座標系Σtrの移動を
終了させる。 6.ロボットRBの残りの動作(例えば、把持したワー
クWの移動)を実行させる。以上で、ライトラッキング
による1作業サイクルが終了する。
【0019】
【発明が解決しようとする課題】上述したように、従来
の方法の内、上記(I)の方法は治具及び作業効率に関
連した難点がある。一方、上記(II)のトラッキング
による方法によれば、治具が不要になるとともにコンベ
ア1を停止させることなくロボットに作業を行なわせる
ことが出来るので、作業効率を高く保つことが出来る。
【0020】しかし、従来のトラッキング方法には作業
精度上の問題がある。その第1は、搬送手段上における
ワークWの位置・姿勢のバラツキがロボットに認識され
ていないことによる作業精度の低下の問題である。例え
ば、多角形形状のワークをロボットハンドで把持するア
プリケーションにおいて、ワークWの位置や姿勢が教示
時のそれからずれた場合には、ロボットが把持態勢に入
る際に干渉事故を起こしたり、把持に失敗したりする恐
れがある。
【0021】また、第2の問題として、コンベアが速度
をもっていることによるトラッキング誤差の問題があ
る。従来のトラッキング方法においては、ワークWが位
置50に到達した瞬間のパルスコーダ3の計数出力値の
検出/記憶には、ロボットコントローラのプロセッサ
(中央演算処理装置、以下CPUと言う。)の入力信号
スキャン周期による時間遅れがある。
【0022】この時間遅れの大きさは、採用されるロボ
ットシステムにもよるが、数10msecに達する。一
例をあげれば、最大28[msec]であり、コンベア
速度を600[mm/sec]とした場合、600×
0.028=16.8mmと無視出来ない大きさにな
る。このような誤差を補償することは難しく、コンベア
走行方向(ここでは、X軸及びx軸の方向)についてト
ラッキング誤差を生じる原因となっている。
【0023】そこで、本願発明の基本的な目的は、作業
効率を落とすことなく、作業対象物の搬送手段上におけ
る位置・姿勢のずれをロボットに正しく認識させてトラ
ッキング動作を行なわせる方法を提供することにある。
また、本願発明は、入力信号スキャン周期による作業対
象物移動方向の作業精度の低下の問題を併せて解決しよ
うとするものである。
【0024】
【問題点を解決するための手段】本願発明は上記課題を
解決する為の構成として、「搬送手段による対象物の搬
送経路の近傍に、前記搬送経路の上流側から順に前記対
象物の到来を検出する対象物到来センサ手段とカメラ手
段を配置し、前記カメラ手段を有する視覚センサを用い
て前記搬送手段によって搬送中の前記対象物の画像を取
得し、該画像を解析することによって前記対象物の位置
を表わす信号を前記視覚センサ内で生成し、該対象物の
位置を表わす信号と前記対象物到来センサ手段の出力信
号と前記搬送手段による対象物の搬送量を表わす信号に
基づいて、ロボットコントローラ内でロボット制御信号
を生成するロボットのビジュアルトラッキング方法であ
って、前記対象物到来センサ手段による対象物の到来検
知を視覚センサが認識した時点を起点として第1の所定
距離の対象物搬送が行なわれたことを視覚センサが前記
搬送手段による対象物の搬送量を表わす信号に基づいて
認識した時点で前記対象物の画像の取得がなされ、前記
対象物到来センサ手段による対象物の到来検知を前記ロ
ボットコントローラが認識した時点を起点として第2の
所定距離の対象物搬送が行なわれたことを前記ロボット
コントローラが前記搬送手段による対象物の搬送量を表
わす信号に基づいて認識した時点で前記ロボットのトラ
ッキング動作が開始され、前記トラッキング動作実行中
のロボット位置は、前記取得された対象物の画像を解析
して得られる前記対象物の位置を表わす信号を考慮し
て、前記搬送手段による対象物の搬送量を表わす信号に
よって移動量が定められるトラッキング座標系上で制御
されることを特徴とする前記ビジュアルトラッキング方
法」(請求項1)を提案したものである。
【0025】また、上記方法において更にトラッキング
動作の終了時点についても、トラッキング動作の開始時
点の決め方と同様の考え方を適用する為に、「前記対象
物到来センサ手段による対象物の到来検知を前記ロボッ
トコントローラが認識した時点を起点として第3の所定
距離の対象物搬送が行なわれたことを前記ロボットコン
トローラが前記搬送手段による対象物の搬送量を表わす
信号に基づいて認識した時点で前記ロボットのトラッキ
ング動作が終了される」(請求項2)という要件を更に
課した方法を提案したものである。
【0026】
【作用】本願発明は、従来解決が困難であったロボット
コントローラのCPUの入力信号スキャン周期による時
間遅れの問題を、視覚センサを用いて解決した点に最も
重要な特徴がある。即ち、視覚センサを用いて対象物の
位置ずれを検出した場合、視覚センサとロボットコント
ローラが対象物の移動に関して共通した認識を持つ条件
が満たされていれば、視覚センサによる対象物の位置ず
れの検出結果にはロボットコントローラのCPUの入力
信号スキャン周期による時間遅れが取り込まれている。
【0027】従って、定点で対象物の到来を検出するセ
ンサが対象物の到来を検出した時点自体を、厳密にロボ
ットコントローラが認識しなくとも、視覚センサの検出
結果を用いてこれを補償出来ることになる。
【0028】より具体的に言えば、本願発明において
は、コンベアのような搬送手段の搬送経路の近傍に、上
流側から順に対象物の到来を検出するセンサと視覚セン
サのカメラ手段が配置される。そして、カメラ手段を有
する視覚センサは搬送手段によって搬送中の対象物の画
像を取得し、該画像を解析することによって対象物の位
置を表わす信号(通常は位置ずれ量を表現する。)を前
記視覚センサ内で生成する。
【0029】ロボットコントローラは、この対象物の位
置を表わす信号と対象物到来センサ手段の出力信号と前
記搬送手段による対象物の搬送量を表わす信号(通常は
パルスコーダから得られる。)に基づいて、ロボット制
御信号を生成する。
【0030】視覚センサによる対象物の画像の取得は、
対象物到来センサ手段による対象物の到来検知を視覚セ
ンサが認識した時点を起点として第1の所定距離の対象
物搬送が行なわれたことを前記搬送手段による対象物の
搬送量を表わす信号(パルコーダ計数出力で表現され
る)に基づいて認識した時点で実行される。
【0031】同様に、ロボットのトラッキング動作は、
対象物到来センサ手段による対象物の到来検知をロボッ
トコントローラが認識した時点を起点として第2の所定
距離の対象物搬送が行なわれたことを前記搬送手段によ
る対象物の搬送量を表わす信号(パルコーダ計数出力で
表現される)に基づいて認識した時点で実行される。
【0032】また、ロボットのトラッキング動作の終了
につても、対象物到来センサ手段による対象物の到来検
知をロボットコントローラが認識した時点を起点として
第3の所定距離の対象物搬送が行なわれたことを前記搬
送手段による対象物の搬送量を表わす信号(パルコーダ
計数出力で表現される)に基づいて認識した時点で実行
しても良い。
【0033】トラッキング動作実行中のロボット位置
は、前記取得された対象物の画像を解析して得られる前
記対象物の位置を表わす信号を考慮して、前記搬送手段
による対象物の搬送量を表わす信号によって移動量が定
められるトラッキング座標系上で制御される。即ち、動
作プログラムによって指定された経路データは、コンベ
ア同期的に移動するトラッキング座標系上データとして
解釈され、且つ、そのデータから算出されるロボット経
路が視覚センサによる対象物の位置情報(通常は、姿勢
を含む位置ずれデータで与えられる)に基づいて補正さ
れる。
【0034】この時、コンベアの走行方向以外の位置ず
れ成分についてもロボット位置が補正されるので、結
局、いずれの方向に関しても高いトラッキング精度が実
現されることになる。
【0035】
【実施例】図2は、本願発明の方法を実施する際の全体
配置の1例を、図1と類似した形式で示したものであ
る。同図において、1はワーク供給源(例えば、最終プ
レス工程実行部)に接続された直線搬送コンベアを表わ
している。このコンベア1の駆動軸は駆動部2に内蔵さ
れたモータによって駆動される。この駆動軸乃至駆動モ
ータの回転量はパルスコーダ3によってパルス列の形で
出力される。符号4,4’(4’は以後記載省略)は、
図1で示したと同様のセンサであり、コンベア1上に載
置されて搬送されて来るワークWを検出位置50で検出
する。
【0036】符号VSは、画像処理装置20とカメラ3
0(例えば、CCDカメラ)から構成される視覚センサ
を表わしており、符号31はカメラ30の視野を表わし
ている。図中に破線で示したように、画像処理装置20
はロボットコントローラRCに内蔵された形態をとる。
【0037】ロボットコントローラRCは、ロボット制
御部10を有し、このロボット制御部10は内蔵された
画像処理装置20からワークWの位置・姿勢を表わす検
出信号を得てロボットRBの制御に利用する。また、ロ
ボットコントローラRCはセンサ4に接続されており、
その検出信号を利用してワークWの到来を認識する。
【0038】以下、図2の配置に対応したシステム構成
の一例を要部ブロック図で記した図3を参照図に加え
て、実施例について更に説明する。
【0039】まず先に、ロボットコントローラRCに内
蔵された画像処理装置20の構成と機能について概略を
説明する。図3において、画像処理装置20はマイクロ
プロセッサからなるCPU(中央演算処理装置)21を
有し、CPU21にはカメラインターフェイス22、フ
レームメモリ(画像メモリ)23、プログラムメモリ2
4、画像処理プロセッサ25、データメモリ26、モニ
タインターフェイス27がバスBS”を介して各々接続
されている。
【0040】カメラインターフェイス22にはカメラ3
0が接続されており、カメラインターフェイス22を介
して撮影指令が送られると、カメラ30に設定された電
子シャッタ機能(シャッタスピードは、例えば1000
分の1秒)により撮影が実行され、カメラインターフェ
イス22を介して映像信号がグレイスケール信号の形で
フレームメモリ23に格納される。モニタインターフェ
イス27にはモニタCRT40が接続されており、カメ
ラ30が撮影中の画像、フレームメモリ23に格納され
た過去の画像、画像処理プロセッサ25による処理を受
けた画像等が必要に応じて表示される。
【0041】フレームメモリ23に格納されたワークW
の映像信号は、プログラムメモリ24に格納された解析
プログラムに従って画像処理プロセッサ25を利用して
解析され、ワークWの位置が求められる。ここでは、ワ
ークWは図2中に符号Wa ,Wb で示した2点の特徴点
を有しているものとして、Wa ,Wb の位置が計算さ
れ、それに基づいて姿勢も計算される。
【0042】データメモリ26は、視覚センサシステム
に関連した各種の設定値を格納する領域と、CPU21
が実行する各種処理に必要なデータの一時記憶に利用さ
れる領域を含んでいる。そして、CPU21はロボット
コントローラRC内部でバスBSを介して次に説明する
ロボット制御部10のCPU11にバス結合されてい
る。これによって、視覚センサ20全体は実質的にロボ
ット制御部10と一体の機器として構成されることにな
る。即ち、符号10,20を含む全体が視覚センサ内蔵
型のロボットコントローラRCを構成している。
【0043】ロボット制御部10は、バスBSを介して
画像処理装置20のCPU21とバス結合されたCPU
11を有している。このCPU11には、システム全体
を制御する為のプログラムが格納されたROM12、C
PU処理の為のデータの一時記憶に使用されるRAM1
3、動作プログラム、座標系設定データ、その他各種設
定パラメータ等が格納される不揮発性メモリ14、ハン
ドを含むロボットRBの機構部にサーボ回路16を介し
て接続された軸制御器15、デジタルシグナルプロセッ
サ(DSP)用データメモリ17、デジタルシグナルプ
ロセッサ(以下、「DSP」と言う。)18及びセンサ
4の為のセンサインターフェイス19が、各々バスB
S’を介して接続されている。
【0044】DSP18は、これに接続されたパルスコ
ーダ3の計数出力信号を処理する為のプロセッサで、D
SP用データメモリ17はDSP18による諸処理デー
タや設定パラメータを格納するDSP専用のメモリであ
る。DSP18は、CPU11の命令に従って、任意の
時点においてパルスコーダ3の計数出力を検出し、DS
P用データメモリ17の所定エリアに書き込む機能を有
している。また、画像処理装置20のCPU21から
も、CPU11を介してDPS用データメモリ17にア
クセス可能である。
【0045】以下、このようなシステム構成と機能を前
提に、本願発明の方法を実施する為の準備作業及び処理
手順について説明する。なお、画像処理装置20のプロ
グラムメモリ24、データメモリ26及びロボット制御
部10内の各メモリには、予め必要な処理を実行する為
のプログラム及び関連設定データが格納済みであるもの
とする。
【0046】また、ロボットRBの動作としては、
(1)ワークWがトラッキング範囲の開始ライン60に
到達した時点から、P0 を初期位置とするトラッキング
移動を開始し、(2)教示位置Q0 でワークWと遭遇
し、(3)ワークWがトラッキング範囲の終了ライン7
0(位置Q1 )に到達するまでにワークWをハンドで把
持する作業を完了し、(4)コンベア1上から側方に離
隔した位置Q2 まで直線移動してワークWを把持状態を
終了する、というものを考える。
【0047】[準備作業]準備作業は、図1に関連させ
て説明した従来の作業に、視覚センサに関連した若干の
作業が加わるだけである。 (1)トラッキング座標系の設定 ロボットRBとコンベア1の座標系の共有化を行なう為
に、トラッキング座標系を設定する。ここでは、X軸を
コンベアの走行方向に合わせてロボットRBに設定済み
のベース座標系Σb に対して、同じ姿勢のトラッキング
座標系Σtrを設定する。そして、トラッキング座標系Σ
trが移動を開始するまでの両者の座標値の関係は、(x
=X−L0 ,y=Y−Y0 ,z=Z)で表わされるもの
とする。L0 及びY0 は定数であり、その数値データは
ロボット制御部10の不揮発性メモリ14と画像処理装
置20のデータメモリ26に記憶する。
【0048】(2)センサ座標系Σs の設定 適当な手段により、視覚センサVSにセンサ座標系Σs
を設定する。例えば、ベース座標系Σb 上の座標値が判
っている位置に公知のキャリブレーション用治具を配置
し、画像処理装置20のプログラムメモリ24に格納済
みのキャリブレーション用のプログラムを起動させて、
カメラ30の画素値データをセンサ座標系Σs のデータ
に換算する為のデータを画像処理装置20のデータメモ
リ26に記憶する。また、センサ座標系Σs とベース座
標系Σb の関係を表わすデータをロボット制御部10の
不揮発性メモリ14に記憶する。
【0049】(3)スケールファクタの決定 従来と同様の下記手順により、コンベア1の走行距離d
とパルスコーダ3の計数出力(インクリメンタル量Δ
n)との関係を表わすスケールファクタα=d/Δnを
求める。
【0050】1.ロボットRBの動作範囲の位置にワー
クをセットし、その時のパルスコーダ3の計数出力n1
をロボットコントローラRCに記憶する。 2.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X1 ,Y1 ,
Z1 )をロボットコントローラRCに記憶させる。
【0051】3.コンベア1を適当な距離だけ走行さ
せ、ロボットRBの動作範囲内の適当な位置にワークを
停止させ、その時のパルスコーダ3の計数出力n2 をロ
ボットコントローラRCに記憶する。 4.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X2 ,Y2 ,
Z2 )をロボットコントローラRCに記憶させる。 5.ロボットコントローラRCに、α=(X2 −X1 )
/(n2 −n1 )の計算を行わせてスケールファクタα
を求め、ロボットコントローラRCの不揮発性メモリ1
4と画像処理装置20のデータメモリ26に記憶する。
【0052】(4)センサ4のセンシング位置を示すラ
イン50よりも左方のコンベア1上にワークWをセット
した上でコンベア1を走行させ、ワークWがセンサ4で
検出された瞬間(ライン50に到達した瞬間)における
パルスコーダ計数出力値nsをロボット制御部10のD
SP用データメモリ17と画像処理装置20のデータメ
モリ26に記憶する。
【0053】(5)コンベア1を走行させ、センサ4を
通過したワークWをカメラ30の視野31内の適当な位
置にもってくる。この時点におけるパルスコーダ計数出
力値n30と先に記憶したns からΔn30-s=n30−ns
を計算し、メモリ26に記憶する。また、カメラ30に
よる撮影を実行し、ワークWの画像を基準画像として取
り込み、フレームメモリ23に格納する。
【0054】(6)コンベア1を更に走行させ、ロボッ
トRBにトラッキング動作を開始させるに適した位置6
0にワークWをもって来る。そして、その時のパルスコ
ーダ計数出力値n60と先に記憶したns からΔn60-s=
n60−ns を計算して、DSP用データメモリ17に記
憶する。
【0055】(7)コンベア1を再び更に走行させ、ロ
ボットRBが所期の作業(例えば、ハンドによる把持)
を行うに適した位置にワークWをもって来る。 (8)その時のパルスコーダ計数出力値ntcと先に記憶
したns からΔntc-s=ntc−ns を計算して、DSP
用データメモリ17に記憶する。
【0056】(9)ロボットRBに所期の作業(例え
ば、ハンドによる把持)の実行に必要な動作を教示す
る。ここでは、ハンドの開閉による把持を教示する。
【0057】(10)コンベア1を再び更に走行させ、
ロボットRBのトラッキング動作を終了させるに適した
位置70にワークWをもって来る。そして、その時のパ
ルスコーダ計数出力値n70と先に記憶したns からΔn
70-s=n70−ns を計算し、DSP用データメモリ17
に記憶する。 (11)ワークWを解放する位置Q2 をロボットに教示
し、更にハンドの開閉によるワークWの解放を教示す
る。
【0058】以上で、トラッキング実行の為の準備作業
が完了する。次に、図4のフローチャートを参照して、
トラッキングによる本作業実行時のCPU処理について
説明する。ワークWがコンベア1に供給されたことを知
らせる適当な外部信号を受けて、処理が開始されると、
両CPU11,21はセンサ4によるワークWの到来を
待つ態勢に入る(ステップS1)。センサ4によってワ
ークWの到来が検出されると、その時点におけるパルス
コーダ計数出力値Ns がDSP用メモリ17とデータメ
モリ26に記憶される(ステップS2)。
【0059】次に、ワークWが上記準備作業の中で視覚
センサに教示された撮影位置に到来するのを待つ態勢に
入る(ステップS3)。教示された撮影位置への到来
は、パルスコーダ計数出力値Nが、Ns +Δn30-sに達
したことで判別される。このΔn30-sは、スケールファ
クタαを媒介にして、センサ4から撮影位置までの距離
を表わす量となっている。
【0060】ワークWが教示された撮影位置に到来した
ならば、カメラ30による撮影を実行し、準備作業時に
得た基準画像データと比較し、ワークW上の2点Wa ,
Wbの基準位置からのずれ量を求め、結果を表わすデー
タをロボット制御部10へ伝達する(ステップS4)。
【0061】次に、ワークWが上記準備作業の中で教示
されたトラッキング開始位置(ライン60)に到達する
のを待つ態勢に入る(ステップS5)。教示されたトラ
ッキング開始位置への到達は、パルスコーダ計数出力値
Nが、Ns +Δn60-sに達したことで判別される。この
Δn60-sは、スケールファクタαを媒介にして、センサ
4からトラッキング開始位置までの距離を表わす量とな
っている。
【0062】ワークWが教示されたトラッキング開始位
置に到達したならば、トラッキング座標系Σtrの移動を
開始させる(ステップS6)。トラッキング座標系Σtr
の移動開始後のベース座標系Σb との関係は次のように
なる。任意の時点におけるトラッキング座標系上の座標
値(x,y,z)は、ベース座標系上の座標値(X,
Y,Z)とは下記の関係にある。 x=X−L0 +α(N−Ns ),y=Y−Y0 ,z=Z ここで、αは準備作業で求めたスケールファクタ、L0
,Y0 はトラッキング座標系の移動開始前の原点位置
の関係を表わす既知の定数である。また、Nはその時点
において、ロボットコントローラRCのロボット制御部
10のCPU11が認識するパルスコーダ計数出力値を
表わしている。
【0063】トラッキング座標系の移動が開始された直
後に(場合によっては、先行しても良い。)、動作プロ
グラムを読み込んでトラッキング座標系上でロボットR
Bの経路移動を開始させる(ステップS7)。但し、こ
の時補間計算周期で繰り返される移動目標位置の計算に
あたっては、ステップS4で求められた位置ずれ量を補
償するようなロボット位置(通常、姿勢も含む)の補正
を行なう。
【0064】ロボットRBは、ほぼ図2に符号90で示
したような曲線軌道に沿って教示位置Q0 (正確に言え
ば、それをステップS4で求められた位置ずれ量を補償
するように補正した位置)に接近して行くことになる。
なお、線軌道80は、仮にベース座標系Σb 上でロボッ
トRBを制御した場合の移動経路を表わしている。移動
速度を適当な値に教示しておけば、ロボットRBはワー
クWが位置Q0 に到達する直前にワークWに遭遇する。
【0065】そこで、ワークWが位置Q0 に到達したこ
とを確認した時点でハンドによるワークWの把持動作を
実行する(ステップS8〜ステップS9)。この間、ロ
ボットRBはトラッキング座標系乃至コンベア1と同期
的に移動を継続する。ワークWが位置Q0 に到達したこ
との確認は、パルスコーダ計数出力値Nが、Ns +Δn
tc-sに達したことで行なわれる。
【0066】次いで、ワークWが上記準備作業の中で教
示されたトラッキング終了位置(ライン70)に到達す
るのを周期的に検出する態勢に入る(ステップS1
0)。教示されたトラッキング終了位置への到達は、パ
ルスコーダ計数出力値Nが、Ns+Δn70-sに達したこ
とで判別される。このΔn70-sは、スケールファクタα
を媒介にして、センサ4からトラッキング終了位置まで
の距離を表わす量となっている。
【0067】ワークWが教示されたトラッキング終了位
置に到達したならば、トラッキング座標系Σtrの移動を
終了させる(ステップS11)。この時点では、当然ロ
ボットRBは完全にワークWを把持した状態にあるの
で、次の教示点Q2 へ通常の軌道計画に従って移動し、
ハンドを開いてワークWを解放する(ステップS1
2)。以上で、本願発明の方法による1作業サイクルが
完了する。
【0068】最後に、本願発明の方法におけるコンベア
走行方向に関するトラッキング誤差について考察してみ
ると次のことが判る。 (1)センサ4を通過した瞬間のパルスコーダ計数出力
値Ns は、ロボットと視覚センサで同時刻に認識され
る。ここで、ロボットコントローラの入力信号スキャン
周期による処理遅れによって、コンベア1がδパルス分
だけ進んでいたものとする。
【0069】(2)視覚センサは、Ns を起点としてパ
ルスコーダ計数出力値Nを数え、対象物Wの検出を行な
う。この時の検出タイミングについても、コンベア1は
δパルス分進んでいる。従って、コンベア1上の検出対
象物Wも検出画像内でδパルス分進んでいる。
【0070】(3)視覚センサは、その検出画像の解析
結果をそのままロボットへ知らせるので、結局、δパル
ス分の進み(入力信号スキャン周期によるコンベア走行
方向に沿ったずれ)とそれ以外の要因によるワークの位
置ずれの双方がロボットに知らされることになる。
【0071】(4)以上のことから、入力信号スキャン
周期によるトラッキング方向(コンベア走行方向)に沿
った検出対象物のずれも視覚センサによって、「(時間
軸上ではなく空間上の)検出対象物の位置ずれ」として
処理される。その結果、入力信号スキャン周期によるト
ラッキング誤差が抑止されたトラッキング動作が実現さ
れる。
【0072】なお、上記実施例では、トラッキングの終
了をトラッキングの開始と同様の方法で決定したが、ト
ラッキングの終了時点については種々の決め方が許容さ
れる。例えば、作業に支障のない条件でトラッキング継
続時間を指定したり、ベース座標系Σb 上のX軸方向の
定位置を指定することによってトラッキング動作の終了
時期を決定しても良い。また、ロボット作業が把持作業
に限られないことはもちろんである。更に、本実施例の
ようなライントラッキングに限らず、円弧トラッキング
においても、トラッキング座標系の移動/回転経路を適
切に定めれば本願発明が適用可能であることも明らかで
ある。
【0073】
【発明の効果】本願発明によれば、ロボットシステムの
入力信号スキャン周期に起因した作業対象物の移動方向
のトラッキング誤差が補正される。また、作業対象物の
姿勢のばらつき、移動方向と垂直な方向の位置決め状態
のばらつき等に起因したトラッキング誤差についても、
視覚センサの働きにより同時に補正が行なわれる。従っ
て、移動中の作業対象物を停止させることなく、高い精
度のロボット作業が実現される。
【0074】また、ワークWの形状、寸法等に多様な変
更があっても、治具を使用する場合のように個別あるい
は汎用の治具を用意する必要がなく、カメラの配置変更
や画像解析のソフトウェアあるいは関連パラメータ変更
・追加等で対処出来るという利点もある。
【図面の簡単な説明】
【図1】従来のトラッキング動作の原理について説明す
る図である。
【図2】本願発明の方法を実施する際の全体配置の1例
を、図1と類似した形式で示したものである。
【図3】図2の配置に対応したシステム構成の一例を要
部ブロック図で示したものである。
【図4】実施例における処理内容の概略を記したフロー
チャートである。
【符号の説明】
1 コンベア 2 コンベア駆動部 3 パルスコーダ 4 センサ 10 ロボット制御部 11 CPU(ロボットコントローラ) 12 ROM 13 RAM 14 不揮発性メモリ 15 軸制御器 16 サーボ回路 17 デジタルシグナルプロセッサ(DSP)用データ
メモリ 18 デジタルシグナルプロセッサ(DSP) 19 センサインターフェイス 20 画像処理装置 21 CPU(画像処理装置) 22 カメラインターフェイス 23 フレームメモリ 24 プログラムメモリ 25 画像処理プロセッサ 26 データメモリ 27 モニタインターフェイス 30 カメラ 31 視野 40 モニタCRT 50 検出位置ライン 60 トラッキング開始ライン 70 トラッキング終了ライン BS,BS’,BS” バス P0 ロボット初期位置 RB ロボット RC ロボットコントローラ VS 視覚センサ W ワーク
───────────────────────────────────────────────────── フロントページの続き (72)発明者 久保田 裕昭 山梨県南都留郡忍野村忍草字古馬場3580 番地 ファナック株式会社 内 (56)参考文献 特開 昭61−260991(JP,A) 特開 昭63−260781(JP,A) 特開 昭60−217085(JP,A) 特開 平3−79285(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05B 19/18 G05B 19/19

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】 搬送手段による対象物の搬送経路の近傍
    に、前記搬送経路の上流側から順に前記対象物の到来を
    検出する対象物到来センサ手段とカメラ手段を配置し、
    前記カメラ手段を有する視覚センサを用いて前記搬送手
    段によって搬送中の前記対象物の画像を取得し、該画像
    を解析することによって前記対象物の位置を表わす信号
    を前記視覚センサ内で生成し、該対象物の位置を表わす
    信号と前記対象物到来センサ手段の出力信号と前記搬送
    手段による対象物の搬送量を表わす信号に基づいて、ロ
    ボットコントローラ内でロボット制御信号を生成するロ
    ボットのビジュアルトラッキング方法であって、 前記対象物到来センサ手段による対象物の到来検知を視
    覚センサが認識した時点を起点として第1の所定距離の
    対象物搬送が行なわれたことを視覚センサが前記搬送手
    段による対象物の搬送量を表わす信号に基づいて認識し
    た時点で前記対象物の画像の取得がなされ、 前記対象物到来センサ手段による対象物の到来検知を前
    記ロボットコントローラが認識した時点を起点として第
    2の所定距離の対象物搬送が行なわれたことを前記ロボ
    ットコントローラが前記搬送手段による対象物の搬送量
    を表わす信号に基づいて認識した時点で前記ロボットの
    トラッキング動作が開始され、 前記トラッキング動作実行中のロボット位置は、前記取
    得された対象物の画像を解析して得られる前記対象物の
    位置を表わす信号を考慮して、前記搬送手段による対象
    物の搬送量を表わす信号によって移動量が定められるト
    ラッキング座標系上で制御されることを特徴とする前記
    ビジュアルトラッキング方法。
  2. 【請求項2】 更に、前記対象物到来センサ手段による
    対象物の到来検知を前記ロボットコントローラが認識し
    た時点を起点として第3の所定距離の対象物搬送が行な
    われたことを前記ロボットコントローラが前記搬送手段
    による対象物の搬送量を表わす信号に基づいて認識した
    時点で前記ロボットのトラッキング動作が終了されるこ
    とを特徴とする請求項1に記載されたビジュアルトラッ
    キング方法。
JP6222693A 1994-08-25 1994-08-25 ビジュアルトラッキング方法 Expired - Fee Related JP3002097B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP6222693A JP3002097B2 (ja) 1994-08-25 1994-08-25 ビジュアルトラッキング方法
US08/518,713 US5727132A (en) 1994-08-25 1995-08-24 Robot controlling method for tracking a moving object using a visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6222693A JP3002097B2 (ja) 1994-08-25 1994-08-25 ビジュアルトラッキング方法

Publications (2)

Publication Number Publication Date
JPH0863214A JPH0863214A (ja) 1996-03-08
JP3002097B2 true JP3002097B2 (ja) 2000-01-24

Family

ID=16786441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6222693A Expired - Fee Related JP3002097B2 (ja) 1994-08-25 1994-08-25 ビジュアルトラッキング方法

Country Status (2)

Country Link
US (1) US5727132A (ja)
JP (1) JP3002097B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007090479A (ja) * 2005-09-28 2007-04-12 Fanuc Ltd ロボットのオフライン教示装置

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
US6356807B1 (en) 1999-08-13 2002-03-12 Fanuc Robotics North America, Inc. Method of determining contact positions, calibration parameters, and reference frames for robot assemblies
SE0001312D0 (sv) * 2000-04-10 2000-04-10 Abb Ab Industrirobot
DE10039442A1 (de) * 2000-08-11 2002-02-21 Duerr Systems Gmbh Verfahren und Programmsteuersystem zum Beschichten oder Bearbeiten von Werkstücken längs toleranzbehafteter Pfade
JP2002192486A (ja) * 2000-12-25 2002-07-10 Seiko Epson Corp ロボット制御方法及び該方法を適用したロボットコントローラ
JP4656360B2 (ja) * 2001-04-16 2011-03-23 澁谷工業株式会社 ラベル貼付システム
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
KR20030050402A (ko) * 2001-12-18 2003-06-25 엘지전자 주식회사 로봇의 헤드 트랙킹 제어방법
DE10300606B4 (de) * 2003-01-10 2015-11-26 Bosch Rexroth Ag Verfahren und Steuereinrichtung zum Anfahren einer Greifvorrichtung an ein sich bewegendes Stückgut
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
US20050101050A1 (en) * 2003-11-07 2005-05-12 Lg Philips Lcd Co., Ltd. Photolithograph system and method for driving the same
DE102005051533B4 (de) * 2005-02-11 2015-10-22 Vmt Vision Machine Technic Bildverarbeitungssysteme Gmbh Verfahren zur Verbesserung der Positioniergenauigkeit eines Manipulators bezüglich eines Serienwerkstücks
US7430456B2 (en) * 2006-02-08 2008-09-30 Seagate Technology Llc Reference point teaching using an end effector to form a witness mark
CN100432696C (zh) * 2006-06-27 2008-11-12 上海大学 基于仿生人眼控制的地面运动目标低空自动跟踪系统
US20080289515A1 (en) * 2007-04-17 2008-11-27 Knorr Robert J Pepper de-stemming
US8511226B2 (en) * 2007-04-17 2013-08-20 Robert J. Knorr Pepper de-stemming methods and apparatus
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
WO2009091536A1 (en) * 2008-01-15 2009-07-23 Roy Sandberg Low latency navigation for visual mapping for a telepresence robot
US8600552B2 (en) 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
JP5446887B2 (ja) * 2010-01-06 2014-03-19 セイコーエプソン株式会社 制御装置、ロボット、ロボットシステム及びロボットの追従方法
JP5508895B2 (ja) * 2010-02-22 2014-06-04 本田技研工業株式会社 加工システム及び加工方法
JP5733511B2 (ja) * 2011-03-31 2015-06-10 株式会社Ihi ハンドガイド装置とその制御方法
CN102909728B (zh) * 2011-08-05 2015-11-25 鸿富锦精密工业(深圳)有限公司 机器人工具中心点的视觉校正方法
US9701019B2 (en) 2011-09-15 2017-07-11 Convergent Information Technologies Gmbh System and method for the automatic generation of robot programs
DE102011082800B4 (de) * 2011-09-15 2016-04-14 Convergent Information Technologies Gmbh System und Verfahren zur automatisierten Erstellung von Roboterprogrammen
JP5907411B2 (ja) * 2012-02-01 2016-04-26 株式会社Ihi ワーク組付け装置
JP2013173196A (ja) * 2012-02-24 2013-09-05 Hitachi Zosen Fukui Corp ロボットのハンドリングアームの位置補正方法
ITBO20130163A1 (it) * 2013-04-12 2014-10-13 Marchesini Group Spa Metodo e sistema per sincronizzare una stazione di lavorazione con l'avanzamento di un articolo
US9782896B2 (en) * 2013-11-28 2017-10-10 Mitsubishi Electric Corporation Robot system and control method for robot system
JP2015174191A (ja) * 2014-03-17 2015-10-05 株式会社安川電機 ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法
ES2754039T3 (es) * 2014-04-30 2020-04-15 Abb Schweiz Ag Procedimiento para calibrar un punto central de una herramienta para un sistema de robot industrial
CA2949877C (fr) * 2014-06-06 2022-07-12 Gebo Cermex Canada Inc. Dispositif et procede d'intervention sur ligne de convoyage
JP6042860B2 (ja) 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
DE102015014485A1 (de) * 2015-11-10 2017-05-24 Kuka Roboter Gmbh Kalibrieren eines Systems mit einem Fördermittel und wenigstens einem Roboter
US9757859B1 (en) * 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9744665B1 (en) 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
JP6581049B2 (ja) * 2016-08-15 2019-09-25 ファナック株式会社 ロボットシステム
JP6426672B2 (ja) 2016-08-30 2018-11-21 ファナック株式会社 ワーク仕分けシステムおよび方法
JP6450726B2 (ja) * 2016-10-26 2019-01-09 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置、およびシミュレーション方法
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
JP6464134B2 (ja) * 2016-12-21 2019-02-06 ファナック株式会社 ロボットシステム及び生産システム
JP6496333B2 (ja) 2017-01-30 2019-04-03 ファナック株式会社 少なくとも1つのセンサを用いた物品搬送装置
JP6438509B2 (ja) 2017-02-28 2018-12-12 ファナック株式会社 ロボットシステムのシミュレーション装置、シミュレーション方法、およびコンピュータプログラム
DE102017106533B4 (de) * 2017-03-27 2019-10-10 Sick Ag Vorrichtung und Verfahren zum Positionieren von Objekten
JP6490132B2 (ja) 2017-03-31 2019-03-27 ファナック株式会社 ロボットの制御装置、機械学習装置及び機械学習方法
JP6506356B2 (ja) 2017-07-26 2019-04-24 ファナック株式会社 物品搬送システム及び搬送システム制御装置
JP6659744B2 (ja) * 2018-01-25 2020-03-04 ファナック株式会社 ロボットシステム
JP6734306B2 (ja) 2018-01-25 2020-08-05 ファナック株式会社 物品搬送システムおよびロボットシステム
WO2019183141A1 (en) * 2018-03-21 2019-09-26 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
CN109051634B (zh) * 2018-10-13 2020-07-07 番禺精美五金塑料制品有限公司 输送带编码控制系统
CN109648559A (zh) * 2018-12-27 2019-04-19 重庆迈纳姆智能装备研究院有限公司 用于机器人清洗机抓取多型号缸体缸盖的视觉定位系统
CN110294316B (zh) * 2019-06-04 2021-07-13 深圳蓝胖子机器智能有限公司 一种抓取传送带上物品的方法、系统以及设备
CN114728380B (zh) * 2019-11-20 2023-05-23 日本电产株式会社 作业系统
CN116490832A (zh) * 2020-11-26 2023-07-25 B&R工业自动化有限公司 对象的移动控制
CN114055473B (zh) * 2021-12-06 2022-06-17 合肥新思路智能科技有限公司 基于搬运机器人的视觉检测识别系统
CN114952843B (zh) * 2022-05-30 2023-02-28 江南大学 一种基于双机器人主从协同的微装配操作系统
CN117125469B (zh) * 2023-09-12 2024-03-15 天津锐新昌科技股份有限公司 散热翅片自动上卸料控制方法、系统、装置、设备及介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61260991A (ja) * 1985-05-16 1986-11-19 三菱重工業株式会社 ロボツト起動指示方法
JPS62203789A (ja) * 1986-03-04 1987-09-08 日産自動車株式会社 追従制御装置
JPS63260781A (ja) * 1987-04-20 1988-10-27 トキコ株式会社 工業用ロボツト
JPS6467605A (en) * 1987-09-09 1989-03-14 Hitachi Metals Ltd Conveyor synchronous control method for robot
US5243690A (en) * 1989-11-14 1993-09-07 General Electric Company Robot targeting using transit time control
JP3173042B2 (ja) * 1991-05-21 2001-06-04 ソニー株式会社 ロボットの数値制御装置
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
US5475797A (en) * 1993-10-22 1995-12-12 Xerox Corporation Menu driven system for controlling automated assembly of palletized elements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007090479A (ja) * 2005-09-28 2007-04-12 Fanuc Ltd ロボットのオフライン教示装置

Also Published As

Publication number Publication date
US5727132A (en) 1998-03-10
JPH0863214A (ja) 1996-03-08

Similar Documents

Publication Publication Date Title
JP3002097B2 (ja) ビジュアルトラッキング方法
CN108214454B (zh) 机器人系统、机器人控制装置及机器人控制方法
JP4174342B2 (ja) ワーク搬送装置
JP3834088B2 (ja) 複数のロボットにトラッキング動作を行なわせるための視覚センサ・ロボットシステム
CN111905983B (zh) 基于视觉跟随的点胶轨迹修正方法、装置、系统及介质
JP3702257B2 (ja) ロボットハンドリング装置
US20170043477A1 (en) Robot system with visual sensor and a plurality of robots
JP4265088B2 (ja) ロボット装置及びその制御方法
JP5912627B2 (ja) 撮像検査装置ならびにその制御装置および制御方法
JPH0972717A (ja) 画像の取得・処理方法
JP2004001122A (ja) ピッキング装置
JP4303411B2 (ja) トラッキング方法、及びトラッキングシステム
JPH10105217A (ja) ロボットのトラッキング制御方法およびロボット制御システム
JP4809524B2 (ja) トラッキング方法、トラッキングシステム、及びトラッキング装置
JPH1158273A (ja) 移動ロボット装置
JPH10334221A (ja) 画像取得装置
JP4056662B2 (ja) 外観検査装置
JPH09300264A (ja) ロボット制御装置
JP2011083883A (ja) ロボット装置
JP2001092523A (ja) 搬送用ロボットの教示方法
JP2703096B2 (ja) コンベア付きロボットシステムの教示方法
JP2703099B2 (ja) 産業用ロボットのコンベア追従方法
JPH07122823B2 (ja) 手先視覚付きロボット・自動機械の教示および制御方法
JPH04167102A (ja) ロボットの原点復帰方法
JP2001212777A (ja) ロボット制御装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991005

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101112

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees