JPH0972717A - 画像の取得・処理方法 - Google Patents

画像の取得・処理方法

Info

Publication number
JPH0972717A
JPH0972717A JP7248324A JP24832495A JPH0972717A JP H0972717 A JPH0972717 A JP H0972717A JP 7248324 A JP7248324 A JP 7248324A JP 24832495 A JP24832495 A JP 24832495A JP H0972717 A JPH0972717 A JP H0972717A
Authority
JP
Japan
Prior art keywords
image
work
robot
visual sensor
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7248324A
Other languages
English (en)
Inventor
Taro Arimatsu
太郎 有松
Fumikazu Warashina
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP7248324A priority Critical patent/JPH0972717A/ja
Publication of JPH0972717A publication Critical patent/JPH0972717A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 視覚センサを利用した画像取得・処理を簡素
なシステムで行い、ロボットのトラッキング動作などに
応用すること。 【解決手段】 ワーク供給源100から供給されるワー
クを搬送するコンベア1は駆動部2で駆動され、その移
動量はパルスコーダ3で検出される。画像処理装置20
とカメラ30を有する視覚センサVSは、パルスコーダ
3の検出出力を利用して撮影漏れ領域やワークの撮影漏
れが出ないような間隔で、視野31に対応した画像を繰
り返して取得し、ワークWの(a,b,c,d)の基準
位置からのずれを検出する。ロボットコントローラRC
のロボット制御部10は、これらのデータとパルスコー
ダ3の検出出力を利用して、ロボットRBに初期位置P
0 からトラッキング開始ライン60付近に到来したワー
クに対してトラッキング動作を開始させる。位置補正を
伴うトラッキング動作は、範囲60〜70間で行なわ
れ、ワークWに追いついて所定の作業を完了する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、視覚センサを用い
て画像を取得して処理する方法に関し、更に詳しく言え
ば、ベルトコンベア等の搬送手段によって移動中の対象
物(例えば、組立部品)の画像を視覚センサを用いて取
得して処理するための技術に関する。本発明は、特に、
ベルトコンベアによって搬送されるワークについてトラ
ッキング動作を伴った各種作業を行なうロボットシステ
ムや、視覚センサを用いたワークの各種検査システム
(きず、汚れ、寸法、形等の検査システム)などに適用
して有利なものである。
【0002】
【従来の技術】工場のプロセスラインにおいては、作業
対象物となるワークがコンベアで次々と作業位置に搬送
されて来るシステムが非常に幅広く採用されている。こ
のようなワーク(対象物)に対してロボットが作業を実
行する方法には、コンベアを間欠駆動する方法と連続駆
動する方法があるが、作業効率等の観点から後者の方法
が用いられるケースが多くなっている。
【0003】連続駆動されるコンベアで運ばれて来るワ
ークに対してロボットに作業を正しく行なわせるために
は、ロボットにトラッキング動作が要求される。ロボッ
トにトラッキング動作(ここではライントラッキング)
を行なわせる従来の方法を図1を参照して簡単に説明す
れば、概略次のようになる。
【0004】同図において、符号1はワーク供給源10
0に接続された直線搬送コンベアを表わしており、その
駆動軸は駆動部2に内蔵されたモータによって駆動され
る。この駆動軸乃至駆動モータの回転量はパルスコーダ
3によってパルス列の形で出力される。符号4,4’
は、ワークを検出するセンサであり、コンベア1上に載
置されて搬送されて来るワークWを検出位置50で検出
する。センサ4,4’には例えば光学式のものが使用さ
れる。
【0005】符号VSは、画像処理装置20とカメラ3
0(例えば、CCDカメラ)から構成される視覚センサ
を表わしており、符号31はカメラ30の視野を表わし
ている。図中に破線で示したように、画像処理装置20
はロボットコントローラRCに内蔵された形態をとって
いる。ロボットコントローラRCは、ロボット制御部1
0を有し、このロボット制御部10は内蔵された画像処
理装置20からワークWの位置・姿勢を表わす検出信号
を得てロボットRBの制御に利用する。また、ロボット
コントローラRCはセンサ4,4’並びにパルスコーダ
3に接続されており、前者の検出信号はワークWの到来
の認識に利用され、後者の出力はワークWの搬送位置乃
至搬送量の認識に利用される。
【0006】今、ロボットRBの動作として、(1)ワ
ークWが予め設定されたトラッキング開始ライン60に
到達した時点から、P0 を初期位置とするトラッキング
動作を開始し、(2)教示位置付近のQ0 でワークWと
遭遇し、(3)ワークWがトラッキング終了ライン70
(位置Q1 )に到達するまでにワークWに対する作業を
完了してコンベア1上から離れ、初期位置P0 へ戻る、
という動作を考えると、この動作の実行手順は例えば次
のようなものとなる。
【0007】コンベア1上に供給されたワークWがセン
サ4,4’による検出位置に到来すると、センサ4,
4’から検出信号が出力され、その時点におけるパルス
コーダ計数出力値Ns がロボットコントローラRC内に
記憶される。ワークWが更に移動して予め教示された撮
影位置(ラインAの位置)に到来すると、カメラ30に
よる撮影が実行されてその画像が画像処理装置20に取
り込まれる。
【0008】カメラ30による撮影のタイミングは、パ
ルスコーダ計数出力値Ns からのインクリメンタル量を
監視することで決定される。このインクリメンタル量
は、スケールファクタαを媒介にして、センサ4,4’
による検出位置から撮影位置(ラインAの位置)までの
距離を表わす量となっている。
【0009】取得された画像は、画像処理装置20内で
処理され、ワークWの位置・姿勢を認識する。ワークW
の位置・姿勢の認識は、例えばワークW上の特徴点a,
b,c,dなどの位置を認識し、予め準備作業時に作成
された基準画像データと比較して基準位置からのずれ量
を求め、結果を表わすデータをロボット制御部10へ伝
達することで達成される。
【0010】次に、パルスコーダ計数出力値NのNs か
らのインクリメンタル量がワークWのトラッキング開始
位置(ライン60)への到達を表わす値となったなら
ば、トラッキング座標系Σtr(Otr−xy)の移動を開
始させ、その直後にトラッキング座標系上でロボットR
Bの移動(トラッキング動作)を開始させる。ここで、
トラッキング座標系Σtrとはコンベアと等速度で同方向
に移動するように設定された座標系のことで、その初期
位置はベース座標系Σb よりも距離L0 だけ上流側に原
点を持ち、且つ、そのx軸がベース座標系Σb のX軸と
ともに、コンベア1の走行方向と一致するように設定さ
れる。ここで、距離L0 は教示点Q0 の位置とトラッキ
ング開始ライン60までの距離とされる。
【0011】ロボットRBの移動経路は、トラッキング
座標系Σtr上で教示経路を実現する形で行なわれるが、
補間計算周期で繰り返される移動目標位置の計算にあた
っては、視覚センサVSで検出されたずれ量を補償する
ようにロボット位置(通常、姿勢も含む)の補正が行わ
れる。
【0012】移動速度を適当な値に教示しておけば、ロ
ボットRBはほぼ図1に符号90で示したような曲線軌
道に沿ってワークWに接近し、トラッキング範囲内の適
当な位置Q0 でワークWに追いつくことになる。なお、
直線軌道80は、仮にベース座標系Σb (Ob −XY)
上でロボットRBを制御した場合の移動経路の例を表わ
している。
【0013】ワークWに追いついてからは、トラッキン
グ範囲で必要な作業(加工、処理、把持など)を完了
し、ライン70上の位置Q1 でトラッキング動作を終了
し、コンベア1上から離れ、初期位置P0 へ復帰する。
【0014】以上述べたように、連続駆動コンベアで搬
送されるワークに対するトラッキング動作をロボットR
Bに行なわせる場合、視覚センサVSで処理される画像
の取得(カメラ30による撮影)のタイミングは、視覚
センサVSの上流側に設けられた別のセンサ4,4’の
ワーク検出出力を利用して行なわれている。同様の手法
は、連続駆動コンベアで搬送されるワークについて視覚
センサVSで取得された画像解析に基づく検査を行なう
システムにおいても採用されている。
【0015】ところが、このような画像取得・処理方法
には次のような問題点がある。その第一は、図1中にワ
ークW’,W”間について例示したようにコンベア1の
搬送方向に沿った視野長に比べて短い間隔Dでワークを
供給した場合に、後続するワークW”(場合によって
は、ワークW’,W”)について2回の撮影と画像処理
が行なわれる確率が高くなり、効率的でないことであ
る。
【0016】即ち、図2(1)のように、ワークW’の
センサ4,4’による検出位置から定距離D4Aだけ下流
の撮影位置(ラインA)で撮影を行うことで、ワーク
W’,W”の双方を含む画像が取得される。続いて、図
2(2)のように、ワークW”のセンサ4,4’による
検出出力に基づいて定められる同じ撮影位置で撮影を行
うことで、ワークW”を含む画像(多くの場合、ワーク
W’,W”の双方を含む画像)が取得される。
【0017】通常、1回の撮影について1回の画像処理
が実行されるから、1個のワークについて2回の画像処
理が行なわれることになり、効率上有利ではない。特
に、ワークの供給頻度を高く設定した場合に無駄が多く
なる。
【0018】そして、第二の問題点は、視覚センサの画
像取得やトラッキング開始のタイミングを定めるため
に、視覚センサとは別のセンサ並びにその周辺回路が必
要とされており、システムの簡素化の観点からみて好ま
しくないということにある。
【0019】
【発明が解決しようとする課題】そこで本発明の目的
は、上記従来技術の問題点を解決することにある。即
ち、本発明は、搬送手段によって連続的に搬送されて来
る対象物について、より簡素なシステムを用いて無駄な
く画像の取得と処理を行えるようにすることを目指して
いる。また、そのことを通して、搬送手段によって連続
的に搬送されて来る対象物に対するトラッキング動作を
行なうロボットを用いたシステムや、視覚センサを用い
た検査を行なうシステムの合理化を図ろうとするもので
ある。
【0020】
【課題を解決するための手段】本発明は、対象物を搬送
する手段の走行量を検出する手段の検出出力を利用し
て、搬送手段の走行量が適正な撮影間隔に相当する所定
距離に到達する毎に視覚センサによる画像の取得と処理
を繰り返すようにして、撮影漏れを生じさせることなく
効率的に画像を取得して処理することが出来るようにし
たものである。
【0021】上記所定距離は、搬送経路に沿う方向に測
ったカメラ視野の長さから、同じく搬送経路に沿う方向
に測った対象物の長さを差し引いた距離を下回らず、且
つ、ほぼ等しくなるように予め定められる。
【0022】本発明の好ましい実施形態においては、相
前後して行なわれる画像取得の間に撮影漏れ領域が生じ
ないことを確実に保証するために、搬送手段が所定距離
を走行したことを表わす検出出力が搬送手段の走行量を
検出する手段から視覚センサの制御手段へ与えられる毎
に、前回の取得された画像との間に撮影漏れ領域を生じ
ずに画像の取得と処理を行なうことが実際に可能か否か
が判定される。そして、可能と判定された場合には画像
の取得と処理が行われ、不可能と判定された場合にはエ
ラー信号が生成される。
【0023】視覚センサで得られた画像を解析して、対
象物の位置に関する情報を得るようにすれば、この位置
情報を利用してロボットにトラッキング動作を行なわせ
ることが出来る。
【0024】
【作用】本発明は、ベルトコンベアのような搬送手段に
よって搬送中の対象物の画像をカメラ手段を備えた視覚
センサを用いて取得し、取得された画像を解析処理する
ことによって対象物に関する位置その他の情報を得るよ
うにした画像取得・処理方法を改良したものである。
【0025】従来技術においては視覚センサによる画像
取得・処理のタイミングを制御するために、視覚センサ
の上流側に別個のセンサを配備する必要があったのに対
し、本発明ではそのような別個のセンサは全く必要とし
ない。本発明では、視覚センサによる画像取得・処理の
タイミングの制御は、搬送手段の走行量の検出出力によ
って行なわれることを基本としている。
【0026】即ち、搬送手段の走行量が視覚センサのカ
メラ手段の適正な撮影間隔に相当する所定距離に到達す
る毎に視覚センサによる画像の取得と処理を繰り返すこ
とで、撮影漏れを生じさせることなく効率的に画像が取
得され、処理される。視覚センサのカメラ手段の適正な
撮影間隔に相当する所定距離とは、対象物を漏れなく撮
影することが可能で、撮影回数をほぼ最小に出来る距離
と考えられる。
【0027】このような条件は、搬送経路に沿う方向に
測ったカメラ視野の長さから、同じく搬送経路に沿う方
向に測った対象物の長さを差し引いた距離を下回らず、
且つ、ほぼ等しい距離とすれば満たされる。
【0028】ここで、「搬送経路に沿う方向に測った対
象物の長さを差し引く」理由は、すべての対象物につい
て、相前後して取得された2つの画像中の一方に完全な
形で含まれることを保証するためである。
【0029】ワークの供給間隔が予定したものより短か
くなった場合や、ロボットのトラッキング動作による時
間消費が大きい場合には、搬送手段が所定距離を走行し
たことを表わす検出出力が搬送手段の走行量を検出する
手段から視覚センサの制御手段へ与えられた時点で既に
前回の取得された画像との間に撮影漏れ領域を生じずに
画像の取得と処理を行なうことが不可能になる場合が起
こり得る。そのようなケースに対処するためには、搬送
手段が所定距離を走行したことを表わす検出出力が搬送
手段の走行量を検出する手段から視覚センサの制御手段
へ与えられる毎に、前回の取得された画像との間に撮影
漏れ領域を生じずに画像の取得と処理を行なうことが可
能か否かを判定すれば良い。
【0030】この判定は、視覚センサの制御手段がカメ
ラ手段に対して撮影指令を発しようとした時点において
検出される搬送手段の走行量が、上記所定距離を越えて
しまっている、あるいは撮影が実行される前に越えてし
まいそうであるか否かをチェックすることによって行な
い得る。判定結果が否定的であれば、システム異常とみ
なし、エラー信号を生成する。
【0031】
【発明の実施の形態】図3は、本発明の方法をロボット
のトラッキング動作のために適用する際の全体配置の1
例を、図1と類似した形式で示したものである。この配
置が図1に示した従来の配置と基本的に異なる点は、従
来使用されていたセンサ4,4’が使用されていない点
にある。以下、簡単に説明する。ワーク供給源100に
接続された直線搬送コンベア1の駆動軸は駆動部2に内
蔵されたモータによって駆動される。この駆動軸乃至駆
動モータの回転量はパルスコーダ3によってパルス列の
形で出力される。
【0032】符号VSは、画像処理装置20とカメラ3
0(例えば、CCDカメラ)から構成される視覚センサ
を表わしており、符号31はカメラ30の視野を表わし
ている。図中に破線で示したように、画像処理装置20
はロボットコントローラRCに内蔵された形態をとって
いる。
【0033】ロボットコントローラRCは、ロボット制
御部10を有している。このロボット制御部10は、内
蔵された画像処理装置20からワークWの位置・姿勢を
表わすデータを得るとともに、パルスコーダ3の計数出
力値Nを利用して、ロボットRBのトラッキング動作の
制御に利用する。
【0034】図4は、ロボットコントローラRCの内部
構成の概略を要部ブロック図で示したものである。同図
において、ロボットコントローラRCに内蔵された画像
処理装置20はマイクロプロセッサからなるCPU(中
央演算処理装置)21を有しており、CPU21にはカ
メラインターフェイス22、フレームメモリ(画像メモ
リ)23、プログラムメモリ24、画像処理プロセッサ
25、データメモリ26、モニタインターフェイス27
がバスBS”を介して各々接続されている。
【0035】カメラインターフェイス22にはカメラ3
0が接続されており、カメラインターフェイス22を介
して撮影指令が送られると、カメラ30に設定された電
子シャッタ機能(シャッタスピードは、例えば1000
分の1秒)により撮影が実行され、カメラインターフェ
イス22を介して映像信号がグレイスケール信号の形で
フレームメモリ23に格納される。モニタインターフェ
イス27にはモニタCRT40が接続されており、カメ
ラ30が撮影中の画像、フレームメモリ23に格納され
た過去の画像、画像処理プロセッサ25による処理を受
けた画像等が必要に応じて表示される。
【0036】フレームメモリ23に格納されたワークW
の映像信号は、プログラムメモリ24に格納された解析
プログラムに従って画像処理プロセッサ25を利用して
解析され、ワークWの位置が求められる。ここでは、ワ
ークWは図3中に符号a,b,c,dで示したように、
4点の特徴点を有しているものとし、これら4点のすべ
てが検出された場合に、それに基づいてワークの姿勢が
計算されるものとする。
【0037】データメモリ26は、視覚センサシステム
に関連した各種の設定値を格納する領域と、CPU21
が実行する各種処理に必要なデータの一時記憶に利用さ
れる領域を含んでいる。そして、CPU21はロボット
コントローラRC内部でバスBSを介して次に説明する
ロボット制御部10のCPU11にバス結合されてい
る。これにより、視覚センサ20全体は実質的にロボッ
ト制御部10と一体の機器として構成される。即ち、符
号10,20を含む全体が視覚センサ内蔵型のロボット
コントローラRCを構成している。
【0038】ロボット制御部10は、バスBSを介して
画像処理装置20のCPU21とバス結合されたCPU
11を有している。このCPU11には、システム全体
を制御する為のプログラムが格納されたROM12、C
PU処理の為のデータの一時記憶に使用されるRAM1
3、動作プログラム、座標系設定データ、その他各種設
定パラメータ等が格納される不揮発性メモリ14、ハン
ドを含むロボットRBの機構部にサーボ回路16を介し
て接続された軸制御器15、デジタルシグナルプロセッ
サ(DSP)用データメモリ17、デジタルシグナルプ
ロセッサ(以下、「DSP」と言う。)18が、各々バ
スBS’を介して接続されている。
【0039】DSP18は、これに接続されたパルスコ
ーダ3の計数出力信号を処理する為のプロセッサで、D
SP用データメモリ17はDSP18による諸処理デー
タや設定パラメータを格納するDSP専用のメモリであ
る。DSP18は、CPU11の命令に従って、任意の
時点においてパルスコーダ3の計数出力を検出し、DS
P用データメモリ17の所定エリアに書き込む機能を有
している。また、画像処理装置20のCPU21から
も、CPU11を介してDPS用データメモリ17にア
クセス可能となっている。
【0040】以下、このようなシステム構成と機能を前
提に、本発明の方法を実施する為の準備作業及び処理手
順について説明する。なお、画像処理装置20のプログ
ラムメモリ24、データメモリ26及びロボット制御部
10内の各メモリには、予め必要な処理を実行する為の
プログラム及び関連設定データが格納済みであるものと
する。
【0041】また、ロボットRBの動作手順は、図1の
関連説明で述べたケースと同様とする。即ち、(1)ワ
ークWがトラッキング開始ライン60に到達した時点か
ら、P0 を初期位置とするトラッキング動作を開始し、
(2)教示位置付近の点Q0でワークWと遭遇し、
(3)ワークWがトラッキング終了ライン70(位置Q
1)に到達するまでにワークWに対する作業(例えば、
シーリング剤の塗布、樹脂材料の流し込みなど)を完了
し、(4)コンベア1上から側方に離隔して初期位置P
0 に復帰する、という動作手順を考える。
【0042】[準備作業] (1)スケールファクタの決定 従来と同様の下記手順により、コンベア1の走行距離l
とパルスコーダ3の計数出力(インクリメンタル量Δ
N)との関係を表わすスケールファクタα=l/ΔNを
求める。
【0043】1.ロボットRBの動作範囲の位置にワー
クをセットし、その時のパルスコーダ3の計数出力N1
をロボットコントローラRCに格納する。 2.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X1 ,Y1
,Z1)をロボットコントローラRCに記憶させる。
【0044】3.コンベア1を適当な距離だけ走行さ
せ、ロボットRBの動作範囲内の適当な位置にワークを
停止させ、その時のパルスコーダ3の計数出力N2 をロ
ボットコントローラRCに格納する。 4.ロボットRBを手動操作して、ワークW上の適当な
定点にタッチし、その時のロボット位置(X2 ,Y2 ,
Z2 )をロボットコントローラRCに記憶させる。 5.ロボットコントローラRCに、α=(X2 −X1 )
/(N2 −N1 )の計算を行わせてスケールファクタα
を求め、ロボットコントローラRCの不揮発性メモリ1
4と画像処理装置20のデータメモリ26に記憶する。
【0045】(2)センサ座標系Σs の設定 適当な手段により、視覚センサVSにセンサ座標系Σs
を設定する。例えば、ベース座標系Σb 上の座標値が判
っている位置に公知のキャリブレーション用治具を配置
し、画像処理装置20のプログラムメモリ24に格納さ
れたキャリブレーション用のプログラムを起動させ、カ
メラ30の画素値データをセンサ座標系Σs のデータに
換算する為のデータを画像処理装置20のデータメモリ
26に格納する。また、その結果を利用して、センサ座
標系Σs とベース座標系Σb の関係を表わすデータをロ
ボット制御部10の不揮発性メモリ14に格納する。
【0046】(3)カメラ30の視野31内のコンベア
1上にワークWをセットし、その時点におけるパルスコ
ーダ計数出力値Nvsをロボット制御部10のDSP用デ
ータメモリ17と画像処理装置20のデータメモリ26
に格納する。また、カメラ30による撮影を実行し、ワ
ークWの画像を基準画像として取り込み、フレームメモ
リ23に格納する。
【0047】(4)コンベア1を走行させ、ロボットR
Bにトラッキング動作を開始させるに適した位置(ライ
ン60上)にワークWが到達したら、コンベア1を停止
させる。そして、その時点のパルスコーダ計数出力値N
60と先に記憶したNvsとの差(インクリメンタル量)Δ
N60-vs =N60−Nvsを計算して、DSP用データメモ
リ17に格納する。
【0048】(5)コンベア1を再び更に走行させ、ロ
ボットRBがワークWに対する作業を開始するに適した
位置にワークWをもって来る。そして、その時点のパル
スコーダ計数出力値Ntcと先に記憶したNvsからΔNtc
-vs =Ntc−Nvsを計算して、DSP用データメモリ1
7に格納する。
【0049】(6)ロボットRBに所期の作業(例え
ば、樹脂材料の注入、シーリング剤の塗布など)の実行
に必要な動作を教示する。ここでは、その詳細は省略す
る。 (7)コンベア1を再び更に走行させ、ロボットRBの
トラッキング動作を終了させるに適した位置(ライン7
0上)にワークWをもって来て、コンベア1を停止させ
る。そして、その時点のパルスコーダ計数出力値N70と
先に記憶したNvsからΔN70-vs=N70−Nvsを計算
し、結果をDSP用データメモリ17に格納する。
【0050】(8)トラッキング座標系の設定 ロボットRBとコンベア1の座標系の共有化を行なう為
に、トラッキング座標系Σtrを次の条件で設定する。な
お、ここではX軸がコンベアの走行方向と一致したベー
ス座標系Σb が設定済みであるものとする。即ち、トラ
ッキング座標系Σtrはベース座標系Σb と同姿勢で設定
され、トラッキング座標系Σtrが移動を開始するまでの
原点位置は、 X0 =−L0 Y0 =0 Z0 =0 であり、両者の座標値の関係は、 x=X−L0 y=Y z=Z で表わされるものとする。但し、L0 は教示点Q0 の位
置とトラッキング開始ライン60までの距離である。そ
こで、L0 の値を確定するために、既に求められたスケ
ールファクタα、ΔN60-vs,ΔNtc-vsを用いて、 L0 =α(ΔNtc-vs−ΔN60-vs) を計算し、トラッキング座標系Σtrを既述するパラメー
タとして、ロボット制御部10の不揮発性メモリ14に
格納する。
【0051】トラッキング座標系Σtrをこのように設定
することで、ロボットを初期位置にあるトラッキング座
標系Σtr上で動作させた時、教示点Q0 の位置をトラッ
キング開始ライン60上の点Q0'として認識する。
【0052】トラッキング座標系Σtrは、トラッキング
動作開始指令を受けてコンベア1と等速でx軸方向(=
X軸方向)へ移動を開始する。トラッキング座標系Σtr
の移動量は、後述するように、パルスコーダ計数出力値
Nの変化量とスケールファクタαに基づいてリアルタイ
ムに決定される。
【0053】(9)その他、後述する処理でアクセスさ
れるレジスタの設定、視野31の長さ、撮影間隔を調節
するパラメータ、エラー信号出力の基準値などの設定を
行なう(w,f30,ε1 ,ε2 等)。
【0054】以上で、トラッキング実行の為の準備作業
が完了する。次に、図5及び図6のフローチャートを参
照して、トラッキングによる本作業実行時のCPU処理
について説明する。処理は視覚センサVS側の処理と、
ロボット制御部10側の処理に大別され、これらはタス
ク処理として並行的に実行される。先ず、図5に示した
視覚センサVS側の処理の概要を述べる。なお、以下の
説明は次の(1)〜(3)の前提の下で行なう。
【0055】(1)wは視覚センサVSによる位置検出
結果のデータ格納が完了し、且つ、ロボットRBによる
作業が行なわれていないワークの数を表わす指標値であ
り、その初期値は当然w=0である。 (2)供給されるワークWの姿勢にはばらつきがあり、
それを考慮してコンベア1の搬送方向に沿って測ったワ
ークWの最大の長さを、図7に示したように、s0 とす
る。 (3)カメラ30の視野31は、コンベア1のほぼ全幅
をカバーしており、ワーク像がコンベア1の幅方向には
み出ることはないものとする。
【0056】ロボット制御部10と画像処理装置20内
で行なわれる処理は、ワーク供給源100がコンベア1
上へのワーク供給を開始したことを知らせる適当な外部
信号を受けて、同時に開始される。画像処理装置20の
CPU21は先ず撮影指令を出力し、カメラ30による
撮影を実行し、取得した画像をフレームメモリに格納す
るとともに(ステップS1)、画像取得時のパルスコー
ダ計数出力値N30をDSP用メモリ17とデータメモリ
26に格納する(ステップS2)。
【0057】更に、ステップS1で取得した画像をプロ
グラムメモリ24に格納された解析プログラムを用いた
解析を行い、先ず最下流のワークの検出を試みる(ステ
ップS3)。最下流のワークの検出に成功(a,b,
c,d全点検出)しなかった場合には(ステップS4で
ノー)、ステップS5以下へ進み、次回撮影に備える態
勢に入る。即ち、ステップS5では、パルスコーダ計数
出力値Nを短周期で繰り返しチェックし、最新の画像取
得時からのコンベア移動量α(N−N30)がf30−ε1
(ε1 >0)を越えるのを待つ(ステップS5)。
【0058】ここでε1 は、相前後して取得される2つ
の画像間に撮影漏れとなる領域が生じないようにするだ
けでなく、すべてのワークについていずれかの撮影機会
においてa,b,c,dの全点が検出されることを基本
的に保証するための調整値である。従って、ε1 は上述
したワーク最大長s0 を下回らない条件で、ほぼ最小に
定められる。
【0059】例えば、視野長100.0cm、s0 =
5.0cmとした時、ε1 =5.1cm〜6.0cmと
する。ε1 を必要以上に大きくすることは、二重撮影領
域(相前後して撮影される画像に重なって含まれる領
域)が大きくなり、効率上好ましくない。特に、ε1 >
2s0 とすると、一つのワークに対して2回の検出が行
なわれる可能性も出て来る。
【0060】ステップS5でイエスの判定が出されたな
らば、コンベア移動量α(N−N30)がf30−ε1 +ε
2 を越えていないこと、及び処理終了信号が出力されて
いないことを確認した上で(ステップS6、S7)、ス
テップS1へ戻り、次回の撮影/画像取り込み、N30の
記憶(ステップS2)、画像処理(ステップS3)を順
次実行する。
【0061】ステップS5の判定式に含まれるε2 は、
次回撮影にかかろうとする時点で既にコンベア移動量が
過大となり、すべてのワークについていずれかの撮影機
会においてa,b,c,dの全点が検出されることを基
本的に保証するための二重撮影領域を形成出来ない状態
に至っていないかどうかを判定するための調整値で、本
処理では0<ε2 ≦ε1 −s0 に設定される。但し、ε
1 =s0 とした場合には、ε2 =0となるので、このス
テップS6は不要になる。
【0062】このステップS6でイエスの判定が出力さ
れるのは、コンベア速度が画像処理速度に比べて速すぎ
る場合、画像処理に異常に長い時間が費やされた場合な
どである。このようなケースは、システムが正常作動し
ていないことを意味すると考えられるので、ステップS
8へ進み、エラー信号を出力した上で処理を終了する。
また、ステップS7でイエスの判定が出力されるのは、
全ワークの撮影終了を表わす外部信号、ロボット側でエ
ラー信号等が出力された場合などである。
【0063】ワークWが次々と視野内31に到達するよ
うになると、ステップS4でイエスの判定が出力される
ようになる。その場合には、ステップS9へ進み、位置
検出の結果を画像取得時のパルスコーダ計数出力値N30
と対応付けて記憶し(ステップS9)、レジスタ値wの
値を1カウントアップする(ステップS10)。なお、
記憶形式については後述する。最下流のワークについて
の位置検出/記憶が完了したら、同画像中に他のワーク
画像が一部でも含まれているか否かを判定する(ステッ
プS12)。
【0064】ステップS12の判断がノーであれば、ス
テップS5以下へ進み、次回の撮影タイミングを待つ。
ステップS5〜ステップS8の処理については既に述べ
た通りである。ステップS12の判断結果がイエスであ
れば、ステップS9へ戻り、ステップS10〜ステップ
S12の処理を再度実行する。
【0065】以上説明した処理サイクル(ステップS1
〜S12)を処理終了まで繰り返すことで、システムが
異常動作しない限り、すべてのワークについてa,b,
c,dの位置を表わすデータが順次取得される。図8
は、これらデータの記憶形式を説明する図で、各コラム
は左から順に、ライン番号、a,b,c,dの検出位置
を基準画像についての値との偏差(ずれ量)で表わした
データ、その位置検出を行なった画像の取得時のパルス
コーダ計数出力値N30を表わしている。
【0066】ここに記した例では、3個のワークのデー
タが書込み済みとなっており(w=3)、3つのワーク
について点a,b,c,dの位置偏差(Δxa1,Δya
1),(Δxb1,Δyb1)・・・・(Δxc2,Δyc
2),(Δxd2,Δyd2)がN30の値とともに書き込ま
れている。
【0067】画像取得時のパルスコーダ計数出力値N30
の数値はあくまで例示であるが、1行目のN30と2行目
のN30が一致しているのは、同一の撮影機会で得られた
画像中の2つのワーク画像について点a,bの位置検出
がなされたことを意味している。なお、データの書込
は、最上のブランク行に対して行なわれる。また、ロボ
ット側でのデータアクセスは最上行(最上流のワークの
データ)から行なわれ、データアクセス完了後に消去さ
れるとともに、他行のデータの格納位置が一行づつくり
上がげる処理が実行されるものとする。
【0068】次に、ロボット制御部10側で行なわれる
処理の概要を説明する。ワーク供給開始を知らせる適当
な外部信号を受けて、ロボット制御部10のCPU11
は処理を開始し、先ず、教示点Q0 の位置データを含む
動作プログラムデータを読み込み(ステップR1)、レ
ジスタ値wを短周期で繰り返しチェックする態勢に入る
(ステップR2)。上述した撮影とそれに続く画像処理
装置20側の処理によって、ワークWの位置が検出され
ると、その結果が図8に示した形式で記憶されるととも
にレジスタ値wが0でない値となる。
【0069】これによりステップR2でw≠0が検出さ
れると、直ちに、ワーク1個分のデータが読み込まれる
(ステップR3)。図8の例で言えば、第1行目のデー
タ[Δxa1,Δya1,Δxb1,Δyb1,Δxc1,Δyc
1,Δxd1,Δyd1,4565]が読み込まれる。読み込み
が完了したら、図8に示したデータから第1行目のデー
タを消去し、データ更新を行なう(ステップR4)。デ
ータ更新は、第1行目のデータの消去後に第2行目以下
のデータの書込行を第1行づつ繰り上げることで達成さ
れる。図8に示した例では、次の手順で更新が行なわれ
る。
【0070】1.第1行目のデータを消去する。 2.第2行目のデータを第1行目にコピーする。 3.第2行目のデータを消去する。 4.第3行目のデータを第2行目にコピーする。 5.第3行目のデータを消去する。
【0071】次いで、パルスコーダ計数出力値Nが、N
=ΔN60-vs+N30(上記例ではN30=4565)に到達す
るのを待つ態勢に入る(ステップR5)。N=ΔN60-v
s+N30というパルスコーダ計数出力値は、ワークがト
ラッキング開始ライン60の位置に到達したことの目安
となるものである。もし、そのワークの撮影位置が基準
画像を得た時のワーク位置と一致していれば、この値は
そのワークがトラッキング開始ライン60の位置に到達
したことを正確に表わす筈である。
【0072】ステップR5でイエスの判断出力が得られ
たならば、直ちにトラッキング座標系Σtr上でロボット
RBの移動を開始させるとともに、トラッキング座標系
Σtrの移動を開始させる(ステップR6)。トラッキン
グ座標系Σtrの移動は、トラッキングΣtrの原点位置
[X0 ,Y0 ,Z0 ]を次式で表わされたものとするこ
とで達成される。 X0 =−L0 +α{N−(ΔN60-vs+N30)} Y0 =0 Z0 =0 トラッキング座標系Σtrが移動中の座標値の変換式は、 x=X−L0 +α{N−(ΔN60-vs+N30)} y=Y z=Z となる。
【0073】これにより、ロボットRBのトラッキング
動作が開始される。即ち、ロボットRBは、トラッキン
グ座標系Σtr上で教示点を目指して移動を開始する。但
し、補間動作で作成される補間点の位置は、ステップR
3で読み込んだデータ(基準位置とのずれ量)に基づい
て補正される。
【0074】移動開始時点における教示点位置は、トラ
ッキング座標系Σtrの初期位置の設定法から考えて、図
3中に符号Q0'で示したように、トラッキング開始ライ
ン60上にある。そして、トラッキング座標系Σtr移動
開始後には、この点Q0'をコンベア1の走行と同期移動
させた点(より正確に言えば、それを視覚センサのデー
タで補正した位置)を目指すようにロボットRBの移動
が行なわれる。
【0075】トラッキング範囲内でロボットRBが余裕
を以てワークWに追いついたことが確認されると(ステ
ップR7→ステップR8)、教示済みの作業がトラッキ
ング座標系Σtr上で実行される(ステップR9)。ここ
で、ステップR7におけるN=ΔN70-vs +N30−δ
(δ>0)の含まれるδは、ロボットRBがトラッキン
グ範囲内で所定の作業を完了するために必要とされる余
裕を表わす調整量で予め適当な値が設定される。
【0076】パルスコーダ計数出力値NがN=ΔN70-v
s +N30に到達したならば(ステップR10)、ロボッ
トRBのトラッキング座標系Σtr上での動作を終了さ
せ、ロボットを初期位置P0 へ戻す(ステップR1
1)。
【0077】以上で、一つのワークに対する動作サイク
ルを終了し、ステップR2へ戻り、次の検出ワークに対
する処理を開始する。ステップR2以下の処理は、上述
した通りであるから省略する。
【0078】ステップR8でノーの判断が出された場合
には、トラッキング範囲内での作業完了が困難な状態と
みなし、エラー信号を出力し(ステップR12)、処理
を終了する。このエラー信号は、画像処理装置側で検知
(図5のフローチャート;ステップS7を参照)され、
画像処理装置側の処理も終了される。このような事態が
生ずるのは、ワーク供給間隔Dが短すぎるなどの理由
で、ロボットがワークにトラッキング範囲内で余裕を以
て追いつけない場合である。
【0079】なお、ワーク供給間隔Dが短い場合には、
例えばロボットを2台以上配置し、交番的にトラッキン
グ動作させるようにすれば、このような事態を避けるこ
とが出来る。
【0080】以上、本発明をトラッキング用の画像取得
と処理に適用した例について説明したが、搬送手段上で
移動する対象他の事例への適用が可能であることは言う
までもない。例えば、ワークの検査工程に適用する場合
であれば、画像処理を寸法、形などを検査するプログラ
ムに従って行なうようにすれば良い。そして、不良ワー
クの検出時にのみその不良ワークの位置データを記憶
し、これをロボット側で読み出してトラッキング動作を
行なわせるようにすれば、上記説明したシステムを不良
ワークの検査/除去工程に適用することも出来る。
【0081】
【発明の効果】本発明によれば、搬送手段によって連続
的に搬送されて来る対象物について、より簡素なシステ
ムを用いて無駄なく画像の取得と処理を行なうことが可
能になる。また、そのことを通して、搬送手段によって
連続的に搬送されて来る対象物に対するトラッキング動
作を行なうロボットを用いたシステムや、視覚センサを
用いた検査を行なうシステムを簡素化することが出来
る。
【図面の簡単な説明】
【図1】ロボットにトラッキング動作を行なわせる際に
用いられる従来の配置について説明する図である。
【図2】従来の画像取得/処理方式が不効率であること
を説明する図で、(1),(2)は、相前後して取得さ
れる画像の例を表わしている。
【図3】本発明をロボットのトラッキング動作のために
適用する際の全体配置の1例を、図1と類似した形式で
示したものである。
【図4】図3の配置に対応したシステム構成の一例を要
部ブロック図で示したものである。
【図5】本発明の一つの実施形態において、画像処理装
置側で行なわれる処理内容の概略を記したフローチャー
トである。
【図6】本発明の一つの実施形態において、ロボット制
御部側で行なわれる処理内容の概略を記したフローチャ
ートである。
【図7】供給ワークWの最大長s0 について説明する図
である。
【図8】ワークの位置検出データの記憶形式を説明する
図である。
【符号の説明】
1 コンベア 2 コンベア駆動部 3 パルスコーダ 4 センサ 10 ロボット制御部 11 CPU(ロボットコントローラ) 12 ROM 13 RAM 14 不揮発性メモリ 15 軸制御器 16 サーボ回路 17 デジタルシグナルプロセッサ(DSP)用データ
メモリ 18 デジタルシグナルプロセッサ(DSP) 19 センサインターフェイス 20 画像処理装置 21 CPU(画像処理装置) 22 カメラインターフェイス 23 フレームメモリ 24 プログラムメモリ 25 画像処理プロセッサ 26 データメモリ 27 モニタインターフェイス 30 カメラ 31 視野 40 モニタCRT 50 検出位置ライン 60 トラッキング開始ライン 70 トラッキング終了ライン 80 直線軌道 90 曲線軌道 100 ワーク供給源 BS,BS’,BS” バス P0 ロボット初期位置 RB ロボット RC ロボットコントローラ VS 視覚センサ W,W’,W” ワークまたはワーク画像 a,b,c,d ワークの特徴点

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 対象物を搬送する手段と、前記搬送手段
    の走行量を検出する手段と、前記対象物の搬送経路上に
    視野を持つカメラ手段を備えた視覚センサと、前記視覚
    センサの制御手段とを用い、前記搬送手段によって搬送
    中の前記対象物に関する情報を獲得するために、前記視
    野に対応した画像を繰り返し取得するとともに該取得さ
    れた画像に関する処理を行なうようにした画像の取得・
    処理方法において、 前記搬送手段が所定距離を走行したことを表わす検出出
    力が前記搬送手段の走行量を検出する手段から前記視覚
    センサの制御手段へ与えられる毎に、前記画像の取得と
    処理が実行され、 前記所定距離は、前記搬送経路に沿った前記視野の長さ
    から前記搬送経路に沿ったに前記対象物の長さを差し引
    いた距離を下回らず、且つ、ほぼ等しくなるように予め
    定められる、前記画像の取得・処理方法。
  2. 【請求項2】 対象物を搬送する手段と、前記搬送手段
    の走行量を検出する手段と、前記対象物の搬送経路上に
    視野を持つカメラ手段を備えた視覚センサと、前記視覚
    センサの制御手段とを用い、前記搬送手段によって搬送
    中の前記対象物に関する情報を獲得するために、前記視
    野に対応した画像を繰り返し取得するとともに該取得さ
    れた画像に関する処理を行なうようにした画像の取得・
    処理方法において、 前記搬送手段が所定距離を走行したことを表わす検出出
    力が前記搬送手段の走行量を検出する手段から前記視覚
    センサの制御手段へ与えられる毎に、前回の取得された
    画像との間に撮影漏れ領域を生じずに画像の取得と処理
    を行なうことが可能か否かが判定され、可能と判定され
    た場合には画像の取得と処理が行われ、不可能と判定さ
    れた場合にはエラー信号が生成される、前記画像の取得
    ・処理方法。
  3. 【請求項3】 前記対象物に関する情報前記対象物の位
    置に関する情報を含み、且つ、該位置情報がロボットの
    トラッキング動作に利用される、請求項1または請求項
    2に記載された画像の取得・処理方法。
JP7248324A 1995-09-04 1995-09-04 画像の取得・処理方法 Pending JPH0972717A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7248324A JPH0972717A (ja) 1995-09-04 1995-09-04 画像の取得・処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7248324A JPH0972717A (ja) 1995-09-04 1995-09-04 画像の取得・処理方法

Publications (1)

Publication Number Publication Date
JPH0972717A true JPH0972717A (ja) 1997-03-18

Family

ID=17176391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7248324A Pending JPH0972717A (ja) 1995-09-04 1995-09-04 画像の取得・処理方法

Country Status (1)

Country Link
JP (1) JPH0972717A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998054673A1 (fr) * 1997-05-30 1998-12-03 Fanuc Ltd Dispositif d'acquisition d'image
JP2002113679A (ja) * 2000-10-06 2002-04-16 Seiko Instruments Inc トラッキング方法、トラッキングシステム、及びトラッキング装置
GB2428035A (en) * 2005-07-07 2007-01-17 Toshiba Machine Co Ltd Handling sytem for locating and selecting articles on a conveyor belt
EP1769891A2 (en) 2005-09-28 2007-04-04 Fanuc Ltd Offline teaching apparatus for robot
JP2007528793A (ja) * 2003-06-26 2007-10-18 エービービー エービー システム、コンピュータプログラム、データ信号、及びguiを含むマシンの制御方法
JP2009212549A (ja) * 2008-02-29 2009-09-17 Toyo Inspections Kk 撮像装置
WO2012111173A1 (ja) 2011-02-15 2012-08-23 オムロン株式会社 画像処理装置および画像処理システム
JP2012192466A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP2012210675A (ja) * 2011-03-31 2012-11-01 Ihi Corp ハンドガイド装置とその制御方法
US8805585B2 (en) 2008-06-05 2014-08-12 Toshiba Kikai Kabushiki Kaisha Handling apparatus, control device, control method, and program
JP2016130674A (ja) * 2015-01-14 2016-07-21 株式会社ダイシン 搬送物検査システム及び搬送装置
KR101697905B1 (ko) * 2016-01-08 2017-01-18 가부시기가이샤 다이신 반송물 판별 제어 시스템 및 반송장치
CN108215104A (zh) * 2016-12-21 2018-06-29 发那科株式会社 机器人系统以及生产系统
JP2019130646A (ja) * 2018-02-01 2019-08-08 ファナック株式会社 作業ロボットシステム
JP2019136808A (ja) * 2018-02-08 2019-08-22 ファナック株式会社 作業ロボットシステム
KR20190120463A (ko) * 2018-04-13 2019-10-24 삼성디스플레이 주식회사 패널 이송 장치 및 패널 이송 방법
JP2019188508A (ja) * 2018-04-23 2019-10-31 ファナック株式会社 作業ロボットシステムおよび作業ロボット
CN112215892A (zh) * 2020-10-22 2021-01-12 常州大学 一种场地机器人的位置及其运动路径的监测方法
US11679501B2 (en) 2019-11-07 2023-06-20 Fanuc Corporation Controller for determining modification method of position or orientation of robot

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998054673A1 (fr) * 1997-05-30 1998-12-03 Fanuc Ltd Dispositif d'acquisition d'image
JP2002113679A (ja) * 2000-10-06 2002-04-16 Seiko Instruments Inc トラッキング方法、トラッキングシステム、及びトラッキング装置
US8417363B2 (en) 2003-06-26 2013-04-09 Abb Ab Control method for machines, including a system, computer program, data signal and gui
JP2007528793A (ja) * 2003-06-26 2007-10-18 エービービー エービー システム、コンピュータプログラム、データ信号、及びguiを含むマシンの制御方法
JP4827731B2 (ja) * 2003-06-26 2011-11-30 エービービー エービー システム、コンピュータプログラム、データ信号、及びguiを含むマシンの制御方法
GB2428035A (en) * 2005-07-07 2007-01-17 Toshiba Machine Co Ltd Handling sytem for locating and selecting articles on a conveyor belt
JP2007015055A (ja) * 2005-07-07 2007-01-25 Toshiba Mach Co Ltd ハンドリング装置、作業装置及びプログラム
GB2428035B (en) * 2005-07-07 2007-08-29 Toshiba Machine Co Ltd Handling system, work system and program
US7654380B2 (en) 2005-07-07 2010-02-02 Toshiba Kikai Kabushiki Kaisha Handling system, work system, and program
US8442668B2 (en) 2005-07-07 2013-05-14 Toshiba Kikai Kabushiki Kaisha Handling system, work system, and program
EP1769891A2 (en) 2005-09-28 2007-04-04 Fanuc Ltd Offline teaching apparatus for robot
JP2007090479A (ja) * 2005-09-28 2007-04-12 Fanuc Ltd ロボットのオフライン教示装置
JP2009212549A (ja) * 2008-02-29 2009-09-17 Toyo Inspections Kk 撮像装置
US8805585B2 (en) 2008-06-05 2014-08-12 Toshiba Kikai Kabushiki Kaisha Handling apparatus, control device, control method, and program
WO2012111173A1 (ja) 2011-02-15 2012-08-23 オムロン株式会社 画像処理装置および画像処理システム
CN103313921A (zh) * 2011-02-15 2013-09-18 欧姆龙株式会社 图像处理装置及图像处理系统
US9741108B2 (en) 2011-02-15 2017-08-22 Omron Corporation Image processing apparatus and image processing system for conveyor tracking
JP2012192466A (ja) * 2011-03-15 2012-10-11 Omron Corp 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP2012210675A (ja) * 2011-03-31 2012-11-01 Ihi Corp ハンドガイド装置とその制御方法
JP2016130674A (ja) * 2015-01-14 2016-07-21 株式会社ダイシン 搬送物検査システム及び搬送装置
KR101697905B1 (ko) * 2016-01-08 2017-01-18 가부시기가이샤 다이신 반송물 판별 제어 시스템 및 반송장치
CN106956916B (zh) * 2016-01-08 2019-05-17 株式会社大伸 输送物辨别控制系统及输送装置
CN106956916A (zh) * 2016-01-08 2017-07-18 株式会社大伸 输送物辨别控制系统及输送装置
CN108215104A (zh) * 2016-12-21 2018-06-29 发那科株式会社 机器人系统以及生产系统
CN108215104B (zh) * 2016-12-21 2019-06-21 发那科株式会社 机器人系统以及生产系统
JP2019130646A (ja) * 2018-02-01 2019-08-08 ファナック株式会社 作業ロボットシステム
CN110103201A (zh) * 2018-02-01 2019-08-09 发那科株式会社 作业机器人系统
US10780579B2 (en) 2018-02-01 2020-09-22 Fanuc Corporation Work robot system
CN110103201B (zh) * 2018-02-01 2020-09-22 发那科株式会社 作业机器人系统
US11407115B2 (en) 2018-02-08 2022-08-09 Fanuc Corporation Work robot system
JP2019136808A (ja) * 2018-02-08 2019-08-22 ファナック株式会社 作業ロボットシステム
US11904483B2 (en) 2018-02-08 2024-02-20 Fanuc Corporation Work robot system
KR20190120463A (ko) * 2018-04-13 2019-10-24 삼성디스플레이 주식회사 패널 이송 장치 및 패널 이송 방법
US11161697B2 (en) 2018-04-23 2021-11-02 Fanuc Corporation Work robot system and work robot
JP2019188508A (ja) * 2018-04-23 2019-10-31 ファナック株式会社 作業ロボットシステムおよび作業ロボット
US11679501B2 (en) 2019-11-07 2023-06-20 Fanuc Corporation Controller for determining modification method of position or orientation of robot
CN112215892A (zh) * 2020-10-22 2021-01-12 常州大学 一种场地机器人的位置及其运动路径的监测方法
CN112215892B (zh) * 2020-10-22 2024-03-12 常州大学 一种场地机器人的位置及其运动路径的监测方法

Similar Documents

Publication Publication Date Title
JP3002097B2 (ja) ビジュアルトラッキング方法
JPH0972717A (ja) 画像の取得・処理方法
JP3834088B2 (ja) 複数のロボットにトラッキング動作を行なわせるための視覚センサ・ロボットシステム
CN108674922B (zh) 一种用于机器人的传送带同步跟踪方法、装置及系统
US9774827B2 (en) Imaging inspection apparatus for setting one or more image-capturing positions on a line that connects two taught positions, control device thereof, and method of controlling imaging inspection apparatus
CN113269085B (zh) 一种直线传送带跟踪控制方法、系统、装置及存储介质
JP6506356B2 (ja) 物品搬送システム及び搬送システム制御装置
JP4303411B2 (ja) トラッキング方法、及びトラッキングシステム
JP2004001122A (ja) ピッキング装置
JPH10105217A (ja) ロボットのトラッキング制御方法およびロボット制御システム
JPH10334221A (ja) 画像取得装置
JP7078894B2 (ja) 制御システム、制御装置、画像処理装置およびプログラム
JP2004243215A (ja) シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置
JP4809524B2 (ja) トラッキング方法、トラッキングシステム、及びトラッキング装置
EP3462258B1 (en) Control device with corresponding method and recording medium to generate a corrected path
JPH1053316A (ja) コンベアの滑り量計測方法並びにロボットのトラッキング動作補正方法
CN113232022B (zh) 一种圆盘传送跟踪控制方法、系统、装置及存储介质
US20220105641A1 (en) Belt Conveyor Calibration Method, Robot Control Method, and Robot System
JP2001088073A (ja) 外観検査装置
JPH09300264A (ja) ロボット制御装置
JP2718249B2 (ja) ロボットの位置ずれ検出装置
JPH08285526A (ja) 画像認識方式
JP3175623B2 (ja) ロボットの制御装置
JPH05337785A (ja) 研削ロボットの研削経路修正装置
JP3204692B2 (ja) 連続画像の取込み方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040810