JP2016209995A - 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 - Google Patents
画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 Download PDFInfo
- Publication number
- JP2016209995A JP2016209995A JP2016123495A JP2016123495A JP2016209995A JP 2016209995 A JP2016209995 A JP 2016209995A JP 2016123495 A JP2016123495 A JP 2016123495A JP 2016123495 A JP2016123495 A JP 2016123495A JP 2016209995 A JP2016209995 A JP 2016209995A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- imaging
- position information
- robot
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 119
- 238000005259 measurement Methods 0.000 claims abstract description 54
- 238000003384 imaging method Methods 0.000 claims description 213
- 238000000034 method Methods 0.000 claims description 81
- 230000008569 process Effects 0.000 claims description 60
- 230000033001 locomotion Effects 0.000 claims description 55
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000012546 transfer Methods 0.000 claims description 8
- 238000011144 upstream manufacturing Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 description 142
- 238000001514 detection method Methods 0.000 description 49
- 239000000872 buffer Substances 0.000 description 39
- 230000006870 function Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 238000007726 management method Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 235000008733 Citrus aurantifolia Nutrition 0.000 description 1
- 235000011941 Tilia x europaea Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000004571 lime Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Control Of Conveyors (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、本発明の実施の形態に係る視覚センサ100を利用したコンベアトラッキングシステムの構成を示す模式図である。図1に示すコンベアトラッキングシステムは、2つの搬送装置(コンベア)10および20を含む。コンベア10および20は、それぞれ駆動ローラ12および22によって回転駆動される。以下では、コンベア10および20をそれぞれライン1およびライン2とも称す。図1に示す例では、ライン1は、紙面右側に移動し、ライン2は、紙面左側に移動する。ライン1には、搬出装置30等によって紙面左側からワークWがランダムに提供される。このライン1上のワークWは、紙面左側から紙面右側へ移動する。ワークWとしては、典型的には、お菓子等の食品や各種の錠剤等が想定される。
で、ライン1上をランダムに流れてくるワークWを順次撮像できる。視覚センサ100は、この順次撮像される画像に対してパターンマッチング等の計測処理を行うことで、各ワークの位置決めおよびトラッキング処理を行う。このように、視覚センサ100の撮像部(図3に示す撮像部110)は、搬送装置であるコンベア10上を搬送されるワークWを撮像するように配置されている。そして、この撮像部に画像処理装置(図3に示す画像処理部120)が接続される。
100に実装することで、汎用的なロボット制御装置であっても、コンベアトラッキング等などの処理をより正確に行うことができる。この重複排除機能の詳細については、後述する。
次に、図1に示すコンベアシステムにおける位置決めおよびトラッキング処理の詳細について説明する。
によって取得された画像中の予め登録されたワークに対応する領域を移動機械であるロボット300の座標系「ロボット座標系」で表した座標値を含む。また、各ワークWの計測された位置情報をロボット座標系の値として出力できるように、視覚センサ100およびロボット制御装置200は、予めキャリブレーションされている。このキャリブレーションについては、後述する。
図3は、本発明の実施の形態に係る視覚センサ100を利用したコンベアトラッキングシステムのハードウェア構成について示す模式図である。図3を参照して、視覚センサ100は、撮像部110と、画像処理部120とを含む。
サやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの受光
素子とを含む。撮像部110は、画像処理部120からの指令に従って撮像するとともに、その撮像によって得られた画像データを画像処理部120へ出力する。
、撮像制御部126と、通信インターフェイス(I/F)128と、入出力インターフェイス(I/F)130と、エンコーダカウンタ132とを含む。これらのコンポーネントは、バス134を介して互いにデータ通信可能に接続されている。
ーダ値)を格納し、また、最新検出バッファ124bは、最新の計測処理によって検出された座標値および対応するカウント値(エンコーダ値)を格納する。これらのバッファ124aおよび124bに保持された座標値を互いに比較することで、同一のワークの座標が重複して検出されることを回避する。メモリ124には、さらに、これらのバッファ124aおよび124bには、重複チェックするための領域(図示しない)が設けられている。すなわち、コンベア10上のワークの位置情報を管理する管理手段は、前回検出バッファ124aおよび最新検出バッファ124bによって実現される。
し、あるいは、外部からの各種信号を入力する。特に、入出力インターフェイス230は、エンコーダ14で生成されるパルス信号を受け入れ、その信号をデジタル信号に変換してエンコーダカウンタ232へ出力する。
(d1:概要)
次に、本実施の形態に係るコンベアトラッキングシステムにおける重複排除ロジックについて説明する。
y4),(x5,y5)が撮像タイミングにおけるカウント値Cb(コンベア10の移動量に相当)と対応付けて、前回検出バッファ124aに格納される。この状態において、今回の撮像が行われたとする。このとき、今回の撮像範囲には、ワークW4〜W7が含まれており、それぞれの座標値(xa,ya),(xb,yb),(xc,yc),(xd,yd)が撮像タイミングにおけるカウント値Cn(コンベア10の移動量に相当)と対応付けて、最新検出バッファ124bに格納される。
次に、上述のような重複排除処理について、より詳細に説明する。
(1) ロボット制御装置200からの撮像指示に応答して、撮像部110を用いて撮像範囲を撮像した画像を取得する。
(3) 計測処理によって得られた検出結果(画像座標系におけるワークの座標値)をロボット座標系の座標値に変換する。
ッファ124aに格納されているすべてのワークの座標値を、前回の撮像タイミングと最新の撮像タイミングとの間のカウント値の差から、最新の撮像タイミングに対応する座標値に更新する。すなわち、CPU122(重複排除ロジック122a)は、管理手段である前回検出バッファ124aによって管理されているワークの位置情報を撮像部110の撮像が行われたタイミングに対応する値に更新する。より具体的には、最新の撮像タイミングに対応するカウント値をCnとし、前回の撮像タイミングに対応するカウント値をCbとすると、前回検出バッファ124aに格納されている座標値(X,Y)は以下のような式に従って変換される。
Y←Y+dY・(Cn−Cb)
すなわち、CPU122(重複排除ロジック122a)は、撮像部110の撮像が行われたタイミングでのコンベア10における移動量と各ワークの位置情報に対応するコンベア10における移動量との差分を用いて、ワークの位置情報を補正する。
次に、本実施の形態に係るトラッキングシステムにおける制御動作についてより詳細に説明する。図5は、本発明の実施の形態に係るトラッキングシステムにおける制御動作を示すシーケンス図である。
次に、上述したようなパラメータ(図3に示すパラメータセット124c)を取得するためのキャリブレーションについて説明する。
このキャリブレーションにおいては、エンコーダ14からのパルス信号に含まれる1パルスあたりのコンベアの移動量が取得される。このコンベアの移動量は、図7の下から2段目に示されるdXおよびdYに相当する。図7に示すように、コンベアの移動量はベクトル量であるので、ロボット座標系のそれぞれの軸について値が取得されることになる。このコンベアの移動量は、ロボット300がエンコーダ14からのパルス信号を受けて、コンベア10上のワーク位置を追跡(トラッキング)するために必要なパラメータである。
視覚センサ100によって計測されたワークの位置情報(画像座標系の座標値(xi,yi)[pixel])を、ロボット座標系の座標値(X,Y)[mm]に変換するための関係式が取得される。この関係式は、図7の最下段に示される6個のパラメータA〜Fによって定義される。
用いてキャリブレーションが行われるが、追加的に配置された1個のマークは、キャリブレーション用シートSの配置向きを所定方向に統一するために用いられる。
第1段階としては、図8に示すように、ユーザは、ターゲットパターンが描画されたキャリブレーション用シートSを視覚センサ100(撮像部110)の視野内に配置する。そして、ユーザは、視覚センサ100に対して撮像指示を与える。すると、視覚センサ100は、撮像によって得られた画像(ターゲットパターンが被写体として含まれる画像)に対して計測処理を行い、ターゲットパターンに含まれる四隅に配置された4個のマークについての各中心点の座標値を決定する。これによって、ターゲットパターンに含まれる4個のマークについての画像座標系の座標値[pixel]がそれぞれ取得される。この取得される4個の座標値が、図7の最上段に示される(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4)に相当する。
第2段階としては、図9に示すように、ユーザは、コンベア10を動かしてターゲットパターンが描画されたキャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)内に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる4個のマークとロボット300との位置関係を対応付ける。
第3段階としては、図10に示すように、ユーザは、コンベア10をさらに動かしてキ
ャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)の最下流の位置に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる1個のマークとロボット300との位置関係を対応付ける。
上述したような第1〜第3段階の処理によって取得されたパラメータを用いて、まず、エンコーダ14からの1カウントあたりのワークの移動量dXおよびdYが算出される。より具体的には、以下の式に従って算出される。
dY=(Y5−Y1)/(E3−E2)
これらの式は、図9に示す状態と図10に示す状態との間で、ロボット300のハンド先端がキャリブレーション用シートS内の同一のマークに位置決めされた場合に生じる、カウント値の変化量に対するロボット300の位置情報の変化量を算出することを意味する。これらの演算式によって、1カウントあたりのワークの移動量dXおよびdYが決定される。すなわち、ロボット−コンベア間のキャリブレーションが実現される。
Y=D・xi+E・yi+F
これにより、視覚センサ−ロボット間のキャリブレーションが実現される。
本発明の実施の形態に係る視覚センサを利用したコンベアトラッキングシステムにおいては、上述したようなキャリブレーションをユーザが容易に行えるように、ガイダンス機
能が提供される。このようなガイダンス機能は、後述するように視覚センサ100が提供するようにしてもよいが、図1に示す操作表示装置500が視覚センサ100と協働することで提供してもよい。以下の説明においては、操作表示装置500がガイダンス機能を提供する構成について例示する。すなわち、操作表示装置500がガイダンス装置として機能する例を示す。但し、ガイダンス機能が視覚センサ100の単独で提供される場合には、視覚センサ100をガイダンス装置ともみなすことができる。さらに、ガイダンス機能を後述するようなサポート装置600を用いて実現することもできる。この場合には、サポート装置600をガイダンス装置ともみなすことができる。
図11は、本発明の実施の形態に係る視覚センサ100と接続可能な操作表示装置500のハードウェア構成について示す模式図である。図11を参照して、操作表示装置500は、表示部510と、タッチパネル520と、CPU(Central Processing Unit)5
22と、メモリ524と、ハードディスク(HDD)526と、通信インターフェイス(I/F)528と、入力コントローラ530と、表示コントローラ532とを含む。これらのコンポーネントは、バス534を介して互いにデータ通信可能に接続されている。
次に、図12〜図18を参照して、ユーザガイダンスに用いられる画面例について説明する。図12〜図18は、本発明の実施の形態に係る視覚センサを利用したコンベアトラ
ッキングシステムで提供されるユーザガイダンスに用いられる画面例を示す図である。これらの図は、上述のキャリブレーションの各段階に応じて順次遷移する。
ャリブレーション用シートSの位置決めが完了すると、ユーザは、「次へ」のボタンを選択する。すると、図15に示すガイダンス画面553が表示される。このガイダンス画面553は、図9に示すキャリブレーションの第2段階に対応するものである。
3,555の各々に対応付けて、コンベア10の搬送経路における移動量(カウント値)の入力を受付ける。
なお、上述の説明では、主として、操作表示装置500がガイダンス機能を提供する構成について例示した。しかしながら、このガイダンス機能を提供する構成を視覚センサ100単独で提供するようにしてもよい。この場合のハードウェア構成については、たとえば以下のようになる。
<G.ロボット制御装置における処理>
次に、ロボット制御装置200における処理について説明する。
の位置情報の更新方法については、以下のとおりである。
図20(b)は、エンコーダ14がパルス信号を発生した場合に生じる別の処理を示す。より具体的には、図20(b)の処理は、エンコーダ14がパルス信号を発生し、エンコーダカウンタ232がカウントアップする(ステップS50)ことをイベントとして起動される。エンコーダカウンタ232がカウントアップすると、撮像指示の発生条件が成立したか否かが判断される(ステップS52)。例えば、上述の例では、エンコーダ14からのパルス信号に含まれるパルス数が前回撮像したときの値から所定値以上増加したか否かが判断される。そして、撮像指示の発生条件が成立した場合(ステップS52においてYESの場合)には、ロボット制御装置200から視覚センサ100へ撮像指示が送信される。
上述した実施の形態においては、視覚センサ100およびロボット制御装置200のいずれにもエンコーダ14からのパルス信号が入力され、それぞれが同一のパラメータに設定されたエンコーダカウンタ132および232で当該パルス信号に含まれるパルスの数をカウントすることで、コンベアの移動量(カウント値)を同期して保持する。これに対して、ネットワークを介して、コンベアの移動量(カウント値)を同期して保持する構成について例示する。
間でコンベア10の搬送経路における移動量を同期して保持する手段としては、視覚センサ100#(または、ロボット制御装置200#)に設けられたパルス信号に含まれるパルス数をカウントするためのカウンタ132と、当該カウンタ132によるカウント値を装置間で実質的に同期して共有するフィールドネットワークFNとにより実現される。
次に、視覚センサ100およびロボット制御装置200とネットワークNWを介して接続されるサポート装置600について説明する。
(HDD)64などへ格納される。あるいは、上位のホストコンピュータなどからネットワークを通じてプログラムをダウンロードするように構成してもよい。
本実施の形態によれば、撮像部110が撮像することで取得する画像に対して計測処理を行うことで得られるワークの位置情報に対して重複排除処理が視覚センサ100(画像処理部120)の内部で実行される。そのため、視覚センサ100から外部へ出力されるワークの検出結果には、同一のワークに起因して重複した位置情報が含まれない。そのため、当該ワークの検出結果を受信するロボット制御装置200(および、ロボット300)において、重複した位置情報を排除するための特別な処理を省略できる。そのため、重複排除に係る機能が搭載されていない汎用的なロボット300およびそれを操作するロボット制御装置200であっても、手間およびコストをかけずに、高精度なコンベアトラッキング等の処理を容易に実現できる。
れるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
Claims (9)
- 搬送装置上を搬送されるワークを撮像するように配置された撮像部に接続される画像処理装置であって、
前記搬送装置上のワークの位置情報を管理する管理手段と、
前記搬送装置の搬送経路における移動量を示す信号を受付けるインターフェイスと、
前記搬送経路において前記撮像部の撮像範囲より下流側に配置されるとともに前記ワークを取り扱う移動機械、を制御するための制御装置と通信するためのインターフェイスと、
前記撮像部の撮像によって得られた画像に対して計測処理を行うことで、画像中の予め登録されたワークに対応する領域の位置情報を取得する取得手段と、
前記管理手段によって管理されているワークの位置情報を前記撮像部の撮像が行われたタイミングに対応する値に更新する更新手段と、
前記更新手段による更新後の位置情報と前記計測処理によって取得されたワークの位置情報とを比較することで、前記撮像部の撮像範囲内に新たに搬送されたワークを特定する特定手段と、
前記特定手段が特定したワークの位置情報を前記制御装置へ送信する送信手段とを備える、画像処理装置。 - 前記送信手段は、前記ワークの位置情報を前記移動機械の座標系で定義された値として送信する、請求項1に記載の画像処理装置。
- 前記送信手段は、前記ワークの位置情報と対応する前記搬送経路における移動量とを前記制御装置へ送信する、請求項1または2に記載の画像処理装置。
- 前記管理手段は、前記ワークの位置情報と前記搬送経路における移動量とを対応付けて管理しており、
前記更新手段は、前記撮像部の撮像が行われたタイミングでの前記搬送経路における移動量と各ワークの位置情報に対応する搬送経路における移動量との差分を用いて、前記ワークの位置情報を補正する、請求項1または2に記載の画像処理装置。 - 前記撮像部の撮像範囲内の座標値を前記移動機械の座標系の座標値に変換するためのパラメータセットを設定するためのガイダンス画面を表示するガイダンス手段をさらに備える、請求項1または2に記載の画像処理装置。
- 前記撮像部の撮像周期は、時間的に連続する2つの撮像タイミングにおける撮像範囲が互いに重複するように設定されている、請求項1に記載の画像処理装置。
- 前記特定手段は、前記更新後の位置情報と前記計測処理によって取得されたワークの位置情報との間の偏差が予め定められた値より小さい場合に、比較対象の位置情報が同一のワークを示すものであると判断する、請求項1に記載の画像処理装置。
- 搬送装置上を搬送されるワークを撮像するように配置された撮像部と、
前記搬送装置の搬送経路において前記撮像部の撮像範囲より下流側に配置されるとともに前記ワークを取り扱う移動機械、を制御するための制御装置と、
前記撮像部および前記制御装置に接続される画像処理装置とを備え、
前記画像処理装置は、
前記搬送装置上のワークの位置情報を管理する管理手段と、
前記搬送装置の搬送経路における移動量を示す信号を受付けるインターフェイスと、
前記制御装置と通信するためのインターフェイスと、
前記撮像部の撮像によって得られた画像に対して計測処理を行うことで、画像中の予め登録されたワークに対応する領域の位置情報を取得する取得手段と、
前記管理手段によって管理されているワークの位置情報を前記撮像部の撮像が行われたタイミングに対応する値に更新する更新手段と、
前記更新手段による更新後の位置情報と前記計測処理によって取得されたワークの位置情報とを比較することで、前記撮像部の撮像範囲内に新たに搬送されたワークを特定する特定手段と、
前記特定手段が特定したワークの位置情報を前記制御装置へ送信する送信手段とを含む、画像処理システム。 - 搬送装置上を搬送されるワークを撮像するように配置された撮像部に接続される画像処理装置に向けられたガイダンス装置であって、前記画像処理装置は、前記搬送装置の搬送経路において前記撮像部の撮像範囲より下流側に配置されるとともに前記ワークを取り扱う移動機械、を制御するための制御装置と通信可能に構成されており、
表示手段と、
キャリブレーション用のパターンを含むシートを前記撮像部の視野内に配置することをユーザに促す第1の画面を前記表示手段に表示させる手段と、
前記シートを前記移動機械の稼動範囲の上流側に配置するとともに、前記移動機械を前記シート中の特定のパターンに位置決めすることをユーザに促す第2の画面を前記表示手段に表示させる手段と、
前記シートを前記移動機械の稼動範囲の下流側に配置するとともに、前記移動機械を前記シート中の特定のパターンに位置決めすることをユーザに促す第3の画面を前記表示手段に表示させる手段と、
前記第1〜第3の画面の各々に対応付けて、前記搬送装置の搬送経路における移動量の入力を受付ける手段と、
入力された情報に基づいて、前記撮像部の撮像範囲内の座標値を前記移動機械の座標系の座標値に変換するためのパラメータセットを算出するための手段とを備える、ガイダンス装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016123495A JP6308248B2 (ja) | 2016-06-22 | 2016-06-22 | コンベアトラッキング等に向けられたガイダンス装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016123495A JP6308248B2 (ja) | 2016-06-22 | 2016-06-22 | コンベアトラッキング等に向けられたガイダンス装置 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011051431A Division JP2012187651A (ja) | 2011-03-09 | 2011-03-09 | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016209995A true JP2016209995A (ja) | 2016-12-15 |
JP6308248B2 JP6308248B2 (ja) | 2018-04-11 |
Family
ID=57552332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016123495A Active JP6308248B2 (ja) | 2016-06-22 | 2016-06-22 | コンベアトラッキング等に向けられたガイダンス装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6308248B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214486A (zh) * | 2016-12-22 | 2018-06-29 | 精工爱普生株式会社 | 控制装置、机器人及机器人系统 |
JP2018153910A (ja) * | 2016-12-22 | 2018-10-04 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
CN109421048A (zh) * | 2017-08-25 | 2019-03-05 | 发那科株式会社 | 机器人系统 |
JP2019141935A (ja) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | コンベアトラッキングシステムおよびキャリブレーション方法 |
JP2020017958A (ja) * | 2019-08-01 | 2020-01-30 | 株式会社小松製作所 | 作業機械の制御装置及び作業機械の制御方法 |
US11141864B2 (en) | 2018-08-31 | 2021-10-12 | Fanuc Corporation | Detection system |
KR20220076698A (ko) * | 2020-12-01 | 2022-06-08 | 엘에스일렉트릭(주) | 다수 공작물 좌표계 간의 모션 제어 방법, 장치 및 시스템 |
WO2022168616A1 (ja) * | 2021-02-05 | 2022-08-11 | 株式会社アマダ | 装置判別システム、装置判別方法及び装置判別プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117858785A (zh) * | 2021-08-27 | 2024-04-09 | 发那科株式会社 | 示教装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61227240A (ja) * | 1985-04-02 | 1986-10-09 | Mitsubishi Electric Corp | 産業用ロボツト用視覚センサ |
JPH0355188A (ja) * | 1989-07-20 | 1991-03-08 | Tokico Ltd | 工業用ロボット |
JPH0415883A (ja) * | 1990-05-09 | 1992-01-21 | Omron Corp | 画像処理装置 |
JPH06137840A (ja) * | 1992-10-22 | 1994-05-20 | Toyota Central Res & Dev Lab Inc | 視覚センサの自動キャリブレーション装置 |
JPH06238584A (ja) * | 1992-12-21 | 1994-08-30 | Matsushita Electric Works Ltd | 部品供給方法およびその装置 |
JPH1053316A (ja) * | 1996-08-08 | 1998-02-24 | Fanuc Ltd | コンベアの滑り量計測方法並びにロボットのトラッキング動作補正方法 |
-
2016
- 2016-06-22 JP JP2016123495A patent/JP6308248B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61227240A (ja) * | 1985-04-02 | 1986-10-09 | Mitsubishi Electric Corp | 産業用ロボツト用視覚センサ |
JPH0355188A (ja) * | 1989-07-20 | 1991-03-08 | Tokico Ltd | 工業用ロボット |
JPH0415883A (ja) * | 1990-05-09 | 1992-01-21 | Omron Corp | 画像処理装置 |
JPH06137840A (ja) * | 1992-10-22 | 1994-05-20 | Toyota Central Res & Dev Lab Inc | 視覚センサの自動キャリブレーション装置 |
JPH06238584A (ja) * | 1992-12-21 | 1994-08-30 | Matsushita Electric Works Ltd | 部品供給方法およびその装置 |
JPH1053316A (ja) * | 1996-08-08 | 1998-02-24 | Fanuc Ltd | コンベアの滑り量計測方法並びにロボットのトラッキング動作補正方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214486A (zh) * | 2016-12-22 | 2018-06-29 | 精工爱普生株式会社 | 控制装置、机器人及机器人系统 |
JP2018153910A (ja) * | 2016-12-22 | 2018-10-04 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
JP7067017B2 (ja) | 2016-12-22 | 2022-05-16 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
CN109421048A (zh) * | 2017-08-25 | 2019-03-05 | 发那科株式会社 | 机器人系统 |
US11565427B2 (en) | 2017-08-25 | 2023-01-31 | Fanuc Corporation | Robot system |
US10786906B2 (en) | 2017-08-25 | 2020-09-29 | Fanuc Corporation | Robot system |
US11021333B2 (en) | 2018-02-16 | 2021-06-01 | Omron Corporation | Conveyor tracking system and calibration method |
JP2019141935A (ja) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | コンベアトラッキングシステムおよびキャリブレーション方法 |
US11141864B2 (en) | 2018-08-31 | 2021-10-12 | Fanuc Corporation | Detection system |
JP2020017958A (ja) * | 2019-08-01 | 2020-01-30 | 株式会社小松製作所 | 作業機械の制御装置及び作業機械の制御方法 |
KR20220076698A (ko) * | 2020-12-01 | 2022-06-08 | 엘에스일렉트릭(주) | 다수 공작물 좌표계 간의 모션 제어 방법, 장치 및 시스템 |
WO2022119222A1 (ko) * | 2020-12-01 | 2022-06-09 | 엘에스일렉트릭 주식회사 | 다수 공작물 좌표계 간의 모션 제어 방법, 장치 및 시스템 |
KR102423658B1 (ko) * | 2020-12-01 | 2022-07-22 | 엘에스일렉트릭(주) | 다수 공작물 좌표계 간의 모션 제어 방법, 장치 및 시스템 |
WO2022168616A1 (ja) * | 2021-02-05 | 2022-08-11 | 株式会社アマダ | 装置判別システム、装置判別方法及び装置判別プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6308248B2 (ja) | 2018-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6308248B2 (ja) | コンベアトラッキング等に向けられたガイダンス装置 | |
JP2012187651A (ja) | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 | |
JP5316563B2 (ja) | 画像処理装置および画像処理システム | |
US11021333B2 (en) | Conveyor tracking system and calibration method | |
JP5810562B2 (ja) | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 | |
JP5561214B2 (ja) | 画像処理装置および画像処理プログラム | |
US9604365B2 (en) | Device and method of transferring articles by using robot | |
JP5003840B1 (ja) | 画像処理装置および画像処理プログラム | |
JP4174342B2 (ja) | ワーク搬送装置 | |
US8326460B2 (en) | Robot system comprising visual sensor | |
JP6264967B2 (ja) | ロボット制御装置 | |
JP2019115974A (ja) | ビジョンベース操作システムのキャリブレーション及びオペレーション | |
JP2012193980A (ja) | 画像処理装置および画像処理プログラム | |
JP2019119027A (ja) | ロボットシステムの制御方法、およびロボットシステム | |
JP2020026028A (ja) | データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム | |
CN112469538B (zh) | 数据生成装置及方法、数据生成程序、以及远程操作系统 | |
JP2011140084A (ja) | 制御装置、ロボット、ロボットシステム及びロボットの追従方法 | |
TW201933283A (zh) | 三維影像處理之裝置及方法 | |
EP4169676A1 (en) | Robot teaching method and robot working method | |
JP7213010B2 (ja) | ロボットシステム及び搬送されているワークに対して作業を行う方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6308248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |