JP2012192466A - 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 - Google Patents
画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 Download PDFInfo
- Publication number
- JP2012192466A JP2012192466A JP2011056570A JP2011056570A JP2012192466A JP 2012192466 A JP2012192466 A JP 2012192466A JP 2011056570 A JP2011056570 A JP 2011056570A JP 2011056570 A JP2011056570 A JP 2011056570A JP 2012192466 A JP2012192466 A JP 2012192466A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- unit
- workpiece
- start condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40014—Gripping workpiece to place it in another place
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40022—Snatching, dynamic pick, effector contacts object, moves with object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40554—Object recognition to track object on conveyor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45063—Pick and place manipulator
Abstract
【解決手段】ユーザ支援装置は、撮像部の撮像によって得られた画像を表示する表示手段と、表示手段に表示される画像に対して、検出すべきワークを示す領域の指定を受付ける入力手段と、撮像部の撮像範囲と搬送装置の物理的長さとの関係を利用して、検出すべきワークを示す領域の大きさから、搬送装置の移動量によって定義される撮像部の撮像開始条件を決定する決定手段とを含む。
【選択図】図13
Description
図1は、本発明の実施の形態に係る視覚センサ100を利用したコンベアトラッキングシステムの構成を示す模式図である。図1に示すコンベアトラッキングシステムは、2つの搬送装置(コンベア)10および20を含む。コンベア10および20は、それぞれ駆動ローラ12および22によって回転駆動される。以下では、コンベア10および20をそれぞれライン1およびライン2とも称す。図1に示す例では、ライン1は、紙面右側に移動し、ライン2は、紙面左側に移動する。ライン1には、搬出装置30等によって紙面左側からワークWがランダムに提供される。このライン1上のワークWは、紙面左側から紙面右側へ移動する。ワークWとしては、典型的には、お菓子等の食品や各種の錠剤等が想定される。
次に、図1に示すコンベアシステムにおける位置決めおよびトラッキング処理の詳細について説明する。
図3は、本発明の実施の形態に係る視覚センサ100を利用したコンベアトラッキングシステムのハードウェア構成について示す模式図である。図3を参照して、視覚センサ100は、撮像部110と、画像処理部120とを含む。
本実施の形態に係るコンベアトラッキングシステムは、コンベア上を搬送されるワークを順次撮像するための撮像開始条件を決定するための支援機能を提供する。この撮像開始条件は、コンベア10の搬送速度が変動した場合であっても、対象のワークの撮像もれや計測もれ(検出もれ)が生じないように、コンベア10の移動量に関連付けて定義される。より具体的には、コンベア10が所定距離だけ進むごとに、撮像部110を用いて撮像を行う。そのため、典型的な撮像開始条件は、撮像指示を発生する周期を示すコンベア10の移動量(エンコーダ14からのパルス信号のカウント値)として定義される。すなわち、エンコーダカウンタ132または232のカウント値が、撮像開始条件として設定された所定値だけ増加するごとに、撮像指示が発行される。この撮像指示に応答して、撮像部110による撮像範囲の撮像および撮像によって得られた画像に対する計測処理が行われる。また、このような撮像指示を発生する周期をトリガ間隔とも称す。
まず、上述したような撮像開始条件を容易に設定するためのユーザインターフェイスを提供するユーザ支援装置の一例について説明する。典型的には、本実施の形態に係るユーザ支援装置は、視覚センサ100およびロボット制御装置200とネットワークNWを介して接続されるサポート装置600(図1)として実装される。すなわち、サポート装置600は、視覚センサ100を含む画像処理システムに向けられたユーザ支援装置に相当する。
次に、本実施の形態に係るユーザ支援機能を実現するための各種パラメータを取得するためのキャリブレーションについて説明する。
このキャリブレーションにおいては、エンコーダ14からのパルス信号に含まれる1パルスあたりのコンベアの移動量が取得される。このコンベアの移動量は、図7の下から2段目に示されるdXおよびdYに相当する。このコンベアの移動量は、ロボット300がエンコーダ14からのパルス信号を受けて、コンベア10上のワーク位置を追跡(トラッキング)するために必要なパラメータである。
視覚センサ100によって計測されたワークの位置情報(画像座標系の座標値(xi,yi)[pixel])を、ロボット座標系の座標値(X,Y)[mm]に変換するための関係式が取得される。この関係式は、図7の最下段に示される6個のパラメータA〜Fによって定義される。
第1段階としては、図8に示すように、ユーザは、ターゲットパターンが描画されたキャリブレーション用シートSを視覚センサ100(撮像部110)の視野内に配置する。そして、ユーザは、視覚センサ100に対して撮像指示を与える。すると、視覚センサ100は、撮像によって得られた画像(ターゲットパターンが被写体として含まれる画像)に対して計測処理を行い、ターゲットパターンに含まれる四隅に配置された4個のマークについての各中心点の座標値を決定する。これによって、ターゲットパターンに含まれる4個のマークについての画像座標系の座標値[pixel]がそれぞれ取得される。この取得される4個の座標値が、図7の最上段に示される(xi1,yi1)、(xi2,yi2)、(xi3,yi3)、(xi4,yi4)に相当する。
第2段階としては、図9に示すように、ユーザは、コンベア10を動かしてターゲットパターンが描画されたキャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)内に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる4個のマークとロボット300との位置関係を対応付ける。
第3段階としては、図10に示すように、ユーザは、コンベア10をさらに動かしてキャリブレーション用シートSをロボット300のトラッキング範囲(稼動範囲)の最下流の位置に配置するとともに、ロボット300を操作して、ターゲットパターンに含まれる1個のマークとロボット300との位置関係を対応付ける。
上述したような第1〜第3段階の処理によって取得されたパラメータを用いて、まず、エンコーダ14からの1カウントあたりのワークの移動量dXおよびdYが算出される。より具体的には、以下の式に従って算出される。
dY=(Y5−Y1)/(E3−E2)
これらの式は、図9に示す状態と図10に示す状態との間で、ロボット300のハンド先端がキャリブレーション用シートS内の同一のマークに位置決めされた場合に生じる、カウント値の変化量に対するロボット300の位置情報の変化量を算出することを意味する。これらの演算式によって、1カウントあたりのワークの移動量dXおよびdYが決定される。すなわち、ロボット−コンベア間のキャリブレーションが実現される。
Y=D・xi+E・yi+F
これにより、視覚センサ−ロボット間のキャリブレーションが実現される。
(g1:概略)
まず、実施の形態1として、ユーザがモデルとして登録すべき領域を指定することに応答して、撮像開始条件が自動的に設定される例について説明する。なお、この自動的に設定された撮像開始条件は、いわゆるデフォルト設定として扱われ、ユーザは必要に応じてこれらの撮像開始条件を任意に変更することができる。
まず、図11を参照して、計測処理としてサーチ処理を用いる場合に、撮像開始条件を設定するためのユーザインターフェイスについて説明する。
(トリガ間隔)={(画像サイズ)−(モデルとして登録すべき領域の外接矩形対角線)}/(エンコーダ1パルスあたりの移動量)
但し、実装の形態としては、対角線の長さを計算するのではなく、ロボット座標系のX軸方向およびY軸方向のうち、ワークWがより大きく移動する方向の成分のみに着目して、撮像開始条件を決定すればよい。これにより、計算に要するリソースを低減できる。すなわち、ワークWのX方向の移動量dXとY方向の移動量dYとの大小関係に応じて、下記のいずれかの式に従って、トリガ間隔が算出される。なお、重複範囲の長さをL[pixel]とする。
(トリガ間隔)={A・(WD−L)}/dX[pulse]
(2)dX≦dYの場合:
(トリガ間隔)={D・WD+E・(HT−L)}/dY[pulse]
なお、ユーザが図11(c)の操作バー860などを操作することで、重複範囲の長さLが変更されると、上述の式が再度実行され、撮像開始条件(トリガ間隔)が更新される。
次に、図12を参照して、計測処理として2値化処理を用いる場合に、撮像開始条件を設定するためのユーザインターフェイスについて説明する。
(トリガ間隔)={(画像サイズ)−(ワーク最大径)}/(エンコーダ1パルスあたりの移動量)
但し、実装の形態としては、対角線の長さを計算するのではなく、ワークWがロボット座標系のX軸方向およびY軸方向のうちより大きく移動する方向の成分のみに着目して、撮像開始条件を決定すればよい。これにより、計算に要するリソースを低減できる。すなわち、上述の図11について説明した式に従って、トリガ間隔が算出される。
次に、上述の実施の形態1に係る撮像開始条件の設定処理の手順について説明する。図13は、本発明の実施の形態1に係る撮像開始条件の設定処理の手順を示すフローチャートである。図13を参照して、CPU61(ユーザ支援ロジック61a)は、ユーザ支援機能の開始が指示される(ステップS100においてYES)と、図11(a)および図12(a)に示すような、計測処理を選択するためのメニューを含むガイダンス画面を表示する(ステップS102)。そして、CPU61は、「サーチ処理」および「2値化処理」のいずれが選択されたかを判断する(ステップS104)。「サーチ処理」が選択された場合(ステップS104において「サーチ処理」の場合)、処理はステップS110へ進み、「2値化処理」が選択された場合(ステップS104において「2値化処理」の場合)、処理はステップS120へ進む。
(h1:概略)
次に、実施の形態2として、トラッキング対象のワークのサイズが既知である場合に、ユーザがワークサイズを設定することで、撮像開始条件が自動的に設定される例について説明する。例えば、一般的な生産ラインなどでは、設計仕様書や金型などのサイズから、製品または半製品の大きさが既知である場合も多い。このような場合には、撮像部110を用いて実際に撮像するまでもなく、このワークサイズの情報から、撮像開始条件(重複範囲の長さ)を決定してもよい。
図14は、本発明の実施の形態2に係るユーザインターフェイスの一例を示す図である。本実施の形態に係るユーザ支援機能の開始が指示されると、図14に示すようなガイダンス画面805がモニタ67(図5)に表示される。ガイダンス画面805は、撮像開始条件であるトリガ間隔を入力(変更)するための数値ボックス881と、ワークサイズを入力するための数値ボックス882とを含む。図14には、トリガ間隔およびワークサイズのいずれについても、最も実用的なロボット座標系での値(一例として「ミリ」)単位で入力される例を示すが、画像座標系での値(一例として「画素数/ピクセル」)またはパルス数であってもよい。
但し、実装の形態としては、対角線の長さを計算するのではなく、ロボット座標系のX軸方向およびY軸方向のうち、ワークWがより大きく移動する方向の成分のみに着目して、撮像開始条件を決定すればよい。より具体的な算出方式は、上述の実施の形態1と同様であるので、詳細な説明は繰返さない。
上述のガイダンス画面例1においては、重複範囲を設定するユーザインターフェイスとして、第1撮像範囲884およびワークの位置を固定した上で、第2撮像範囲の位置をスライドさせるという構成を採用した例を示した。これに対して、以下に説明するガイダンス画面例2においては、実際の搬送路をイメージして、ワークの位置をスライドさせて、撮像開始条件を設定するという構成を採用した例を示す。
次に、実施の形態3として、ユーザが視野範囲を直接確認しながら撮像開始条件を決定する例について説明する。
上述の実施の形態1〜3のいずれかの方法に従って撮像開始条件を決定した後、当該決定された撮像開始条件の下で許容される搬送速度を決定することもできる。以下、このような許容される搬送速度を決定する方法について例示する。
最大搬送速度V={A・(WD−L)+B・HT}/T[mm/sec]
(2)dX≦dYの場合:
最大搬送速度V={D・WD+E・(HT−L)}/T[mm/sec]
このように、本実施の形態に係る視覚センサ100においては、撮像開始条件(トリガ間隔)と画像処理装置での計測処理時間(T[sec])との関係から、搬送装置(コンベア10)で許容される搬送速度を決定する機能を有する。
次に、上述のような手順によって決定された撮像開始条件に従う稼動中の処理手順について説明する。
次に、ロボット制御装置200における処理について説明する。
図21(b)においても、エンコーダ14がパルス信号を発生した場合に生じる処理を示す。より具体的には、図21(b)の処理は、エンコーダ14がパルス信号を発生し、エンコーダカウンタ232がカウントアップする(ステップS50)ことをイベントとして起動される。エンコーダカウンタ232がカウントアップすると、撮像指示の発生条件が成立したか否かが判断される。例えば、上述の例では、エンコーダ14からのパルス信号に含まれるパルス数が前回撮像したときの値から所定値以上増加したか否かが判断される。そして、撮像指示の発生条件が成立した場合(ステップS50においてYESの場合)には、ロボット制御装置200から視覚センサ100へ撮像指示が送信される。
上述したように、サポート装置600は、視覚センサ100およびロボット制御装置200のいずれともデータ通信可能であるので、各種のデータを収集することができる。そこで、本実施の形態に係るサポート装置600は、調整時において計測処理の対象となった画像を視覚センサ100から収集するように構成されてもよい。
本実施の形態によれば、コンベアトラッキング等などの画像処理システムに係る調整工数を削減することができる。すなわち、ユーザは、視覚センサ100から出力される情報(例えば、撮像された画像や登録されるモデルの外接矩形など)を見ながら、直感的に重複範囲(トリガ間隔)を設定できる。また、上述の実施の形態に係る視覚センサ100は、コンベアトラッキングなどの特定の分野に限定されるものではなく、一般的な画像処理装置に標準搭載される計測処理へ拡張することもできる。すなわち、予めモデルが登録される計測処理を使用する場合などにおいて、最適なトリガ間隔(撮像開始条件)をグラフィカルに設定できる。
Claims (11)
- 画像処理システムに向けられたユーザ支援装置であって、
前記画像処理システムは、
搬送装置上を搬送されるワークを撮像するように配置された撮像部と、
前記撮像部に接続される画像処理装置とを備え、
前記ユーザ支援装置は、
前記撮像部の撮像によって得られた画像を表示する表示手段と、
前記表示手段に表示される画像に対して、撮像範囲の間の重複範囲を決定する重複範囲決定手段と、
前記撮像部の撮像範囲と前記搬送装置の属性との関係を利用して、前記決定された重複範囲の大きさから、前記搬送装置の移動量によって定義される前記撮像部の撮像開始条件を決定する撮像開始条件決定手段とを備える、ユーザ支援装置。 - ユーザ操作に応答して、前記決定された撮像開始条件を変更する変更手段をさらに備える、請求項1に記載のユーザ支援装置。
- 前記撮像部の撮像によって得られた画像に対して計測処理を行う計測手段をさらに備え、
前記重複範囲決定手段は、計測処理により検出された範囲から前記重複範囲を決定する、請求項1または2に記載のユーザ支援装置。 - 前記重複範囲決定手段は、前記表示手段に表示される画像に対して、検出すべき領域の指定に応答して、前記重複範囲を決定する、請求項1または2に記載のユーザ支援装置。
- 前記重複範囲決定手段は、少なくとも検出すべきワークを示す領域を含むように、前記重複範囲を決定する、請求項1または2に記載のユーザ支援装置。
- 前記重複範囲決定手段は、前記検出すべきワークを示す領域の対角線より長くなるように、前記重複範囲を決定する、請求項5に記載のユーザ支援装置。
- 前記重複範囲決定手段は、
搬送装置上を搬送されるワークに対応する範囲とともに、一連の撮像の対象となる複数の撮像範囲を同時に表示する手段と、
前記表示される複数の撮像範囲に対するユーザ操作に応答して、前記重複範囲を決定する手段とを含む、請求項1または2に記載のユーザ支援装置。 - 前記撮像開始条件と前記画像処理装置での計測処理時間との関係から、前記搬送装置で許容される搬送速度を決定する手段をさらに備える、請求項1〜7のいずれか1項に記載のユーザ支援装置。
- 前記撮像開始条件と前記画像処理装置での計測処理時間との関係から、前記搬送装置で許容される搬送速度を決定する手段をさらに備える、請求項1〜8のいずれか1項に記載のユーザ支援装置。
- コンピュータにより実行されることで、当該コンピュータを画像処理システムに向けられたユーザ支援装置として機能させるプログラムであって、
前記画像処理システムは、
搬送装置上を搬送されるワークを撮像するように配置された撮像部と、
前記撮像部に接続される画像処理装置とを備え、
前記プログラムは、前記コンピュータを
前記撮像部の撮像によって得られた画像を表示する表示手段と、
前記表示手段に表示される画像に対して、撮像範囲の間の重複範囲を決定する重複範囲決定手段と、
前記撮像部の撮像範囲と前記搬送装置の属性との関係を利用して、前記決定された重複範囲の大きさから、前記搬送装置の移動量によって定義される前記撮像部の撮像開始条件を決定する撮像開始条件決定手段として機能させる、プログラム。 - 搬送装置上を搬送されるワークを撮像するように配置された撮像部に接続される画像処理装置であって、
前記撮像部の撮像によって得られた画像を表示する表示手段と、
前記表示手段に表示される画像に対して、撮像範囲の間の重複範囲を決定する重複範囲決定手段と、
前記撮像部の撮像範囲と前記搬送装置の属性との関係を利用して、前記決定された重複範囲の大きさから、前記搬送装置の移動量によって定義される前記撮像部の撮像開始条件を決定する撮像開始条件決定手段とを備える、画像処理装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056570A JP5810562B2 (ja) | 2011-03-15 | 2011-03-15 | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 |
EP11188781.6A EP2500147A3 (en) | 2011-03-15 | 2011-11-11 | User support apparatus for an image processing system and image processing system |
CN2011103702483A CN102674072A (zh) | 2011-03-15 | 2011-11-14 | 用户支援装置及程序和图像处理装置 |
US13/296,569 US20120236140A1 (en) | 2011-03-15 | 2011-11-15 | User support apparatus for an image processing system, program thereof and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011056570A JP5810562B2 (ja) | 2011-03-15 | 2011-03-15 | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012192466A true JP2012192466A (ja) | 2012-10-11 |
JP5810562B2 JP5810562B2 (ja) | 2015-11-11 |
Family
ID=45560631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011056570A Active JP5810562B2 (ja) | 2011-03-15 | 2011-03-15 | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120236140A1 (ja) |
EP (1) | EP2500147A3 (ja) |
JP (1) | JP5810562B2 (ja) |
CN (1) | CN102674072A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014184543A (ja) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム |
JP2016120566A (ja) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
JP2016120567A (ja) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
JP2017047511A (ja) * | 2015-09-03 | 2017-03-09 | ファナック株式会社 | 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム |
JP2018153910A (ja) * | 2016-12-22 | 2018-10-04 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
DE102018116413A1 (de) | 2017-07-12 | 2019-01-17 | Fanuc Corporation | Robotersystem |
JP2019141935A (ja) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | コンベアトラッキングシステムおよびキャリブレーション方法 |
JP2022544005A (ja) * | 2019-07-26 | 2022-10-17 | グーグル エルエルシー | リモートクライアントデバイスからの入力に基づく効率的なロボットの制御 |
WO2023166814A1 (ja) * | 2022-03-03 | 2023-09-07 | 株式会社エヌテック | 撮像装置および撮像方法 |
JP7376318B2 (ja) | 2019-10-30 | 2023-11-08 | ファナック株式会社 | アノテーション装置 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013202247A1 (de) | 2013-02-12 | 2014-08-14 | Krones Aktiengesellschaft | Verfahren zur Störungsmeldung bei der Gruppierung von Artikeln |
CN103230957B (zh) * | 2013-03-28 | 2015-11-04 | 广东永利坚铝业有限公司 | 检测型材速度的方法及其加工监测系统 |
EP3124185B1 (en) * | 2014-03-27 | 2021-03-17 | Panasonic Intellectual Property Management Co., Ltd. | Robot control method |
JP5893695B1 (ja) * | 2014-09-10 | 2016-03-23 | ファナック株式会社 | 物品搬送システム |
JP6715565B2 (ja) * | 2014-09-18 | 2020-07-01 | 株式会社安川電機 | ロボットシステムおよびワークピッキング方法 |
CN104820418B (zh) * | 2015-04-22 | 2018-04-24 | 遨博(北京)智能科技有限公司 | 一种针对机械臂的嵌入式视觉系统及其使用方法 |
JP6421722B2 (ja) * | 2015-08-07 | 2018-11-14 | オムロン株式会社 | 画像処理装置、校正方法および校正プログラム |
JP6540472B2 (ja) * | 2015-11-18 | 2019-07-10 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
CN105643624B (zh) * | 2016-03-04 | 2018-03-27 | 南京科远自动化集团股份有限公司 | 一种机器视觉控制方法及机器人控制器与机器人控制系统 |
US10245724B2 (en) * | 2016-06-09 | 2019-04-02 | Shmuel Ur Innovation Ltd. | System, method and product for utilizing prediction models of an environment |
US10635758B2 (en) * | 2016-07-15 | 2020-04-28 | Fastbrick Ip Pty Ltd | Brick/block laying machine incorporated in a vehicle |
JP2018024044A (ja) * | 2016-08-09 | 2018-02-15 | オムロン株式会社 | 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム |
JP6834232B2 (ja) * | 2016-08-09 | 2021-02-24 | オムロン株式会社 | 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム |
CN108214486A (zh) * | 2016-12-22 | 2018-06-29 | 精工爱普生株式会社 | 控制装置、机器人及机器人系统 |
EP3624997B1 (en) * | 2017-05-16 | 2022-12-28 | ABB Schweiz AG | Method and control system for controlling movement sequences of a robot |
WO2018215047A1 (en) * | 2017-05-22 | 2018-11-29 | Abb Schweiz Ag | Robot-conveyor calibration method, robot system and control system |
JP6478234B2 (ja) * | 2017-06-26 | 2019-03-06 | ファナック株式会社 | ロボットシステム |
JP7116901B2 (ja) * | 2017-08-01 | 2022-08-12 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP6568163B2 (ja) * | 2017-08-09 | 2019-08-28 | ファナック株式会社 | ロボットシステム |
JP2019147644A (ja) * | 2018-02-26 | 2019-09-05 | 株式会社東芝 | 制御装置、プログラム及びシステム |
US10576526B2 (en) * | 2018-07-03 | 2020-03-03 | Komatsu Industries Corporation | Workpiece conveying system, and workpiece conveying method |
JP6918756B2 (ja) * | 2018-08-31 | 2021-08-11 | ファナック株式会社 | 検出システム |
JP7337495B2 (ja) * | 2018-11-26 | 2023-09-04 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
JP7056613B2 (ja) * | 2019-03-08 | 2022-04-19 | オムロン株式会社 | カウンタユニット、カウンタユニットの制御方法、制御装置、および制御システム |
US11335021B1 (en) | 2019-06-11 | 2022-05-17 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
CN112066892A (zh) * | 2019-06-11 | 2020-12-11 | 康耐视公司 | 用于细化由3d视觉系统成像的大体立方形3d物体的尺寸的系统和方法及其控制装置 |
US11605177B2 (en) * | 2019-06-11 | 2023-03-14 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
CN110737253B (zh) * | 2019-10-15 | 2021-09-07 | 浙江隐齿丽医学技术有限公司 | 具有自动适配功能的备膜装置、自动适配系统及方法 |
JP2022115328A (ja) * | 2021-01-28 | 2022-08-09 | セイコーエプソン株式会社 | ロボットシステムの制御方法およびロボットシステム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0748018A (ja) * | 1993-08-03 | 1995-02-21 | Omori Mach Co Ltd | 物品移載装置用物品検出装置 |
JPH08323669A (ja) * | 1995-03-28 | 1996-12-10 | Matsushita Electric Works Ltd | 部品供給方法およびその装置 |
JPH0972717A (ja) * | 1995-09-04 | 1997-03-18 | Fanuc Ltd | 画像の取得・処理方法 |
JP2002113679A (ja) * | 2000-10-06 | 2002-04-16 | Seiko Instruments Inc | トラッキング方法、トラッキングシステム、及びトラッキング装置 |
JP2010081229A (ja) * | 2008-09-25 | 2010-04-08 | Omron Corp | 画像合成方法および画像処理システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8824258D0 (en) * | 1988-10-17 | 1988-11-23 | Gifford Eng Ltd | Scanning system |
US5041907A (en) * | 1990-01-29 | 1991-08-20 | Technistar Corporation | Automated assembly and packaging system |
US6483935B1 (en) * | 1999-10-29 | 2002-11-19 | Cognex Corporation | System and method for counting parts in multiple fields of view using machine vision |
US7545949B2 (en) * | 2004-06-09 | 2009-06-09 | Cognex Technology And Investment Corporation | Method for setting parameters of a vision detector using production line information |
US20040223053A1 (en) * | 2003-05-07 | 2004-11-11 | Mitutoyo Corporation | Machine vision inspection system and method having improved operations for increased precision inspection throughput |
US8127247B2 (en) * | 2004-06-09 | 2012-02-28 | Cognex Corporation | Human-machine-interface and method for manipulating data in a machine vision system |
JP2012187651A (ja) * | 2011-03-09 | 2012-10-04 | Omron Corp | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
-
2011
- 2011-03-15 JP JP2011056570A patent/JP5810562B2/ja active Active
- 2011-11-11 EP EP11188781.6A patent/EP2500147A3/en not_active Withdrawn
- 2011-11-14 CN CN2011103702483A patent/CN102674072A/zh active Pending
- 2011-11-15 US US13/296,569 patent/US20120236140A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0748018A (ja) * | 1993-08-03 | 1995-02-21 | Omori Mach Co Ltd | 物品移載装置用物品検出装置 |
JPH08323669A (ja) * | 1995-03-28 | 1996-12-10 | Matsushita Electric Works Ltd | 部品供給方法およびその装置 |
JPH0972717A (ja) * | 1995-09-04 | 1997-03-18 | Fanuc Ltd | 画像の取得・処理方法 |
JP2002113679A (ja) * | 2000-10-06 | 2002-04-16 | Seiko Instruments Inc | トラッキング方法、トラッキングシステム、及びトラッキング装置 |
JP2010081229A (ja) * | 2008-09-25 | 2010-04-08 | Omron Corp | 画像合成方法および画像処理システム |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014184543A (ja) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム |
JP2016120566A (ja) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
JP2016120567A (ja) * | 2014-12-25 | 2016-07-07 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
JP2017047511A (ja) * | 2015-09-03 | 2017-03-09 | ファナック株式会社 | 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム |
US10232512B2 (en) | 2015-09-03 | 2019-03-19 | Fanuc Corporation | Coordinate system setting method, coordinate system setting apparatus, and robot system provided with coordinate system setting apparatus |
JP2018153910A (ja) * | 2016-12-22 | 2018-10-04 | セイコーエプソン株式会社 | 制御装置、ロボット、およびロボットシステム |
JP7067017B2 (ja) | 2016-12-22 | 2022-05-16 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
US10521871B2 (en) | 2017-07-12 | 2019-12-31 | Fanuc Corporation | Robot system |
DE102018116413A1 (de) | 2017-07-12 | 2019-01-17 | Fanuc Corporation | Robotersystem |
JP2019141935A (ja) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | コンベアトラッキングシステムおよびキャリブレーション方法 |
US11021333B2 (en) | 2018-02-16 | 2021-06-01 | Omron Corporation | Conveyor tracking system and calibration method |
JP2022544005A (ja) * | 2019-07-26 | 2022-10-17 | グーグル エルエルシー | リモートクライアントデバイスからの入力に基づく効率的なロボットの制御 |
US11724398B2 (en) | 2019-07-26 | 2023-08-15 | Google Llc | Efficient robot control based on inputs from remote client devices |
JP7338034B2 (ja) | 2019-07-26 | 2023-09-04 | グーグル エルエルシー | リモートクライアントデバイスからの入力に基づく効率的なロボットの制御 |
JP7376318B2 (ja) | 2019-10-30 | 2023-11-08 | ファナック株式会社 | アノテーション装置 |
WO2023166814A1 (ja) * | 2022-03-03 | 2023-09-07 | 株式会社エヌテック | 撮像装置および撮像方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2500147A2 (en) | 2012-09-19 |
EP2500147A3 (en) | 2013-11-06 |
US20120236140A1 (en) | 2012-09-20 |
CN102674072A (zh) | 2012-09-19 |
JP5810562B2 (ja) | 2015-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5810562B2 (ja) | 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置 | |
US11021333B2 (en) | Conveyor tracking system and calibration method | |
JP5561214B2 (ja) | 画像処理装置および画像処理プログラム | |
KR101485722B1 (ko) | 화상 처리 장치 및 화상 처리 시스템 | |
JP2012187651A (ja) | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 | |
JP6308248B2 (ja) | コンベアトラッキング等に向けられたガイダンス装置 | |
JP5003840B1 (ja) | 画像処理装置および画像処理プログラム | |
US20180117766A1 (en) | Device, method, program and recording medium, for simulation of article arraying operation performed by robot | |
JP5370398B2 (ja) | 画像処理装置および画像処理プログラム | |
Nerakae et al. | Using machine vision for flexible automatic assembly system | |
JP2008296330A (ja) | ロボットシミュレーション装置 | |
JP2008021092A (ja) | ロボットシステムのシミュレーション装置 | |
JP6264967B2 (ja) | ロボット制御装置 | |
US11833697B2 (en) | Method of programming an industrial robot | |
JP2011083882A (ja) | ロボットシステム | |
JP2006224291A (ja) | ロボットシステム | |
JP2020082274A (ja) | 画像処理装置およびその制御方法、プログラム | |
JP2007171018A (ja) | 物体位置認識方法及び物体位置認識装置 | |
WO2020157875A1 (ja) | 作業座標作成装置 | |
JP2014061578A (ja) | ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5810562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |