JP2004160567A - 物品取出し装置 - Google Patents
物品取出し装置 Download PDFInfo
- Publication number
- JP2004160567A JP2004160567A JP2002327074A JP2002327074A JP2004160567A JP 2004160567 A JP2004160567 A JP 2004160567A JP 2002327074 A JP2002327074 A JP 2002327074A JP 2002327074 A JP2002327074 A JP 2002327074A JP 2004160567 A JP2004160567 A JP 2004160567A
- Authority
- JP
- Japan
- Prior art keywords
- article
- sensing
- area
- visual sensor
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 36
- 238000001514 detection method Methods 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims 2
- 238000000034 method Methods 0.000 abstract description 9
- 238000000638 solvent extraction Methods 0.000 abstract description 3
- 230000036544 posture Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/04—Sorting according to size
- B07C5/10—Sorting according to size measured by light-responsive means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Manipulator (AREA)
Abstract
【解決手段】ロボットに3次元視覚センサとハンドを取付け、カゴ状のコンテナ12内のワークを取り出す。視覚センサでワークの存在範囲(コンテナ12の開口内縁12a)を定め、指定された数の等分線A1−A1、B1−B1((a)参照)で区分けし、複数の領域を定める。個別の領域について、センシングに適したロボット位置でセンシングを順次実行し、検出し得たワーク13a、13b他の位置・姿勢を蓄積する。全領域のセンシングを終えたら、蓄積データに基づいて検出し得たワーク13a、13b他の取出しを行う。未取出しのワークが無くなるまでプロセスを繰り返す。領域の大きさは個別ワークがカバーされる大きさに定める。区分け、センシング順序等に決め方は種々の方式が採用可能である。
【選択図】 図2
Description
【発明の属する技術分野】
本発明は、例えばコンテナ内、カゴ内あるいはパレット上などに多数置かれたワーク等の物品をロボットを用いて取出す物品取出し装置に関する。
【0002】
【従来の技術】
工場等において、所定のコンテナ内、カゴ内、パレット上、などに置かれた多数の物品(ワークなど)を順次取出す作業にロボットを利用することは既に知られている。その場合、物品はいわゆるバラ積み状態に置かれ、物品毎に位置決めされていないことが非常に多い。そこで、例えば、特許文献1に記載されているように、視覚センサの助けを借りて物品の位置・姿勢を検出し、その検出結果に基づいてロボットに物品取出し動作を行なわせることが提案されている。
【0003】
【特許文献1】
特開2001−179669号公報
【0004】
【発明が解決しようとする課題】
しかしながら、視覚センサを援用した従来の方式では、多数の物品の存在する範囲(例えば、それら物品を収容しているコンテナ、パレット、カゴ等の全域)を1つのカメラ(視覚センサの持つ撮影手段)の視野でカバーするケースがほとんどである。ところが、一般に、そのような条件(全域カバー)の下では、当然、視野の大きさに対して物品は相対的に非常に小さくなり易く、物品検出の確実度(表裏や種類の判別などを含む)や精度が不十分となりがちであった。
【0005】
また、これを補うために、物品の存在範囲(例えばコンテナ、パレット、カゴなど)の全域をカバーするカメラとは別に、前記の確実度や精度を確保するためのカメラを付加設置することもあるが、カメラが2台必要になり、その分システムも複雑化するという問題があった。
本発明の目的は、カメラの使用台数を増やさずに、物品検出の確実度や精度を確保し、ロボットによる物品取出し作業の信頼性を向上させることができる物品取出し装置を提供することにある。
【0006】
【課題を解決するための手段】
本発明は、ロボットと、該ロボットに装着された視覚センサを備え、物品を前記視覚センサで検出し、その検出結果に応じて前記ロボットを移動させて、該ロボットにより前記物品を取り出す物品取出し装置に、前記物体の存在範囲を複数の領域に区分けする区分け手段と、前記区分けされた領域毎に前記視覚センサによるセンシングを行なう手段と、前記センシングの結果に基づいて、前記ロボットによる物品の取り出しを行なう手段とを具備させることで上記課題を解決するものである。
【0007】
ここで、前記物品の存在範囲は立体的範囲であっても良い。また、前記物品が格納される格納体(例えばコンテナ、パレット、カゴなど)の形状及び位置・姿勢の情報に基づいて前記物品の存在範囲を定めるようにしても良い。更に、前記物品が格納される格納体の形状及び位置・姿勢の情報を視覚センサの出力に基づいて得るようにしても良い。そのために、前記視覚センサを使用することができるが、別の視覚センサを用いても良い。
【0008】
前記存在範囲を複数の領域に区分けするに際しては、各領域の大きさを指定して、前記存在領域を前記指定された大きさの複数の分割領域に区分けするようにしても良い。また、区分け数を指定し、前記存在領域を前記指定された区分け数の領域に区分けするようにしても良い。
【0009】
ここで、前記区分け手段は、各領域が予め定められた下限を下回らない大きさを持つように、前記存在領域を区分けする手段を含んでいて良い。この下限は、前記物品の大きさに応じて定められることが好ましい。例えば、前記下限は、少なくとも1個の前記物品を包含可能な大きさとして定めることができる。あるいは、「少なくとも1個の前記物品を包含可能な最低限の大きさ(例えば物品の最大差し渡し)」に適当な係数k(k>1;例えばk=2)を乗じたものを下限に定めても良い。
【0010】
なお、前記区分けした領域を前記視覚センサによりセンシングする手段に、前記区分けした領域についてセンシング順位を定める手段を含ませて、前記定められたセンシング順位に従って前記区分けした領域を前記視覚センサによりセンシングするようにすることができる。ここで、センシング順位を定めるについては、最初にセンシングを行なう領域を定めてセンシングを実行し、その後は最新の(過去の)センシングが行なわれた領域と隣接する領域を順次指定し該指定された領域のセンシングを順次実行するようにしても良い。更に、センシング結果を記憶しておき、前回のセンシングで物品が検出されなかった領域については、物品がないものと判断して、その領域をスキップするようにしても良い。
【0011】
各領域のセンシングと、各領域に存在する物品の取出しとの実行タイミングの関係についても、種々の態様が考えられる。例えば、前記区分けされた全ての領域の計測を行った後に、前記区分けされたそれぞれの領域に存在する取り出しを行うようにしても良い。あるいは、前記区分けされた領域のセンシング毎に前記領域内の前記物品の取り出しを行うようにしても良い。
【0012】
本発明を用いることで、物品の大きさに比べてはるかに広い範囲内(例えば、物品の大きさに比べてはるかに大きな開口面積あるいは載置面を持つコンテナ、カゴ、パレット等)にバラ積みされている物品をロボットで取出すアプリケーションにおいて、各区分けされた領域毎に物品を1つのカメラで正確に検出することができるようになり、安定的な取出し作業の遂行が可能になる。
【0013】
【発明の実施の形態】
図1は本発明の一つの実施形態に係る物品取出し装置の全体配置を示した図である。符号1はロボット(本体機構部)で、ケーブル6によってロボットコントローラ2に接続され、同ロボットコントローラ2によってその動作が制御される。ロボット1の手先部には、ハンド3及び3次元視覚センサ(本体部)4が取付けられている。ハンド3は、ケーブル8によってロボットコントローラ2に接続され、同ロボットコントローラ2によって開閉動作が制御される。
【0014】
また、3次元視覚センサ4は、例えばスリット光あるいはスポット光などのいわゆるパターン光を投射する投光器と反射光を検出する光検出装置を組み合わせた周知のものが使用可能であるが、ここでは一例として、スリット光の投光器とCCDビデオカメラを組み併せたものを使用するものとする。また、CCDビデオカメラは通常撮影(投光なし)で2次元画像を得るためにも使用するものとする。
【0015】
3次元視覚センサ4は、ケーブル9によってパーソナルコンピュータ5に接続されており、パーソナルコンピュータ5は、3次元視覚センサ4によるセンシング動作(投光、撮像など)を制御するとともに、センシング(ここでは通常撮影を含む)で得られた光検出信号(ここではビデオ映像信号)を処理して、後述する態様で、ロボットコントローラ2に所要の情報をイーサネット(登録商標)7を介して送る。
【0016】
本例において、ロボット1によって取り出される物品は、所定位置に置かれたテーブル11上に供給されるカゴ状のコンテナ12内にバラ積み状態で置かれた多数のワーク13である。ここで、コンテナ12には一例として矩形の開口を持つものを使用するが、一般には形状に特に制限はない。開口のサイズは、テーブル11上に載置した時、ロボット1を所定位置P0 に移動させることで視覚センサ4のビデオカメラの視野に若干の余裕をもって収まるものとする。図2(a)には、ロボット位置P0 で取得した通常撮影画の例が示されている。
【0017】
このように、本例では、「物品の存在範囲」は、コンテナ12の開口の内側の全領域であり、3次元的に言えば、同全領域にコンテナ12の深さを与えた体領域(立体的範囲)が「物品の存在範囲」となる。なお、図2(a)中の破線A1−A1、B1−B1は、後述する「物品(ここではワーク)の存在範囲の区分け」の説明のための仮想線である。
【0018】
以下、視覚センサ4とパーソナルコンピュータ5によるセンシング結果を使用してロボット1(ハンド3を含む)を動作させ、コンテナ12内のワーク13を1個づつ取り出す作業について、図1、図2(a)に加えて、図2(b)を適宜参照し、図3のフローチャートに基づき説明する。
【0019】
図2(b)は、図2(a)に画像を示した「ワークの存在範囲」を区分けすることで定められた複数の領域の内の1つの領域の通常撮影画像を示したもので、ここでは、区分け数「4」とし、A1−A1、B1−B1で示した破線(仮想線)を互いの境界に持つ4個の領域の内、図2(a)中の左上の領域が示されている。そして図3は、本実施形態で実行される処理の概要を説明するフローチャートであり、各ステップの要点は次の通りである。
【0020】
ステップS1;ロボット1を位置P0 へ移動させ、通常撮影を行い、パーソナルコンピュータ5内に2次元画像を取得する。この2次元画像は例えば図2(a)に示したものとなる。
【0021】
ステップS2;ステップS1で取得した2次元画像をパーソナルコンピュータ5内で処理し、「ワークの存在範囲」を定める。ここでは、前述したように、コンテナ12の矩形開口(内縁)12a(図2(a)参照)が検出され、同矩形開口12a内部が「ワークの存在範囲」となる。なお、「ワークの存在範囲」を定るために、例えばテーブル11の上方に別の視覚センサのカメラ(図示省略)を設置しておき、それを利用してコンテナ12の矩形開口(内縁)12aを検出しても良い。
【0022】
ステップS3;ステップS2で定められた「ワークの存在範囲」を予め設定されたルールに従って、区分けする。ここでは、縦横分割数mをパーソナルコンピュータ5にキーボード入力で指定し、縦横をそれぞれm等分するものとする。区分け数は「m×m」となる。但し、mは正整数で、下限と上限が予め設定されており、下限を下回る設定及び上限を上回る設定はできないようにしておく(設定しようとすると「設定不可」を表示する)。
【0023】
mの下限は2以上の適数を設計的に定める。図2(a)の例は、下限2としてその下限m=2が設定された場合に対応している。一方、mの上限については、区分けで定められる領域のサイズが、ある程度の余裕をもって1個のワーク13をカバー出来るように設定する。区分けで定められる領域の一辺の長さが、サイズ例えばワーク13の最大の差し渡しの2倍以上となるようにmの上限を設定することが好ましい。なお、「ワーク13の存在領域」や3次元視覚センサ4のセンシング視野の形状が細長い場合などにおいては、縦横の等分割数セット(m、n)を設定するようにしても良い。その場合、区分け数は「m×n」となる。
【0024】
ステップS4;ステップS3で定められた各領域についてセンシングに適したロボット位置を定める。図1には、i番目(i=1、2・・・・)の領域のセンシングに適したロボット位置Pi が記されている。ロボット位置Pi は、例えばi番目の領域の面重心の真上の定距離z0 の位置とすることができる。距離z0 は、若干の余裕をもってセンシング視野で各領域全体をカバーできるように設計的に定めることが出来る。言うまでもなく、各位置Pi は、全存在範囲を視野に収め得る位置P0 に比してコンテナ12に接近した位置となる。
【0025】
ステップS5;予め設定された適当なルールに従って、センシングの順番を定める。ルールとしては、例えば次のようなものが考えられる。
(1)ステップS4で定めたセンシング用のロボット位置Pi (区分け数個決まる)について、オペレータがパーソナルコンピュータの画面上で、順番1、2・・・・・N(Nは区分け数)をつける。
(2)ステップS4で定めたセンシング用のロボット位置Pi (区分け数個決まる)について、「x座標」が大きい順、もし「x座標」が同じあれば「y座標」大きい順に、領域に順番1、2・・・・・Nを付ける。
【0026】
(3)ステップS4で定めたセンシング用のロボット位置Pi (区分け数個決まる)の内から、オペレータがパーソナルコンピュータの画面上で、最初にセンシングする領域に順番1を付ける(ロボット位置をP1 で表記)。残りの順番は、パーソナルコンピュータ5内のソフトウェア処理で「隣接する領域」を逐次的に決定する。隣接する領域を逐次的に決定するには、例えば先ず「残りのPi の内P1 に最も近いPi 」をP2 、「更に残りのPi の内P2 に最も近いPi 」をP3 、以下、同様にPN まで順番を付ければ良い。
【0027】
ステップS6;区分け数N、ロボット位置P i (1〜Nの順番付)等のデータをパーソナルコンピュータ5からロボットコントローラ2に送る。
ステップS7;ロボットコントローラ2内に設定した指標iを初期値i=1とする。
ステップS8;ロボット位置Pi へロボット1を移動させ、移動完了をパーソナルコンピュータ5へ通知する。
【0028】
ステップS9;Pi に対応する領域のセンシングを実行する。ここで、同領域内には、ワーク取出し作業の途中までは、図2(b)に示したように、バラ積みのワーク13が複数個存在するので、同領域内のすべてのワークを検出できるとは限らない。例えば、2個のワーク13a、13bのみが検出される。検出に成功したワーク13a、13bについて、スリット光等の反射光を検出して、各ワーク13a、13bの3次元位置(姿勢を含む)をロボットコントローラ2内のメモリに記憶する。
【0029】
ステップS10;i=Nになったか否かをチェックする。i<Nであれば、ステップS11へ進む。i=Nになっていれば、ステップS12へ進む。
ステップS11;指標iに1を加算して、ステップS8へ戻る。
ステップS12;ステップS9で蓄積されたワークの位置・姿勢データを利用して、ロボット1によりワークの取出しを実行する。ワークの取出しのプロセスは、ワーク把持に適したロボット位置へのロボット移動、ハンド3による把持、ロボット移動によるワーク搬送、ハンド開放、次のワーク把持に適したロボット位置へのロボット移動などの繰り返しを含むが、詳細は省略する。位置・姿勢が検出された全ワークの取出しが完了したら、ステップS12へ進む。
【0030】
ステップS13;ロボット1を位置P0 へ移動させ、移動完了をパーソナルコンピュータ5へ伝える。
ステップS14;通常撮影で未取出しワークの有無を確認し、もしあればステップS7へ戻る。未取出しワークが無ければ処理を終了する。
以上の処理サイクルを最終的にステップS13で、未取出しワークが無くなるまで続行することで、コンテナ12内の全ワークの取出しが完了する。なお、本実施例については例えば下記のような変形が可能である。
【0031】
(1)物品(ワーク)は、必ずしも収容体に収容されていなくとも良い。なんらかの手段で、「物品の存在領域」を決定できれば例えば「床上にバラ積み」であっても良い。
(2)上記の例では「物品の存在領域」を視覚センサ4を用いて行なったが、本発明はこれに限定されない。例えば、存在領域のデータを予めオペレータがパーソナルコンピュータ5に入力しておいても良い。
【0032】
(3)区分けにおいて、上記の例では等分割数mを下限〜上限内で指定したが、「領域の面積s」を指定し、その指定された面積sに応じて区分けを実行するソフトウェアを用いても良い。例えば、存在領域の面積をSとして、先ずS/sを下回らない最小整数NSsを定め、f:g(f、g共に正整数)にセンシング視野の形状に応じた条件(例えば1≦f:g≦1.2)を課した上で、NSsに最も近いf×gの組を定め、縦横をf等分及びg等分しても良い。
また、オペレータがワークのサイズを表わすデータ(例えば最大差渡し)を入力し、それに基づいてソフトウェア処理で領域面積sを自動指定するようにしても良い。
【0033】
(4)各領域のセンシングとワーク取出しの実行タイミングの関係は、上記の例に限られるものではない。例えば1つの領域のセンシングが完了する毎に、同センシングで位置・姿勢が検出されたワークの取出しを実行しても良い。
更に、このケースで、各領域のセンシング順序について、最初のセンシング領域だけを指定しておき、1つのワークの取出しの完了毎に、次にセンシングを行なう領域を決定しても良い。この領域は、その領域に隣接する領域の1つとすることが好ましい。そのために、例えば、前述したように、各領域について定めたロボット位置Pi のデータを利用して、最も近いロボット位置Pj に対応する領域を次センシング対象領域に決定することができる。
【0034】
【発明の効果】
本発明を用いることで、コンテナ、カゴ、パレット等の収容体にバラ積みされている物品を取出すアプリケーションにおいて、収容体(物品の存在が予定される範囲)の大きさに比べて、相対的に大きさが小さい物品についても、1つの視覚センサで確実に物品の検出を行なうことができるようになり、それに基づく安定的な物品取出しが可能になる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る物品取出し装置の全体配置を示した図である。
【図2】物品の存在範囲の区分けに関連して、(a)は存在範囲全体の撮像で得られる画像を例示して、4つの領域に区分けするケースについて説明する図であり、(b)はそれら領域の内の1つの領域の撮像で得られる画像を例示したものである。
【図3】本発明の実施形態で実行される処理の概要を説明するフローチャートである。
【符号の説明】
1 ロボット
2 ロボットコントローラ
3 ハンド
4 3次元視覚センサ
5 パーソナルコンピュータ(画像処理装置)
6 ケーブル(ロボットコントローラ・ロボット間)
7 イーサネット(登録商標)
8 ケーブル(ロボットコントローラ・ハンド間)
9 ケーブル(ケメラ・パーソナルコンピュータ間)
11 テーブル
12 コンテナ
13、13a、13b ワーク
Claims (15)
- ロボットと、該ロボットに装着された視覚センサを備え、物品を前記視覚センサで検出し、その検出結果に応じて前記ロボットを移動させて、該ロボットにより前記物品を取り出す物品取出し装置において、
前記物品の存在範囲を複数の領域に区分けする区分け手段と、
前記区分けされた領域毎に前記視覚センサによるセンシングを行なう手段と、
前記センシングの結果に基づいて、前記ロボットによる物品の取り出しを行なう手段と、を備えることを特徴とする物品取出し装置。 - 前記物品の存在範囲が立体的範囲であることを特徴とする、請求項1項に記載の物品取出し装置。
- 前記物品の存在範囲を定める手段を備え、前記物品の存在範囲を定める手段は、前記物品が格納される格納体の形状及び位置・姿勢の情報に基づいて前記物品の存在範囲を定めることを特徴とする、請求項1又は請求項2に記載の物品取出し装置。
- 前記物品が格納される格納体の形状及び位置・姿勢の情報は、前記視覚センサの出力に基づくことを特徴とする、請求項3に記載の物品取出し装置。
- 前記物品が格納される格納体の形状及び位置・姿勢の情報は、前記視覚センサとは別の視覚センサの出力に基づくことを特徴とする、請求項3に記載の物品取出し装置。
- 前記存在範囲を複数の領域に区分けする手段は、各領域の大きさを指定する手段と、前記存在領域を前記指定された大きさの複数の分割領域に区分けする手段とを含むことを特徴とする、請求項1乃至請求項5の内何れか1項に記載の物品取出し装置。
- 前記区分け手段は、区分け数を指定する手段と、前記存在領域を前記指定された区分け数の領域に区分けする手段とを含むことを特徴とする、請求項1乃至請求項5の内何れか1項に記載の物品取出し装置。
- 前記区分け手段は、各領域が予め定められた下限を下回らない大きさを持つように、前記存在領域を区分けする手段を含むことを特徴とする、請求項1乃至請求項5の内何れか1項に記載の物品取出し装置。
- 前記下限は、少なくとも1個の前記物品を包含可能な大きさとして定められることを特徴とする、請求項8に記載の物品取出し装置。
- 前記区分けした領域を前記視覚センサによりセンシングする手段が、前記区分けした領域についてセンシング順位を定める手段と、
前記定められたセンシング順位に従って前記区分けした領域を前記視覚センサによりセンシングする手段を含むことを特徴とする、請求項1乃至請求項9の内何れか1項に記載の物品取出し装置。 - 前記区分けした領域を前記視覚センサによりセンシングする手段が、センシング結果を記憶する手段を備え、前記区分けした領域についてセンシング順位を定める手段と、
前記定められたセンシング順位に従って、且つ、前回のセンシング結果によって取出すべき物品がないと判断されなかった前記区分けした領域を前記視覚センサによりセンシングする手段を含むことを特徴とする、請求項1乃至請求項9の内何れか1項に記載の物品取出し装置。 - 前記区分けした領域を前記視覚センサによりセンシングする手段が、最初にセンシングを行なう領域を定める手段と、前記最初にセンシングを行なうように定めた領域のセンシングを行なう手段と、最新のセンシングが行なわれた領域と隣接する領域を順次指定し、該指定された領域のセンシングを順次実行する手段とを含むことを特徴とする、請求項1乃至請求項9の内何れか1項に記載の物品取出し装置。
- 前記区分けした領域を前記視覚センサによりセンシングする手段が、センシング結果を記憶する手段を備え、最初にセンシングを行なう領域を定める手段と、前記最初にセンシングを行なうように定めた領域のセンシングを行なう手段と、最新のセンシングが行われた領域と隣接し、且つ、前回のセンシング結果によって取出すべき物品がないと判断されなかった前記区分けした領域を順次指定し、該指定された領域のセンシングを順次実行する手段を含むことを特徴とする、請求項1乃至請求項9の内何れか1項に記載の物品取出し装置。
- 前記計測した結果に基づいて前記物品を取出す取り出し手段が、前記区分けされた全ての領域の計測を行った後に、前記区分けされたそれぞれの領域に存在する取り出しを行う手段とを含むことを特徴とする、請求項1乃至請求項13の内何れか1項に記載の物品取出し装置。
- 前記計測した結果に基づいて前記物品を取出す取り出し手段が、前記区分けされた領域のセンシングが完了する毎に、該領域内の前記物品の取り出しを行う手段とを含むことを特徴とする、請求項1乃至請求項13の内何れか1項に記載の物品取出し装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002327074A JP2004160567A (ja) | 2002-11-11 | 2002-11-11 | 物品取出し装置 |
US10/701,596 US7123992B2 (en) | 2002-11-11 | 2003-11-06 | Article pickup device |
EP03257074A EP1418025A3 (en) | 2002-11-11 | 2003-11-10 | Article pickup device comprising a robot and a visual sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002327074A JP2004160567A (ja) | 2002-11-11 | 2002-11-11 | 物品取出し装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004160567A true JP2004160567A (ja) | 2004-06-10 |
Family
ID=32105525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002327074A Pending JP2004160567A (ja) | 2002-11-11 | 2002-11-11 | 物品取出し装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7123992B2 (ja) |
EP (1) | EP1418025A3 (ja) |
JP (1) | JP2004160567A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006000427A (ja) * | 2004-06-18 | 2006-01-05 | Secom Co Ltd | 食事支援装置 |
JP2011093058A (ja) * | 2009-10-30 | 2011-05-12 | Fuji Electric Holdings Co Ltd | 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム |
US7966094B2 (en) | 2006-09-29 | 2011-06-21 | Fanuc Ltd | Workpiece picking apparatus |
US7996114B2 (en) | 2006-05-29 | 2011-08-09 | Fanuc Ltd | Workpiece picking device and method |
JP2012240133A (ja) * | 2011-05-17 | 2012-12-10 | Yaskawa Electric Corp | ロボットシステム |
JP2013086184A (ja) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | ワーク取出システム、ロボット装置および被加工物の製造方法 |
JP2016148558A (ja) * | 2015-02-10 | 2016-08-18 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2016219473A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2016219472A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2016219474A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2018098311A (ja) * | 2016-12-12 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 部品取出し方法および部品取出し装置ならびに部品実装装置 |
JP2018098310A (ja) * | 2016-12-12 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 部品取出し方法および部品取出し装置ならびに部品実装装置 |
CN108789499A (zh) * | 2017-04-28 | 2018-11-13 | 发那科株式会社 | 物品取出系统 |
JP2018192592A (ja) * | 2017-05-19 | 2018-12-06 | ファナック株式会社 | ワーク取出しシステム |
JP2019162696A (ja) * | 2018-03-20 | 2019-09-26 | ファナック株式会社 | センサ及びロボットを用いた物品取り出し装置、及び物品取り出し方法 |
JP2019214100A (ja) * | 2018-06-13 | 2019-12-19 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020142323A (ja) * | 2019-03-06 | 2020-09-10 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020163502A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
US11679944B2 (en) | 2018-08-31 | 2023-06-20 | Fanuc Corporation | Article picking system |
WO2024204418A1 (ja) * | 2023-03-31 | 2024-10-03 | 京セラ株式会社 | 処理装置及びプログラム |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3805302B2 (ja) * | 2002-12-13 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
WO2004103864A1 (ja) * | 2003-05-21 | 2004-12-02 | Matsushita Electric Industrial Co., Ltd. | 物品管理システム、物品管理サーバ、物品管理方法 |
JP4087874B2 (ja) | 2006-02-01 | 2008-05-21 | ファナック株式会社 | ワーク取り出し装置 |
JP4565023B2 (ja) * | 2008-07-04 | 2010-10-20 | ファナック株式会社 | 物品取り出し装置 |
JP5333344B2 (ja) * | 2009-06-19 | 2013-11-06 | 株式会社安川電機 | 形状検出装置及びロボットシステム |
JP5549129B2 (ja) | 2009-07-06 | 2014-07-16 | セイコーエプソン株式会社 | 位置制御方法、ロボット |
JP5500926B2 (ja) * | 2009-09-29 | 2014-05-21 | キヤノン株式会社 | 物体把持制御方法及び装置 |
JP5382621B2 (ja) * | 2010-06-03 | 2014-01-08 | 株式会社安川電機 | 移載装置 |
JP5630208B2 (ja) * | 2010-10-25 | 2014-11-26 | 株式会社安川電機 | 形状計測装置、ロボットシステムおよび形状計測方法 |
US9089966B2 (en) * | 2010-11-17 | 2015-07-28 | Mitsubishi Electric Corporation | Workpiece pick-up apparatus |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5533727B2 (ja) | 2011-02-18 | 2014-06-25 | 株式会社安川電機 | ワークピッキングシステム |
JP5835926B2 (ja) * | 2011-04-11 | 2015-12-24 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5266377B2 (ja) * | 2011-12-19 | 2013-08-21 | ファナック株式会社 | 物品の姿勢を修正する機能を備えた取出し装置 |
JP5383836B2 (ja) | 2012-02-03 | 2014-01-08 | ファナック株式会社 | 検索ウィンドウを自動的に調整する機能を備えた画像処理装置 |
JP5642738B2 (ja) * | 2012-07-26 | 2014-12-17 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
JP5469216B2 (ja) * | 2012-07-31 | 2014-04-16 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置 |
JP5765355B2 (ja) * | 2013-03-18 | 2015-08-19 | 株式会社安川電機 | ロボットピッキングシステム及び被加工物の製造方法 |
JP5929854B2 (ja) * | 2013-07-31 | 2016-06-08 | 株式会社安川電機 | ロボットシステムおよび被加工物の製造方法 |
CN103691678B (zh) * | 2013-12-10 | 2015-11-18 | 河北科技师范学院 | 一种轴承外径尺寸挑选机器人 |
US9531967B2 (en) * | 2013-12-31 | 2016-12-27 | Faro Technologies, Inc. | Dynamic range of a line scanner having a photosensitive array that provides variable exposure |
JP5778311B1 (ja) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | ピッキング装置およびピッキング方法 |
JP6088563B2 (ja) * | 2015-02-10 | 2017-03-01 | ファナック株式会社 | 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法 |
CN105459115B (zh) * | 2015-12-17 | 2017-07-07 | 浙江智昌实业有限公司 | 一种工业机器人 |
CN105798908A (zh) * | 2016-04-04 | 2016-07-27 | 合肥博雷电子信息技术有限公司 | 一种自动检测智能取样装置 |
JP2018203480A (ja) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | 仕分装置および仕分システム |
CN108908344A (zh) * | 2018-08-17 | 2018-11-30 | 云南电网有限责任公司昆明供电局 | 一种巡检机器人机械臂末端空间定位方法 |
US11241795B2 (en) * | 2018-09-21 | 2022-02-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Soft package, robot system for processing the same, and method thereof |
CN110420878A (zh) * | 2019-07-10 | 2019-11-08 | 中国农业大学 | 一种果蔬分选机械手及系统 |
US20220241982A1 (en) * | 2019-09-18 | 2022-08-04 | Fuji Corporation | Work robot and work system |
CN111389751B (zh) * | 2020-04-09 | 2021-10-12 | 福建威而特旋压科技有限公司 | 一种皮带轮外观缺陷与总高检测设备及其控制方法 |
CN113731857B (zh) * | 2021-09-15 | 2023-04-25 | 重庆大学 | 小包装药袋自动分拣系统及其控制方法 |
CN114405866B (zh) * | 2022-01-20 | 2023-11-21 | 湖南视比特机器人有限公司 | 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统 |
CN118254162A (zh) * | 2023-04-12 | 2024-06-28 | 上海馥逸医疗科技有限公司 | 机器人系统以及其执行机械臂的控制方法、存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4146924A (en) * | 1975-09-22 | 1979-03-27 | Board Of Regents For Education Of The State Of Rhode Island | System for visually determining position in space and/or orientation in space and apparatus employing same |
US4412293A (en) * | 1981-03-30 | 1983-10-25 | Kelley Robert B | Robot system which acquires cylindrical workpieces from bins |
US6317953B1 (en) * | 1981-05-11 | 2001-11-20 | Lmi-Diffracto | Vision target based assembly |
JPS60123974A (ja) | 1983-12-09 | 1985-07-02 | Hitachi Ltd | 多段階視野認識方式 |
JPS6478103A (en) * | 1987-09-19 | 1989-03-23 | Nissan Motor | Work recognizing method by image processing |
JPH0821081B2 (ja) | 1987-12-03 | 1996-03-04 | ファナック株式会社 | ウィンドウの制御方法 |
US5233152A (en) * | 1989-06-21 | 1993-08-03 | Honeywell Inc. | Robotic laser soldering apparatus for automated surface assembly of microscopic components |
US5023426A (en) * | 1989-06-21 | 1991-06-11 | Honeywell Inc. | Robotic laser soldering apparatus for automated surface assembly of microscopic components |
JPH04240081A (ja) * | 1991-01-25 | 1992-08-27 | Toyota Motor Corp | ワーク取り出しロボット |
GB2261069B (en) * | 1991-10-30 | 1995-11-01 | Nippon Denso Co | High speed picking system for stacked parts |
JP3511636B2 (ja) | 1993-05-21 | 2004-03-29 | 松下電器産業株式会社 | 基板検査方法 |
US5579415A (en) * | 1993-08-06 | 1996-11-26 | Matsushita Electric Industrial Co., Ltd. | Computer implemented method of recognizing a position of an object |
JPH09277184A (ja) | 1996-04-15 | 1997-10-28 | Ricoh Co Ltd | 画像処理方法 |
DE69736348T2 (de) * | 1996-10-24 | 2006-11-30 | Fanuc Ltd. | Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten |
JP3925020B2 (ja) | 1999-12-21 | 2007-06-06 | 株式会社明電舎 | ロボットの制御装置 |
US6592315B2 (en) * | 2000-05-08 | 2003-07-15 | William Joseph Osborne, Jr. | Self-feeding apparatus with hover mode |
JP2002172575A (ja) * | 2000-12-07 | 2002-06-18 | Fanuc Ltd | 教示装置 |
JP3865703B2 (ja) * | 2002-10-25 | 2007-01-10 | ファナック株式会社 | 物品搬送システム及び搬送方法 |
-
2002
- 2002-11-11 JP JP2002327074A patent/JP2004160567A/ja active Pending
-
2003
- 2003-11-06 US US10/701,596 patent/US7123992B2/en not_active Expired - Fee Related
- 2003-11-10 EP EP03257074A patent/EP1418025A3/en not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006000427A (ja) * | 2004-06-18 | 2006-01-05 | Secom Co Ltd | 食事支援装置 |
US7996114B2 (en) | 2006-05-29 | 2011-08-09 | Fanuc Ltd | Workpiece picking device and method |
US7966094B2 (en) | 2006-09-29 | 2011-06-21 | Fanuc Ltd | Workpiece picking apparatus |
JP2011093058A (ja) * | 2009-10-30 | 2011-05-12 | Fuji Electric Holdings Co Ltd | 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム |
US8825212B2 (en) | 2011-05-17 | 2014-09-02 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP2012240133A (ja) * | 2011-05-17 | 2012-12-10 | Yaskawa Electric Corp | ロボットシステム |
JP2013086184A (ja) * | 2011-10-13 | 2013-05-13 | Yaskawa Electric Corp | ワーク取出システム、ロボット装置および被加工物の製造方法 |
US9205563B2 (en) | 2011-10-13 | 2015-12-08 | Kabushiki Kaisha Yaskawa Denki | Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material |
JP2016148558A (ja) * | 2015-02-10 | 2016-08-18 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP2016219473A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2016219472A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2016219474A (ja) * | 2015-05-15 | 2016-12-22 | パナソニックIpマネジメント株式会社 | 部品取出し装置および部品取出し方法ならびに部品実装装置 |
JP2018098311A (ja) * | 2016-12-12 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 部品取出し方法および部品取出し装置ならびに部品実装装置 |
JP2018098310A (ja) * | 2016-12-12 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 部品取出し方法および部品取出し装置ならびに部品実装装置 |
CN108789499A (zh) * | 2017-04-28 | 2018-11-13 | 发那科株式会社 | 物品取出系统 |
JP2018187687A (ja) * | 2017-04-28 | 2018-11-29 | ファナック株式会社 | 物品取出システム |
CN108789499B (zh) * | 2017-04-28 | 2019-12-31 | 发那科株式会社 | 物品取出系统 |
US10518417B2 (en) | 2017-04-28 | 2019-12-31 | Fanuc Corporation | Article retrieval system |
US10434652B2 (en) | 2017-05-19 | 2019-10-08 | Fanuc Corporation | Workpiece picking system |
JP2018192592A (ja) * | 2017-05-19 | 2018-12-06 | ファナック株式会社 | ワーク取出しシステム |
JP2019162696A (ja) * | 2018-03-20 | 2019-09-26 | ファナック株式会社 | センサ及びロボットを用いた物品取り出し装置、及び物品取り出し方法 |
US11390469B2 (en) | 2018-03-20 | 2022-07-19 | Fanuc Corporation | Article takeout apparatus and article takeout method using sensor and robot |
JP2019214100A (ja) * | 2018-06-13 | 2019-12-19 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
US11527008B2 (en) | 2018-06-13 | 2022-12-13 | Omron Corporation | Robot control device, robot control method, and robot control program |
US11679944B2 (en) | 2018-08-31 | 2023-06-20 | Fanuc Corporation | Article picking system |
JP2020142323A (ja) * | 2019-03-06 | 2020-09-10 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020163502A (ja) * | 2019-03-28 | 2020-10-08 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
JP7275759B2 (ja) | 2019-03-28 | 2023-05-18 | セイコーエプソン株式会社 | 物体検出方法、物体検出装置およびロボットシステム |
WO2024204418A1 (ja) * | 2023-03-31 | 2024-10-03 | 京セラ株式会社 | 処理装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7123992B2 (en) | 2006-10-17 |
EP1418025A2 (en) | 2004-05-12 |
US20040117066A1 (en) | 2004-06-17 |
EP1418025A3 (en) | 2009-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004160567A (ja) | 物品取出し装置 | |
JP4087874B2 (ja) | ワーク取り出し装置 | |
JP6805465B2 (ja) | センサ誘導式ロボットを用いたボックスの位置特定、分離、およびピッキング | |
JP3805302B2 (ja) | ワーク取出し装置 | |
JP3768174B2 (ja) | ワーク取出し装置 | |
EP1905548B1 (en) | Workpiece picking apparatus | |
JP6879238B2 (ja) | ワークピッキング装置及びワークピッキング方法 | |
CN111328408B (zh) | 形状信息生成设备、控制设备、装卸设备、物流系统、程序和控制方法 | |
JP2004090183A (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
JP2014161965A (ja) | 物品取り出し装置 | |
JP2019136828A (ja) | 箱状物ピッキング装置及びその方法 | |
JP6662836B2 (ja) | 収容領域又は治具にワークを配置するワーク配置システム | |
JP6526100B2 (ja) | 物品取出システム | |
JP2007130711A (ja) | ピッキング順序決定方法、装置及びそのプログラム、並びにピッキングシステム | |
JP7459910B2 (ja) | 画像認識システム | |
CN112802093A (zh) | 对象抓取方法及装置 | |
JP2010032258A (ja) | デパレタイズ用のワーク位置認識装置および方法 | |
CN112802106A (zh) | 对象抓取方法及装置 | |
US20230286165A1 (en) | Systems and methods for robotic system with object handling | |
JP2019099338A (ja) | 自動倉庫用計算機 | |
JP6512852B2 (ja) | 情報処理装置、情報処理方法 | |
JP7232652B2 (ja) | ワーク移載システム | |
JP7436170B2 (ja) | ロボットシステム | |
JPH0430991A (ja) | 視覚装置付ロボット | |
JPH1196378A (ja) | 積荷位置姿勢認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050502 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051122 |