JP2016203293A - ピッキング装置およびピッキング方法 - Google Patents
ピッキング装置およびピッキング方法 Download PDFInfo
- Publication number
- JP2016203293A JP2016203293A JP2015086637A JP2015086637A JP2016203293A JP 2016203293 A JP2016203293 A JP 2016203293A JP 2015086637 A JP2015086637 A JP 2015086637A JP 2015086637 A JP2015086637 A JP 2015086637A JP 2016203293 A JP2016203293 A JP 2016203293A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gripping
- feature information
- objects
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
【課題】人的コストの増加を抑制しつつ、把持可能な対象物を適切に把持する。
【解決手段】画像処理装置は、学習処理における安定性判定処理30において把持動作に失敗したワークの周囲の特徴情報を含む部分画像をネガティブ画像として記憶し、学習処理を複数回実行することによってネガティブ画像を複数生成し、ピッキング処理におけるワーク把持処理14において、生成された複数のネガティブ画像の特徴情報に対応するワーク4を把持対象から除外し、除外されたワーク4を除いた複数のワーク4のいずれかに対して把持動作を行なう。
【選択図】図3
【解決手段】画像処理装置は、学習処理における安定性判定処理30において把持動作に失敗したワークの周囲の特徴情報を含む部分画像をネガティブ画像として記憶し、学習処理を複数回実行することによってネガティブ画像を複数生成し、ピッキング処理におけるワーク把持処理14において、生成された複数のネガティブ画像の特徴情報に対応するワーク4を把持対象から除外し、除外されたワーク4を除いた複数のワーク4のいずれかに対して把持動作を行なう。
【選択図】図3
Description
本発明は、画像処理により対象物の位置情報を認識し、認識した位置情報に基づいてロボットハンドを用いて対象物を移動させるピッキング装置およびピッキング方法に関する。
製造現場などでは、画像処理技術を用いた様々な自動化技術が利用されている。このような技術として、たとえば、画像処理により対象物の位置情報を認識し、認識した位置情報に基づいてロボットハンドを用いて対象物を把持し移動させる技術が公知である。たとえば、特開2004−188562号公報(特許文献1)は、ロボットに3次元視覚センサを搭載し、開口付の容器内等に存在するワークの位置・姿勢を認識し、それに基づいてワークの取り出しを行なうワーク取り出し装置を開示する。
ところで、対象物の位置情報を認識した場合においても、対象物の周囲の状況によってはロボットハンドにより対象物を把持できない場合がある。そのため、対象物の位置情報だけでなく、対象物の周囲の状況がロボットハンドにより把持可能な状況であるか否かを判定する必要がある。しかしながら、画像処理によって対象物の周囲の状況を認識できるものの認識された状況において対象物の安定した把持が可能であるか否かの検証が人により行なわれる場合には、検証に時間を要したり人的コストが増加したりする場合がある。
本発明は、上述した課題を解決するためになされたものであって、その目的は、人的コストの増加を抑制しつつ、把持可能な対象物を適切に把持するピッキング装置およびピッキング方法を提供することである。
この発明のある局面に係るピッキング装置は、複数の対象物を含む入力画像を取得する撮像装置と、撮像装置により取得される入力画像から対象物の特徴情報を含む学習画像に基づいて複数の対象物の位置および向きを含む位置情報を取得する画像処理装置と、画像処理装置によって位置情報が取得された複数の対象物のうちのいずれか一つに対して把持動作を行なうロボットハンドとを備える。画像処理装置は、把持動作により対象物を把持できない場合に、把持できない対象物の周囲の特徴情報を含む部分画像をネガティブ画像として記憶し、入力画像において複数の対象物のうちネガティブ画像の特徴情報に対応する特徴情報を含む対象物を把持対象から除外する。
好ましくは、画像処理装置は、複数の対象物に対して把持動作を複数回実施し、複数のネガティブ画像を生成する。
さらに好ましくは、画像処理装置は、把持動作により対象物を把持できる場合に、把持できる対象物の周囲の特徴情報を含む部分画像をポジティブ画像として記憶し、入力画像において複数の対象物のうちポジティブ画像の特徴情報に対応する特徴情報を含む対象物を把持対象として設定する。
さらに好ましくは、ロボットハンドは、対象物の把持が可能な複数の指部と、複数の指部の各々の可動部の作動量を検出する第1センサと、複数の指部の各々の可動部に作用する力を検出する第2センサと、第1センサの検出結果および第2センサの検出結果に基づいてロボットハンドの動作を制御する制御装置とを含む。制御装置は、把持動作中の、複数の指部のうちの少なくともいずれかの可動部の作動量の変化態様または複数の指部のうちの少なくともいずれかの可動部に作用する力の変化態様に基づいて対象物を把持できるか否かを判定する。
さらに好ましくは、制御装置は、把持動作において、対象物を把持する前に複数の指部の各々を対象物の周囲の予め定められた把持準備位置に移動させる準備動作と、対象物を複数の指部で狭持する狭持動作と、対象物を持ち上げる持ち上げ動作とを実行する。
この発明の他の局面に係るピッキング方法は、複数の対象物を含む入力画像を取得するステップと、入力画像から対象物の特徴情報を含む学習画像に基づいて複数の対象物の位置および向きを含む位置情報を取得するステップと、位置情報が取得された複数の対象物のうちのいずれか一つに対してロボットハンドを用いて把持動作を行なうステップと、把持動作により対象物を把持できない場合に、把持できない対象物の周囲の特徴情報を含む部分画像をネガティブ画像として記憶するステップと、入力画像において複数の対象物のうちネガティブ画像の特徴情報に対応する特徴情報を含む対象物を把持対象から除外するステップとを含む。
この発明によると、把持動作により対象物を把持できない場合に、把持できない対象物の周囲の特徴情報を含む部分画像がネガティブ画像として記憶され、入力画像において複数の対象物のうちネガティブ画像の特徴情報に対応する特徴情報を含む対象物を把持対象から除外することにより、把持可能な対象物に対してのみ把持動作を行なうことができる。このような一連の動作は、人による作業が介在することなく実施することができるため、人的コストの増加を抑制することができる。したがって、人的コストの増加を抑制しつつ、把持可能な対象物を適切に把持するピッキング装置およびピッキング方法を提供することができる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号が付されている。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰返されない。
図1は、本実施の形態に係るピッキング装置1の構成例を示す概略図である。ピッキング装置1は、入力画像から、商品選別や部品組み立てのために指定された物体(以下、「ワーク」とも称す)4の位置・姿勢(向き)を含む位置情報を認識し、その認識された位置情報に従って、当該認識されたワーク4を把持(ピッキング)する装置である。
より具体的には、ピッキング装置1は、撮像装置2と、画像処理装置100と、ロボットハンド200とを備える。画像処理装置100は、撮像装置2からの入力画像内から予め登録された検出対象に相当するワーク4の位置情報を認識し、その検出したワーク4の位置情報をロボットハンド200に出力する。
ロボットハンド200は、第1指部202aおよび第2指部202bによりワーク4の把持が可能なハンド部202と、ハンド部202の移動が可能なアーム部204とを含む。ハンド部202は、アーム部204の一方端に接続される。ロボットハンド200は、画像処理装置100からの位置情報に従ってハンド部202およびアーム部204を動作させて、対象のワーク4を把持して、所定の位置まで移動させる。なお、指部の数は、2本であることに特に限定されるものではなく、たとえば、3本であってもよい。また、ロボットハンド200も1台の画像処理装置100に対して複数体設けられるようにしてもよい。
また、以下の説明においては、ワーク4として飲料容器を一例として説明するが、特にワーク4は、飲料容器に限定されるものではなく、各種部品や装置等であってもよい。
次に、図1に示す画像処理装置100の構成例について説明する。図2は、画像処理装置100の構成例を示す模式図である。図2には、画像処理装置100の典型的な実装例として、プロセッサが画像処理プログラムを実行する形態について例示する。
より具体的には、画像処理装置100は、プロセッサ102と、主メモリ104と、HDD(Hard Disk Drive)106と、ネットワークインターフェース110と、画像入力インターフェース112と、入力部114と、表示部116と、出力インターフェース118とを含む。これらのコンポーネントは、内部バス120を介して、互いに通信可能に接続されている。
プロセッサ102は、後述する処理を実行する処理主体であり、HDD106に格納されている画像処理プログラム108を主メモリ104に展開して実行する。プロセッサ102は、典型的には、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)からなる。HDD106には、後述する学習処理の結果により得られる学習画像(ポジティブ画像あるいはネガティブ画像)などが格納されてもよい。
ネットワークインターフェース110は、外部ネットワークなどを介した他の装置やサーバなどとの通信を仲介する。画像入力インターフェース112は、任意の通信プロトコルに準拠した回路を含み、撮像装置2からの学習画像および/または入力画像を受け付ける。入力部114は、キーボードやマウスなどを含み、ユーザからの入力操作を受け付ける。表示部116は、ディスプレイなどからなり、後述する学習処理やワーク認識処理などの処理過程や結果などをユーザへ通知する。出力インターフェース118は、任意の通信プロトコルに準拠した回路を含み、認識処理によって得られた結果などに基づく制御指令を外部の機器(たとえば、ロボットハンド200など)へ出力する。
撮像装置2は、被写体を撮像することで入力画像を生成する手段であり、一例として、レンズなどの光学系に加えて、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサといったデバイスを含む。
ロボットハンド200のハンド部202は、第1指部202aおよび第2指部202bの可動部を動作させる第1モータ206を含む。アーム部204は、アーム部204の可動部を動作させる第2モータ208を含む。ロボットハンド200は、第1指部202aおよび第2指部202bの可動部の作動量(具体的には、第1モータ206の回転角度)を検出する角度センサ210と、第1指部202aおよび第2指部202bの可動部に作用する力を検出する力センサ212と、各種センサからの入力と画像処理装置100からの情報とに基づいて第1モータ206および第2モータ208を動作させることによってピッキング処理を行なうための制御装置214とをさらに含む。
画像処理装置100の機能の全部または一部を、たとえば、SoC(System on a chip)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などの回路要素を用いて実現してもよい。図2に示す画像処理プログラム108は、任意の記録媒体(たとえば、光ディスクやフラッシュメモリなど)を通じて画像処理装置100へインストールされてもよいし、ネットワークを介して配信されてもよい。さらに、画像処理装置100とサーバ装置とを連携させて後述する処理や機能を実現してもよい。この場合には、画像処理装置100およびサーバ装置のいずれか一方または両方に、本実施の形態を実現するために必要な機能が存在することになる。
撮像装置2と画像処理装置100とを一体的に構成してもよいし、撮像装置2と直接接続されていない画像処理装置100を採用してもよい。後者の場合には、任意の撮像手段を用いて画像を生成または取得し、その生成または取得された画像をネットワークや任意の記録媒体を介して、画像処理装置100に取り込むようにしてもよい。
画像処理装置100は、学習画像に基づいて入力画像に含まれ、検出対象に相当するワーク4の位置情報を認識する。本実施の形態において、画像処理装置100は、たとえば、入力画像から切り出された部分入力画像(以下、「入力パッチ」とも称す。)を物体認識に利用する局所パッチベースの統計的学習法を用いて入力画像からワーク4の位置情報を認識する。局所パッチベースの統計的学習法の一例として、Random Forests(決定木群)を入力パッチの物体認識に利用したHough Forests法やMI−Hough Forests法が提案されている。
Hough Forests法は、入力画像から切り出された複数の入力パッチをRandom Forestsに入力し、各入力パッチが到達した末端ノードのクラス確率を、検出対象の中心までのオフセット量(オフセットベクトル)用いて投票する物体認識方法である。
Hough Forests法では、学習画像から切り出された部分学習画像(以下、「学習パッチ」とも称す。)のサブセットから学習処理によって決定木群を構築した上で、入力画像から切り出された入力パッチを決定木群に入力する。各入力パッチが各決定木においていずれのいずれの末端ノードに到達したのかを判定し、それぞれの末端ノードに保持されている情報(すなわち、学習処理にて予め得られている情報)を用いて、入力画像内に検出対象に相当するワーク4の位置情報を認識する。
MI−Hough Forests法では、上述の学習処理において複数のパッチを集合体として扱うBagの概念を利用して学習サンプル(学習画像から取得された1または複数のパッチ)に重みを導入して、決定木群を構築する際に、誤識別を生じる可能性の高い学習パッチを取捨選択することによって、類似物への投票を抑制している。
なお、学習処理によって構築される決定木群は、入力画像から切り出された入力パッチが、学習画像(ポジティブ画像あるいはネガティブ画像)に類似している可能性が高いのかという確率を算出するのに用いられる。本実施の形態において、ポジティブ画像とは、検出対象のワークの少なくとも一部が写った学習画像であり、ネガティブ画像とは、非検出対象のワークの少なくとも一部が写った学習画像をいう。なお、ワーク4の位置情報の認識方法として上述の方法に限定されるものではなく、その他の公知の技術を用いればよい。
以上のような構成を有するピッキング装置1において図3(A)に示すようなステップを経てピッキング処理が行なわれる。ピッキング処理は、入力画像取得処理10と、ワーク認識処理12と、ワーク把持処理14とを含む。
入力画像取得処理10にて撮像装置2から入力画像が取得される。ワーク認識処理12にて上述した物体認識方法を用いることにより学習画像に基づいて入力画像に含まれる複数のワーク4の各々の位置情報が認識される。ワーク把持処理14にて、位置情報が認識されたワーク4に対して把持動作が行なわれる。
一方、ワーク4の位置情報を認識した場合においても、ワーク4の周囲の状況によってはロボットハンド200によりワーク4を把持できない場合がある。たとえば、複数のワーク4が互いに隣接した位置関係にある場合には、隣接したワーク4が第1指部202aあるいは第2指部202bの移動場所への移動の妨げとなり、第1指部202aあるいは第2指部202bを把持対象のワーク4の把持が可能な位置に移動させることができない場合がある。そのため、ピッキング処理を行なう場合には、ワーク4の位置・姿勢だけでなく、把持対象物の周囲の状況がロボットハンド200により把持可能な状況であるか否かを判定する必要がある。
そのため、たとえば、図3(B)に示すステップを経て学習処理が実行される。学習処理は、入力画像から位置情報が認識された複数のワーク4のうち把持可能なワーク4と把持不可能なワーク4とを認識可能にするための処理である。学習処理は、上述のピッキング処理を行なう事前に別途実行されてもよいし、ピッキング処理の実行とともに実行されてもよい。学習処理は、入力画像取得処理20と、把持条件設定処理22と、ワーク認識処理24と、チェック処理26と、ワーク把持処理28と、安定性判定処理30とを含む。
入力画像取得処理20にて、入力画像取得処理10と同様に撮像装置2から入力画像が取得される。
把持条件設定処理22にてロボットハンド200の第1指部202aおよび第2指部202bによるワーク4の把持位置(ワーク4に対して第1指部202aおよび第2指部202bを接触させる位置)が設定される。なお、この把持位置の設定は、たとえば、ワーク4の種類に応じて設定される。把持位置の設定は、入力部114から入力される情報に基づいて行なわれてもよいし、予め記憶された記憶領域から読み出されて行なわれてもよいし、ワーク4の詳細な形状、質量あるいは重心位置等の情報に基づいて行なわれてもよいし、作業者が手動でロボットハンド200を操作した結果に基づいて行なわれてもよい。なお、把持位置としては、複数種類設定されていてもよい。
ワーク認識処理24にてワーク認識処理12と同様に上述した物体認識方法を用いることにより学習画像に基づいて入力画像に含まれる複数のワーク4の各々の位置情報が認識される。
チェック処理26において認識された複数のワーク4のうちいずれか一つのワーク4の位置関係に基づいて把持可能であるか否かがチェックされる。ワーク把持処理28にて把持可能であるか否かがチェックされたワーク4の位置情報に基づいて当該ワーク4に対する把持動作が行なわれる。本実施の形態において、把持動作は、ワーク4を把持する前に複数の指部の各々をワーク4の周囲の予め定められた把持準備位置に移動させる準備動作と、ワーク4を複数の指部で狭持する狭持動作と、ワーク4を持ち上げる持ち上げ動作とを含むものとする。
すなわち、ワーク把持処理28にて、把持対象となるワーク4の位置情報と把持動作の制御指令とが画像処理装置100からロボットハンド200に送信される。ロボットハンド200の制御装置214は、受信した位置情報と把持動作の制御指令とに基づいて第1モータ206および第2モータ208を制御する。具体的には、制御装置214は、ハンド部202の第1指部202aおよび第2指部202bが予め定められた把持準備位置に移動するように第1モータ206および第2モータ208を制御して準備動作を行なう。その後、制御装置214は、第1指部202aおよび第2指部202bによりワーク4が狭持されるように第1モータ206を制御して狭持動作を行なう。そして、制御装置214は、ワーク4を所定の位置に持ち上げるように第2モータ208を制御して持ち上げ動作を行なう。
安定性判定処理30にて把持動作が成功したか否か、把持動作に成功した場合にはワーク4を安定して把持しているか否か等のワーク4の把持状態の安定性が確認される。
しかしながら、上述した学習処理において、たとえば、ワーク4の位置関係に基づいて把持可能であるか否かのチェックや把持状態の安定性の確認が、人により行なわれる場合には、学習処理を繰り返し実行してその都度位置関係のチェックや安定性の確認が必要となるため、検証に時間を要したり、人的コストが増加したりする場合がある。
そこで、本実施の形態においては、画像処理装置100が、学習処理において、把持動作によりワーク4を把持できない場合に、把持できないワーク4の周囲の特徴情報を含む部分画像をネガティブ画像として記憶し、入力画像において複数の対象物のうちネガティブ画像の特徴情報に対応する特徴情報を含む対象物を把持対象から除外する点を特徴とする。また、画像処理装置100は、学習処理において、複数のワーク4に対して把持動作を複数回実施し、複数のネガティブ画像を生成する。
以下に、本実施の形態に係るピッキング装置1により実行される学習処理について説明する。なお、学習処理の流れについては、上述の図3(B)で示した学習処理の流れと基本的に同様であるため、以下においては、特に上述の図3(B)で示した学習処理と異なる点について説明する。
すなわち、初回の学習処理におけるワーク認識処理24にて、たとえば、図4(A)に示すような飲料容器を示すワーク4の特徴情報を含む画像がポジティブ画像として設定される。画像処理装置100は、入力画像からポジティブ画像の特徴情報に対応する複数のワーク4の各々の位置情報を認識する。初回の学習処理におけるチェック処理26にて、ネガティブ画像がまだHDD106に記憶されていないため、位置情報が認識された複数のワーク4の各々が把持対象とされる。初回の学習処理におけるワーク把持処理28にて、複数のワーク4のうちのいずれか一つのワーク4が把持対象とされ、ロボットハンド200による把持動作が行なわれる。
安定性判定処理30にて、ロボットハンド200の制御装置214は、各種センサからの検出結果に基づいてワーク4の把持動作が成功したか否かを判定する。
制御装置214は、たとえば、準備動作中に、各種センサからの検出結果に基づいて第1指部202aまたは第2指部202bを所定の位置(把持対象のワーク4の把持位置)に移動できなかった場合にワーク4の把持動作が失敗したと判定する。
具体的には、制御装置214は、たとえば、準備動作中に第1指部202aおよび第2指部202bうちの停止状態の少なくともいずれかの指部の可動部が動作したり、準備動作中に少なくともいずれかの指部の可動部にしきい値以上の力が作用したり、準備動作中に可動部の作動量が目標値に到達しなかったりした場合に、第1指部202aまたは第2指部202bを所定の位置に移動できなかったことを判定する。しきい値は、第1指部202aまたは第2指部202bに対して何らかの力が作用したことを示す値である。
また、制御装置214は、第1指部202aおよび第2指部202bの各々を所定の位置に移動できたものの狭持動作中に、第1指部202aまたは第2指部202bが空振りするなどしてワーク4を把持できなかった場合にワーク4の把持動作が失敗したと判定する。
具体的には、制御装置214は、たとえば、狭持動作中に、第1指部202aの可動部の作動量または第2指部202bの可動部の作動量がワーク4の把持位置に対応する作動量よりも大きく作動したり、把持位置に対応する作動量となるときに可動部にしきい値以上の力が作用しなかったりした場合にワーク4を把持できなかったと判定する。なお、しきい値は、第1指部202aおよび第2指部202bによってワーク4を把持可能な把持力が発生する場合に可動部に作用する力に対応する値である。
あるいは、制御装置214は、ワーク4を把持できたものの持ち上げ動作中にワーク4が落下した場合にワーク4の把持動作が失敗したと判定する。
具体的には、制御装置214は、たとえば、持ち上げ動作中に、第1指部202aの可動部または第2指部202bの可動部においてしきい値以上の力が作用した状態からしきい値以上の力が作用しない状態に変化した場合、あるいは、第1指部202aまたは第2指部202bがワーク4を把持する把持位置から握り込む方向(第1指部202aと第2指部202bとの距離が短くなる方向)に動作する場合に、ワーク4が落下したと判定する。
さらに、安定性判定処理30にて、制御装置214は、ワーク4の把持動作が成功したか否かについての情報を画像処理装置100に出力する。なお、ワーク4の把持動作が成功したか否かについての上述の判定は、制御装置214に代えて画像処理装置100にて行なわれてもよい。
画像処理装置100は、ワーク4の把持動作が失敗した場合には、把持動作が失敗したワーク4の周囲の特徴情報を含む部分画像をネガティブ画像として所定の記憶領域に記憶する。画像処理装置100は、たとえば、入力画像から図4(B)に示すように、隣接するワーク4によって把持動作に失敗したワーク4の周囲の特徴情報を含む部分画像を抽出してネガティブ画像を生成する。なお、画像処理装置100は、たとえば、把持動作に失敗したワーク4を基準として、図4(A)に示すポジティブ画像におけるワーク4本体が占める領域とワーク4の周囲を示す領域との面積比率が同等となる領域を抽出領域として部分画像を抽出し、抽出された部分画像をネガティブ画像として主メモリ104やHDD106等に記憶する。記憶されたネガティブ画像は、2回目以降の学習処理あるいはピッキング処理において利用される。
すなわち、2回目の学習処理におけるチェック処理26にて、ワーク認識処理24にて位置情報が認識された複数のワーク4の中からネガティブ画像に基づいて把持不可能なワーク4を特定する。画像処理装置100は、たとえば、ポジティブ画像とネガティブ画像とを対比して相違部分を抽出し、相違部分のうちのネガティブ画像のみが有する特徴点(ネガティブ画像のユニーク情報)と類似する領域の位置を入力画像から特定することによって把持不可能なワーク4を特定する。
2回目の学習処理におけるワーク把持処理28にて、画像処理装置100は、チェック処理26にて特定された把持不可能なワーク4を除外した複数のワーク4のうちいずれか一つを把持対象として、ロボットハンド200による把持動作が行なわれる。
そして、2回目の学習処理における安定性判定処理30にて、1回目の学習処理における安定性判定処理30の動作と同様に、ロボットハンド200の制御装置214は、各種センサからの検出結果に基づいてワーク4の把持動作が成功したか否かを判定する。なお、2回目の学習処理における安定性判定処理30の詳細な動作は、上述したとおりであるため、その詳細な説明は繰り返さない。安定性判定処理30にて、生成されたネガティブ画像は、3回目以降の学習処理あるいはピッキング処理において利用される。このようにして、学習処理が複数回実施されることによって、複数のネガティブ画像が生成される。
そのため、図3(A)に示すピッキング処理を行なう場合には、ワーク認識処理12にて図3(A)に示すポジティブ画像に基づいて複数のワーク4の位置情報が認識された後に、ワーク把持処理14にて、図3(B)に代表される複数のネガティブ画像に基づいて把持不可能なワーク4が特定され、把持対象から除外される。そして、把持不可能なワーク4を除外した複数のワーク4のうちのいずれかが把持対象となって把持動作が行なわれる。
以上のような構成および図3(B)に示した学習処理の流れに基づいて、本実施の形態に係るピッキング装置1の学習処理における動作について図5を参照しつつ説明する。
図5(A)に示すように、1回目の学習処理が実施される前においては、図4(B)に示されるような位置関係のワーク4についても、図4(A)に示されるポジティブ画像に分類されるため把持対象に含まれる。
一方、1回目の学習処理が実行され、たとえば、図4(B)に示されるような位置関係のワーク4が把持対象となる場合、当該ワーク4に対してロボットハンド200を用いた把持動作が行なわれる。準備動作における第1指部202aまたは第2指部202bの移動軌跡上に隣接する他のワーク4が存在することによってワーク4を把持できなかった場合には、図5(B)に示すように、両隣に他のワークが存在しているワーク4の周囲の特徴情報(ユニーク情報)を含む画像がネガティブ画像としてHDD106に記憶される。
そのため、図5(C)に示すように、2回目の学習処理が実行される場合においては、チェック処理26にて、1回目の学習処理によって生成されたネガティブ画像に基づき、複数のワーク4のうち両隣に他のワークが隣接しているワーク4が把持対象から除外される。このとき、たとえば、片側にのみ他のワークが隣接しているワーク4が把持対象となる場合に、当該ワーク4に対してロボットハンド200を用いた把持動作が行なわれる。把持動作により当該ワーク4を把持できなかった場合には、1回目の学習処理と同様に、片側にのみ他のワークが隣接しているワーク4の周囲の特徴情報を含む画像がネガティブ画像としてHDD106に記憶される。
図5(D)に示すように、n回目の学習処理の実行により複数のネガティブ画像が生成される。これにより、図3(A)に示すピッキング処理を実行する場合には、ワーク把持処理14にて把持不可能なワーク4を確実に把持対象から除外することができるため、安定して把持することが可能なワーク4にのみに対して把持動作を行なうことが可能になる。
以上のようにして、本実施の形態に係るピッキング装置1によると、学習処理において、ロボットハンド200を用いた把持動作により把持できなかったワーク4の周囲の特徴情報を含む部分画像がネガティブ画像として記憶される。そのため、ピッキング処理において、ネガティブ画像の特徴情報を含むワーク4が把持対象から除外されるため、把持可能なワーク4に対してのみ把持動作を行なうことができる。このような一連の動作は、人による検証等の作業を要することなく実施できるため、検証に時間を要したり、人的コストが増加したりすることを抑制できる。したがって、人的コストの増加を抑制しつつ、把持可能な対象物を適切に把持するピッキング装置およびピッキング方法を提供することができる。
さらに複数回学習処理を実行して複数のネガティブ画像を生成することにより、把持不可能なワーク4を確実に把持対象から除外することができる。そのため、ピッキング処理において把持可能なワーク4に対してのみ把持動作を行なうことができる。
以下、変形例について説明する。
本実施の形態において、画像処理装置100は、ワーク4の把持動作が失敗した場合には、把持動作が失敗したワーク4の周囲の特徴情報を含む部分画像をネガティブ画像として記憶するものとして説明したが、たとえば、画像処理装置100は、ワーク4の把持動作が成功した場合には、把持動作に成功したワーク4の周囲の特徴情報を含む部分画像をポジティブ画像として記憶してもよい。この場合、たとえば、ピッキング処理におけるワーク把持処理14にて図4(A)に示すポジティブ画像と、生成されたポジティブ画像とに基づいて把持可能なワーク4を特定してもよい。
本実施の形態において、画像処理装置100は、ワーク4の把持動作が失敗した場合には、把持動作が失敗したワーク4の周囲の特徴情報を含む部分画像をネガティブ画像として記憶するものとして説明したが、たとえば、画像処理装置100は、ワーク4の把持動作が成功した場合には、把持動作に成功したワーク4の周囲の特徴情報を含む部分画像をポジティブ画像として記憶してもよい。この場合、たとえば、ピッキング処理におけるワーク把持処理14にて図4(A)に示すポジティブ画像と、生成されたポジティブ画像とに基づいて把持可能なワーク4を特定してもよい。
さらに、本実施の形態においては、画像処理装置100は、学習処理を複数回実施することによって複数のネガティブ画像を生成するものとして説明したが、たとえば、学習処理を複数回実施することによって、複数のポジティブ画像を生成してもよい。
また、本実施の形態においては、1回目の学習処理が実行される前において、図4(A)に示すポジティブ画像のみがHDD106に記憶されているものとして説明したが、たとえば、ワーク4とは異なる形状の部品を含むネガティブ画像がHDD106に記憶され、物体認識に利用されるようにしてもよい。このようにすると、特にワーク4とともにワーク4と形状が類似する部品が入力画像内に存在する場合に、精度高くワーク4の位置情報を認識することができる。
さらに本実施の形態においては、ポジティブ画像は、図4(A)に示すように、飲料容器の全体を含む画像であるものとして説明したが、たとえば、特徴的な一部分のみを含む画像であってもよい。
さらに本実施の形態においては、画像処理装置100は、図4(A)に示すポジティブ画像を用いてワーク4の位置情報を認識するものとして説明したが、たとえば、図4(A)に示すポジティブ画像を回転させることで(たとえば、1°ずつ360°回転)、各回転角における複数のポジティブ画像(たとえば、360種類のポジティブ画像)を生成し、生成された複数のポジティブ画像を用いてワーク4の位置情報を認識するようにしてもよい。このようにすると、入力画像から複数のワーク4の各々の位置・姿勢(向き)を精度高く認識することができる。
さらに、本実施の形態において、画像処理装置100は、撮像装置2から入力画像を取得するとして説明したが、たとえば、学習処理を1回実行する毎に撮像装置2から入力画像を取得することが望ましい。把持動作によりワーク4の位置が変化する場合があるためである。
さらに、本実施の形態において、把持動作が成功したか否かをロボットハンド200の第1指部202aおよび第2指部202bの可動部の作動量や可動部に作用する力に基づいて判定するものとして説明したが、たとえば、撮像装置2を用いて判定してもよい。たとえば、ロボットハンド200は、ワーク4を予め定められた姿勢で把持した状態を撮像装置2で撮像し、得られた画像と、予め撮像された把持状態の画像とを比較して、把持動作が成功したか否かを判定してもよい。たとえば、撮像された画像にワーク4に対応する部分がなかったり、予め撮像された把持状態の画像と比較して把持位置がずれていたりした場合に、把持動作が失敗したと判定してもよいし、撮像された画像と、予め撮像された把持状態の画像とがほぼ一致する場合には、把持動作が成功したと判定してもよい。
さらに、本実施の形態において、学習処理にてネガティブ画像の特徴情報を含むワーク4を除く複数のワーク4のうちのいずれかを把持対象として把持動作を行なうものとして説明したが、たとえば、周囲の特徴情報がポジティブ画像と相違する部分が多いワーク4を優先して学習処理における把持対象してもよい。このようにすると、ネガティブ画像を短時間で生成することが可能となる。
なお、上記した変形例は、その全部または一部を組み合わせて実施してもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ピッキング装置、2 撮像装置、4 ワーク、10,20 入力画像取得処理、12,24 ワーク認識処理、14,28 ワーク把持処理、22 把持条件設定処理、26 干渉回避処理、30 安定性判定処理、100 画像処理装置、102 プロセッサ、104 主メモリ、106 HDD、108 画像処理プログラム、110 ネットワークインターフェース、112 画像入力インターフェース、114 入力部、116 表示部、118 出力インターフェース、120 内部バス、200 ロボットハンド 202 ハンド部、202a,202b 指部、204 アーム部、206,208 モータ、210 角度センサ、212 力センサ、214 制御装置。
Claims (6)
- 複数の対象物を含む入力画像を取得する撮像装置と、
前記撮像装置により取得される前記入力画像から前記対象物の特徴情報を含む学習画像に基づいて前記複数の対象物の位置および向きを含む位置情報を取得する画像処理装置と、
前記画像処理装置によって前記位置情報が取得された前記複数の対象物のうちのいずれか一つに対して把持動作を行なうロボットハンドとを備え、
前記画像処理装置は、
前記把持動作により前記対象物を把持できない場合に、把持できない前記対象物の周囲の特徴情報を含む部分画像をネガティブ画像として記憶し、
前記入力画像において前記複数の対象物のうち前記ネガティブ画像の前記特徴情報に対応する特徴情報を含む前記対象物を把持対象から除外する、ピッキング装置。 - 前記画像処理装置は、前記複数の対象物に対して前記把持動作を複数回実施し、複数の前記ネガティブ画像を生成する、請求項1に記載のピッキング装置。
- 前記画像処理装置は、
前記把持動作により前記対象物を把持できる場合に、把持できる前記対象物の周囲の特徴情報を含む部分画像をポジティブ画像として記憶し、
前記入力画像において前記複数の対象物のうち前記ポジティブ画像の前記特徴情報に対応する特徴情報を含む前記対象物を把持対象として設定する、請求項1または2に記載のピッキング装置。 - 前記ロボットハンドは、前記対象物の把持が可能な複数の指部と、前記複数の指部の各々の可動部の作動量を検出する第1センサと、前記複数の指部の各々の前記可動部に作用する力を検出する第2センサと、前記第1センサの検出結果および前記第2センサの検出結果に基づいて前記ロボットハンドの動作を制御する制御装置とを含み、
前記制御装置は、前記把持動作中の、前記複数の指部のうちの少なくともいずれかの前記可動部の作動量の変化態様または前記複数の指部のうちの少なくともいずれかの前記可動部に作用する力の変化態様に基づいて前記対象物を把持できるか否かを判定する、請求項1〜3のいずれかに記載のピッキング装置。 - 前記制御装置は、前記把持動作において、前記対象物を把持する前に前記複数の指部の各々を前記対象物の周囲の予め定められた把持準備位置に移動させる準備動作と、前記対象物を前記複数の指部で狭持する狭持動作と、前記対象物を持ち上げる持ち上げ動作とを実行する、請求項4に記載のピッキング装置。
- 複数の対象物を含む入力画像を取得するステップと、
前記入力画像から前記対象物の特徴情報を含む学習画像に基づいて前記複数の対象物の位置および向きを含む位置情報を取得するステップと、
前記位置情報が取得された前記複数の対象物のうちのいずれか一つに対してロボットハンドを用いて把持動作を行なうステップと、
前記把持動作により前記対象物を把持できない場合に、把持できない前記対象物の周囲の特徴情報を含む部分画像をネガティブ画像として記憶するステップと、
前記入力画像において前記複数の対象物のうち前記ネガティブ画像の前記特徴情報に対応する特徴情報を含む前記対象物を把持対象から除外するステップとを含む、ピッキング方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086637A JP2016203293A (ja) | 2015-04-21 | 2015-04-21 | ピッキング装置およびピッキング方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086637A JP2016203293A (ja) | 2015-04-21 | 2015-04-21 | ピッキング装置およびピッキング方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016203293A true JP2016203293A (ja) | 2016-12-08 |
Family
ID=57486513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015086637A Pending JP2016203293A (ja) | 2015-04-21 | 2015-04-21 | ピッキング装置およびピッキング方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016203293A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018116589A1 (ja) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
JP2018161692A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2019048365A (ja) * | 2017-09-12 | 2019-03-28 | ファナック株式会社 | 機械学習装置、ロボットシステム及び機械学習方法 |
JP2019063984A (ja) * | 2017-10-02 | 2019-04-25 | キヤノン株式会社 | 情報処理装置、方法及びロボットシステム |
JP2019150904A (ja) * | 2018-03-01 | 2019-09-12 | 株式会社東芝 | 情報処理装置及び仕分システム |
JP2020049566A (ja) * | 2018-09-25 | 2020-04-02 | オムロン株式会社 | エンドエフェクタ装置 |
WO2020095805A1 (ja) * | 2018-11-09 | 2020-05-14 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020093341A (ja) * | 2018-12-12 | 2020-06-18 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
JP2022552630A (ja) * | 2019-10-25 | 2022-12-19 | デクステリティ・インコーポレーテッド | 非常に薄い物体または特徴部のロボット把持の検出 |
US11772262B2 (en) | 2019-10-25 | 2023-10-03 | Dexterity, Inc. | Detecting slippage from robotic grasp |
-
2015
- 2015-04-21 JP JP2015086637A patent/JP2016203293A/ja active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018116589A1 (ja) * | 2016-12-19 | 2019-06-24 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
WO2018116589A1 (ja) * | 2016-12-19 | 2018-06-28 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
JP7022076B2 (ja) | 2016-12-19 | 2022-02-17 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
US11004191B2 (en) | 2016-12-19 | 2021-05-11 | Kabushiki Kaisha Yaskawa Denki | Industrial device image recognition processor and controller |
JP2018161692A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10737385B2 (en) | 2017-09-12 | 2020-08-11 | Fanuc Corporation | Machine learning device, robot system, and machine learning method |
JP2019048365A (ja) * | 2017-09-12 | 2019-03-28 | ファナック株式会社 | 機械学習装置、ロボットシステム及び機械学習方法 |
JP2019063984A (ja) * | 2017-10-02 | 2019-04-25 | キヤノン株式会社 | 情報処理装置、方法及びロボットシステム |
JP2019150904A (ja) * | 2018-03-01 | 2019-09-12 | 株式会社東芝 | 情報処理装置及び仕分システム |
JP7005388B2 (ja) | 2018-03-01 | 2022-01-21 | 株式会社東芝 | 情報処理装置及び仕分システム |
JP7035935B2 (ja) | 2018-09-25 | 2022-03-15 | オムロン株式会社 | エンドエフェクタ装置 |
WO2020066065A1 (ja) * | 2018-09-25 | 2020-04-02 | オムロン株式会社 | エンドエフェクタ装置 |
JP2020049566A (ja) * | 2018-09-25 | 2020-04-02 | オムロン株式会社 | エンドエフェクタ装置 |
JP2020075337A (ja) * | 2018-11-09 | 2020-05-21 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
WO2020095805A1 (ja) * | 2018-11-09 | 2020-05-14 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP7205752B2 (ja) | 2018-11-09 | 2023-01-17 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP2020093341A (ja) * | 2018-12-12 | 2020-06-18 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
JP7296719B2 (ja) | 2018-12-12 | 2023-06-23 | アズビル株式会社 | 容易度判定装置及び容易度判定方法 |
JP2022552630A (ja) * | 2019-10-25 | 2022-12-19 | デクステリティ・インコーポレーテッド | 非常に薄い物体または特徴部のロボット把持の検出 |
US11772262B2 (en) | 2019-10-25 | 2023-10-03 | Dexterity, Inc. | Detecting slippage from robotic grasp |
EP4048123A4 (en) * | 2019-10-25 | 2023-11-01 | Dexterity, Inc. | DETECTION OF ROBOT GRIP OF A VERY THIN OBJECT OR FEATURE |
US11969880B2 (en) | 2019-10-25 | 2024-04-30 | Dexterity, Inc. | Detecting robot grasp of very thin object or feature |
JP7476305B2 (ja) | 2019-10-25 | 2024-04-30 | デクステリティ・インコーポレーテッド | 非常に薄い物体または特徴部のロボット把持の検出 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016203293A (ja) | ピッキング装置およびピッキング方法 | |
CN109483573B (zh) | 机器学习装置、机器人系统以及机器学习方法 | |
JP6529302B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US10839261B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
US10286557B2 (en) | Workpiece position/posture calculation system and handling system | |
JP4226623B2 (ja) | ワーク取り出し装置 | |
US11185977B2 (en) | Information processing apparatus, grasping system, and information processing method | |
CN104227723B (zh) | 工件检测装置、机器人系统、被加工物的制造方法及工件检测方法 | |
CN105598987B (zh) | 借助机器人确定关于对象的抓取空间 | |
US9764475B2 (en) | Workpiece taking out robot system having conversion-calculation function of position and orientation, and workpiece taking out method | |
JP2019063984A5 (ja) | 情報処理装置及び情報処理方法 | |
JP2019181622A (ja) | ハンド制御装置およびハンド制御システム | |
US10434652B2 (en) | Workpiece picking system | |
US11213954B2 (en) | Workpiece identification method | |
US20130054030A1 (en) | Object gripping apparatus, object gripping method, and object gripping program | |
JP2016196077A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113858188A (zh) | 工业机器人的抓取方法和设备、计算机存储介质以及工业机器人 | |
US20150343634A1 (en) | Robot, robot system, and control method | |
CN114310892B (zh) | 基于点云数据碰撞检测的物体抓取方法、装置和设备 | |
CN112192577A (zh) | 一种应用于机器人抓取场景的一拍多抓方法 | |
JP2015182212A (ja) | ロボットシステム、ロボット、制御装置、及び制御方法 | |
US20240139962A1 (en) | Iterative control of robot for target object | |
JP6666764B2 (ja) | ワーク認識方法及びランダムピッキング方法 | |
JP6067547B2 (ja) | 物体認識装置、ロボット及び物体認識方法 |