JP4940715B2 - ピッキングシステム - Google Patents

ピッキングシステム Download PDF

Info

Publication number
JP4940715B2
JP4940715B2 JP2006071462A JP2006071462A JP4940715B2 JP 4940715 B2 JP4940715 B2 JP 4940715B2 JP 2006071462 A JP2006071462 A JP 2006071462A JP 2006071462 A JP2006071462 A JP 2006071462A JP 4940715 B2 JP4940715 B2 JP 4940715B2
Authority
JP
Japan
Prior art keywords
workpiece
posture
stable
picking
robot hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006071462A
Other languages
English (en)
Other versions
JP2007245283A (ja
Inventor
勉 松川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006071462A priority Critical patent/JP4940715B2/ja
Publication of JP2007245283A publication Critical patent/JP2007245283A/ja
Application granted granted Critical
Publication of JP4940715B2 publication Critical patent/JP4940715B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ッキングシステム関する。特に、本発明は、マッチング処理を用いたッキングシステム関する。
近年、車両の組立工程において、サプライヤからの供給部品を生産順序にしたがって並べ替え、組立ラインに同期させて供給するロットピッキングが実施されている。
ピッキング作業の自動化では、ロボットハンドが部品箱の近傍まで誘導された後、部品箱内の部品姿勢が三次元モデルとのマッチング処理により算出され、当該算出結果に基づいて、ロボットハンドの姿勢が補正される。
このようなマッチング処理としては、下記の特許文献1に示すような検出方法が提案されている。特許文献1に開示されている検出方法は、直前にマッチング処理したパターンを記憶しておき、次のマッチング処理では、記憶された直前のパターンを使用するものである。このような構成にすると、画像データ中のマッチング対象を認識する時間が短縮され、効率よくマッチング処理が実行される。
特開2004−133637号公報
しかしながら、上記検出方法では、記憶された直前のパターンのみを使用する。したがって、マッチング対象が直前のパターンに対応しない場合、最初からマッチング処理を実施しなければならず、マッチング対象を認識するのに時間がかかるという問題がある。
本発明は、上述した問題を解決するためになされたものである。したがって、本発明の目的は、画像データ中のワークと三次元モデルとのマッチング処理にかかる計算時間が短縮された効率のよいッキングシステム提供することである。
本発明の上記目的は、下記の手段によって達成される。
本発明のピッキングシステムは、ワークをピッキングするロボットハンドと、前記ロボットハンドの近傍に設けられ、ワークの三次元画像データを取得する撮像手段と、ワークの複数の面をそれぞれ下にして平面上に前記ワークを載置して得られる載置状態に対応する複数の安定姿勢が予め登録されている記憶手段と、前記登録されている複数の安定姿勢のうち、前記撮像手段で取得された前記画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択手段と、選択された一の安定姿勢を初期状態としてワークの三次元モデルである姿勢モデルを所定範囲で揺動させて当該姿勢モデルを前記画像データ中のワークに整合することによって、ワークの姿勢を検知する検知手段と、前記検知されたワーク姿勢に基づいて、前記ロボットハンドを制御する制御手段と、を有するピッキングシステムであって、前記画像データには複数のワークが含まれており、前記選択手段は、前記複数のワークそれぞれに最も合致する一の安定姿勢を選択し、前記ピッキングシステムは、前記ロボットハンドがワークのピッキングに成功したか否かを記録する記録手段と、前記記録されたピッキング結果を安定姿勢毎に集計する集計手段と、前記安定姿勢が選択された複数のワークの中から、前記集計された安定姿勢毎のピッキング結果にしたがって、ピッキングに成功する可能性が高いワークから順次に一のワークを抽出する抽出手段と、をさらに有し、前記検知手段は、前記抽出されたワークの姿勢を検知することを特徴とする。
本発明のッキングシステムよれば、予め登録されている安定姿勢の姿勢モデルを初期状態として、ワークの姿勢が検知されるため、マッチング処理にかかる計算時間が短縮される。その結果、ピッキング処理にかかる時間が短縮され、処理効率が向上する。
以下、図面を参照して、本発明の実施の形態を説明する。本実施の形態では、部品箱に平積みされた5面体形状のワーク(部品)を、ロボットハンドがピッキングする場合を例にとって説明する。なお、図中、同様の部材には同一の符号を用いた。
図1は、本発明の一実施の形態におけるピッキングシステムの概略構成を示す図である。図1に示されるとおり、本実施の形態のピッキングシステムは、ロボットアーム100、カメラ200、姿勢検知装置300、および制御装置400を備える。
ロボットアーム100は、部品箱500に収納されるワークをピッキングするものである。ロボットアーム100は、ロボット本体部110およびロボット本体部110の先端部に設けられたロボットハンド120を有する。ロボット本体部110は、後述する制御装置400によって制御され、ロボットハンド120を部品箱500近傍まで誘導するとともに、ロボットハンド120の姿勢を補正しつつ、ロボットハンド120をワークにアプローチさせる。なお、本実施の形態のロボットアーム100自体は、一般的な多関節型のロボットアームであるため、詳細な説明は省略する。また、ロボットハンド120の近傍には、カメラ200が設けられている。
カメラ200は、撮像手段として、部品箱500に収納されているワークの画像データを取得するものである。カメラ200は、図2に示されるとおり、ロボット座標系XYZのZ方向(撮像方向)に沿って、部品箱500の上方からワークの画像を取得する。本実施の形態のカメラ200はステレオカメラであって、取得される画像データは三次元画像データである。カメラ200で取得された部品箱内のワークの画像データは、姿勢検知装置300に送信される。
姿勢検知装置300は、カメラ200で取得される画像データから、ワークの姿勢を検知するものである。姿勢検知装置300は、カメラ200の画像データを介して、ワークの三次元的な姿勢を検知する。姿勢検知装置300についての詳細な説明は後述する。
制御装置400は、姿勢検知装置300が検知したワークの位置および姿勢に基づいて、ロボットハンド120の位置および姿勢を補正するものである。より具体的には、制御装置400は、ロボットハンド120の姿勢を補正しつつ、ロボットハンド120をワークにアプローチさせて、姿勢が検知されたワークに対して予め設定されている把持ポイントをロボットハンド120に把持させる。
次に、本実施の形態の姿勢検知装置300について詳細に説明する。図3は、本実施の形態の姿勢検知装置の概略構成を示すブロック図である。図3に示されるとおり、姿勢検知装置300は、CPU310、RAM320、ROM330、ハードディスク340、入力部350、表示部360、およびインタフェース370を有する。これらの各部は、バスを介して相互に接続されている。
CPU310は、カメラ200で取得される画像データに対して種々の演算および制御を実行するものである。CPU310は、選択部(選択手段)、検知部(検知手段)、抽出部(抽出手段)、判断部(判断手段)、および集計部(集計手段)として機能する。
ここで、選択部は、後述するハードディスク340に登録されている複数の安定姿勢のうち、画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択するものである。検知部は、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを所定範囲で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢を検知するものである。抽出部は、安定姿勢が選択された複数のワークの中から、一のワークを抽出するものである。判断部は、ワークの周辺に障害物があるか否かを判断するものである。集計部は、後述するハードディスク340に記録されたピッキング結果を安定姿勢毎に集計するものである。なお、各部の具体的な処理内容については、後述する。
RAM320は、上述した画像データを一時的に記憶するものであり、ROM330は、制御プログラムおよびパラメータなどを予め記憶するものである。
ハードディスク340は、ワークについての載置状態における複数の安定姿勢が登録されている記憶部(記憶手段)として機能する。ハードディスク340は、複数の安定姿勢の中から、カメラ200で取得される画像データを画像処理するための画像処理プログラム、画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択プログラム、ワークの姿勢モデルを揺動させて姿勢モデルをワークに整合することによってワークの姿勢を検知するための検知プログラム、複数のワークの中から一のワークを選択するための選択プログラム、ワークの周辺に障害物があるか否かを判断する判断プログラム、およびピッキング結果を安定姿勢毎に集計する集計プログラムを格納する。さらに、ハードディスク340は、ロボットハンドがワークのピッキングに成功したか否かを記録する記録部(記録手段)としても機能する。
入力部350は、たとえば、キーボード、タッチパネル、およびマウスなどのポインティングデバイスであり、表示部360は、たとえば、液晶ディスプレイおよびCRTディスプレイなどである。
インタフェース370は、検知されたワークの姿勢を制御装置400に送信するものである。また、インタフェース370は、カメラ200から送信される画像信号を受信する。
以上のとおり、構成される本実施の形態におけるピッキングシステムでは、ロボットハンド120のワークへのアプローチに際して、予め登録されているワークの載置状態における複数の安定姿勢の中から、画像データ中のワークの姿勢に最も合致する一の安定姿勢が選択され、選択された安定姿勢を初期状態として、ワークの姿勢モデルを所定範囲で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢が検知される。そして、検知されたワークの姿勢に基づいて、ロボットハンド120の姿勢が補正されつつ、ロボットハンド120は、ワークをピッキングする。以下、本実施の形態のピッキングシステムにおけるピッキング処理について述べる。
図4は、本実施の形態におけるピッキング処理の流れを示すフローチャートである。本実施の形態のピッキング処理では、上述したとおり、予め登録されているワークの安定姿勢を初期状態としてワークの姿勢が検知され、検知された姿勢に基づいて、ロボットハンドが制御される。
まず、図4に示されるとおり、ワークについての情報の登録を受け付ける登録処理が実行される(ステップS101)。登録処理は、具体的なピッキング処理に先立って、いわゆるオフライン処理で実行されることができ、ワークについての情報は、ハードディスク340に記憶される。
図5は、ステップS101に示す登録処理の流れを示すフローチャートである。図5に示されるとおり、まず、ワークの三次元モデルが登録される(ステップS201)。本実施の形態では、図6に示されるとおり、モデル座標系xyzとともに5面体形状のワークの三次元モデルが登録される。また、図中に矢印で示されるとおり、モデル座標系の各軸には、それぞれ回転方向が設定されている。
次に、ワークの載置状態における複数の安定姿勢が登録される(ステップS202)。本実施の形態では、図7に示されるとおり、5面体形状のワークの各面を下にした状態で当該ワークが平面上に置かれた場合に考えられる5つの安定姿勢(安定姿勢1〜5)が登録される。
次に、ワークの姿勢モデルを揺動させる角度範囲である検索角度、複数の安定姿勢に対する優先順位、および安定姿勢毎のワークの把持ポイントなどが設定される(ステップS203)。検索角度は、後述するマッチング処理において、安定姿勢を初期状態としてワークの姿勢モデルを揺動させて姿勢モデルをワークに整合する際に、姿勢モデルの揺動範囲を規定するものである。本実施の形態では、図8に示されるとおり、安定姿勢1〜5の姿勢モデルに対して軸毎に、検索角度±αが設定される。このような検索角度は、ワーク形状に基づいて設定され、計算時間に影響を与える。検索角度、優先順位、および把持ポイントについての詳細な説明は後述する。
以上のとおり、ステップS201〜S203に示される登録処理によって予め登録された種々の内容に基づいて、複数の安定姿勢の中から画像データ中のワークの姿勢に最も合致する一の安定姿勢が選択されて、選択された安定姿勢を初期状態として、ワークの姿勢が検知される。そして、検知されるワークの姿勢に基づいて、ロボットハンド120の姿勢が補正され、ピッキング処理が実行される。以下、図4を参照して、ステップS101に示す登録処理後のピッキング処理について説明する。なお、ステップS102以下の処理は、いわゆるオンライン処理であって連続的に実行される。
ステップS101に示す登録処理後のピッキング処理では、まず、部品箱500内部の画像データが取得される(ステップS102)。より具体的には、ロボットハンド120の近傍に設けられたカメラ200によって、複数のワークが収納される部品箱の三次元画像が取得され、部品箱の全体マップが作成される。全体マップは、複数回(たとえば、5〜10回)のピッキング作業毎に更新されることが望ましい。
次に、画像データ中のワークに対するマッチング処理が実行される(ステップS103)。より具体的には、登録されている複数の安定姿勢のうち、画像データ中のワークの姿勢に最も合致する一の安定姿勢が選択され、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを所定範囲で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢が検知される。マッチング処理の詳細については後述する。
次に、ステップS103に示すマッチング処理で検知されたワークの姿勢についての情報が制御装置400に送信される(ステップS104)。そして、送信されたワークの姿勢情報に基づいて、ロボットハンド120の姿勢が補正されつつ、ロボットハンド120がワークにアプローチする(ステップS105)。上述したとおり、ロボットハンド120は、ワークに対して予め設定された把持ポイント近傍まで移動する。そして、ロボットハンド120によってワークがピッキングされる(ステップS106)。
次に、ワークが問題なくピッキングされたか否かが判断される(ステップS107)。ワークがピッキングされたか否かの判断は、たとえば、ピッキング処理によってワークが収容されるキット箱に設けられた2次カメラを利用して、ワークがキット箱に収容されたか否かを確認することによって判断される。あるいは、ワークを把持するロボットハンド120の挟持部の変位(開閉状態)をモニタリングしたり、挟持部にワークの在席を検知するようなセンサを設けてそのON/OFFをモニタしたりすることにより、ワークの落下を検出することができる。また、ロボットハンド120に挟持部が挟持中のワークを撮影するカメラを設けて、その画像データの変化をモニタリングしてワークの落下を判断することも可能である。
ワークがピッキングされていない場合(ステップS107:NO)、“ピッキング失敗”のピッキング結果がハードディスク340に記録され(ステップS108)、ステップS102以下の処理がリトライ処理として繰り返される。一方、ワークがピッキングされた場合(ステップS107:YES)、“ピッキング成功”のピッキング結果がハードディスク340に記録され(ステップS109)、処理が終了される。ステップS108およびステップS109に示す処理によれば、それぞれの安定姿勢に対応したピッキング結果がハードディスク340に記録される。
次に、図4に示すフローチャートのステップS103に示すマッチング処理について詳細に説明する。図9は、本実施の形態のピッキング処理におけるマッチング処理の流れを示すフローチャートである。なお、本実施の形態のマッチング処理では、ワークの姿勢を検知するのに先立って、ステップS203に示す設定処理において設定された優先順位および把持ポイントなどに基づいて、複数のワークの中から、姿勢を検知する対象となる一のワークが抽出され、抽出された一のワークの姿勢が検知される。
まず、図9に示されるとおり、複数の安定姿勢の中から、画像データ中のワークに最も合致する一の安定姿勢が選択される(ステップS301)。より具体的には、ステップS202に示す処理で登録された安定姿勢1〜5のワークを上から見た際の2次元データが予め記憶されており、ワークに対して各安定姿勢の2次元データを順次にあてはめ、最も適合する一の安定姿勢が選択される。ワークの2次元画像に安定姿勢の2次元データをあてはめる処理自体は、一般的な画像処理技術によって実行されるため詳細な説明は省略する。なお、本実施の形態では、ワークの傾きによる2次元画像の変形を考慮して、各辺および角部の角度に対して、余裕代が設定される。また、安定姿勢の2次元データとは異なり、安定姿勢の姿勢モデル(三次元データ)を使用して、同様の処理を実行することもできる。
また、本実施の形態では、図10に示されるとおり、部品箱500に収納される複数のワークそれぞれに一の安定姿勢の姿勢モデルを適用する処理が実行される。さらに、上述の処理によって、画像データ中のワークの位置も検出される。
以上のとおり、ステップS301に示す選択処理では、ワークを撮像方向(Z軸に沿った上方)から見た場合の2次元画像に合致する安定姿勢が選択され、このときの安定姿勢は、Z軸まわりのワークの傾き(姿勢ずれ)に対しておおまかに整合されている。後述する姿勢検知処理において、Z軸まわりにおおまかに整合されたワークの安定姿勢からのX軸、Y軸、およびZ軸まわりの微少なワークの傾き(姿勢ずれ)が算出され、ワークの姿勢が検知される。このようなワークの傾きは、たとえば、一のワークが他のワークに寄りかかった状態で部品箱500内に存在すること、一のワークの下部に他のワークが挟まった状態で存在すること、ならびに、一のワークが部品箱500の構成物(ワークを仕切るための仕切り板および壁部など)に寄りかかった状態で存在していることなどに起因する。以下、安定姿勢がそれぞれ選択された複数のワークの中から、姿勢検知対象となる一のワークを抽出する処理が実行される。
まず、ハードディスク340に登録されている複数の安定姿勢のうち、一の安定姿勢が読み込まれる(ステップS302)。ステップS302に示す読込み処理において、読み込まれる一の安定姿勢は、ステップS203に示す設定処理において、予め登録されている安定姿勢の優先順位にしたがって、優先順位が最も高い一の安定姿勢が読み込まれる。あるいは、ステップS108およびステップS109に示す処理が繰り返されることによって、ハードディスク340に蓄積されるピッキング結果から集計される安定姿勢毎のピッキング成功率に基づいて、ピッキング成功率の最も高い安定姿勢から順次に読み込まれることができる。本実施の形態では、図11に示されるとおり、たとえば、最初に安定姿勢4が読み込まれ、以下の処理が実行される。
次に、画像データ中の複数のワークの中から、読み込まれた一の安定姿勢(たとえば、安定姿勢4)に対応するワークが検索され(ステップS303)、ワークがあるか否かが判断される(ステップS304)。対応するワークがない場合(ステップS304:NO)、読み込まれる安定姿勢が変更されて、ステップS302以下の処理が繰り返される。なお、新たに読み込まれる安定姿勢は、次にピッキング成功率の高い一の安定姿勢(たとえば、安定姿勢5)である。
一方、読み込まれた一の安定姿勢に対応するワークがある場合(ステップS304:YES)、検索されたワークの周辺に障害物があるか否かが検索される(ステップS305)。より具体的には、図12に示されるとおり、ロボットハンド120が把持ポイントでワークを把持する際の、ロボットハンド120の開閉方向(図12の矢印の方向)に障害物があるか否かが判断される。ワークの周辺に障害物がある場合(ステップS306:YES)、ワークを変更して、ステップS303以下の処理が繰り返される。
一方、ワークの周辺に障害物がない場合(ステップS306:NO)、ワークの姿勢が検知される(ステップS307)。本実施の形態では、ステップS302に示す処理において読み込んだ安定姿勢を初期状態として、ステップS203に示す処理で設定した検索角度内で安定姿勢に対応するワークの姿勢モデルを揺動させて、当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢が検知される。より具体的には、ワークの姿勢モデルを少なくとも一つの軸まわりに検索角度内で揺動させて、当該姿勢モデルとワークとが整合する角度を検出することによって、ワークの姿勢を検知する。本実施の形態では、たとえば、揺動される姿勢モデルとワークとの二乗平均誤差が最小となる角度を検出することにより、姿勢モデルとワークとが一致する角度を検出する。
以上のとおり、ステップS307に示す姿勢検知処理によれば、安定姿勢を基準として、当該安定姿勢の姿勢モデルからのワーク姿勢の各軸まわりの微少な傾き(姿勢ずれ)が検知される。したがって、一般的なマッチング処理と比較して計算量が低減され、ワークの姿勢の検知にかかる時間が短縮される。
このとき、設定される検索角度が大き過ぎると、計算に時間がかかってしまい十分な効果が得られない。一方、検索角度が小さ過ぎると、ワークの姿勢を検知することができない場合がある。したがって、本実施の形態では、検索角度は、たとえば±10度程度に設定されることできる。
また、三次元モデルを揺動させる処理は、ワークを3軸すべてのまわりに360度回転させる一般的なマッチング処理のプログラムを流用することができる。なお、本実施の形態では、ワークの安定姿勢からの傾きのみならず、安定姿勢からの位置ずれも検知されることができる。この場合、検知結果として、たとえば、ワークの中心座標が制御装置400に送信される。
以上のとおり、説明された本実施の形態は、以下の効果を奏する。
本実施の形態のワーク姿勢検知装置は、ワークの載置状態における複数の安定姿勢が予め登録されている記憶部と、登録されている複数の安定姿勢のうち、画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択部と、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを検索角度内で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢を検知する検知部と、を有する。したがって、予め登録されている安定姿勢から画像データ中のワークの姿勢が検知され、マッチング処理にかかる時間が短縮される。その結果、効率のよいピッキングシステムが提供される。
検知部は、ワークの姿勢モデルを少なくとも一つの軸まわりに揺動させて、当該姿勢モデルとワークとが整合する角度を検出することによって、ワークの姿勢を検知する。したがって、安定姿勢から予め設定された角度範囲でワークの姿勢が算出され、計算時間がさらに短縮される。
本実施の形態のピッキングシステムは、ワークをピッキングするロボットハンドと、ロボットハンドの近傍に設けられ、ワークの画像データを取得するカメラと、ワークの載置状態における複数の安定姿勢が予め登録されている記憶部と、登録されている複数の安定姿勢のうち、カメラで取得された画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択部と、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを検索角度内で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢を検知する検知部と、検知されたワーク姿勢に基づいて、ロボットハンドを制御する制御装置と、を有する。したがって、予め登録されている安定姿勢から画像データ中のワークの姿勢が検知され、マッチング処理にかかる時間が短縮される。その結果、ピッキング処理の効率が向上する。
選択部は、複数のワークそれぞれに最も合致する一の安定姿勢を選択する。したがって、複数のワークの画像データが一度の処理で取得されるため、処理効率が向上する。
本実施の形態のピッキングシステムは、安定姿勢が選択された複数のワークの中から、一のワークを抽出する抽出部をさらに有し、検知部は、抽出されたワークの姿勢を検知する。したがって、予め設定された条件にしたがって、複数のワークの中から一のワークを抽出することができる。
本実施の形態のピッキングシステムは、ロボットハンドがワークのピッキングに成功したか否かを記録する記録部と、記録されたピッキング結果を安定姿勢毎に集計する集計部と、をさらに有し、抽出部は、集計された安定姿勢毎のピッキング結果にしたがって、ピッキングに成功する可能性が高いワークから順次に抽出する。したがって、ピッキング処理毎にピッキング成功率が更新される。その結果、更新されるピッキング成功率に基づいてピッキング処理が実施され、ピッキング処理の効率がさらに向上する。
本実施の形態のピッキングシステムは、ワークの周辺に障害物があるか否かを判断する判断部をさらに有し、判断される一のワークの周辺に障害物がある場合、抽出部は、他のワークを抽出する。したがって、障害物との干渉が回避され、ピッキング成功率がさらに向上する。その結果、ピッキング処理の効率がさらに向上する。
ワークには、ロボットハンドが当該ワークを把持するための把持位置が安定姿勢毎に設定されており、判断部は、ロボットハンドが把持位置でワークを把持する際の、当該ロボットハンドの開閉方向に障害物があるか否かを判断する。したがって、検索範囲を最小限に設定することができ、計算時間がさらに短縮される。さらに、より厳格に障害物との干渉が判断され、ピッキング処理の効率がさらに向上する。
本実施の形態のワーク姿勢検知方法は、ワークの載置状態における複数の安定姿勢についての登録を受け付ける受付段階と、登録されている複数の安定姿勢のうち、画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択段階と、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを検索角度内で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢を検知する検知段階と、を有する。したがって、予め登録されている安定姿勢から画像データ中のワークの姿勢が検知され、マッチング処理にかかる時間が短縮される。その結果、効率のよいピッキング方法が提供される。
本実施の形態のピッキングシステムは、ワークの載置状態における複数の安定姿勢についての登録を受け付ける受付段階と、ワークをピッキングするロボットハンドの近傍に設けられたカメラを介して、ワークの画像データを取得する取得段階と、登録されている複数の安定姿勢のうち、カメラで取得された画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択段階と、選択された一の安定姿勢を初期状態としてワークの姿勢モデルを検索角度内で揺動させて当該姿勢モデルを画像データ中のワークに整合することによって、ワークの姿勢を検知する検知段階と、検知されたワーク姿勢に基づいて、ロボットハンドを制御する制御段階と、を有する。したがって、予め登録されている安定姿勢から画像データ中のワークの姿勢が検知され、マッチング処理にかかる時間が短縮される。その結果、ピッキング処理の効率が向上する。
以上のとおり、本実施の形態において、本発明のピッキングシステムおよびピッキング方法を説明した。しかしながら、本発明は、その技術思想の範囲内において当業者が適宜に追加、変形、省略することができることはいうまでもない。
たとえば、本実施の形態において、抽出部は、ピッキング成功率の高い安定姿勢に対応するワークを優先的に抽出する。しかしながら、画像データ中で数の多いワークから優先的に選択することもできる。この場合、ワークをすぐに見つけることができ、処理時間がさらに短縮される。
また、本実施の形態において、カメラはステレオカメラであり、取得される画像データは三次元画像データである。しかしながら、二次元画像データが取得される一般的なカメラとレーザなどのセンサを組み合わせることにより、三次元情報を取得することもできる。
また、本実施の形態では、算出されるワークの姿勢に基づいて、ロボットハンドの姿勢が制御される。しかしながら、ワークを把持するロボットハンドの開度を制御することもできる。この場合、ロボットハンドの挟持部の開度を大きくすることによって、傾いたワークであっても、ロボットハンドの姿勢を補正することなく、ワークをピッキングすることができる。
本発明の一実施の形態におけるピッキングシステムの概略構成を示す図である。 図1に示すカメラとワークとのロボット座標系での位置関係を説明するための図である。 本実施の形態の姿勢検知装置の概略構成を示すブロック図である。 本実施の形態におけるピッキング処理の流れを示すフローチャートである。 図4のステップS101に示す登録処理の流れを示すフローチャートである。 図1に示すワークの三次元モデルを示す図である。 図1に示すワークの安定姿勢を示す図である。 図6に示す三次元モデルのモデル座標系における回転範囲を示す図である。 図4のステップS103に示すマッチング処理の流れを示すフローチャートである。 図1に示すカメラで取得された部品箱内のワークを示す図である。 図10に示す複数のワークにおいてピッキング成功率の高い安定姿勢の順番を示す図である。 図10に示す部品箱の部分拡大図である。
符号の説明
100 ロボットアーム、
200 カメラ、
300 姿勢検知装置、
400 制御装置、
500 部品箱。

Claims (4)

  1. ワークをピッキングするロボットハンドと、
    前記ロボットハンドの近傍に設けられ、ワークの三次元画像データを取得する撮像手段と、
    ワークの複数の面をそれぞれ下にして平面上に前記ワークを載置して得られる載置状態に対応する複数の安定姿勢が予め登録されている記憶手段と、
    前記登録されている複数の安定姿勢のうち、前記撮像手段で取得された前記画像データ中のワークの姿勢に最も合致する一の安定姿勢を選択する選択手段と、
    選択された一の安定姿勢を初期状態としてワークの三次元モデルである姿勢モデルを所定範囲で揺動させて当該姿勢モデルを前記画像データ中のワークに整合することによって、ワークの姿勢を検知する検知手段と、
    前記検知されたワーク姿勢に基づいて、前記ロボットハンドを制御する制御手段と、を有するピッキングシステムであって、
    前記画像データには複数のワークが含まれており、
    前記選択手段は、前記複数のワークそれぞれに最も合致する一の安定姿勢を選択し、
    前記ピッキングシステムは、
    前記ロボットハンドがワークのピッキングに成功したか否かを記録する記録手段と、
    前記記録されたピッキング結果を安定姿勢毎に集計する集計手段と、
    前記安定姿勢が選択された複数のワークの中から、前記集計された安定姿勢毎のピッキング結果にしたがって、ピッキングに成功する可能性が高いワークから順次に一のワークを抽出する抽出手段と、をさらに有し、
    前記検知手段は、前記抽出されたワークの姿勢を検知することを特徴とするピッキングシステム。
  2. 前記検知手段は、ワークの姿勢モデルを少なくとも一つの軸まわりに揺動させて、当該姿勢モデルと前記ワークとが整合する角度を検出することによって、ワークの姿勢を検知することを特徴とする請求項に記載のピッキングシステム。
  3. 前記ワークの周辺に障害物があるか否かを判断する判断手段をさらに有し、
    判断される一のワークの周辺に障害物がある場合、前記抽出手段は、他のワークを抽出することを特徴とする請求項またはに記載のピッキングシステム。
  4. 前記ワークには、前記ロボットハンドが当該ワークを把持するための把持位置が安定姿勢毎に設定されており、
    前記判断手段は、前記ロボットハンドが前記把持位置でワークを把持する際の、当該ロボットハンドの開閉方向に障害物があるか否かを判断することを特徴とする請求項に記載のピッキングシステム。
JP2006071462A 2006-03-15 2006-03-15 ピッキングシステム Expired - Fee Related JP4940715B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006071462A JP4940715B2 (ja) 2006-03-15 2006-03-15 ピッキングシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006071462A JP4940715B2 (ja) 2006-03-15 2006-03-15 ピッキングシステム

Publications (2)

Publication Number Publication Date
JP2007245283A JP2007245283A (ja) 2007-09-27
JP4940715B2 true JP4940715B2 (ja) 2012-05-30

Family

ID=38590101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006071462A Expired - Fee Related JP4940715B2 (ja) 2006-03-15 2006-03-15 ピッキングシステム

Country Status (1)

Country Link
JP (1) JP4940715B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
JP5360369B2 (ja) * 2008-09-11 2013-12-04 株式会社Ihi ピッキング装置と方法
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
JP5471355B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5769411B2 (ja) * 2010-12-15 2015-08-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5837065B2 (ja) * 2011-06-29 2015-12-24 三菱電機株式会社 部品供給装置
JP2013027953A (ja) * 2011-07-28 2013-02-07 Dainippon Screen Mfg Co Ltd 作業部動作制御装置および作業部動作制御方法および作業部動作制御プログラム
JP5623358B2 (ja) * 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
JP5806606B2 (ja) 2011-12-01 2015-11-10 キヤノン株式会社 情報処理装置、情報処理方法
JP5936108B2 (ja) * 2011-12-06 2016-06-15 株式会社Ihi 対象物取り出し装置と方法
JP6157066B2 (ja) 2012-06-11 2017-07-05 キヤノン株式会社 画像処理装置、物体取出システム、画像処理方法及びプログラム
JP2014226759A (ja) * 2013-05-24 2014-12-08 株式会社ランズワーク 豆腐製品搬送装置
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6265784B2 (ja) * 2014-03-06 2018-01-24 株式会社メガチップス 姿勢推定システム、プログラムおよび姿勢推定方法
JP5897624B2 (ja) 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6068429B2 (ja) * 2014-12-25 2017-01-25 ファナック株式会社 ロボット識別システム
JP6630545B2 (ja) * 2015-11-24 2020-01-15 株式会社キーエンス 位置決め方法、位置決め装置、プログラムおよびコンピュータ可読記録媒体
JP2017181228A (ja) * 2016-03-30 2017-10-05 キヤノン株式会社 計測装置、計測方法及び物品の製造方法
JP7051287B2 (ja) 2016-12-05 2022-04-11 株式会社ソニー・インタラクティブエンタテインメント システム、治具、および情報処理方法
CN108098738B (zh) * 2017-08-30 2020-03-03 安徽工程大学 基于混联机构的移动机械手作业平稳性控制方法及设备
KR102109696B1 (ko) * 2017-12-12 2020-05-13 한국로봇융합연구원 정보가 없는 객체를 파지하는 로봇 핸드 및 그 제어방법
KR102109697B1 (ko) * 2017-12-12 2020-05-13 한국로봇융합연구원 시각 정보와 촉각 정보를 함께 이용하여 객체를 파지하는 로봇 핸드 및 그 제어방법
KR102067878B1 (ko) * 2017-12-12 2020-01-17 한국로봇융합연구원 재파지를 이용하여 테스크를 수행하는 로봇 핸드 및 그 제어방법
US20200277139A1 (en) * 2018-03-27 2020-09-03 Hitachi Industrial Products, Ltd. Warehouse system
WO2024042619A1 (ja) * 2022-08-23 2024-02-29 ファナック株式会社 装置、ロボットの制御装置、ロボットシステム、方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324835A (ja) * 1992-05-18 1993-12-10 Kobe Steel Ltd 二次元図形のパターンマッチング方法及びその装置
JP3405045B2 (ja) * 1995-03-28 2003-05-12 松下電工株式会社 部品供給方法およびその装置
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP2001019165A (ja) * 1999-07-02 2001-01-23 Murata Mach Ltd ワークピッキング装置

Also Published As

Publication number Publication date
JP2007245283A (ja) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4940715B2 (ja) ピッキングシステム
US10723020B2 (en) Robotic arm processing method and system based on 3D image
EP1905548B1 (en) Workpiece picking apparatus
US7283661B2 (en) Image processing apparatus
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6487495B2 (ja) ワーク取出しシステム
US20120294509A1 (en) Robot control system, robot system and program
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
CN110539299B (zh) 机器手作业方法、控制器以及机器手系统
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
CN113319859B (zh) 一种机器人示教方法、系统、装置及电子设备
JP5517664B2 (ja) 作業マニピュレータのセンシング動作生成方法、センシング動作生成装置及びセンシング動作生成プログラム
JP2014188617A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2020163502A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP6424432B2 (ja) 制御装置、ロボットシステム、ロボット及びロボット制御方法
US11158080B2 (en) Information processing method, information processing device, object detection apparatus, and robot system
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
JP4793109B2 (ja) 物体検出法およびロボット
CN116468791A (zh) 拆垛定位方法、装置、系统及存储介质
US20230321823A1 (en) Robot control device, and robot system
WO2020157875A1 (ja) 作業座標作成装置
JP6123364B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
WO2024023934A1 (ja) ワーク取出し装置、ワーク取出し方法及び制御装置
JP5939505B2 (ja) ロボットハンド装置と制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150309

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees