JP2020015141A - 把持装置 - Google Patents

把持装置 Download PDF

Info

Publication number
JP2020015141A
JP2020015141A JP2018140356A JP2018140356A JP2020015141A JP 2020015141 A JP2020015141 A JP 2020015141A JP 2018140356 A JP2018140356 A JP 2018140356A JP 2018140356 A JP2018140356 A JP 2018140356A JP 2020015141 A JP2020015141 A JP 2020015141A
Authority
JP
Japan
Prior art keywords
gripping
work
hand
success rate
gripping position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018140356A
Other languages
English (en)
Other versions
JP7191569B2 (ja
Inventor
博明 大庭
Hiroaki Oba
博明 大庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTN Corp
Original Assignee
NTN Corp
NTN Toyo Bearing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTN Corp, NTN Toyo Bearing Co Ltd filed Critical NTN Corp
Priority to JP2018140356A priority Critical patent/JP7191569B2/ja
Priority to PCT/JP2019/028757 priority patent/WO2020022302A1/ja
Publication of JP2020015141A publication Critical patent/JP2020015141A/ja
Application granted granted Critical
Publication of JP7191569B2 publication Critical patent/JP7191569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】適切な把持位置を選択するための学習を比較的短時間で終了することが可能な把持装置を提供する。【解決手段】把持装置1は、撮影装置2および三次元センサ3を用いてワークの最適把持位置を検出し、位置決め機構5およびハンド4を制御するワーク情報処理装置6を備える。ワーク情報処理装置6は、三次元センサ3から取得した座標データまたはカメラ2から取得した画像データに基づいてワークの把持位置を決定し、把持位置に基づいてハンド4がワークを把持するように位置決め機構5およびハンド4を作動させ、ハンド4を撮影装置2によって撮影させ、取得した画像データに基づいて実際にワークを把持できているか否かを判定し、判定結果と把持位置との関係を蓄積して把持位置における把持成功率を算出し、把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する。【選択図】図1

Description

この発明は、ワークをピックアップする把持装置に関する。
機械加工または組立作業において、対象物であるワークは、ロボットまたは組立装置等によって自動的にピックアップされ加工装置または組立物の筐体などにセットされることが多い。ピックアップ時には、ワークの形状や姿勢を認識してピックアップアームを制御する必要がある。たとえば、ロボットや組立装置等によるワークの取り出し作業で必要なワークの姿勢検出や形状認識などにワーク情報処理装置が利用される。
従来、ワークの姿勢検出や形状認識などに画像処理が用いられている。ワーク情報処理装置では、カメラでワークを撮影し、パターンマッチング等でワークの姿勢を検出し、検出結果に基づいてピックアップアームを制御して把持可能な姿勢にハンドを位置決めする。
特開2015−213973号公報、特開2017−047505号公報、特開2016−221647号公報、特開平10−332333号公報および特開平11−066321公報には、ワークをピックアップする把持装置が開示されている。
特開2015−213973号公報 特開2017−047505号公報 特開2016−221647号公報 特開平10−332333号公報 特開平11−066321号公報
ハンドの姿勢制御に関しては、特開2015−213973号公報(特許文献1)において、ハンドおよびハンドの位置決め機構とワークが格納されている容器との干渉を把持動作前にチェックし、検出されたワークがピッキング可能か否かを判定する方法が提案されている。機械的な干渉を把持動作前にチェックするものであり、ワークの取り出し作業において必要な機能である。
また、特開2017−047505号公報(特許文献2)に開示された把持装置は、ハンドのアプローチ点から把持点まで間にハンドが通過する過程で障害物があった場合でも把持不可を判定せず、過去の把持成否情報と把持動作時のハンドの通過領域内の障害物の存在状態を機械学習(サポートベクタマシン)で学習し、把持動作前に学習結果を用いて把持の成否を判定し、判定結果に基づいて把持動作を行なう。この装置も特開2015−213973号公報(特許文献1)と同様、機械的な干渉による把持動作の可否を把持動作前に判定するものである。
特開2016−221647号公報(特許文献3)は、装置内に保持されている複数の把持形態情報の中から、把持位置における周囲ワークの状態を考慮して把持形態を選択する方法を提案している。把持形態を選択する評価値として、把持対象と周囲ワークとの接触点の数や、接触点に対象ワークの滑りやすさ、壊れやすさ、絡まりやすさの情報に基づいて評価値を算出し、評価値が最大になる把持形態を選択する方法を提案している。
特開2017−047505号公報(特許文献2)は、過去の把持動作の成否情報に基づいた学習で成否判定の精度を向上できる点で特開2015−213973号公報(特許文献1)よりも優れているが、学習には動作の試行が必要であり、学習に時間がかかるという課題がある。また、特開2016−221647号公報(特許文献3)のように、事前に特徴を定める必要があり、学習の準備に時間がかかる場合もある。
本発明は、このような課題を解決するためのものであって、その目的は、バラ積みワークの取り出し作業において、適切な把持位置を選択するための学習を比較的短時間で終了することが可能な把持装置を提供することである。
本開示に係る把持装置は、ワークの表面を観察するための撮影装置と、ワークの表面上の点の座標データを計測する三次元センサと、ワークを把持するためのハンドと、把持可能な姿勢にハンドを位置決めする位置決め機構と、撮影装置および三次元センサを用いてワークの最適把持位置を検出し、位置決め機構およびハンドを制御するワーク情報処理装置とを備える。ワーク情報処理装置は、三次元センサから取得した座標データまたは撮影装置から取得した画像データに基づいてワークの把持位置を決定し、把持位置に基づいてハンドがワークを把持するように位置決め機構およびハンドを作動させ、ハンドを撮影装置によって撮影させ、取得した画像データに基づいて実際にワークを把持できているか否かを判定し、判定結果と把持位置との関係を蓄積して把持位置における把持成功率を算出し、把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する。
好ましくは、ワーク情報処理装置は、三次元センサから取得した座標データまたは撮影装置から取得した画像データを用いて把持対象とするワークの位置を検出するワーク検出部と、ワーク検出部で検出されたワークの位置に基づいてワークの周囲物とハンドとの干渉を判定し、単数または複数の把持位置候補を検出する把持位置候補検出部と、把持位置候補検出部で抽出された把持位置候補の中から最適把持位置を選択する把持位置選択部と、最適把持位置に基づいて位置決め機構またはハンドに位置決め指令または把持・開放指令を出力する指令出力部と、撮影装置から取得した画像データに基づいて実際にワークを把持できているか否かを画像処理で判定する把持動作成否判定部とを含む。把持位置候補検出部は、把持位置候補について、三次元センサまたは撮影装置から取得したデータと把持動作成否判定部の判定結果とを用いた機械学習結果により把持成功率を求める。把持位置選択部は、把持成功率が最大になる候補を最適把持位置として選択する。
より好ましくは、把持位置候補検出部は、機械学習の学習データとして三次元センサから取得した座標データまたは撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および把持動作成否判定部の判定結果とを用いて把持成功率を求める。
より好ましくは、予め定められたNを自然数とすると、前記把持位置候補検出部が、前記把持成功率の算出に学習結果を利用しない把持動作回数はN回である。把持位置選択部は、N回目までの把持では把持位置候補のうち、前記ワークの画像上の重心位置に最も近い点を選択し、N回を超過してから機械学習結果を用いて得られた把持成功率が最大になる候補を最適把持位置として選択する。
より好ましくは、把持位置候補検出部は、把持装置の稼働中に三次元センサから取得した座標データまたは撮影装置から取得した画像データと把持動作成否判定部の判定結果を用い、逐次機械学習結果を更新する。
より好ましくは、把持位置候補検出部は、一定回数の把持動作毎に機械学習結果の少なくとも一部をリセットする。
好ましくは、ワークを収容する容器を載置する振動台をさらに備え、ワーク情報処理装置は、次回の把持動作において、ハンドで把持を行なう前に容器内のワークを撮影装置で撮影した画像に基づいて決定した把持位置に対応する把持成功率が判定値よりも低い場合には、振動台によってワークの位置を変更する。
好ましくは、撮影装置は、ハンドで把持される前にワークが置いてある載置場所を撮影する第1カメラと、ハンドで把持された後にワークが配置されるべき配置場所を撮影する第2カメラとを含む。ワーク情報処理装置は、第2カメラから取得した画像データに基づいてワークの配置位置を決定し、配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出する。ワーク情報処理装置は、次回の把持動作において、ハンドで把持を行なう前に載置場所に置かれているワークを第1カメラで撮影し、撮影した画像に基づいて決定した把持位置に対応する把持成功率および配置成功率に基づいて、把持位置の採否を決定する。
本発明によれば、バラ積みワークの取り出し作業において、適切な把持位置を選択するための学習を比較的短時間で終了することが可能となる。
実施の形態1の把持装置の構成を示す図である。 ハンドの形状を示す正面図である。 ハンドの形状を示す側面図である。 ワーク情報処理装置6の内部構成を示す図である。 パターンマッチングの様子を説明するための図である。 パターンマッチング時に検出される情報を説明するための図である。 図6のZ軸の+方向からワークWを見たときの図である。 把持位置候補検出部63が実行する処理を説明するための図である。 ワークWの把持可能位置の指示の第1例である。 ワークWの把持可能位置の指示の第2例である。 把持可能箇所が複数となるワークWと周囲ワークとの状況の配置例を示した図である。 把持成功時に検出された画像を示す図である。 把持失敗時に検出された画像を示す図である。 ワーク情報処理装置が行なう処理を示したフローチャートである。 実施の形態2の把持装置の構成を示す図である。 実施の形態2のワーク情報処理装置が実行する処理を説明するためのフローチャートである。 実施の形態3の把持装置の構成を示す図である。 実施の形態3のワーク情報処理装置が実行する処理を説明するためのフローチャートである。 設置成功時に検出された画像を示す図である。 設置失敗時に検出された画像を示す図である。
以下、本発明の実施の形態について図面を参照しつつ説明する。なお、以下の図面において同一または相当する部分には同一の参照番号を付し、その説明は繰り返さない。
[実施の形態1]
以下の実施の形態では、バラ積み状態の円柱状ワークを把持する場合について説明する。本実施の形態の把持装置は、バラ積み状態のワークの把持位置検出において、周囲のワークとの干渉を避けてハンドを挿入するための最適把持位置を選択する。
(把持装置の構成)
図1は、実施の形態1の把持装置の構成を示す図である。図1を参照して、把持装置1は、ワークWの表面を観察するためのカメラ2と、ワーク表面の各点のXYZ座標データを計測する三次元センサ3と、ワークWを把持するためのハンド4と、ワークWを把持可能な姿勢にハンド4を位置決めする位置決め機構5と、カメラ2からの画像データR,G,Bおよび三次元センサ3からのXYZ座標データDを用いて最適把持位置を検出し、位置決め機構5およびハンド4を制御するワーク情報処理装置6とを備える。
ワーク情報処理装置6は、三次元センサ3から取得した座標データまたは撮影装置2から取得した画像データに基づいてワークの把持位置を決定し、把持位置に基づいてハンド4がワークを把持するように位置決め機構5およびハンド4を作動させ、ハンド4を撮影装置2によって撮影させ、取得した画像データに基づいて実際にワークを把持できているか否かを判定し、判定結果と把持位置との関係を蓄積して把持位置における把持成功率を算出し、把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する。
本実施の形態では、位置決め機構5として多関節ロボットを用いた例を示す。この他にも、水平方向にアームが移動する水平多関節型や、直交する3つのスライド軸により構成された直交型のロボットなどを位置決め機構5として選択することができる。
図2は、ハンドの形状を示す正面図である。図3は、ハンドの形状を示す側面図である。ハンド4は、2本の指41および42でワーク挟み込むことでワークを把持する。
再び図1を参照して、三次元センサ3の内部には、図示しない2台のカメラが搭載されており、三角測量により物体表面の三次元座標を計測する。ワークWの表面に計測の目印となる模様がない場合、2台のカメラの画像上の点を対応付けできないため、光源からスリット状の光やドット状の光がワークWに向けて照射される。この光源は、三次元センサ3の内部に搭載されていても良いし、カメラ2の上方に配置しても良い。また、三次元センサ3は、特にステレオ方式の三次元センサに限定する必要はなく、光切断法や位相シフト法などの三次元座標データを計測するセンサであれば特に限定されない。
(ワーク情報処理装置の内部構成)
図4は、ワーク情報処理装置6の内部構成を示す図である。ワーク情報処理装置6は、画像入力部61と、ワーク検出部62と、把持位置候補検出部63と、把持位置選択部64と、把持動作成否判定部65と、データ保存部67と、指令出力部66とを備える。
画像入力部61は、三次元センサ3からのXYZ座標データおよびカメラ2からの画像データを入力する。ワーク検出部62は、三次元センサ3から取得したXYZ座標データまたはカメラ2から取得した画像データを用いて把持対象とするワークの位置を検出する。把持位置候補検出部63は、ワーク検出部62で検出されたワークの位置に基づいてワークの周囲物とハンド4との干渉を判定し、単数または複数の把持位置候補を検出する。把持位置選択部64は、把持位置候補検出部63で抽出された把持位置候補の中から、予測された成功率が最大になる最適把持位置を選択する。把持動作成否判定部65は、カメラ2から取得した画像データに基づいて実際にワークを把持できているか否かを画像処理で判定する。
データ保存部67は、三次元センサ3からのXYZ座標データおよびカメラ2から取得した画像データおよび把持位置候補の座標値、把持動作の成否判定結果等を保存する。指令出力部66は、最適把持位置に基づいて位置決め機構5またはハンド4に位置決め指令または把持・開放指令を出力する。
把持位置候補検出部63は、把持位置候補について、三次元センサ3または撮影装置2から取得したデータと把持動作成否判定部65の判定結果とを用いた機械学習結果により把持成功率を求め、把持成功率が最大になる候補を最適把持位置として選択する。
(ワーク情報処理装置における処理手順)
以下に、ワーク情報処理装置6の各部の処理を詳細に説明する。
ワーク検出部62は、三次元センサ3から取得したXYZ座標データDを用いて把持対象を検出する。本実施の形態では、把持対象の検出にパターンマッチングを用いる例を示す。
図5は、パターンマッチングの様子を説明するための図である。あらかじめワークWの画像がテンプレートTとしてデータ保存部67に保存されている。ワーク検出部62は、把持対象の検出時にテンプレートTを読み出してカメラ2からの画像データや三次元センサ3からのXYZ座標データに重ね合わせ、最も一致する姿勢を有するワークを探索するパターンマッチングを行なう。
図6は、パターンマッチング時に検出される情報を説明するための図である。パターンマッチングでは、ワークWの中心座標(ox,oy,oz)と各軸周りの回転角度(α,β,γ)が検出される。
次に、把持位置候補検出部63が実行する処理を説明する。図7は、図6のZ軸の+方向からワークWを見たときの図である。図7には、把持対象のワークWと、周囲の4つのワークと、ハンド4の2本の指41、42との位置関係が示されている。また、図7では、ハンド4の2指41,42の座標の中点がワークWの重心Oと一致するようにハンド4が位置決めされている。図7の例では、ワークWとハンド4の2指41,42は干渉しない。図7に示したようなワークWとハンド4の2指41,42が干渉しない箇所を、把持位置候補検出部63は把持可能と判断する。
図8は、把持位置候補検出部63が実行する処理を説明するための図である。把持位置候補検出部63は、図8のニューラルネットワークで、図7に示す把持位置候補と把持動作の成功率を予測する。ニューラルネットワークは、三次元センサ3から取得したXYZ座標データDおよびカメラ2から取得した画像R,G,Bを入力とし、把持位置候補のXYZ座標値と把持成功率を予測する。
把持位置候補検出部63は、ニューラルネットワークの学習処理も行なう。学習にはバックプロバケーション(誤差逆伝播法)を用いる。学習のために、以下の教師データを準備する。
ワークWをカメラ2で図6のZ軸の+方向から撮影する。ワークWについて、ハンド4が干渉しない位置を人間が指示する。図9は、ワークWの把持可能位置の指示の第1例である。図10は、ワークWの把持可能位置の指示の第2例である。図9および図10に示すような矩形を人間が指示して把持可能位置の教師データとする。
図9、図10に示した矩形の中心座標X,Yと奥行方向の座標Zを、三次元センサ3から取得した座標データDから求める。また、指示した把持位置の成功率の初期値として、最大値100を与える。成功率は0〜100の範囲の値とする。
把持を試行して学習を行なうと時間がかかる。この課題に対処するために、本実施の形態では、動作を試行する前にある程度の学習を済ませておく。
たとえば、あらかじめワークを撮影し、撮影した画像の中で把持可能な箇所を人間が判断して指示し、撮影した画像と人間が指示した箇所を教師データとして事前に学習を行う。この学習結果を用いることで、実際の動作の試行回数を減らすことができる。
また、以上のような方法をとることで、特開2016−221647号公報(特許文献3)のように、事前に特徴を定める必要はなくなり、把持の可否判断に必要な特徴情報を学習で取得することができる。
図11は、把持可能箇所が複数となるワークWと周囲ワークとの状況の配置例を示した図である。図11のような状況を想定し、把持位置には把持の優先度を示すラベルを割り当てる。ここでは、たとえば、Aを優先度最大とし、順番にB,Cと3段階の優先度を設ける。優先度は矩形の指示者が判断して割り当てる。
以上より、各矩形に対し、中心座標(X,Y)、奥行座標Z、矩形の縦横サイズ、成功率の初期値、ラベルが割り当てられる。これらの情報とワークWの画像R,G,B、三次元センサ3から取得したXYZ座標データDを教師データとしニューラルネットワークの学習を行なう。把持位置候補検出部63は、この学習結果を初期値として把持位置候補を検出する。
次に把持位置選択部64および把持動作成否判定部65が実行する処理について説明する。把持位置選択部64は、把持位置候補検出部63が検出した把持位置候補の内、優先度が高く、把持動作の予測成功率が最大の候補を選択する。
把持動作の成否は、把持動作成否判定部65が判定する。実際の把持動作後、カメラ2でハンド4を撮影し、ハンド4内のワークを画像処理で検出し、検出できた場合は成功、未検出の場合は失敗と判定する。
図12は、把持成功時に検出された画像を示す図である。ワークを把持していないハンド4の画像とワークWの把持に成功したハンド4との画像を比較すると、不一致の部分が生じる。このように不一致の部分がある場合には把持成功と判定される。
図13は、把持失敗時に検出された画像を示す図である。ワークを把持していないハンド4の画像とワークWの把持に失敗したハンド4との画像を比較すると、一致するので差分の画像が生じない。このように不一致の部分が無い場合には把持失敗と判定される。
把持動作成否判定部65は、図12、図13に示したように、あらかじめ撮影されデータ保存部67に保存されていた把持していない状態のハンド4の画像を、把持動作後の画像と比較して、2つの画像が一致していれば未検出、不一致ならば検出と判定する。
把持位置候補検出部63は、把持動作の試行中も学習を行ない、学習結果を更新する。把持位置候補検出部63は、機械学習の学習データとして三次元センサ3から取得した座標データまたは撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および把持動作成否判定部65の判定結果とを用いる。
把持動作成否判定部65において、未検出の場合、ニューラルネットワークが予測した把持動作の成功率Sを下記式に代入して更新された成功率S’を得る。
S’=α×S+β
ここでは、(α、β)を更新係数と呼ぶ。それぞれの値は任意だが、ここでは(α,β)=(0.99,−0.1)とした。なお、学習を試行し経験的に定めた最適値を用いてもよい。
把持動作試行中は、以上のように更新された成功率S’と、ニューラルネットワークが予測した中心座標(X,Y)、奥行座標Z、矩形の縦横サイズおよびラベルと、把持位置候補検出部63が検出に利用した画像R,G,Bとデータ、三次元センサ3の画像データDを用いて学習が行なわれる。
把持位置候補検出部63は、把持装置1の稼働中に三次元センサ3から取得した座標データまたは撮影装置2から取得した画像データと把持動作成否判定部65の判定結果を用い、逐次機械学習結果を更新する。
以上のように、把持動作のたびに、把持動作結果に基づいた学習を行なうことで、成功率の低い把持位置は除外され、成功率の高い把持位置のみが選択されるようになる。これにより、把持の失敗が低減され、取り出し作業を効率化することができる。
また、本実施の形態では、把持装置が稼働している間、逐次学習を行なう例を示したが、周囲の環境変化やハンド4の形状変化、ワークの加工品位の変化等によっては、逐次学習よりも一定間隔で学習結果をリセットした方が好ましい場合も考えられる。
このようなときは、あらかじめ設定した回数Mの把持動作毎に学習結果をリセットしてもよい。把持位置候補検出部63は、一定回数の把持動作毎に機械学習結果をリセットする。リセット後は、再度、把持動作のたびに同様の学習を行ない、学習回数がMに達したとき学習結果をリセットする。また、Mは特に固定の値にする必要はなく、周囲の環境やハンド4、ワーク等の変化に応じてリセットのたびに変化させてもよい。
また、把持動作中の自動学習では、定期的に人間が認識結果を確認し、教師データを作成してもよい。
この場合、データ保存部67に保存された画像を参照し、たとえば図9、図10に示すような矩形を人間が指示する。また、更新された成功率S’を人間が直接指定してもよい。これにより、学習時間のさらなる短縮化を図ることができる。
以上説明した一連の処理をフローチャートで説明する。図14は、ワーク情報処理装置が行なう処理を示したフローチャートである。図14に示す処理は、図9、図10で説明した人間が把持位置の教師データを与えてニューラルネットワークにある程度の学習をさせた後に行なわれる処理である。ワーク情報処理装置6は、カメラ2および三次元センサ3から画像を取得する(S1)。続いて、ワーク情報処理装置6は、取得した画像から把持対象を検出し(S2)、把持位置候補を検出し、把持位置候補の把持成功率を予測する(S3)。
そして、ワーク情報処理装置6は、把持位置候補のうち、優先度最大、かつ把持成功率最大の把持位置候補を選択し(S4)、位置決め機構5およびハンド4を用いて把持動作を行なう(S5)。
好ましくは、Nを自然数とすると、ステップS3における把持成功率の算出に学習結果を利用しない把持動作回数であるNをあらかじめ設定し、N回目までの把持では把持位置候補のうち、ワークの画像上の重心位置に最も近い点を選択し、N回を超過してからステップS3において機械学習結果を用いて把持成功率を算出し、ステップS4において把持成功率が最大になる候補を最適把持位置として選択してもよい。
把持動作を実行した後、ワーク情報処理装置6は、カメラ2でハンド4の画像を撮影し(S6)、把持動作の成否を確認する(S7)。そして、ワーク情報処理装置6は、画像および把持位置座標、把持動作成否を保存し(S8)、ニューラルネットワークの学習処理を実行する(S9)。
また、学習処理の負荷が高い場合、把持成功率の算出に時間を要する場合も考えられる。本実施の形態では、ワーク情報処理装置6の把持位置候補検出部63で学習を行なう例を示したが、特にこれに限定する必要はなく、把持位置候補検出部63の学習処理をワーク情報処理装置6の専用の学習装置で行ってもよい。この場合、たとえば、ワーク情報処理装置6と学習装置をシリアル通信やI/O等で接続し、学習に用いる把持位置候補の座標値および三次元センサのXYZ座標データD、カメラの画像データR,G,B、把持動作の成否判定結果を、ワーク情報処理装置6から学習装置に送信する。学習装置は受信したデータに基づいて学習を行ない、学習結果をワーク情報処理装置6に送信する。ワーク情報処理装置6は学習装置から受信した新たな学習結果を用いて把持成功率を算出する。
なお、本実施の形態では、学習にバックプロバケーション(誤差逆伝播法)を用いることとしたが、これ以外にもサポートベクタマシン等の教師あり学習法や、オートエンコーダ(自己符号化器)やk平均法、主成分分析などの教師なし学習法、およびそれらを複合した機械学習法を用いてもよい。
以上説明したように、実施の形態1に係る把持装置によれば、三次元センサまたはカメラで実際に撮影したワーク画像と実際の把持動作結果を学習に用いることにより、ワークの寸法や表面性状のバラツキ、ハンドの現在の状態等を学習に反映させることができ、把持成功率の低下を軽減することができる。また、把持成功率の低下を軽減することができるため、作業のタクトタイムを短縮できる。
[実施の形態2]
実施の形態1では現状の配置のワークのうち一番把持成功率の高いワークを選択した。しかし、隣接ワークとの位置関係によっては、ハンド4が挿入できないことがある。実施の形態2では、このような場合に把持作業を補助する。
図15は、実施の形態2の把持装置の構成を示す図である。図15を参照して、把持装置1Aは、図1の把持装置1の構成に加えて、さらに、ワークを収容する容器(ワークトレー7)を載置する振動台8を備える。振動台8には、振動体が設けられている。また、把持装置1Aは、ワーク情報処理装置6に代えてワーク情報処理装置6Aを備える。カメラ2と、三次元センサ3と、ハンド4と、位置決め機構5については、図1の場合と同様であるので説明は繰り返さない。
ワーク情報処理装置6Aは、把持位置候補の把持成功率が閾値よりも低い場合に振動台8を振動させて把持成功率を向上させるように試行する。
ワーク情報処理装置6Aは、次回の把持動作において、ハンドで把持を行なう前に容器内のワークを撮影装置で撮影した画像に基づいて決定した把持位置に対応する把持成功率が判定値よりも低い場合には、振動台8によってワークの位置を変更する。
図16は、実施の形態2のワーク情報処理装置が実行する処理を説明するためのフローチャートである。図16のフローチャートの処理は、ステップS4の次にステップS51およびS52の処理を実行する点が図14で説明した処理と相違する。
ワーク情報処理装置6Aは、画像を取得(S1)、把持対象の検出(S2)、把持位置候補の把持成功率を予測(S3)、優先度最大、かつ把持成功率最大の把持位置候補の選択(S4)という各処理を図14の場合と同様に順次行なう。
そして、ワーク情報処理装置6Aは、ステップS51において、把持位置候補の予測された成功率Sがある閾値Tよりも高いか否かを判定する。
把持位置候補の予測された成功率Sが閾値Tに到達しない場合(S51でNO)、振動台8を矢印の方向に一定時間振動させた後(S52)、再度ステップS1〜S4の処理を実行し、閾値Tを超える成功率Sを与える把持位置候補の検出を試みる。
把持位置候補の予測された成功率Sが閾値Tより高くなった場合(S51でYES)、実施の形態1と同様に、ステップS5〜S9の処理を実行する。
なお、ステップS52の処理を数回繰り返しても成功率が向上した把持位置候補が検出されなかった場合、たとえば、ハンド4でワークをずらす動作をさせてもよい。
実施の形態2の把持装置は、実施の形態1の把持装置と同様な効果を奏するとともに、さらに、ワークの配置が悪いため把持成功率が高くない場合に把持成功率を向上させることができる。
[実施の形態3]
実施の形態1では、学習は、把持成功率が高くなるように行なわれた。しかし、把持装置は、把持するだけでなく把持後のワークを次工程の加工等のために、作業台等に設置する必要もある。ハンド4の把持位置によっては、ワークが次工程の作業に最適な位置に配置されない場合も考えられる。実施の形態3では、把持動作に加えて配置動作も考慮して学習を実行する。
図17は、実施の形態3の把持装置の構成を示す図である。図17を参照して、把持装置1Bは、図1の把持装置1の構成において、撮像装置としてカメラ2Aとカメラ2Bを備える。カメラ2Aは、図1のカメラ2と同様なカメラである。カメラ2Bは、次工程のワーク作業台10に設置されたワークの位置を撮影する。把持装置1Bは、また、ワーク情報処理装置6に代えてワーク情報処理装置6Bを備える。カメラ2と、三次元センサ3と、ハンド4と、位置決め機構5については、図1の場合と同様である。
すなわち、図17に示すように、撮影装置2は、ハンドで把持される前にワークが置いてある載置場所を撮影する第1カメラ2Aと、ハンドで把持された後にワークが配置される部材を撮影する第2カメラ2Bとを含む。ワーク情報処理装置6Bは、第2カメラ2Bから取得した画像データに基づいてワークの配置位置を決定し、配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出し、次回の把持動作において、ハンド4で把持を行なう前に載置場所に置かれているワークを第1カメラ2Aで撮影した画像に基づいて決定した把持位置に対応する把持成功率および配置成功率に基づいて、把持位置の採否を決定する。
図18は、実施の形態3のワーク情報処理装置が実行する処理を説明するためのフローチャートである。図18のフローチャートの処理は、ステップS7の次にステップS101〜S103の処理を実行する点が図14で説明した処理と相違する。
ワーク情報処理装置6Bは、ステップS1〜S7の処理を図14の場合と同様に順次行なう。そして、ワーク情報処理装置6Bは、ステップS101において、把持したワークの設置動作を実行し、ステップS102においてカメラ2Bで設置位置の画像を撮影し、ステップS103において設置動作の成否を確認する。
そして実施の形態1と同様に、ステップS8〜S9の処理を実行する。ステップS9の学習処理では、把持成功率に加えて、設置成功率が考慮される。
図19は、設置成功時に検出された画像を示す図である。目標位置にワークを配置した画像と、実際にハンド4で把持した後にワークをワーク作業台10に設置した画像とを比較すると、一致する。このように不一致の部分が無い場合には設置成功と判定される。
図20は、設置失敗時に検出された画像を示す図である。目標位置にワークを配置した画像と、実際にハンド4で把持した後にワークをワーク作業台10に設置した画像とを比較すると、不一致が生じる。このように不一致の部分がある場合には設置失敗と判定される。
ワーク情報処理装置6Bは、図19、図20に示したように、あらかじめ撮影されデータ保存部67に保存されていた目標位置に配置したワークの画像を、設置動作後のワークの画像と比較して、2つの画像が一致していれば成功、不一致ならば失敗と判定する。
実施の形態3の把持装置は、実施の形態1の把持装置と同様な効果を奏するとともに、さらに、ワークの把持位置が悪いため設置成功率が高くない場合に設置成功率を向上させることができる。
なお、実施の形態2と3を組み合わせた把持装置を用いても良い。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A,1B 把持装置、2,2A,2B カメラ、3 三次元センサ、4 ハンド、5 位置決め機構、6,6A,6B ワーク情報処理装置、7 ワークトレー、8 振動台、10 ワーク作業台、41,42 指、61 画像入力部、62 ワーク検出部、63 把持位置候補検出部、64 把持位置選択部、65 把持動作成否判定部、66 指令出力部、67 データ保存部。

Claims (8)

  1. ワークの表面を観察するための撮影装置と、
    前記ワークの表面上の点の座標データを計測する三次元センサと、
    前記ワークを把持するためのハンドと、
    把持可能な姿勢に前記ハンドを位置決めする位置決め機構と、
    前記撮影装置および前記三次元センサを用いて前記ワークの最適把持位置を検出し、前記位置決め機構および前記ハンドを制御するワーク情報処理装置とを備え、
    前記ワーク情報処理装置は、前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データに基づいて前記ワークの把持位置を決定し、前記把持位置に基づいて前記ハンドが前記ワークを把持するように前記位置決め機構および前記ハンドを作動させ、前記ハンドを前記撮影装置によって撮影させ、取得した画像データに基づいて実際に前記ワークを把持できているか否かを判定し、判定結果と前記把持位置との関係を蓄積して前記把持位置における把持成功率を算出し、前記把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する、把持装置。
  2. 前記ワーク情報処理装置は、
    前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データを用いて把持対象とする前記ワークの位置を検出するワーク検出部と、
    前記ワーク検出部で検出された前記ワークの位置に基づいて前記ワークの周囲物と前記ハンドとの干渉を判定し、単数または複数の把持位置候補を検出する把持位置候補検出部と、
    前記把持位置候補検出部で抽出された前記把持位置候補の中から前記最適把持位置を選択する把持位置選択部と、
    前記最適把持位置に基づいて前記位置決め機構または前記ハンドに位置決め指令または把持・開放指令を出力する指令出力部と、
    前記撮影装置から取得した画像データに基づいて実際に前記ワークを把持できているか否かを画像処理で判定する把持動作成否判定部とを含み、
    前記把持位置候補検出部は、前記把持位置候補について、前記三次元センサまたは前記撮影装置から取得したデータと前記把持動作成否判定部の判定結果とを用いた機械学習結果により前記把持成功率を求め、
    前記把持位置選択部は、前記把持成功率が最大になる候補を前記最適把持位置として選択する、請求項1に記載の把持装置。
  3. 前記把持位置候補検出部は、機械学習の学習データとして前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および前記把持動作成否判定部の判定結果とを用いて前記把持成功率を求める、請求項2に記載の把持装置。
  4. 予め定められたNを自然数とすると、前記把持位置候補検出部が、前記把持成功率の算出に学習結果を利用しない把持動作回数は、N回であり、
    前記把持位置選択部は、N回目までの把持では前記把持位置候補のうち、前記ワークの画像上の重心位置に最も近い点を選択し、N回を超過してから前記機械学習結果を用いて得られた前記把持成功率が最大になる候補を前記最適把持位置として選択する、請求項2に記載の把持装置。
  5. 前記把持位置候補検出部は、前記把持装置の稼働中に前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データと前記把持動作成否判定部の判定結果を用い、逐次前記機械学習結果を更新する、請求項2に記載の把持装置。
  6. 前記把持位置候補検出部は、一定回数の把持動作毎に前記機械学習結果の少なくとも一部をリセットする、請求項2に記載の把持装置。
  7. 前記ワークを収容する容器を載置する振動台をさらに備え、
    前記ワーク情報処理装置は、次回の把持動作において、前記ハンドで把持を行なう前に前記容器内のワークを前記撮影装置で撮影した画像に基づいて決定した把持位置に対応する前記把持成功率が判定値よりも低い場合には、前記振動台によって前記ワークの位置を変更する、請求項1に記載の把持装置。
  8. 前記撮影装置は、
    前記ハンドで把持される前に前記ワークが置いてある載置場所を撮影する第1カメラと、
    前記ハンドで把持された後に前記ワークが配置されるべき配置場所を撮影する第2カメラとを含み、
    前記ワーク情報処理装置は、前記第2カメラから取得した画像データに基づいて前記ワークの前記配置場所における配置位置を決定し、前記配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出し、
    前記ワーク情報処理装置は、次回の把持動作において、前記ハンドで把持を行なう前に前記載置場所に置かれているワークを前記第1カメラで撮影し、撮影した画像に基づいて決定した把持位置に対応する前記把持成功率および前記配置成功率に基づいて、前記把持位置の採否を決定する、請求項1に記載の把持装置。
JP2018140356A 2018-07-26 2018-07-26 把持装置 Active JP7191569B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140356A JP7191569B2 (ja) 2018-07-26 2018-07-26 把持装置
PCT/JP2019/028757 WO2020022302A1 (ja) 2018-07-26 2019-07-23 把持装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140356A JP7191569B2 (ja) 2018-07-26 2018-07-26 把持装置

Publications (2)

Publication Number Publication Date
JP2020015141A true JP2020015141A (ja) 2020-01-30
JP7191569B2 JP7191569B2 (ja) 2022-12-19

Family

ID=69181536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140356A Active JP7191569B2 (ja) 2018-07-26 2018-07-26 把持装置

Country Status (2)

Country Link
JP (1) JP7191569B2 (ja)
WO (1) WO2020022302A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021210324A1 (ja) * 2020-04-17 2021-10-21 リンクウィズ株式会社 情報処理方法、情報処理システム及びプログラム
WO2022239878A1 (ko) * 2021-05-10 2022-11-17 코가플렉스 주식회사 로봇의 파지 방법 및 로봇의 파지를 위한 학습 방법
WO2022250152A1 (ja) * 2021-05-28 2022-12-01 京セラ株式会社 保持位置決定装置、及び保持位置決定方法
WO2023042306A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023042307A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023113449A1 (ko) * 2021-12-17 2023-06-22 한국전자기술연구원 데이터 기반 분말소결방식 적층제조 공정 최적화 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021177239A1 (ja) * 2020-03-05 2021-09-10 ファナック株式会社 取り出しシステム及び方法
DE102021210903A1 (de) 2021-09-29 2023-03-30 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Aufnehmen eines Objekts mittels einer Robotervorrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207989A (ja) * 2009-03-11 2010-09-24 Honda Motor Co Ltd 対象物の把持システム及び同システムにおける干渉検出方法
JP2014210310A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017185577A (ja) * 2016-04-04 2017-10-12 ファナック株式会社 シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
WO2018116589A1 (ja) * 2016-12-19 2018-06-28 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4142155A1 (de) * 1991-12-20 1993-06-24 Bosch Gmbh Robert Digitales adaptives regelungssystem und -verfahren, insbesondere fuer einen verbrennungsmotor
US5566273A (en) * 1993-12-30 1996-10-15 Caterpillar Inc. Supervised training of a neural network
JP6890422B2 (ja) * 2016-03-02 2021-06-18 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207989A (ja) * 2009-03-11 2010-09-24 Honda Motor Co Ltd 対象物の把持システム及び同システムにおける干渉検出方法
JP2014210310A (ja) * 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2017030135A (ja) * 2015-07-31 2017-02-09 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP2017185577A (ja) * 2016-04-04 2017-10-12 ファナック株式会社 シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
WO2018116589A1 (ja) * 2016-12-19 2018-06-28 株式会社安川電機 産業機器用の画像認識プロセッサ及びコントローラ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
進藤 智則、中田 敦: "ファナック/PFNは能動学習、グーグルらはシミュ レータピッキングや把持の機械学習でラベル収集が焦点", NIKKEI ROBOTICS 第7号, JPN6022017511, 10 January 2016 (2016-01-10), JP, pages 3 - 20, ISSN: 0004765942 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021210324A1 (ja) * 2020-04-17 2021-10-21 リンクウィズ株式会社 情報処理方法、情報処理システム及びプログラム
JP2021169142A (ja) * 2020-04-17 2021-10-28 リンクウィズ株式会社 情報処理方法、情報処理システム、プログラム
WO2022239878A1 (ko) * 2021-05-10 2022-11-17 코가플렉스 주식회사 로봇의 파지 방법 및 로봇의 파지를 위한 학습 방법
WO2022250152A1 (ja) * 2021-05-28 2022-12-01 京セラ株式会社 保持位置決定装置、及び保持位置決定方法
WO2023042306A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023042307A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
WO2023113449A1 (ko) * 2021-12-17 2023-06-22 한국전자기술연구원 데이터 기반 분말소결방식 적층제조 공정 최적화 시스템

Also Published As

Publication number Publication date
WO2020022302A1 (ja) 2020-01-30
JP7191569B2 (ja) 2022-12-19

Similar Documents

Publication Publication Date Title
WO2020022302A1 (ja) 把持装置
JP4938115B2 (ja) ワーク取出し装置およびワーク取出し方法
JP7467041B2 (ja) 情報処理装置、情報処理方法及びシステム
JP4226623B2 (ja) ワーク取り出し装置
US7283661B2 (en) Image processing apparatus
US20180222048A1 (en) Control device, robot, and robot system
US20180222057A1 (en) Control device, robot, and robot system
US20180225113A1 (en) Control device, robot, and robot system
EP1428634A2 (en) Workpiece taking-out robot with a three-dimensional visual sensor
US11207788B2 (en) Hand control apparatus and hand control system
US20180222058A1 (en) Control device, robot, and robot system
JP2017042859A (ja) ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
JP2018176334A (ja) 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
US11213954B2 (en) Workpiece identification method
JP2012030320A (ja) 作業システム、作業ロボット制御装置および作業プログラム
CN111745640B (zh) 物体检测方法、物体检测装置以及机器人系统
CN110303474B (zh) 使用图像处理修正机器人的示教的机器人系统
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
JP4572497B2 (ja) ロボット制御装置
CN114670189B (zh) 存储介质、以及生成机器人的控制程序的方法及系统
JP2008168372A (ja) ロボット装置及び形状認識方法
JP2017170567A (ja) ワーク認識方法及びランダムピッキング方法
JP2021115693A (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP2020040143A (ja) マニピュレータおよび移動ロボット
WO2021149429A1 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150