JP6529302B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP6529302B2
JP6529302B2 JP2015061685A JP2015061685A JP6529302B2 JP 6529302 B2 JP6529302 B2 JP 6529302B2 JP 2015061685 A JP2015061685 A JP 2015061685A JP 2015061685 A JP2015061685 A JP 2015061685A JP 6529302 B2 JP6529302 B2 JP 6529302B2
Authority
JP
Japan
Prior art keywords
interference
holding
target
gripping
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015061685A
Other languages
English (en)
Other versions
JP2016181183A (ja
Inventor
大輔 渡邊
大輔 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015061685A priority Critical patent/JP6529302B2/ja
Priority to US15/077,596 priority patent/US10532459B2/en
Publication of JP2016181183A publication Critical patent/JP2016181183A/ja
Application granted granted Critical
Publication of JP6529302B2 publication Critical patent/JP6529302B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、センサの計測情報に基づき、バラ積み中から三次元位置姿勢を認識したワークをロボットハンドで把持する技術に関する。
工場などの生産ラインにおいて、山積みされたワークの中から一個体をビジョンシステムを用いて特定し、三次元位置姿勢を認識することでロボットに取り付けたハンドにより把持を行う、バラ積みピッキング技術が近年開発されている。この技術でロボットでの把持動作を短時間で連続実施するためには、周辺物体との干渉が発生しにくい、バラ積みの表層で把持が可能なワークを優先的に選択することが重要である。
特許文献1には、バラ積み中の複数のワークの相互の位置情報を求め、この位置情報からワークの重なり状態を求めて、上方にあるワークから優先的に選択する方法が記載されている。
特開2000−304509号公報
特許文献1に記載の方法では、ワークの位置姿勢を高い順番に並べかえ、そのうちの高い位置にあるワークを優先的に選択する。しかし、ワークの位置姿勢の基準となる部位とハンドで把持する部位とが異なる場合、あるいは、長手形状のワークに対して長手方向に大きく異なる複数の部位のいずれでも把持が可能な場合には、バラ積み表層で把持可能なものを優先的に選択できない。たとえば図5に示すような、特定方向に長い形状を有するようなワークがパレット内にバラ積みで(ここでは5つ)収容されているものとする。このうち、検出できたワークを実線で示し、それぞれワークA、ワークBとする。さらに、各ワークに対して着目部位1、着目部位2でそれぞれ示された部位での把持が可能であるとする。ここで、ワークAを着目部位1で把持すれば、バラ積み表層で他物体との干渉も発生なく把持が可能である。しかし、ワークの位置姿勢に基づく高さを基準にした場合には、周辺物体との干渉が予想されるワークBが選択されるため、処理の効率が悪くなってしまう。
本発明は以上の課題を鑑みてなされたものであり、バラ積み中のワークを認識して把持を行う際に、干渉の発生しにくい把持位置姿勢を優先的に選択することを目的とする。
上記課題を解決するために、本願発明の情報処理装置は、例えば、物体における着目部位を設定する設定手段と、複数の物体の位置及び姿勢の計測データを取得する計測データ取得手段と、前記計測された複数の物体の位置及び姿勢に基づいて、前記計測された複数の物体それぞれについて前記設定された着目部位に対応する着目位置を算出することにより、前記複数の物体における複数の着目位置を得る算出手段と、前記複数の着目位置に基づいて、物体を保持する保持手段が物体の前記着目位置を保持する場合に保持物体以外の物との干渉の有無を判定する判定手段と、前記判定手段の判定結果に基づいて、前記保持手段が物体を保持するための情報を出力する出力手段とを備え、前記判定手段は、前記複数の物体における複数の着目位置のそれぞれの位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の物体における複数の着目位置のうち他の着目位置を選択し、前記他の着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記出力手段は、前記判定手段が前記干渉が無いと判定した前記着目部位を前記保持手段が保持するための情報を出力することを特徴とする。
本発明によれば、バラ積み中のワークを認識して把持を行う際に、干渉の発生しにくい把持動作を優先的に選択することが可能となる。
第1の実施形態における情報処理装置1の構成を示す図である。 第1の実施形態における対象ワークおよびワークの把持を行うハンドの三次元形状モデルを示す図である。 ワークの把持方法および把持方法に対応した着目部位を説明する図である。 第1の実施形態におけるバラ積みワークの把持動作決定およびピッキングの処理手順を示すフローチャートである。 第1の実施形態におけるバラ積みワークに対する把持動作の決定方法を説明する図である。 変形例1−1におけるバラ積みワークに対する把持動作の決定方法を説明する図である。 第2の実施形態におけるバラ積みワークの把持動作決定およびピッキングの処理手順を示すフローチャートである。 本発明の情報処理装置のハードウェア構成の例を示す図である。
以下、本発明にかかる実施形態の情報処理装置を詳細に説明する。
本発明にかかる実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図8を用いて説明する。
図8は、本実施形態における情報処理装置1のハードウェア構成図である。同図において、CPU810は、バス800を介して接続する各デバイスを統括的に制御する。CPU810は、読み出し専用メモリ(ROM)820に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM820に記憶されており、ランダムアクセスメモリ(RAM)830に一時記憶され、CPU810によって適宜実行される。また、入力I/F840は、外部の装置(センサ、表示装置、操作装置など)から情報処理装置1で処理可能な形式で入力信号として入力する。また、出力I/F850は、外部の装置(例えばロボットコントローラ)が処理可能な形式で出力信号として出力する。
(第1の実施形態)
第1の実施形態では、把持方法に対応した着目部位をワークに対してあらかじめ設定しておき、認識したワークの各着目部位の奥行き値に基づいて把持動作を決定する。これにより、把持部位が表層にあるような、干渉の発生しにくい把持動作で優先的に把持を行うため、効率よくバラ積みピッキングが可能となる。
図1は、本実施形態に係る情報処理装置1の構成を示している。
情報処理装置1は、着目部位入力部10と、計測部14と、ワーク認識部15と着目位置算出部16と、把持動作決定部17とを備える。着目部位入力部10は、モデル入力部11と、把持位置姿勢入力部12と、抽出部13とを備える。以下、情報処理装置1を構成する各部について説明する。
着目部位入力部10は、各把持方法に対応したワークの着目部位を着目部位算出部16に入力する。本実施形態では、ロボットハンドがアプローチする位置ができるだけバラ積みの表層になるような把持動作を優先的に選択するものとする。そこで、各把持方法におけるワークとハンドとの位置関係において、アプローチ方向に対して最も奥側となるような部位を着目部位として設定しておき、入力する。ここで、着目部位入力部10は、さらに、モデル入力部11と、把持位置姿勢入力部12と、抽出部13とから構成される。以下、着目部位入力部10を構成する各部について説明する。
モデル入力部11は、バラ積みピッキングの対象となるワークの三次元形状モデル、および、ワークの把持を行うハンドの三次元形状モデルを入力する。三次元形状モデルには、たとえば物体(ワークもしくはハンド)の三次元形状を近似表現したポリゴンモデルを用いることができる。ポリゴンモデルは、物体形状の表面上の3次元座標と、形状を近似する三角形の面(ポリゴン)を構成するための各表面点の連結情報によって構成される。なお、ポリゴンは三角形で構成されるのが一般的であるが、四角形や五角形であってもよい。その他、表面点の座標とその連結情報によりワーク形状を近似表現できるポリゴンモデルであればいかなるものであってもかまわない。あるいは、三次元形状モデルには、CADデータのように、B−Rep(Boundary−Representation)表現と呼ばれる、区分されたパラメータ曲面の集合で形状を表現したモデルを用いてもよい。その他、物体の三次元形状を表現可能なモデルであればいかなるものであってもかまわない。
図2に、本実施形態にて取り扱うワークおよび、ワークの把持を行うハンドの三次元形状モデルを示す。ここでは二指の開閉によりワークの把持(保持)を行うハンドを利用するものとする。ハンド1、ハンド2はそれぞれ、二指のハンドを開いた状態、閉じた状態の三次元形状を表したものである。ここで、ハンドの三次元形状モデルは、ワーク形状に応じて把持に適したものを利用すればよい。たとえば二指ではなく三指の開閉ハンドを用いる場合や吸着式のハンドを用いる場合においても、利用するハンド形状に合わせた三次元形状モデルを入力すればよい。なお、ワークおよびハンドには、それぞれの形状を基準とした座標系が設定されているものとする。以後ではそれぞれ、ワーク座標系、ハンド座標系と呼ぶことにする。三次元形状モデルは、抽出部13において、ワークを把持(保持)するための把持方法(保持方法)に対応した着目部位を抽出する際に用いられる。
把持位置姿勢入力部12は、モデル入力部11により入力されたワークおよびハンドの三次元形状モデルの各座標系に基づき、ワークの把持を行う際のワークとハンドとの相対位置姿勢を入力する。
なお、複数の把持方法がある場合には、複数の把持位置姿勢を入力する。これについて図3を用いて説明する。たとえば、本実施形態で取り扱うワークに対して2つの把持方法により把持が可能であるとする。1つ目の把持方法は、ワークのリング形状中心に二指を閉じた状態でハンドを差し込み、二指を開くことで内側から把持する把持方法1(内掴み)である。2つ目の把持方法は、ワーク角柱形状に対して二指を開いた状態でハンドをかぶせ込み、二指を閉じることで外側から把持する把持方法2(外掴み)である。ここで、内掴みに対する把持位置姿勢として、二指を開いたハンド、すなわちハンド1でワークを把持した状態におけるワーク座標系とハンド座標系との相対位置姿勢を抽出部13に入力する。さらに、外掴みに対する把持位置姿勢として、二指を閉じたハンド、すなわちハンド2でワークを把持した状態におけるワーク座標系とハンド座標系との相対位置姿勢を抽出部13に入力する。
抽出部13は、ワークおよびハンドの三次元形状モデルと、各把持方法における把持位置姿勢とに基づいて、ワークの各把持方法に対する着目部位を抽出する。ここで抽出した着目部位は、着目位置算出部16において、認識したワークを前述した2種類の把持方法で把持する際のロボットハンドの各把持位置(保持位置)に対する着目部位の位置の算出に用いられる。
計測部12は、対象物体の位置姿勢を認識するために必要な計測情報を取得(計測データ取得)するセンサである。たとえば、二次元画像を撮影するカメラでもよいし、各画素が奥行きの情報を持つ距離画像を撮影する距離センサでもよいし、これらを併用してもよい。距離センサとしては、対象に照射したレーザ光やスリット光の反射光をカメラで撮影し、三角測量により距離を計測するもの、光の飛行時間を利用するTime−of−flight方式のもの、あるいは、ステレオカメラで撮影する画像から三角測量により距離を計算するもの、などが利用できる。その他、物体の三次元位置姿勢を認識するのに必要な情報を取得できればいかなるセンサであっても本発明の本質を損なうものではない。本実施形態では、距離画像および濃淡画像をともに取得可能なセンサを利用するものとする。計測部14が取得した計測情報は概略ワーク認識部15に入力される。なお、計測部14に設定された座標系を以後、センサ座標系と呼ぶことにする。
ワーク認識部15は、バラ積みされた多数のワークの中から一個体を検出するとともに、検出したワークのセンサ座標系における3次元位置姿勢を算出する。本実施形態では計測部14がセンサにより距離画像および濃淡画像を取得可能である。まず、取得した距離画像および濃淡画像に対して事前学習した分類木を用いた投票を行うことでバラ積み中からワーク一個体の検出およびおおまかな位置姿勢を算出する。その後、算出したおおまかな位置姿勢から、ワークの三次元形状モデルを距離画像および濃淡画像にフィットするように位置姿勢を補正することでワークの高精度な位置姿勢を算出する。ただし、センサ座標系におけるワークの位置姿勢の算出方法は他の方法であってもかまわない。たとえば、前段の一個体の検出において、多数の姿勢から観測した画像とのパターンマッチングを行ってもよい。あるいは後段の高精度な位置姿勢算出において、距離画像のみ、あるいは濃淡画像のみを用いてフィッティングを行ってもよい。その他、バラ積み中から把持対象となる一個体を発見し、その三次元位置姿勢を算出できる方法であれば、ここで述べた以外のいかなる方法であってもかまわない。
着目位置算出部16は、ワーク認識部15により認識したワークの三次元位置姿勢と、着目部位入力部10により入力された着目部位とに基づき、認識されたワーク上(物体上)の各把持位置に対する着目部位のセンサ座標系における位置(着目位置)を算出する。
把持位置決定部17は、認識したワークの各把持方法に対する着目部位の三次元座標に基づき、ロボットハンドで把持を行うための把持位置および把持方法を決定する。
出力部18は、把持位置決定部17で決定された把持位置を外部装置(例えばロボットコントローラ)に出力する。ロボットコントローラは、出力部18から受け取った把持位置および把持方法でワークを把持するようにロボットハンドを制御する。
情報処理装置1を構成する各機能部は、CPU810が、ROM820に格納されたプログラムをRAM830に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU810を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
図4は、本実施形態において、バラ積み中から認識したワークに対して、設定した把持方法による把持位置を決定してロボットハンドで把持を行う処理手順を示すフローチャートである。
(ステップS101)
ステップS101では、着目部位入力部10は、ワークの各把持方法に対応した、ワークの着目部位を入力する。ここでは、ワークおよびハンドの三次元形状モデルと、把持位置姿勢に基づき、着目部位を抽出して入力する方法について述べる。この場合の処理は、以下のステップS102〜S104から成る。
(ステップS102)
ステップS102では、モデル入力部11は、ワークの三次元形状モデル、および、ワークの把持を行うハンドの三次元形状モデルを入力する。
(ステップS103)
ステップS103では、把持位置姿勢入力部12は、モデル入力部11により入力されたワークおよびハンドの三次元形状モデルの各座標系に基づき、ワークの把持を行う際のワークとハンドとの相対位置姿勢を入力する。
(ステップS104)
ステップS104では、抽出部13は、ワークを把持するための各把持方法に対する着目部位を抽出する。
本実施形態における二種類の把持方法では、ハンドは、ハンド座標系のZ軸正方向に移動することでワークの把持位置姿勢へとアプローチする。後段の把持位置決定において、バラ積みの表層付近で把持可能なものから優先的に把持を行うために、ここではまず、ハンドの三次元形状モデルの中で、Z軸方向に最大の座標をもつ頂点を抽出する。具体的には、ハンド二指の先端の8頂点が抽出される。さらにこれらの重心座標を算出する。図3に内掴みで把持を行う場合の着目部位を黒丸で、外掴みで把持を行う場合の着目部位を白丸で示す。次に、抽出した座標を把持位置姿勢に基づき、ハンド座標系から、ワーク座標系に基づく座標値に変換して入力する。
ただし、着目部位の設定方法はこの限りではない。たとえば、ハンドの重心位置をハンド座標系からワーク座標系に基づく座標値に変換して用いてもよい。あるいは、把持位置姿勢に基づき、ハンドおよびワークの三次元形状モデルを配置し、そのときの両者の面が一定距離以内かつ、面の法線方向の一致度が所定値以内のモデル面を把持位置におけるワークとハンドとの接触部位として抽出し、これらの重心位置を用いてもよい。これ以外にも、たとえばGUI上にワークの三次元形状モデルを表示し、ユーザーがワークモデル上のある面、あるいは点などの幾何特徴を選択し、選択した幾何特徴の重心位置などを着目部位として用いてもよい。あるいは3次元形状モデルを用いず、ワーク座標系におけるにおける着目部位の座標(x,y,z)を数値で入力してもかまわない。
(ステップS105)
ステップS105では、計測部14は、ワークの位置姿勢を認識するための計測情報の取得を行う。本実施形態では、距離画像および濃淡画像を撮影するものとする。なお、前述したように、ワークの位置姿勢を認識するための情報を取得できれば、センサにはカメラを用いてもよいし、その他のセンサを用いてもよい。
(ステップS106)
ステップS106では、ワーク認識部15は、ワークの位置姿勢を認識する。具体的には、センサ座標系におけるワークの位置姿勢を表す6つのパラメータを算出する。ここで算出された6つのパラメータに基づくセンサ座標系からワーク座標系への座標変換において、姿勢を表す3つのパラメータで表現される3×3の回転行列をRWS、位置を表す3つのパラメータで表現される3列の並進ベクトルをそれぞれtWSとする。このとき、センサ座標系X=[X,Y,Zからワーク座標系X=[X,Y,Zへの変換は、4×4行列TWSを用いて以下のように表すことができる。
’=TwsX’ (式1)
ここで、
’=[X,Y,Z,1]
’=[X,Y,Z,1]
Figure 0006529302
である。
(ステップS107)
ステップS107では、着目位置算出部16は、認識したワークに対して内掴み、外掴みでそれぞれ把持を行う各把持位置に対する着目部位の位置(着目位置)を算出する。図5に示すように、パレット内にバラ積みのワーク(ここでは5つ)が収容されているものとする。このうち、ステップS106、S107の処理により、バラ積み中から2つのワーク(A,B)を検出できたものとする。検出できたワークを実線で示し、それぞれワークA、ワークBとする。なお、検出できなかった3つのワークを破線で示す。ここで認識したワークの位置姿勢、すなわち、センサ座標系におけるワークの位置姿勢に基づき、着目部位の座標をワーク座標系からセンサ座標系に変換する。これにより、認識したワークA、Bに対して、着目部位1、着目部位2のセンサ座標系における位置(x,y,z)がそれぞれ算出される。以後、ワークAの着目部位1、着目部位2の位置をそれぞれPA1、PA2、ワークBの着目部位1、着目部位2の位置をそれぞれPB1、PB2と表現することにする。
(ステップS108)
ステップS108において、着目位置算出部16は、着目位置PA1、PA2、PB1、PB2それぞれ対応した把持位置のうち、候補として未選択の把持位置が1つ以上存在する場合には、ステップS109へ進む。もし、すべての把持位置がすでに候補として選択済みであった場合には、把持候補がこれ以上存在しないものとして処理を終了する。
(ステップS109)
ステップS109では、候補として未選択のすべての把持位置について着目位置を比較し、把持位置を1つ選択する。たとえば、図5に示したワークAの内掴み、外掴み、ワークBの内掴み、外掴みの4つの把持位置がすべて未選択であったとする。このとき、それぞれの把持位置に対応した着目位置PA1、PA2、PB1、PB2の各z値に着目し、値が最も小さいものに対応した把持位置を選択する。これにより、バラ積みの表層で把持が可能なもの、すなわち周辺物体との干渉が発生しにくい把持位置を優先的に選択する。図5の例ではPA2、PB2、PB1、PA1の順にz値が小さいため、ワークAの外掴みがはじめに候補として選択されることになる。
(ステップS110)
ステップS110では、把持位置決定部17は、ステップS109で選択された把持位置によるワークの把持が可能であるか事前判定を行う。具体的には、把持位置におけるハンドの姿勢、把持位置における周辺物体(パレット、近接ワーク)との干渉有無を判定する。ハンドの姿勢判定は、たとえば認識したワークに対して把持方法に対応した相対位置姿勢でハンド形状モデルを配置し、このときのハンド座標系Z軸とセンサ座標系Z軸とのなす角度により判定する。この角度が所定値以上である場合には姿勢に無理があるものとして把持不可、所定値未満の場合には把持可能と判定する。たとえば図4において、ワークBに対する外掴みは、パレット底面に対してほぼ水平にアプローチするような把持位置となるため、把持不可と判定する。あるいは、把持位置までロボットを制御可能か、ロボットコントローラにより判定を行ってもよい。干渉有無の判定は、たとえば、ワークの認識結果に基づいて仮想的にバラ積み状態のワークおよびパレットを含めた三次元空間を再現し、把持位置におけるハンドが周辺物体と干渉するかを判定する。ここで干渉が発生する場合には把持不可、発生しない場合には把持可能と判定する。これらの判定により、いずれも把持可能と判定された場合にはステップS111へ、把持不可と判定された場合には、ステップS108へ進む。
(ステップS111)
ステップS111では、出力部18は、ステップS110で把持可能と判定された把持位置を外部のロボットコントローラに出力する。ロボットコントローラは、ロボットハンドを制御し、決定された把持位置に基づき、ロボットハンドによる把持およびその後のハンドによる作業(搬送、設置、組み付けなど)を実施する。ステップS105へ進む。これにより、バラ積みワークに対するロボットハンドによる作業を連続して実施可能となる。
以上、第1の実施形態では、把持方法に対応した着目部位をワークに対してあらかじめ設定しておき、認識したワークの各着目部位の奥行き値に基づいて把持位置を決定する方法について述べた。これにより、把持部位が表層にあるような、干渉の発生しにくい把持位置で優先的に把持を行うため、効率よくバラ積みピッキングが可能となる。
なお、本実施形態では、ステップS107において、着目部位の座標をワーク座標系からセンサ座標系に変換し、ステップS109では、この座標(z値)を用いた比較により把持位置を選択した。この方法は、センサを水平方向に配置したようなケースにおいて、センサに近いものから把持を行いたいような場合にも、センサ座標系におけるz値が小さい把持位置を選択することで有効である。これに対して、着目部位の座標はセンサ座標系以外の座標系に変換してもよい。たとえばロボットに対して設定されているロボット座標系と、センサ座標系との相対位置姿勢が既知であればロボット座標系に変換してもよい。あるいは、ワークを収納するパレットを基準としたパレット座標系に変換してもかまわない。なお、変換した座標系に応じて、着目部位の座標の判定基準も合わせて変更する必要がある。たとえばロボット座標系のZ軸正方向が鉛直上向きと一致するような場合、表層で把持可能な把持位置を選択するには、ロボット座標系に変換した着目部位の座標比較において値が最も大きいものを選択する。このほか、把持位置の選択にあたり、適切な基準を設定できるのであればいかなる座標系に変換してもかまわない。
なお、本実施形態では、着目部位を2つ設定したが、着目部位を1つだけ設定し、バラ積み中から認識した複数のワークに対して、算出されるそれぞれの着目位置を比較して把持位置を選択してもよい。
また、ステップS109では、未選択の把持位置の中から、対応する着目位置の奥行きが最も小さい把持位置を逐次選択した。これに対して、着目位置の奥行き値に基づいてすべての把持位置をあらかじめソートしておき、奥行き値の小さいものから順次把持可否判定を行ってもよい。
(変形例1−1)
第1の実施形態では、認識したワークの各着目部位の奥行き値に基づき、把持部位が表層にあるような把持位置を、干渉の発生しにくいものとして優先的に選択を行った。これに対して、変形例では、パレットの側面付近ではパレットとの干渉が発生しやすいことを考慮して、把持部位がパレット中央領域付近であるような把持位置を優先的に選択する。なお、対象とするワークおよびハンド、把持方法は第1の実施形態と同様であるものとする。
本変形例の装置構成は第1の実施形態の図1と同様のため省略する。また、本変形例の処理フローは第1の実施形態の図4と同様のため省略するものとし、処理の異なるステップS109についてのみ説明する。
(ステップS109)
ステップS109では、把持位置決定部17は、候補として未選択のすべての把持位置について着目位置を比較し、把持位置を1つ選択することにより把持位置を決定する。図6を用いて説明する。なお、説明簡略化のため、ここではセンサ座標系のZ軸がパレット底面の中心を貫くような配置でパレットが設置されているものとする。このとき、センサ座標系のXY平面おいて、着目位置の原点からの距離が小さいものほど、パレット中央付近に把持部位があることになる。そこで、着目部位のセンサ座標系における位置(x,y,z)に対して、センサ原点からの距離dをd=x+yで算出する。そして、各着目部位に対して算出した距離dをそれぞれ比較し、この値が最も小さい把持位置を選択する。
たとえば図6において、バラ積み中から2つのワーク、ワークC、ワークDを認識したものとする。ここでワークCの着目部位1、着目部位2の位置をそれぞれPC1、PC2、ワークdの着目部位1、着目部位2の位置をそれぞれPD1、PD2と表現することにする。このとき、各着目部位PC1、PC2、PD1、PD2に対して上記dの値を算出した場合、PC1、PC2、PD1、PD2の順に値dが小さくなるため、ワークCの内掴みがはじめに候補として選択されることになる。
以上の方法により、把持部位がパレット中央付近であるような、干渉の発生しにくい把持位置で優先的に把持を行うため、効率よくバラ積みピッキングが可能となる。
なお、把持位置の選択方法としてこれ以外の評価値を用いてもかまわない。たとえば、実施形態1で述べたセンサ座標系の奥行き方向の距離zと、本変形例で述べた、センサ座標系のXY平面における原点からの距離dの評価値を組み合わせ、バラ積み表層かつパレット中央に把持部位があるような把持位置を優先して選択してもよい。これには、パレット上面かつ中央にあたる位置を基準として、センサ座標系における基準点の三次元位置をあらかじめ設定しておき、着目部位と基準点との三次元距離を評価値として用いることができる。このほか、三次元空間における把持部位の優先度を適切に設定できれば、評価値の算出方法はいかなる方法に変更してもよい。
(第2の実施形態)
第1の実施形態では、認識したワークの各着目部位の位置のみに基づき、把持位置の選択を行った。本実施例では、複数の把持方法において周辺物体との干渉の発生確率が異なる場合に、把持方法に対する優先度もあらかじめ設定しておくことで、より干渉のしにくい把持位置を選択する方法について述べる。なお、対象とするワークおよびハンド、把持方法は第1の実施形態と同様であるものとする。ただし、本実施例では、内掴みによる把持が、外掴みに比べて干渉が発生しにくいものとし、内掴みでの把持を優先的に選択するものとする。
本実施形態の装置構成は第1の実施形態の図1と同様のため省略する。
本実施形態の処理フローを図7に示す。なお、図7におけるステップS201、S202、S203、S207、S208、S209、S210はそれぞれ第1の実施形態におけるS101、S105、S106、S108、S109、S110、S111と同様のため説明を省略する。以下、処理の異なるステップS204、S205、S206についてのみ説明する。
(ステップS204)
ステップS204では、着目位置決定部17は、ワークを把持可能な把持方法(内掴み、外掴み)のうち、候補として未選択の把持方法が1つ以上存在する場合には、ステップS205へ進む。もし、すべての把持方法がすでに候補として選択済みであった場合には、把持候補がこれ以上存在しないものとして処理を終了する。
(ステップS205)
ステップS205では、着目位置決定部17は、複数の把持方法の中から干渉の発生しにくい方法を優先的に選択する。前述したとおり、本実施形態では、内掴みによる把持が、外掴みに比べて干渉が発生しにくいものとし、内掴みでの把持をまず選択する。
(ステップS206)
ステップS206では、着目位置決定部17は、認識したワークに対して、ステップS205で選択した把持方法での把持位置に対する各着目位置を算出する。たとえば図5において、把持方法として内掴みが選択されている場合、ワークAに対する着目部位1、ワークBに対する着目部位1のセンサ座標系における位置(x,y,z)をそれぞれPA1、PB1として算出する。
以上の方法により、複数の把持方法において干渉のしやすさが異なるような場合に、より干渉のしにくい把持位置を選択することが可能となる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した各実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。

Claims (11)

  1. 物体における着目部位を設定する設定手段と、
    複数の物体の位置及び姿勢の計測データを取得する計測データ取得手段と、
    前記計測された複数の物体の位置及び姿勢に基づいて、前記計測された複数の物体それぞれについて前記設定された着目部位に対応する着目位置を算出することにより、前記複数の物体における複数の着目位置を得る算出手段と、
    前記複数の着目位置に基づいて、物体を保持する保持手段が物体の前記着目位置を保持する場合に保持物体以外の物との干渉の有無を判定する判定手段と、
    前記判定手段の判定結果に基づいて、前記保持手段が物体を保持するための情報を出力する出力手段とを備え、
    前記判定手段は、
    前記複数の物体における複数の着目位置のそれぞれの位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の物体における複数の着目位置のうち他の着目位置を選択し、前記他の着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、
    前記出力手段は、
    前記判定手段が前記干渉が無いと判定した前記着目部位を前記保持手段が保持するための情報を出力することを特徴とする情報処理装置。
  2. 前記判定手段は、前記計測データを生成するセンサからの奥行き方向の位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記判定手段は、前記複数の着目位置のうち、前記センサに最も近い奥行きをもつ着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の着目位置のうち次に前記センサに近い奥行きをもつ他の着目位置を選択し、前記他の着目位置を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項に記載の情報処理装置。
  4. 前記判定手段は、前記複数の物体の存在する領域の中心からの距離に基づいて、前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
  5. 前記判定手段は、前記複数の着目位置のうち、前記複数の物体の存在する領域の中心からの距離が最も小さい着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記設定手段は、前記物体の3次元形状モデルおよび前記保持手段の3次元形状モデルに基づいて、前記着目部位を設定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記設定手段は、更に、前記物体を保持する際の保持手段と前記物体との相対位置姿勢に基づいて、前記着目部位を設定することを特徴とする請求項6に記載の情報処理装置。
  8. 前記判定手段は、前記物体を把持する複数の把持方法のうち最も干渉が発生しにくい把持方法に対応する前記着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の把持方法のうち他の把持方法に対応する着目位置を選択し、前記他の把持方法に対応する着目位置を前記保持手段が保持する場合の前記干渉の有無を判定することを特徴とする請求項1に記載の情報処理装置。
  9. 前記判定手段は、前記物体を把持する複数の把持方法のうち最も干渉が発生しにくい把持方法に対応する複数の着目位置のうち前記計測データを生成するセンサに最も近い奥行きをもつ着目位置を選択し、選択された着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記把持方法に対応する複数の着目位置のうち次に前記センサに近い奥行きをもつ位置にある他の着目位置を選択し、前記他の着目位置を前記保持手段が保持する場合の前記干渉の有無を判定し、更に、前記干渉が有ると判定した場合に、前記複数の把持方法のうち他の把持方法に対応する着目位置を選択し、前記他の把持方法に対応する着目位置を前記保持手段が保持する場合の前記干渉の有無を判定する、ことを特徴とする請求項8に記載の情報処理装置。
  10. 物体における着目部位を設定する設定工程と、
    複数の物体の位置及び姿勢の計測データを取得する計測データ取得工程と、
    前記計測された複数の物体の位置及び姿勢に基づいて、前記計測された複数の物体それぞれについて前記設定された着目部位に対応する着目位置を算出することにより、前記複数の物体における複数の着目位置を得る算出工程と、
    前記複数の着目位置に基づいて、物体を保持する保持手段が物体の前記着目位置を保持する場合に保持物体以外の物との干渉の有無を判定する判定工程と、
    前記判定工程の判定結果に基づいて、前記保持手段が物体を保持するための情報を出力する出力工程と、を備え、
    前記判定工程において、
    前記複数の物体における複数の着目位置のそれぞれの位置に基づいて前記複数の物体における複数の着目位置のうち1つの着目位置を選択し、選択された着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、前記干渉が有ると判定した場合に、前記複数の物体における複数の着目位置のうち他の着目位置を選択し、前記他の着目位置に対応する着目部位を前記保持手段が保持する場合の前記干渉の有無を判定し、
    前記出力工程において、
    前記判定工程において前記干渉が無いと判定された前記着目部位を前記保持手段が保持するための情報を出力することを特徴とする情報処理方法。
  11. 請求項10に記載の情報処理方法をコンピュータに実行させるためのプログラム。
JP2015061685A 2015-03-24 2015-03-24 情報処理装置、情報処理方法、プログラム Active JP6529302B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015061685A JP6529302B2 (ja) 2015-03-24 2015-03-24 情報処理装置、情報処理方法、プログラム
US15/077,596 US10532459B2 (en) 2015-03-24 2016-03-22 Information processing apparatus, information processing method, and storage medium for grasping an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015061685A JP6529302B2 (ja) 2015-03-24 2015-03-24 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2016181183A JP2016181183A (ja) 2016-10-13
JP6529302B2 true JP6529302B2 (ja) 2019-06-12

Family

ID=56974683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015061685A Active JP6529302B2 (ja) 2015-03-24 2015-03-24 情報処理装置、情報処理方法、プログラム

Country Status (2)

Country Link
US (1) US10532459B2 (ja)
JP (1) JP6529302B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6635690B2 (ja) * 2015-06-23 2020-01-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6711591B2 (ja) * 2015-11-06 2020-06-17 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US10556305B2 (en) * 2016-02-03 2020-02-11 The Boeing Company Aligning parts using multi-part scanning and feature based coordinate systems
WO2018160163A1 (en) * 2017-02-28 2018-09-07 Siemens Product Lifecycle Management Software Inc. System and method for determining grasping positions for two-handed grasps of industrial objects
JP2018144162A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6598814B2 (ja) * 2017-04-05 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
SE541843C2 (en) * 2017-12-22 2019-12-27 Envac Optibag Ab Systems and methods of gripping and emptying a bag
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
CN109658413B (zh) * 2018-12-12 2022-08-09 达闼机器人股份有限公司 一种机器人目标物体抓取位置检测的方法
CN111508014B (zh) * 2019-01-31 2023-06-09 上银科技股份有限公司 排除随机堆叠的多个工件的干涉的系统
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
US11485015B2 (en) * 2019-02-21 2022-11-01 Hiwin Technologies Corp. System for eliminating interference of randomly stacked workpieces
EP3985615A4 (en) * 2019-06-14 2022-08-10 FUJIFILM Corporation DEVICE, METHOD AND PROGRAM FOR PROCESSING POINT CLOUD DATA
KR102528797B1 (ko) * 2021-08-10 2023-05-03 세메스 주식회사 기판 이송 어셈블리 및 방법
WO2024047711A1 (ja) * 2022-08-29 2024-03-07 ファナック株式会社 取り出し機械制御装置、取り出し機械制御プログラムおよび取り出し機械システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3654042B2 (ja) * 1999-04-21 2005-06-02 松下電工株式会社 物体特定方法及び装置
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP4513663B2 (ja) * 2005-06-15 2010-07-28 富士電機ホールディングス株式会社 自動組立システムにおける組立機構の動作教示方法
JP4959520B2 (ja) * 2007-11-26 2012-06-27 三菱電機株式会社 位置姿勢認識装置及び方法、並びに部品ピッキングシステム
JP5229253B2 (ja) * 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5475698B2 (ja) * 2011-01-26 2014-04-16 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、表示制御方法、プログラム及び情報記憶媒体
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP5879704B2 (ja) * 2011-03-10 2016-03-08 富士電機株式会社 ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP2013046937A (ja) * 2011-08-29 2013-03-07 Dainippon Screen Mfg Co Ltd 対象物把持装置および対象物把持方法および対象物把持プログラム
DE102012013030A1 (de) * 2012-06-29 2014-04-24 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatischen Entnehmen von in einem Behälter angeordneten Werkstücken
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Also Published As

Publication number Publication date
JP2016181183A (ja) 2016-10-13
US10532459B2 (en) 2020-01-14
US20160279791A1 (en) 2016-09-29

Similar Documents

Publication Publication Date Title
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
EP3550470B1 (en) Object recognition processing apparatus and method, and object picking apparatus and method
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
EP1905548B1 (en) Workpiece picking apparatus
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
KR101453234B1 (ko) 워크 취출 장치
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US9576363B2 (en) Object picking system, object detecting device, object detecting method
US20190126471A1 (en) Information processing apparatus, grasping system, and information processing method
US10434652B2 (en) Workpiece picking system
JP2010207989A (ja) 対象物の把持システム及び同システムにおける干渉検出方法
JP4766269B2 (ja) 物体検出方法、物体検出装置、及びそれを備えたロボット
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
JP6192088B2 (ja) 物体検出方法および物体検出装置
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
JP2018126862A (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP2010210511A (ja) 対象物の3次元位置・姿勢認識装置及びその方法
US20240139962A1 (en) Iterative control of robot for target object
CN113269112A (zh) 一种抓取区域的识别方法、装置、电子设备及存储介质
JP7066671B2 (ja) 干渉判定装置、干渉判定方法、プログラム及びシステム
CN113284129B (zh) 基于3d包围盒的压箱检测方法及装置
JP6041710B2 (ja) 画像認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190514

R151 Written notification of patent or utility model registration

Ref document number: 6529302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151