JP5975685B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP5975685B2
JP5975685B2 JP2012053685A JP2012053685A JP5975685B2 JP 5975685 B2 JP5975685 B2 JP 5975685B2 JP 2012053685 A JP2012053685 A JP 2012053685A JP 2012053685 A JP2012053685 A JP 2012053685A JP 5975685 B2 JP5975685 B2 JP 5975685B2
Authority
JP
Japan
Prior art keywords
gripping
target object
robot
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012053685A
Other languages
English (en)
Other versions
JP2013184278A5 (ja
JP2013184278A (ja
Inventor
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012053685A priority Critical patent/JP5975685B2/ja
Priority to US13/784,684 priority patent/US9102053B2/en
Publication of JP2013184278A publication Critical patent/JP2013184278A/ja
Publication of JP2013184278A5 publication Critical patent/JP2013184278A5/ja
Application granted granted Critical
Publication of JP5975685B2 publication Critical patent/JP5975685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39508Reorientation of object, orient, regrasp object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Description

本発明は、対象物体の位置姿勢を求める技術に関するものである。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピックして組立を行う。従来より、ピックするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、あるいはパレット(箱)に部品を様々な姿勢で山積みすることによって行われている。パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピックは比較的容易に行われる。しかしパーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならないこともある。一方、部品を山積みにして供給する場合はパレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
従来技術である特許文献1では、山積みからのロボットによる部品の把持に失敗した場合、対象部品を把持対象から除外する。把持に失敗した部品を除外することで、再度失敗を繰り返すことを回避することができる。
特許第04226623号
特許文献1による方法では、ロボットによる把持に失敗した部品を把持対象から除外するため、把持対象の候補数が減る。山積みされた部品には限りがあるため候補数が減ると効率的に作業を行うことができない。
本発明は、このような問題に鑑みてなされたものであり、ロボットによる把持あるいは把持した部品の組み付けに失敗した場合、対象部品を元あった状態あるいは把持状態に基づき良い状態で返還する為の技術を提供することを目的とする。そしてこれにより、把持対象の候補を減らさずに効率的な作業を行うことを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、複数の対象物体を含む画像に基づいて、ロボットが有する把持部による把持候補となる複数の把持候補対象物体を決定する決定手段と、
前記ロボットを制御して、前記複数の把持候補対象物体のうちの1つを、把持対象物体として前記把持部に把持させる制御手段と、
前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の把持候補対象物体が存在する領域以外の領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする。
本発明の構成によれば、ロボットによる把持あるいは把持した部品の組み付けに失敗した場合、対象部品を元あった状態あるいは把持状態に基づき良い状態で返還するので、把持対象の候補を減らさずに効率的な作業を行うことができる。
システムの構成例を示す図。 ポリゴン要素で構成される3次元幾何モデルについて説明する図。 CADモデル、CADモデルを取り囲むGeodesic Sphereを示す図。 システムの動作を示すフローチャート。 エッジ検出を説明する図。 線分の投影像と検出されたエッジの関係を説明する図。 撮影画像を示す図。 撮影画像を示す図。 撮影画像を示す図。 返還領域を説明する図。 システムの構成例を示す図。 システムの動作を示すフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、対象物体に関する2次元情報(2次元画像)と3次元情報(距離画像や3次元点群データを求めるための2次元画像)とを取得するための第1のセンサ(プロジェクタとカメラ)を用いて対象物体が山積みされたパレット内の状態を計測する。本実施形態では、パレット内の状態として、対象物体の位置姿勢を用いる。
また、ロボットに装着され且つ対象物体の3次元情報(距離画像や3次元点群データを求めるための2次元画像)を取得するための第2のセンサ(プロジェクタとカメラ)を用いてロボットで把持した対象物体の把持状態を計測する。
そして、ロボットでの把持に失敗したと判断した場合は、第1のセンサを用いて計測したパレット内の状態や第2のセンサを用いて計測した把持状態に基づいて、対象物体をパレット内に返還する領域を算出する。そして、把持している対象物体を返還領域に返還する指示をロボットに対して行う。ロボットは指示に従って対象物体を返還する。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。
ロボット100は、多関節ロボットであり、ロボットコントローラ部120からの制御命令を受けて稼働する。ロボット100の先端にはエンドエフェクタであるハンド部が装着されており、対象物体に対する作業を行うことが可能である。本実施形態では、エンドエフェクタとして対象物体を把持することが可能なチャック機構を持つハンド部を用いる。エンドエフェクタにはモータ駆動可能なハンド部を用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。
なお、センサ部101の位置姿勢、ロボット100やハンド部の位置や軌道、ロボット100のアームとセンサ部102の相対位置姿勢のキャリブレーション作業は、公知の技術によって予め行われているものとする。これによって、領域状態計測処理部113が計測するパレット内の状態、把持状態計測処理部115が計測する把持状態を、パレット104が置かれた空間に固定されたワークスペース座標系に変換することが可能になる。また、ワークスペース座標系で指定した位置姿勢にハンド部が移動するようにロボット100を制御することが可能になる。
センサ部101は、プロジェクタと、2次元情報としての2次元画像を撮影するカメラと、を有する。センサ部101は、パレット104の上方に固定的に配置されており、山積みされた対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に対して出力する。本実施形態では、センサ部101で撮影した画像は画像処理部110で処理するが、センサ部101内に画像処理機構を持たせて画像処理した結果を出力してもよい。センサ部101のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。
センサ部101のプロジェクタは、対象物体103に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体103をセンサ部101のカメラにより撮影し、撮影した画像をセンサ情報取得部111に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。撮影された画像は、センサ情報取得部111を経由して領域状態計測処理部113にて三角測量の原理により距離を求めるために用いられる。
また、センサ部101のプロジェクタは対象物体に対して均一輝度の光を照射することも可能である。センサ部101のカメラにより均一輝度で照らされた対象物体の画像を撮影し、センサ情報取得部111に対して2次元画像を出力する。
センサ部102は、小型のプロジェクタと、2次元画像を撮影する小型のカメラと、を有する。センサ部102は、ロボット100の各関節の角度によってその位置姿勢が制御可能(変更可能)なハンド部近くに固定的に装着されており、ハンド部が把持している対象物体を撮影する。センサ部102のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。本実施形態では、センサ部102で撮影した画像は画像処理部110で処理するが、センサ部102内に画像処理機構を持たせて画像処理した結果を出力してもよい。
センサ部102のプロジェクタは、対象物体103に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体103をセンサ部102のカメラにより撮影し、撮影した画像をセンサ情報取得部114に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部102は、回折格子と照明とカメラとから構成されてもよい。この場合は回折格子と照明により対象物体にパターン光を投射し、カメラによりパターンを撮影する。撮影された画像は、センサ情報取得部114を経由して把持状態計測処理部115にて三角測量の原理により距離を求めるために用いられる。
対象物体103は、工業製品を構成する部品である。ロボット100によりピックされて製品に組み付けられる。素材には、プラスチック、金属、ビニールなど、様々なものを用いることができる。対象物体103が様々な姿勢になるようにパレット104に山積みされている。
パレット104は、対象物体103を入れるための箱である。パレットの素材に制約はないが、プラスチックや紙素材を用いることが多い。また形状にも制約はないが、作りやすさの点から立方体あるいは直方体にすることが多い。大きさにも制約はないが、通常はセンサ部101で計測可能な範囲内に収まるようにする。
次に、情報処理装置として機能する画像処理部110について説明する。
センサ情報取得部111は、センサ部101が撮影した対象物体103の撮影画像を取得し、該取得した撮影画像を領域状態計測処理部113に対して出力する。センサ部101にはパターン光および均一輝度の光を照射するプロジェクタが備えられており、センサ情報取得部111はパターン光および均一輝度の光が照射された対象物体103の撮影画像を取得する。
モデル情報保持部112は、領域状態計測処理部113および把持状態計測処理部115で対象物体103の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報の1つとして、3次元CADに基づく対象物体103の3次元幾何モデルがあげられる。もう1つのモデル情報として、実際の対象物体103もしくは対象物体103を模した3次元幾何モデルを予め定められた複数の視点から見た参照画像の集合である参照画像モデルがあげられる。
3次元幾何モデルは、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素で構成される3次元幾何モデルを用いる。ポリゴン要素で構成される3次元幾何モデルについて、図2を用いて説明する。
ポリゴン要素で構成される3次元幾何モデルは、図2に示すような点、線、面といった構成要素からなる。図2(a)〜(c)はいずれも同じ3次元幾何モデルを示している。
ポリゴン要素で構成される3次元幾何モデルのモデル情報では、図2(a)に例示している3次元幾何モデルの各頂点について、図2(d)に示す如く、該頂点のインデックスと、該頂点の3次元座標値と、を管理している。
また、このモデル情報では、図2(b)に例示している3次元幾何モデルの各辺について、図2(e)に示す如く、該辺のインデックスと、該辺の両端における頂点のインデックスと、を管理している。
また、このモデル情報では、図2(c)に例示している3次元幾何モデルの各面(ポリゴン)について、図2(f)に示す如く、該ポリゴンのインデックスと、該ポリゴンの各辺のインデックスと、該ポリゴンの法線ベクトルと、を管理している。
参照画像モデルは、複数の2次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体103を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。どの方法で撮影を行ってもよいが、撮影したときのカメラと対象物体103との相対位置姿勢を求め、撮影画像と関連付けて記憶しておく。相対位置姿勢は、やぐらに複数のカメラを配置したときは、やぐらの形状から求めることができる。人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着することで、該位置姿勢センサから求めることができる。ロボットに装着したカメラで撮影するときはロボットの制御情報を利用して求めることができる。
対象物体103を模した3次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から頂点が等しい距離になるGeodesic Sphereを設定し、Geodesic Sphereの頂点からCADモデルの中心を向いたときの画像を用いる。Geodesic Sphereの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかを画像と共に記憶しておく。図3にCADモデルとCADモデルを取り囲むGeodesic Sphereとを示す。Geodesic Sphereの各頂点から中心をみたときの画像の集合を参照画像モデルとする。なお、参照画像モデルは輝度画像でもよいし距離画像でもよい。
対象物体103が1種類と予め分かっている場合は、その種類のモデル情報だけをモデル情報保持部112に格納しておく。複数種類の対象物体を扱うときは、複数のモデル情報をモデル情報保持部112に格納しておき、利用時に切り替える。
領域状態計測処理部113は、センサ情報取得部111から出力された対象物体103の撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、パレット104内の領域状態(領域状態データ)を求める。本実施形態では、対象物体103のうち、ロボット100のハンド部が把持可能な1以上の対象物体(把持候補物体)の位置姿勢を、領域状態データとして求める。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの辺である線と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分と、の対応付けを行うことで対象物体103の位置姿勢を求める。本実施形態では撮影画像上で、対象物体103のエッジと、3次元幾何モデルにおいて該エッジに対応する部分と、が一致するように3次元幾何モデルの位置姿勢の概略値を反復演算により繰り返し補正する。これにより、該補正結果を、対象物体103の位置姿勢として求める。
また、3次元幾何モデルから抽出した表面の点群データと、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群との対応付けを行うことで対象物体の位置姿勢を求めることもできる。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため、本実施形態では詳しく説明しない。求めた距離点群とモデル情報とを利用して対象物体の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体の位置姿勢を反復演算によって繰り返し補正する。さらに、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求めることもできる。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとし、テンプレートマッチングにより撮影画像と最も一致する参照画像を求め、求めた参照画像に関連付けられている相対位置姿勢を元に対象物体103の位置姿勢を求める。
そして領域状態計測処理部113は、1以上の把持候補物体の位置姿勢を、ロボット作業指示部121及び返還領域算出部117に対して出力する。これによりロボット作業指示部121は、この1以上の位置姿勢のうち1つの位置姿勢の把持候補物体をハンド部にて把持させるための指示信号をロボット制御部122に対して送出する。
センサ情報取得部114は、センサ部102が撮影した対象物体103の撮影画像を取得し、取得した撮影画像を把持状態計測処理部115に対して出力する。
把持状態計測処理部115は、センサ情報取得部114から出力された撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて対象物体103の位置姿勢を、把持状態(把持状態データ)として求める。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群データと、センサ情報取得部114から出力された撮影画像から抽出した距離点群との対応付けを行うことで対象物体103の位置姿勢を求める。上記のパターン像が投影された対象物体103の撮影画像から距離点群を求めるためには、空間符号化法、光切断法などの公知技術を用いればよい。求めた距離点群とモデル情報とを利用して対象物体103の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体103の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体103の位置姿勢を求めるための手法はICP法に限るものではない。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体103の位置姿勢を求める。
そして、把持状態計測処理部115は、上記のようにして求めた「ハンド部が把持している対象物体の位置姿勢」を、判断部116及び返還領域算出部117に対して送出する。
判断部116は、ロボット100(ハンド部)が対象物体を把持することに成功しているか否かを判断する。なお、把持が成功しているというのは、その後の既定の作業(例えば組み付け作業)のためにロボット100が対象物体を予め定めた位置姿勢で把持できている状態のことを指す。また、把持が失敗しているというのは(ロボット100が対象物体を把持しているものの)その後の既定の作業(例えば組み付け作業)のためにロボット100が対象物体を予め定めた位置姿勢で把持できていない状態のことを指す。
ロボット100(ハンド部)が対象物体を把持することに成功しているか否かの判断は、次のようにして行う。即ち、把持状態計測処理部115で求めた位置姿勢と、ハンド部が対象物体を把持するためにとるべき位置姿勢として予め計算された規定位置姿勢と、の差異が閾値以内であれば、把持が成功したものと判断する。逆に差異が閾値より大きい場合は、把持が失敗したものと判断する。また、把持状態計測処理部115での計測そのものが失敗した場合も把持が失敗したものとみなす。
そして判断部116は、把持に成功していると判断した場合は、ロボット作業指示部121に対してロボット100が既定の作業(例えば組み付け作業)を行うよう指示する。一方、判断部116は、把持に失敗していると判断した場合は、対象物体をパレット104内に戻すために、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。
返還領域算出部117は、判断部116からロボット100による把持が失敗した旨を示す情報を受けると、領域状態計測処理部113や把持状態計測処理部115から受けた位置姿勢を用いて、ロボット100が対象物体を返還する領域(返還領域)を求める。
返還指示部118は、ロボット100が返還領域内で対象物体を返還すべき位置姿勢を求め、ロボット作業指示部121に対してロボット100が対象物体をこの位置姿勢でパレット104内に返還するよう指示を行う。
次にロボットコントローラ部120について説明する。
ロボット作業指示部121は、領域状態計測処理部113、判断部116、返還指示部118、等が求めた情報に基づいて、ハンド部を移動させる為の指示信号を生成する。例えば、ロボット作業指示部121は、領域状態計測処理部113から対象物体の位置姿勢を受けると、該位置姿勢にある対象物体を把持できる位置姿勢にハンド部を移動させて把持を行うことを指示するための指示信号を生成する。また、判断部116からの指示に応じて、既定の作業(例えば組み付け作業)を行うよう、ハンド部を移動させるための指示信号を生成する。また、返還指示部118からの指示に応じて、ロボット100が把持している対象物体をパレット104内に返還するよう指示するための指示信号を生成する。
なお、ロボットの作業は移動、把持、吸着、組み付けに限られるものではなく、対象物体103の外観検査など、他の作業も含むことは言うまでもない。さらに、ロボットも多関節ロボットではなくNC制御可能な可動式の機械でもよいことは言うまでもない。
ロボット制御部122は、ロボット作業指示部121から指示信号を受けると、この指示信号に従ってロボット100の動作制御を行う。これによりロボット100のハンド部の位置姿勢を指示信号に応じて移動させることが出来る。
次に、本実施形態に係るシステムの動作について、図4のフローチャートを用いて説明する。
ステップS401では、パレット104の上方に固定されたセンサ部101が対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に出力する。センサ部101の位置姿勢は予めキャリブレーションで求まっているものとする。そしてセンサ情報取得部111は、センサ部101から受けた対象物体103の撮影画像を領域状態計測処理部113に対して送出する。
ステップS402では、領域状態計測処理部113は、センサ情報取得部111から受けた撮影画像中の複数の対象物体のうち少なくとも1つの対象物体の位置姿勢を、パレット104内の領域状態として求める(計測する)。この領域状態は、対象物体をロボットに把持させたり、把持に失敗した対象物体をロボットに返還させたりする際に利用する。
対象物体の位置姿勢を計測する方法として本実施形態では3通りの方法を説明する。第1の方法として、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した2次元画像と、モデル情報保持部112が保持しているモデル情報とをマッチングして対象物体103の位置姿勢を計測する方法を説明する。第2の方法として、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群と、3次元幾何モデルから抽出した表面の点群データとのマッチングを行うことで対象物体の位置姿勢を求める方法を説明する。第3の方法として、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求める方法について説明する。
まず第1の方法である、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した2次元画像と、モデル情報保持部112が保持しているモデル情報と、をマッチングして対象物体103の位置姿勢を計測する方法について説明する。
モデル情報として3次元幾何モデルを利用する場合は、対象物体の3次元幾何モデルの辺である線分と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分との対応付けを行うことで対象物体の位置姿勢を求める。本実施形態では、撮影画像に3次元幾何モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置姿勢(6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための最適化手法はGauss−Newton法に限るものではない。
図5はエッジ検出を説明する図である。何らかの方法(例えばテンプレートマッチング)により得られた対象物体の概略位置姿勢とキャリブレーション済みのセンサ部101の内部パラメータを用いて、3次元幾何モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は画像上でも線分となる。次に、画像上で等間隔になるように、投影された線分501上に制御点502を設定し、制御点502ごとに、投影された線分501の法線方向503に1次元のエッジ504の検出を行う(図5(a))。エッジは画素値の濃度勾配505の極値として検出されるため、図5(b)に示すように、複数のエッジ506が検出されることがある。本実施形態では、検出されるエッジをすべて保持する。
3次元幾何モデルの辺である線分とセンサ情報取得部111から出力された撮影画像のエッジ成分との対応付けを行い、対象物体の位置姿勢を求めるには、位置姿勢を算出するための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、画像上での点と直線の距離を位置姿勢の関数とした時の、位置姿勢の各要素に関する1次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離である。係数行列の導出について説明する。
図6は、線分の投影像と検出されたエッジの関係を説明する図である。図6では、画像の水平方向、垂直方向をそれぞれu軸601、v軸602としている。ある制御点603(投影された各線分を画像上で等間隔に分割した点)の画像上での座標604を(u0,v0)、該制御点が所属する線分の画像上での傾きをu軸601に対する傾きθ605と表す。傾きθ605は、線分606の両端の三次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該線分606の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点603の対応点607の画像上での座標608を(u’,v’)とする。ここで、対応点607の座標608(u’,v’)を通り、傾きがθ605である直線(図6の破線)上の点(u,v)は、以下の式で表すことが出来る。
Figure 0005975685
制御点603の画像上での位置は対象物体の位置姿勢により変化する。また、対象物体の位置姿勢の自由度は6自由度である。すなわち、sは6次元ベクトルであり、対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す三次元ベクトルなどによって表現される。位置姿勢により変化する点の画像上での座標(u,v)は、座標604(u0,v0)の近傍で1次のテイラー展開によって以下の式(2)のように近似できる。但し△si(i=1,2,・・・,6)はsの各成分の微小変化を表す。
Figure 0005975685
位置姿勢の概略値と実際の位置姿勢との差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は(1)が表す直線上にあると仮定できる。(2)によって近似されるu、vを(1)に代入することにより、(3)が得られる。
Figure 0005975685
ただし、r=u0sinθ−v0cosθ(定数)である。(3)は対応付けが行われたすべてのエッジについて立式することができる。なお、すべてのエッジについて立式せずに一部のエッジについてだけ立式してもよい。(3)はsの各成分の微小変化△si(i=1,2,・・・,6)についての方程式であるため、(4)のような△siに関する線形連立方程式を立てることができる。
Figure 0005975685
ここで(4)を(5)のように表す。
Figure 0005975685
線形連立方程式の係数行列Jを算出するため偏微分係数の算出を行う。(5)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いて位置姿勢の補正値△sを最小二乗基準で求める。しかしながら、エッジには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、(4)の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える。重みは例えば(6)に示すようなTukeyの関数により与える。
Figure 0005975685
c1,c2は定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える関数であれば、如何なる関数であってもよい。各計測情報(エッジまたは点群データ)に対応する重みをwiとする。ここで(7)のように重み行列Wを定義する。
Figure 0005975685
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。この重み行列Wを用いて、(5)を(8)のように変形する。
Figure 0005975685
(8)を(9)のように解くことにより補正値△sを求める。
Figure 0005975685
算出された位置姿勢の補正値△sを用いて以下の式を計算することで、位置姿勢の概略値を補正する。
Figure 0005975685
そして、sの収束判定を行い、収束していれば終了し、そうでなければ繰り返し算出を行う。収束判定では、補正値△sがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。このように、収束するまで繰り返すことで、位置姿勢を算出できる。
本実施形態では最適化手法としてGauss−Newton法を用いる方法について説明したが、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。参照画像の輝度をT(i,j)、撮影画像の輝度をI(i,j)として、参照画像をm画素×n画素の画像としたとき、参照画像と撮影画像との一致度Rは(10)で求めることができる。
Figure 0005975685
次に第2の方法である、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群と、3次元幾何モデルから抽出した表面の点群データとのマッチングを行うことで対象物体の位置姿勢を求める方法について説明する。
パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため本実施形態では詳しく説明しない。3次元幾何モデルの点群と距離画像点群との対応付けを行うために、本実施例ではICP(Iterative Closest Point)法を用いる。3次元幾何モデルの表面点群をPとし、以下のように定義する。
Figure 0005975685
また、距離画像点群をAとし、以下のように定義する。
Figure 0005975685
3次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点piに距離が最も近い点群Aの点をbi∈Aとしたとき、(13)の誤差関数を定義できる。Rとtはそれぞれ姿勢パラメータと移動ベクトルである。
Figure 0005975685
誤差関数Eを小さくするRとtを求め、(14)による補正を行う。
Figure 0005975685
誤差関数Eを小さくするRとtを求める方法については、以下の文献に載っている。
K.S.Arun,T.S.Huang,and S.D.Blostein,“Least−Squares Fitting of Two 3−D Point Sets,” PAMI,vol.9,no.5,1987
そして、Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、例えば、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出できる。
最後に第3の方法として、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求めることもできる。この方法は例えば特開2011−27623号公報に開示の方法を適用することで実現できる。
このように、ステップS402において領域状態計測処理部113が、把持候補物体の位置姿勢を領域状態データとして求めると、この求めた位置姿勢をロボット作業指示部121および返還領域算出部117に対して送出する。なお、領域状態計測処理部113は、複数個の把持候補物体の位置姿勢を求めたのであれば、求めた全ての位置姿勢をロボット作業指示部121及び返還領域算出部117に対して送出する。
ステップS403では、ロボット作業指示部121は、領域状態計測処理部113から受けた位置姿勢にロボット100のハンド部を移動させるための指示信号を生成し、生成した指示信号をロボット制御部122に送出する。なお、ロボット100が対象物体を吸着するパッドを備えていれば、領域状態計測処理部113から受けた位置姿勢に基づいて、対象物体103の吸着が可能な位置姿勢にロボット100のパッドを移動させるための指示信号を生成する。
ロボット作業指示部121は、領域状態計測処理部113から複数の把持候補物体の位置姿勢を受け取った場合は、それらのうち1つの把持候補物体の位置姿勢を選択する。例えば山積みの中でピックできる可能性が高いと想定される一番上にある把持候補物体(位置成分のうちパレット104が載置されている面に対してパレット104が載置されている側の法線方向の座標成分が最も大きい把持候補物体)を選択する。図7にセンサ部101が撮影した画像から位置姿勢を求めることができた対象物体(把持候補物体)を点線で囲って示している。図7では3つの把持候補物体についてその位置姿勢が求められていることが分かる。この3つの把持候補物体うち一番上にある把持候補物体103’を把持対象物体として選択する。なお、図7の点線はあくまで説明のためのものであり実際の画像には現れない。
ステップS404では、ロボット制御部122は、ロボット作業指示部121からの指示信号に従ってロボット100を制御し、該指示信号が示す位置姿勢にハンド部を移動させる。ロボット100が把持候補物体103’を把持する場合は、ロボット制御部122がロボット100に対して把持候補物体103’を把持する制御を行う。ロボット100が把持候補物体103’を吸着する場合は、ロボット制御部122がロボット100に対して把持候補物体103’を吸着する制御を行う。
ステップS405では、ハンド部に装着されているセンサ部102は、ハンド部が把持している把持対象物体を撮影し、撮影した画像をセンサ情報取得部114に対して送出する。センサ部102にはパターン光を照射するプロジェクタが備えられており、センサ情報取得部114は、パターン光が照射された把持対象物体の画像を取得する。
ステップS406では、把持状態計測処理部115は、センサ情報取得部114から取得した把持対象物体の撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて把持対象物体の位置姿勢を求める。把持対象物体の位置姿勢を求めるために、モデル情報保持部112は保持しているモデル情報を出力する。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの表面から抽出した点群と、センサ情報取得部114から出力された撮影画像から求めた距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため本実施形態では詳しく説明しない。3次元幾何モデルの点群と距離画像点群との対応付けを行うには、ステップS402の第2の方法で説明したICP(Iterative Closest Point)法を用いればよい。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。具体的な方法は、ステップS402の第1の方法後半で説明している。
そして把持状態計測処理部115は、把持対象物体の位置姿勢を求めると、該位置姿勢を判断部116及び返還領域算出部117に対して送出する。なお、把持状態計測処理部115は、把持のずれが大きいなどの理由により、モデルによる位置姿勢検出が出来なかった場合はその旨を判断部116に出力する。
ステップS407では、判断部116は、把持状態計測処理部115が求めた位置姿勢と、予めティーチング作業などにより教示した把持対象物体を把持すべき位置姿勢と、を比較して、把持が成功したか否かを判断する。例えば、それぞれの位置姿勢を比較して、相対位置が200μm以内かつ相対角度(x、y、z成分それぞれ)が0.5度以内であれば組み付けが可能な許容範囲として把持が成功したと判断する。これらの条件を満たさない、もしくは把持状態計測処理部115が位置姿勢検出できなかった場合は把持が失敗したと判断する。
把持が成功したと判断した場合、処理はステップS408に進む。一方、把持が失敗したと判断した場合、処理はステップS409に進む。
ステップS408では、判断部116は、ロボット作業指示部121に対してロボット100が既定の作業(例えば組み付け作業)を行うよう指示する。
ステップS409では、把持対象物体をパレット104の領域内に戻すため、判断部116は、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。この情報を受けた返還領域算出部117は、把持対象物体をパレット104内のどの領域に返還するのかを求める。本実施形態では領域状態として把持候補物体の位置姿勢を用いる。
領域状態計測処理部113で計測したパレット104内にある把持候補物体の位置姿勢を利用して返還領域を算出する方法について説明する。本実施形態においては、パレット104内の把持候補物体を避けた領域を返還領域として算出する。把持候補物体はロボットが良好な状態で把持可能な物体である。そのため、把持候補物体上に積み重ねるように把持している物体を返還すると、次のサイクルで把持候補から外れてしまうため望ましくない。図8(a)は図7と同じくセンサ部101が撮影した画像である。把持対象物体103’はステップS404にてロボットにより把持され、ステップS409の時点においては把持が失敗していると判断されている。図8(a)は、ステップS401で撮影された画像なので、ステップS409の時点では把持対象物体103’はパレット104内に存在せずロボットが把持している。図8(a)において点線で示した対象物体はステップS402で位置姿勢を計測できた対象物体(即ち把持候補物体)である。返還領域は、パレット内の領域でこれらの把持候補物体から例えば30画素以上離れた領域とする。図8(b)に返還領域を斜線で示す。なお、図8(b)では図8(a)に示した把持対象物体103’の部分を返還領域としていない。なぜなら把持対象物体103’の下から次のサイクルで把持候補となる物体が出てくる可能性があるためである。もちろん把持対象物体103’の領域を返還領域としてもよいことは言うまでもない。このように、把持候補物体を避けた領域に返還することで把持候補を隠すことなく効率的な作業を行うことができる。
なお、撮影画像中における把持候補物体の領域は、把持候補物体の位置姿勢を有する該把持候補物体の3次元幾何モデルを該撮影画像上に投影した領域であるので、図8(b)で斜線で示した返還領域は、この投影した領域外として求めることができる。これは上記のキャリブレーションを予め行っておくことで可能となる。もちろん、この斜線で示した領域を求める方法はこれに限るものではない。
また、ロボット100による把持対象物体の把持状態データを利用して返還領域を算出してもよい。例えば、ロボット100により把持している把持対象物体の姿勢と似ている姿勢の対象物体の近くには返還しなくてもよい。これは、返還した対象物体が周囲の対象物体と間違われないようにするためである。
ようするに、返還領域算出部117は、センサ部101による撮影画像中の把持候補物体の領域を除く領域に相当する「パレット104が載置されている面上の領域」を返還領域として特定する。
ステップS410では、返還指示部118は、ロボット作業指示部121に対して把持対象物体の返還を指示する。把持対象物体を返還する位置は、ステップS409で特定した領域内に把持対象物体が収まるように決定する。例えば、ステップS409で算出した領域内で、返還指示があった時点でのロボット100のエンドエフェクタに一番近い位置に戻す。把持対象物体を返還する姿勢については把持状態を計測できているかどうかで決め方が異なる。把持状態を計測できている場合は、予め把持あるいは組み付けが成功しやすい姿勢を定めておき、その姿勢になるようにロボット100を制御して返還する。把持状態を計測できていない場合は、把持対象物体をそのままパレット104の山積みに返還してもよいし、同じような失敗を避けるためにロボット100を制御することで姿勢を大きく変更して返還してもよい。
ステップS411では、ロボット作業指示部121は、ステップS408あるいはステップS410で受けた指示内容をロボット100に行わせるための指示信号を生成してロボット制御部122に対して送出する。ロボット制御部122は、この指示信号に従ってロボット100を制御する。
ステップS412では、終了指示があったかどうかを判定する。終了指示がなければステップS401に戻る。終了指示があればフローを終了して全ての動作を停止する。なお、ステップS412での終了判定を待たずに、ユーザが図示しない緊急停止ボタンを押すことによりフローを終了して全ての動作を停止してもよい。
このように、本実施形態では、把持候補物体の位置姿勢を固定的に配置したセンサを利用して計測し、把持状態をロボットに装着したセンサを利用して計測する。ロボットによる把持に失敗したと判断した場合は、対象物体を元あった状態あるいは把持状態に基づき良い状態で返還する。このようにすることで把持対象の候補を減らさずに効率的な作業を行うことができる。
なお、上記の構成は、次のような構成の一例に過ぎず、第2の実施形態以降で述べるいくつかの構成も、次のような構成の一例に過ぎない。即ち、第1のセンサを用いてロボットが有する把持部が把持可能な1以上の対象物体の集合が存在する領域の状態を求める(第1の計算)。そして、ロボットを制御し、上記1以上の対象物体のうちの1つを把持部に把持させる。ここで、把持部が把持している対象物体を把持対象物体とし、第2のセンサを用いて把持対象物体を計測した結果から、該把持対象物体の把持状態を求める(第2の計算)。そして、第2の計算で計算した把持状態に基づいて把持が失敗したと判断した場合には、第1のセンサによる計測結果もしくは第2のセンサによる計測結果を用いて、把持対象物体を配置する領域を求める(第3の計算)。そして、第3の計算での計算に基づいて、ロボットを制御し、把持部に把持対象物体を上記領域内に配置させる。
[第2の実施形態]
本実施形態では、パレット104内の領域状態として特徴点やエッジなどの2次元画像特徴情報を用いる。本実施形態に係るシステムの構成は第1の実施形態と同様であるが、領域状態計測処理部113、返還領域算出部117、返還指示部118が行う処理内容が第1の実施形態と異なる。
また、本実施形態に係るシステムの動作についても、基本的には図4のフローチャートに従うが、ステップS402、ステップS409、ステップS410における処理内容が第1の実施形態と異なる。
然るに以下では、第1の実施形態との差分のみについて説明し、以下で特に説明しない限りは、第1の実施形態と同様であるとする。
領域状態計測処理部113は、センサ情報取得部111から出力された撮影画像とモデル情報保持部112が保持しているモデル情報とを元にパレット104内の領域状態を計測する。本実施形態では、パレット104内の領域状態として、ロボット100が把持可能な対象物体(把持候補物体)の位置姿勢に加えて、特徴点やエッジなどの2次元画像特徴を計測する。
領域状態計測処理部113は、第1の実施形態と同様に、計測した対象物体の位置姿勢をロボット作業指示部121に対して出力して、ロボット100が対象物体を把持するよう指示を行う。また、領域状態計測処理部113は、計測した領域状態に含まれる特徴点やエッジなどの2次元画像特徴を返還領域算出部117に出力する。
返還領域算出部117は、判断部116からロボット100による把持が失敗したことを示す情報を受け取り、さらに領域状態計測処理部113から出力された領域状態データ、把持状態計測処理部115から出力された把持状態データを受け取る。これらの情報を受け取った返還領域算出部117は、ロボット100が対象物体を返還すべき返還領域を算出する。返還領域算出部117は、領域状態データ、把持状態データ、算出した返還領域を示すデータを返還指示部118に対して出力する。
返還指示部118は、返還領域算出部117から領域状態データ、把持状態データ、返還領域を示すデータを受け取る。これらの情報を受け取った返還指示部118は、ロボット100が対象物体を返還すべき位置姿勢を求め、第1の実施形態と同様、ロボット作業指示部121に対してロボット100が対象物体をパレット104内に返還するよう指示を行う。
ステップS402では、領域状態計測処理部113にてセンサ情報取得部111が取得した画像からパレット104内の領域状態として複数ある対象物体のうち少なくとも1つの把持候補物体の位置姿勢を計測する。さらに、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した撮影画像から2次元画像特徴を抽出する。例えばSobelフィルタやラプラシアンフィルタなどの微分フィルタを利用したり、SIFT特徴を演算で求めたりすることで2次元画像特徴を抽出することができる。
ステップS402において領域状態計測処理部113で把持候補物体の位置姿勢を求めると、領域状態計測処理部113は、この求めた位置姿勢をロボット作業指示部121に対して出力する。また、領域状態計測処理部113は、返還領域算出部117に特徴点やエッジなどの2次元画像特徴を出力する。
ステップS409では、把持対象物体をパレット104の領域内に戻すため、判断部116は、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。この情報を受けた返還領域算出部117は、把持対象物体をパレット104のどの領域に返還するのかを求める。本実施形態では領域状態として特徴点やエッジなどの2次元画像特徴を用いる。
領域状態計測処理部113で計測したパレット104内の2次元画像特徴(エッジや特徴点)を利用して返還領域を算出する方法について説明する。本実施形態においては、パレット104内の2次元画像特徴が極端に多い領域あるいは極端に少ない領域を返還領域として算出する。2次元画像特徴が極端に多い領域は、例えば対象物体同士が絡まっていたり、対象物体同士で光の乱反射が起きている領域である。また、2次元画像特徴が極端に少ない領域は、プロジェクタの光が直接反射してスペキュラが発生したり他の物体の影になっている領域である。これらの領域は、2次元画像特徴の量が適切でないため、山積みの状態が大きく変わらない限り対象物体の位置姿勢を計測しにくい領域である。図9(a)は図7と同じくセンサ部101が撮影した撮影画像である。図9(a)では撮影画像(パレット104内)を例えば100画素×100画素のグリッドで区切り、グリッド内で検出された2次元画像特徴の量を計数する。そして、2次元特徴の量が所定の割合(例えば5%〜95%)のグリッド以外のグリッドを対象物体の位置姿勢を求めにくい返還領域とする。図9(b)に返還領域を斜線で示す。
ようするに、返還領域算出部117は、センサ部101による撮影画像において、規定範囲外の量の2次元画像特徴を有する領域に相当する「パレット104が載置されている面上の領域」を返還領域として特定する。
ステップS410では、返還指示部118は、ロボット作業指示部121に対して把持対象物体103’の返還を指示する。把持対象物体103’を返還する位置は、ステップS409で特定した領域内に把持対象物体103’が収まるように決定する。例えば、ステップS409で算出した領域内で、返還指示があった時点でのロボット100のエンドエフェクタに一番近い位置に戻す。把持対象物体103’を返還する姿勢については把持状態を計測できているかどうかで決め方が異なる。把持状態を計測できている場合は、予め把持あるいは組み付けが成功しやすい姿勢を定めておき、その姿勢になるようにロボット100を制御して返還する。把持状態を計測できていない場合は、把持対象物体103’をそのままパレット104の山積みに返還してもよいし、同じような失敗を避けるためにロボット100を制御することで姿勢を大きく変更して返還してもよい。
このように、本実施形態では、ロボットによる把持に失敗した場合、山積みの状態が大きく変わらない限り対象物体の位置姿勢を求めにくい領域に対象物体を返還する。このようにすると、対象物体の位置姿勢を求めやすい領域に影響がないため効率的な作業を行うことができる。
[第3の実施形態]
本実施形態では、パレット内の領域状態として距離計測状態などの3次元情報を用いる。本実施形態に係るシステムの構成は第1の実施形態と同様であるが、領域状態計測処理部113、返還領域算出部117、返還指示部118が行う処理内容が第1の実施形態と異なる。
また、本実施形態に係るシステムの動作についても、基本的には図4のフローチャートに従うが、ステップS402、ステップS409、ステップS410における処理内容が第1の実施形態と異なる。
然るに以下では、第1の実施形態との差分のみについて説明し、以下で特に説明しない限りは、第1の実施形態と同様であるとする。
領域状態計測処理部113は、センサ情報取得部111から出力された撮影画像とモデル情報保持部112が保持しているモデル情報とを元にパレット104内の領域状態を計測する。本実施形態では、パレット104内の領域状態として、ロボット100が把持可能な対象物体の位置姿勢に加えて、距離計測状態などの3次元情報を計測する。
領域状態計測処理部113は、第1の実施形態と同様に、計測した対象物体の位置姿勢をロボット作業指示部121に対して出力して、ロボット100が対象物体を把持するよう指示を行う。また、領域状態計測処理部113は、計測した領域状態に含まれている距離計測状態などの3次元情報を返還領域算出部117に出力する。
返還領域算出部117は、判断部116からロボット100による把持が失敗したことを示す情報を受け取り、さらに領域状態計測処理部113から出力された領域状態データ、把持状態計測処理部115から出力された把持状態データを受け取る。これらの情報を受け取った返還領域算出部117は、ロボット100が対象物体を返還すべき返還領域を算出する。返還領域算出部117は、領域状態データ、把持状態データ、算出した返還領域を示すデータを返還指示部118に対して出力する。
返還指示部118は、返還領域算出部117から領域状態データ、把持状態データ、返還領域を示すデータを受け取る。これらの情報を受け取った返還指示部118は、ロボット100が対象物体を返還すべき位置姿勢を求め、第1の実施形態と同様、ロボット作業指示部121に対してロボット100が対象物体をパレット104内に返還するよう指示を行う。
ステップS402では、領域状態計測処理部113にてセンサ情報取得部111が取得した画像からパレット104内の領域状態として複数ある対象物体のうち少なくとも1つの把持候補物体の位置姿勢を計測する。さらに、センサ情報取得部111から出力された撮影画像(パターン画像)を元に距離計測状態などの3次元情報を抽出する。距離計測状態とは、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離画像がセンサ部101のカメラの各画素に対応して適正に計測できているかを示す状態のことを意味する。求めた距離画像の中で対応を求めることができずに距離値が不定(Unknown)状態の画素や、想定される距離範囲外(例えばパレット底面に対してカメラと反対側にある、あるいはパレットの底面からカメラ側に20cm以上高さがあると計測される場合)の画素は距離計測状態が悪い画素とする。それ以外の画素は距離計測状態が良好の画素とする。パターン画像から距離画像を求めるには例えば空間符号化法、光切断法などの公知技術を用いて求める。
ステップS402において領域状態計測処理部113で把持候補物体の位置姿勢を求めると、領域状態計測処理部113は、この求めた位置姿勢をロボット作業指示部121に対して出力する。また、領域状態計測処理部113は、返還領域算出部117に距離計測状態などの3次元情報を出力する。
ステップS409では、把持対象物体をパレット104の領域内に戻すため、判断部116は、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。この情報を受け付けた返還領域算出部117は、把持対象物体をパレット104のどの領域に返還するのかを求める。本実施形態においては領域状態として距離計測状態などの3次元情報を用いる。
領域状態計測処理部113で計測したパレット104内の距離計測状態を利用して返還領域を算出する方法について説明する。本実施形態においては、パレット104内の距離計測状態から距離値が不定(Unknown)状態の画素や、想定される距離範囲外(例えばパレット底面に対してカメラと反対側にある、あるいはパレットの底面からカメラ側に20cm以上高さがあると計測される場合)の画素が多い領域を返還領域として算出する。これらの領域はプロジェクタのパターン光とカメラで撮影した画像との対応付けが出来ていない、言い換えると距離計測状態が悪く対象物体の位置姿勢を求めにくい領域である。図9(a)と同様に距離画像のパレット104内を例えば100画素×100画素のグリッドで区切り、グリッド内で検出された距離計測状態が悪い画素を数え、所定の割合(例えば50%)以上あるグリッドを対象物体の位置姿勢を求めにくい返還領域とする。
ようするに、返還領域算出部117は、センサ部101による距離画像において、距離計測状態が不良であることを示す条件を満たす領域に相当する「パレット104が載置されている面上の領域」を返還領域として特定する。
ステップS410では、返還指示部118は、ロボット作業指示部121に対して把持対象物体103’の返還を指示する。把持対象物体103’を返還する位置は、ステップS409で算出した領域内に把持対象物体103’が収まるように決定する。例えば、ステップS409で特定した領域内で、返還指示があった時点でのロボット100のエンドエフェクタに一番近い位置に戻す。把持対象物体103’を返還する姿勢については、把持状態を計測できているかどうかで決め方が異なる。把持状態を計測できている場合は、予め把持あるいは組み付けが成功しやすい姿勢を定めておき、その姿勢になるようにロボット100を制御して返還する。把持状態を計測できていない場合は、把持対象物体103’をそのままパレット104の山積みに返還してもよいし、同じような失敗を避けるためにロボット100を制御することで姿勢を大きく変更して返還してもよい。
このように、本実施形態では、ロボットによる把持に失敗した場合、距離計測状態が悪く対象物体の位置姿勢を求めにくい領域に対象物体を返還する。このようにすると対象物体の位置姿勢を求めやすい領域に影響がないため効率的な作業を行うことができる。
[第4の実施形態]
本実施形態では、パレット内の領域状態としてパレット内の距離分布を用いる。本実施形態に係るシステムの構成は第1の実施形態と同様であるが、領域状態計測処理部113、返還領域算出部117、返還指示部118が行う処理内容が第1の実施形態と異なる。
また、本実施形態に係るシステムの動作についても、基本的には図4のフローチャートに従うが、ステップS402、ステップS409、ステップS410における処理内容が第1の実施形態と異なる。
然るに以下では、第1の実施形態との差分のみについて説明し、以下で特に説明しない限りは、第1の実施形態と同様であるとする。
領域状態計測処理部113は、センサ情報取得部111から出力された撮影画像とモデル情報保持部112が保持しているモデル情報とを元にパレット104内の領域状態を計測する。本実施形態では、パレット104内の領域状態として、ロボット100が把持可能な対象物体の位置姿勢に加えて、パレット内の距離分布を計測する。
領域状態計測処理部113は、計測した対象物体の位置姿勢情報をロボット作業指示部121に対して出力して、ロボット100が対象物体を把持するよう指示を行う。また、領域状態計測処理部113は、計測した領域状態に含まれているパレット内の距離分布を返還領域算出部117に出力する。
返還領域算出部117は、判断部116からロボット100による把持が失敗したことを示す情報を受け取り、さらに領域状態計測処理部113から出力された領域状態データ、把持状態計測処理部115から出力された把持状態データを受け取る。これらの情報を受け取った返還領域算出部117は、ロボット100が把持対象物体を返還すべき返還領域を算出する。返還領域算出部117は、領域状態データ、把持状態データ、算出した返還領域を示すデータを返還指示部118に対して出力する。
返還指示部118は、返還領域算出部117から領域状態データ、把持状態データ、返還領域を示すデータを受け取る。これらの情報を受け取った返還指示部118は、ロボット100が把持対象物体を返還すべき位置姿勢を求め、ロボット作業指示部121に対してロボット100が把持対象物体をパレット104内に返還するよう指示を行う。
ステップS402では、領域状態計測処理部113にてセンサ情報取得部111が取得した画像からパレット104内の領域状態として複数ある対象物体のうち少なくとも1つの把持候補物体の位置姿勢を計測する。さらに、センサ情報取得部111から出力されたパターン画像を元にパレット内の距離分布を抽出する。距離分布とは、パレット104内の対象物体をセンサ部101から見たときの表面の距離分布のことを意味する。センサ情報取得部111から出力された2次元のパターン画像から求めた距離画像を距離分布とする。パターン画像から距離画像を求めるには、空間符号化法、光切断法などの公知技術を用いればよい。さらに、求めた距離画像の中で距離値が不定(Unknown)状態の画素や、想定される距離範囲外(例えばパレット底面に対してカメラと反対側にある、あるいはパレットの底面からカメラ側に20cm以上高さがあると計測される場合)の画素は、「距離計測状態が悪い画素」とする。そしてこのような「距離計測状態が悪い画素」については、周囲の距離計測状態が良い画素の距離値を使って補間してもよい。こうすることで連続的な距離分布を求めることができる。
ステップS402において領域状態計測処理部113で把持候補物体の位置姿勢を求めると、ロボット作業指示部121に把持候補物体の位置姿勢を出力する。また、返還領域算出部117に距離分布を出力する。
ステップS409では、把持対象物体をパレット104の領域内に戻すため、判断部116は、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。この情報を受けた返還領域算出部117は、把持対象物体をパレット104のどの領域に返還するのかを求める。本実施形態においては領域状態としてパレット内の距離分布を用いる。
領域状態計測処理部113で計測したパレット104内の距離分布を利用して返還領域を算出する方法について説明する。本実施形態においては、パレット104内の距離分布のヒストグラムを求め、分散が小さく平坦に近い領域を返還領域として算出する。これらの領域は山が入り組んでいないため、返還した把持対象物体が次のサイクルで他の対象物体に引っかかって取出せない状況を避けることができる領域である。また、把持対象物体を返還したときに思わぬ場所に転がったりしない領域である。図9(a)と同様に距離画像のパレット104内を例えば100画素×100画素のグリッドで区切る。そして、グリッド内で検出された距離分布のヒストグラムから分散を計算し、分散が所定値より小さい(例えばσ範囲が±1cm以内)グリッドを把持対象物体を戻すべき返還領域とする。
ようするに、返還領域算出部117は、センサ部101による距離画像における各領域のうち、領域内の距離の分散が規定値よりも小さい領域に相当する「パレット104が載置されている面上の領域」を返還領域として特定する。
ステップS410では、返還指示部118は、ロボット作業指示部121に対して把持対象物体103’の返還を指示する。把持対象物体103’を返還する位置は、ステップS409で算出した領域内に把持対象物体103’が収まるように決定する。例えば、ステップS409で特定した領域内で、返還指示があった時点でのロボット100のエンドエフェクタに一番近い位置に戻す。把持対象物体103’を返還する姿勢については把持状態を計測できているかどうかで決め方が異なる。把持状態を計測できている場合は、予め把持あるいは組み付けが成功しやすい姿勢を定めておき、その姿勢になるようにロボット100を制御して返還する。把持状態を計測できていない場合は、把持対象物体103’をそのままパレット104の山積みに返還してもよいし、同じような失敗を避けるためにロボット100を制御することで姿勢を大きく変更して返還してもよい。
このように、本実施形態では、ロボットによる把持に失敗した場合、距離分布のヒストグラムの分散が小さい領域に把持対象物体を返還する。このようにすると次のサイクルで他の対象物体にひっかかったり、返還した時に思わぬ場所に転がったりしないため効率的な作業を行うことができる。
[第5の実施形態]
本実施形態では、パレット内の領域状態としてパレットの枠の位置情報を用いる。本実施形態に係るシステムの構成は第1の実施形態と同様であるが、領域状態計測処理部113、返還領域算出部117、返還指示部118が行う処理内容が第1の実施形態と異なる。
また、本実施形態に係るシステムの動作についても、基本的には図4のフローチャートに従うが、ステップS402、ステップS409、ステップS410における処理内容が第1の実施形態と異なる。
然るに以下では、第1の実施形態との差分のみについて説明し、以下で特に説明しない限りは、第1の実施形態と同様であるとする。
領域状態計測処理部113は、センサ情報取得部111から出力された撮影画像とモデル情報保持部112が保持しているモデル情報とを元にパレット104内の領域状態を計測する。本実施形態では、パレット104内の領域状態としてロボット100が把持可能な対象物体の位置姿勢に加えて、パレットの枠の位置情報を計測する。
領域状態計測処理部113は、第1の実施形態と同様に、計測した対象物体の位置姿勢情報をロボット作業指示部121に対して出力して、ロボット100が対象物体を把持するよう指示を行う。また、領域状態計測処理部113は、計測した領域状態に含まれているパレットの枠の位置情報を返還領域算出部117に出力する。
返還領域算出部117は、判断部116からロボット100による把持が失敗したことを示す情報を受け取り、さらに領域状態計測処理部113から出力された領域状態データ、把持状態計測処理部115から出力された把持状態データを受け取る。これらの情報を受け取った返還領域算出部117は、ロボット100が把持対象物体を返還すべき返還領域を算出する。返還領域算出部117は、領域状態データ、把持状態データ、算出した返還領域を示すデータを返還指示部118に対して出力する。
返還指示部118は、返還領域算出部117から領域状態データ、把持状態データ、返還領域を示すデータを受け取る。これらの情報を受け取った返還指示部118は、ロボット100が把持対象物体を返還すべき位置姿勢を求め、ロボット作業指示部121に対してロボット100が把持対象物体をパレット104内に返還するよう指示を行う。
ステップS402では、領域状態計測処理部113にてセンサ情報取得部111が取得した画像から領域状態として複数ある対象物体のうち少なくとも1つの把持候補物体の位置姿勢を計測する。さらに、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した撮影画像からパレットの枠の位置情報を計測する。パレットの枠の位置は、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した2次元画像から、パレット形状をテンプレートとしてテンプレートマッチングで求めたり、パレットの上辺である4本の直線を検出して求めることができる。
ステップS402において領域状態計測処理部113で把持候補物体の位置姿勢を求めると、領域状態計測処理部113は、この求めた位置姿勢をロボット作業指示部121に対して出力する。また、領域状態計測処理部113は、返還領域算出部117にパレットの枠の位置情報を出力する。
ステップS409では、把持対象物体をパレット104の領域内に戻すため、判断部116は、返還領域算出部117に対して把持が失敗したことを示す情報を出力する。この情報を受けた返還領域算出部117は、把持対象物体をパレット104のどの領域に返還するのかを求める。本実施形態においては領域状態としてパレットの枠の位置情報を用いる。
領域状態計測処理部113で計測したパレット104の枠の位置情報を利用して返還領域を算出する方法について説明する。本実施形態では、パレット104の端である枠付近に対象物体を置いても、以降のサイクルでロボット100が把持対象物体を把持する際にパレットの枠に干渉する可能性が高まるため、パレット104の枠から離れたパレット104内の領域を返還領域とする。図10のように枠の位置から例えば100画素離れた領域を返還領域とする。
ようするに、返還領域算出部117は、センサ部101による撮影画像中の対象物体の集合を収容している容器の枠から規定距離だけ内側の領域に相当する「パレット104が載置されている面上の領域」を返還領域として特定する。
ステップS410では、返還指示部118は、ロボット作業指示部121に対して把持対象物体103’の返還を指示する。把持対象物体103’を返還する位置は、ステップS409で算出した領域内に把持対象物体103’が収まるように決定する。例えば、ステップS409で特定した領域内で、返還指示があった時点でのロボット100のエンドエフェクタに一番近い位置に戻す。把持対象物体103’を返還する姿勢については把持状態を計測できているかどうかで決め方が異なる。把持状態を計測できている場合は、予め把持あるいは組み付けが成功しやすい姿勢を定めておき、その姿勢になるようにロボット100を制御して返還する。把持状態を計測できていない場合は、把持対象物体103’をそのままパレット104の山積みに返還してもよいし、同じような失敗を避けるためにロボット100を制御することで姿勢を大きく変更して返還してもよい。
このように、本実施形態ではロボットによる把持に失敗した場合、ロボットが対象物体を把持するときに枠に干渉しにくい領域に対象物体を返還する。このようにするとロボットにより対象物体を把持するときにパレットの枠にロボットが干渉しないため効率的な作業を行うことができる。
[第6の実施形態]
本実施形態では、ロボットに装着され対象物体に関する3次元情報(距離画像や3次元点群データを求めるための2次元画像)を取得するセンサ(プロジェクタとカメラ)を用いて対象物体が山積みされたパレット内の領域状態を計測する。組み付け対象物体の近くに配置されロボットが把持した対象物体と組み付け対象物体の3次元情報(距離画像や3次元点群データを求める為の2次元画像)を取得するセンサ(プロジェクタとカメラ)を用いてロボットによる対象物体の組み付け状態計測を行う。ロボットでの組み付けに失敗したと判断した場合は、計測したパレット内の領域状態に基づいて対象物体をパレット内に返還する領域を算出する。そして、ロボットに対して把持している対象物体を返還領域に返還する指示を行う。ロボットは指示に従って対象物体を返還する。以下では、第1の実施形態との差分のみについて説明し、以下で特に説明しない限りは、第1の実施形態と同様であるとする。
先ず、本実施形態に係るシステムの構成例について、図11を用いて説明する。図11において、図1に示した機能部と同じ機能部には同じ参照番号を付しており、これに係る説明は省略する。図11に示す如く、本実施形態では、センサ部105を上記のセンサ部102のようにロボット100のハンド部近傍に装着し、センサ部106を組み付け対象物体107の近くに配置する。組み付け対象物体107は筒状の物体であり、対象物体103を中に嵌め込み組み付けることができる。
画像処理部110内の組み付け状態計測処理部119は、ロボット100が対象物体を組み付け対象物体107に組み付ける際の状態を計測する。判断部129は、組み付け状態計測処理部119で計測した組み付け状態が成功しているか否かの判断を行い、成功していればロボット作業指示部121にロボット100による組み付け作業を指示する。失敗していれば返還領域算出部117に組み付け失敗していることを示す情報を出力する。
次に、本実施形態に係るシステムの動作について、図12のフローチャートを用いて説明する。
ステップS1201では、ハンド部近傍に装着されているセンサ部105は、対象物体103を撮影し、撮影した画像をセンサ情報取得部111に対して送出するので、センサ情報取得部111は、この撮影画像を領域状態計測処理部113に対して送出する。
ステップS1202では、領域状態計測処理部113は、センサ情報取得部111から受けた撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、把持候補物体の位置姿勢を含む領域状態を計測する。把持候補物体の位置姿勢を計測する処理には、第1に実施形態においてステップS402で説明した第2の方法を利用することができる。また、領域状態は第1乃至5の実施形態で説明したものと同等である。
ステップS1203では、ロボット作業指示部121は、領域状態計測処理部113から受けた位置姿勢にロボット100のハンド部を移動させてから把持対象物体を把持させて組み付け対象物体107に組み付けさせるための指示信号を生成する。そしてロボット作業指示部121は、この生成した指示信号をロボット制御部122に送出する。
ステップS1204では、ロボット制御部122は、ロボット作業指示部121からの指示信号に従ってロボット100を制御し、把持対象物体を把持して組み付け対象物体107に対して組み付けさせる。
ステップS1205では、センサ部106は、ハンド部が把持している把持対象物体と、組み付け対象物体107と、を撮影し、撮影した画像をセンサ情報取得部114に対して送出する。
ステップS1206では、組み付け状態計測処理部119は、センサ情報取得部114から取得した撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、ロボット100による組み付け状態を計測する。組み付け状態は第1の実施形態のステップS406で説明した方法を利用して、ロボット100による把持対象物体の位置姿勢と組み付け対象物体107の位置姿勢とを求めることで計測する。
ステップS1207では、判断部129が、組み付けが成功したか否かを判断する。この判断は、ステップS1206で計測した把持対象物体の位置姿勢と組み付け対象物体107の位置姿勢との相対位置姿勢と、予めティーチング作業などにより教示した対象物体と組み付け対象物体107との相対位置姿勢と、を比較することで行う。
例えば、それぞれの相対位置姿勢を比較して、相対位置が200μm以内かつ相対角度(x、y、z成分それぞれ)が0.5度以内であれば組み付けが成功したと判断する。これらの条件を満たさない、もしくは組み付け状態計測処理部119が対象物体もしくは組み付け対象物体107の位置姿勢を検出できなかった場合は組み付けが失敗したと判断する。成功したと判断した場合は処理をステップS1211に進める。失敗したと判断した場合は処理をステップS1208に進める。
ステップS1208、S1209、S1210、S1211はそれぞれ第1の実施形態のステップS409、S410、S411、S412と同様であるため説明を省略する。ただしステップS1210はステップS1209での指示にのみ従う(第1の実施形態のように把持が成功した場合の作業は本実施形態では行わない)。
このように、本実施形態では、把持候補物体の位置姿勢をロボットに装着したセンサを利用して計測し、組み付け状態を組み付け対象物体の近くに固定的に配置したセンサを利用して計測する。ロボットによる組み付けに失敗したと判断した場合は、対象物体を元あった状態に基づき良い状態で返還する。このようにすることで把持対象の候補を減らさずに効率的な作業を行うことができる。
第7の実施形態]
第1乃至6の実施形態では、返還領域を境界線に囲まれた領域とした。これは返還領域を撮影画像の画素ごとに返還領域=1、非返還領域=0と2値で表現していることと同じである。変形例として、撮影画像の画素ごとに0から1までの連続的な値を持たせて表現してもよい。例えば2次元画像特徴や3次元情報を信頼度付きで計測し、信頼度を用いて返還領域を表現してもよい。返還指示を行う際は最も信頼度の低い位置にロボットにより把持している対象物体を返還してもよい。
また、第6の実施形態ではセンサ部106を利用して計測した組み付け状態に基づいて対象物体を返還する技術について説明した。変形例として、ロボット100の制御パラメータを利用して組み付け状態を計測してもよい。ロボット100の制御パラメータに基づき、ロボット100が予め定めた組み付け動作とは異なる動作をしていると判断した場合は、組み付けが失敗したと判断して対象物体を返還してもよい。
また、対象物体を返還する方法にはバリエーションがあり、第1乃至6の実施形態で説明したそれぞれのうちどれを選択するかは装置を使用するユーザが対象物体の大きさ、形状の複雑さ、素材などから決定すればよい。把持対象物体を返還する方法は、キーボードやマウスなどのユーザインターフェースを操作してユーザが選択しても良いし、状況に応じて画像処理部110が切り替えても良い。
また、センサ部101とセンサ部102とを同じセンサ部で構成してもよい。具体的には、ロボットに装着したセンサ部102にセンサ部101の役割も持たせることで実現する。まずロボット100によりセンサ部102をパレット104の上方に配置してパレット内の領域状態を計測する。ロボット100による対象物体の把持を行ったらセンサ部102で把持している対象物体の把持状態を計測する。把持に失敗していることを計測したら、センサ部102を用いて計測した領域状態あるいは把持状態に基づいて対象物体を返還する領域を算出し、返還を指示する。
また、センサ部105とセンサ部106とを同じセンサ部で構成してもよい。具体的にはロボットに装着したセンサ部105にセンサ部106の役割も持たせることで実現する。まずロボット100によりセンサ部105をパレット104の上方に配置してパレット内の領域状態を計測する。ロボット100による対象物体の組み付けを行ったらセンサ部105で把持している対象物体の位置姿勢と組み付け対象物体の位置姿勢とを計測して組み付け状態を求める。組み付けに失敗していることを計測したら、センサ部105を用いて計測した領域状態に基づいて対象物体を返還する領域を算出し、返還を指示する。
また、センサ部101、102、105、106は対象物体に関する3次元情報(距離画像や3次元点群データ)を取得するセンサ部(距離画像センサや3次元点群計測センサ)であってもよい。距離画像を取得するセンサ部としては、プロジェクタとカメラからなる距離画像センサや、各画素までの奥行きを光伝播時間によって計測するTOF型の距離画像センサなどを用いることができる。また、2次元配列に並ぶ画像状の距離データになっていなくとも、まばらな点群として計測されている3次元点群データであってもよい。
また、センサ部を1次元ラインセンサで構成して、ベルトコンベアなどに載って動いている対象物体を走査することで対象物体に関する情報を取得してもよい。
また、上記ではモデル情報保持部112に保持されたモデルを利用した位置姿勢計測について説明を行った。しかし、センサ部101およびセンサ部102(あるいはセンサ部105およびセンサ部106)をそれぞれステレオカメラで構成してステレオ計測により対象物体の位置姿勢計測を行ってもよい。
また、上記の説明ではセンサ部102の位置姿勢を変更するためにロボットを用いたが、ロボットを用いることに限らない。例えば、直動ステージと回転ステージを組み合わせた機構部にセンサ部102を搭載して、ステージの制御によって位置姿勢を変更しても良い。対象物体を操作するロボットとは別に、位置姿勢変更構成を設けても良い。
また、ロボット作業指示部121は、領域状態計測処理部113から複数の把持候補物体の位置姿勢を受け取った場合にそれらのうち1つの把持候補物体の位置姿勢を選択するが、領域状態計測処理部113で選択してもよい。
また、図1,11に示した画像処理部110は、一般のPC(パーソナルコンピュータ)を用いて実現することができる。例えば、モデル情報保持部112をハードディスク装置で構成し、且つ画像処理部110においてモデル情報保持部112以外の各部の機能をPCのCPUに実行させるためのコンピュータプログラムやデータをこのハードディスク装置に格納しておく。CPUは、ハードディスク装置に格納されているコンピュータプログラムやデータを適宜RAM等のメモリにロードし、該コンピュータプログラムやデータを用いて処理を実行できるので、結果としてPCは、画像処理部110の機能を実現することができる。
<各実施形態の効果>
第1の実施形態では、把持候補物体の位置姿勢を固定的に配置したセンサを利用して計測し、把持状態をロボットに装着したセンサを利用して計測する。ロボットによる把持に失敗したと判断した場合は、対象物体を元あった状態あるいは把持状態に基づき良い状態で返還する。このようにすることで把持対象の候補を減らさずに効率的な作業を行うことができる。
第2の実施形態では、ロボットによる把持に失敗した場合、山積みの状態が大きく変わらない限り対象物体の位置姿勢を求めにくい領域に対象物体を返還する。このようにすると、対象物体の位置姿勢を求めやすい領域に影響がないため効率的な作業を行うことができる。
第3の実施形態では、ロボットによる把持に失敗した場合、距離計測状態が悪く対象物体の位置姿勢を求めにくい領域に対象物体を返還する。このようにすると、対象物体の位置姿勢を求めやすい領域に影響がないため効率的な作業を行うことができる。
第4の実施形態では、ロボットによる把持に失敗した場合、距離分布のヒストグラムの分散が小さい領域に対象物を返還する。このようにすると、次のサイクルで他の対象物体にひっかかったり、返還した時に思わぬ場所に転がったりしないため効率的な作業を行うことができる。
第5の実施形態では、ロボットによる把持に失敗した場合、ロボットが対象物体を把持するときに枠に干渉しにくい領域に対象物体を返還する。このようにすると、ロボットにより対象物体を把持するときにパレットの枠にロボットが干渉しないため効率的な作業を行うことができる。
第6の実施形態では、把持候補物体の位置姿勢をロボットに装着したセンサを利用して計測し、組み付け状態を組み付け対象物体の近くに固定的に配置したセンサを利用して計測する。ロボットによる組み付けに失敗したと判断した場合は、対象物体を元あった状態に基づき良い状態で返還する。このようにすることで把持対象の候補を減らさずに効率的な作業を行うことができる。
<定義>
領域状態は、対象物体が存在する領域内の状態を示すものであればどのようなものであってもよい。第1〜5の実施形態ではそれぞれ、領域状態の一例として、把持候補物体の位置姿勢、特徴点やエッジなどの2次元画像特徴、距離計測状態などの3次元情報、パレット内の距離分布、パレットの枠の位置情報、を説明した。
また、上記のセンサ部101は、パレット内の領域状態の計測を行うためのものであればどのようなものであってもよい。例としては、第1の実施形態の固定的に配置されたセンサであってもよいし、第6の実施形態のロボットに装着したセンサであってもよい。
また、上記のセンサ部102は、ロボットによる把持状態の計測もしくは組み付け状態の計測を行うためのものであればどのようなものであってもよい。例としては、第1の実施形態のロボットに装着したセンサであってもよいし、第6の実施形態の固定的に配置されたセンサであってもよい。また、第7の実施形態に示したように、ロボットの制御パラメータを利用して組み付け状態を計測してもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (17)

  1. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部による把持候補となる複数の把持候補対象物体を決定する決定手段と、
    前記ロボットを制御して、前記複数の把持候補対象物体のうちの1つを、把持対象物体として前記把持部に把持させる制御手段と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の把持候補対象物体が存在する領域以外の領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
    前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理装置。
  2. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御手段と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む2次元画像の中で規定範囲外の量の画像特徴を有する領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
    前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理装置。
  3. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御手段と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む距離画像の中で距離計測状態が不良であることを示す条件を満たす領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
    前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理装置。
  4. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御手段と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む距離画像の中で距離の分散が規定値よりも小さい領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
    前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理装置。
  5. 前記画像は、位置が固定された第1のセンサにより取得されることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 更に、
    前記把持部が前記把持対象物体を所定の状態で把持しているかを判断する判断手段を備え、
    前記判断手段は、前記ロボットに備え付けられた第2のセンサにより取得した情報に基づいて前記把持部が前記把持対象物体を所定の状態で把持しているかを判断することを特徴とする請求項5に記載の情報処理装置。
  7. 更に、
    前記第1のセンサと前記第2のセンサとを備えることを特徴とする請求項6に記載の情報処理装置。
  8. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部による把持候補となる複数の把持候補対象物体を決定する決定手段と、
    前記ロボットを制御して、前記複数の把持候補対象物体のうちの1つを、把持対象物体として前記把持部に把持させ、他の物体に組みつける制御手段と、
    前記把持対象物体と前記他の物体との組みつけの状態が所定の状態でない場合に、前記複数の把持候補対象物体が存在する領域以外の領域の中から、前記把持対象物体を戻す領域を決定する領域決定手段とを備え、
    前記制御手段は、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理装置。
  9. 前記画像は、前記ロボットに備え付けられた第3のセンサにより取得されることを特徴とする請求項8に記載の情報処理装置。
  10. 更に、
    前記組みつけの状態が所定の状態であるか否かを判断する判断手段を備え、
    前記判断手段は、位置が固定された第4のセンサにより取得した情報に基づいて前記組みつけの状態が所定の状態であるか否かを判断することを特徴とする請求項9に記載の情報処理装置。
  11. 更に、
    前記第3のセンサと前記第4のセンサとを備えることを特徴とする請求項10に記載の情報処理装置。
  12. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部による把持候補となる複数の把持候補対象物体を決定する決定工程と、
    前記ロボットを制御して、前記複数の把持候補対象物体のうちの1つを、把持対象物体として前記把持部に把持させる制御工程と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の把持候補対象物体が存在する領域以外の領域の中から、前記把持対象物体を戻す領域を決定する領域決定工程とを備え、
    前記制御工程では、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理方法。
  13. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御工程と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む2次元画像の中で規定範囲外の量の画像特徴を有する領域の中から、前記把持対象物体を戻す領域を決定する領域決定工程とを備え、
    前記制御工程では、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理方法。
  14. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御工程と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む距離画像の中で距離計測状態が不良であることを示す条件を満たす領域の中から、前記把持対象物体を戻す領域を決定する領域決定工程とを備え、
    前記制御工程では、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理方法。
  15. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部に把持対象物体を把持させる制御工程と、
    前記把持部が前記把持対象物体を所定の状態で把持していない場合には、前記複数の対象物体を含む距離画像の中で距離の分散が規定値よりも小さい領域の中から、前記把持対象物体を戻す領域を決定する領域決定工程とを備え、
    前記制御工程では、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理方法。
  16. 複数の対象物体を含む画像に基づいて、ロボットが有する把持部による把持候補となる複数の把持候補対象物体を決定する決定工程と、
    前記ロボットを制御して、前記複数の把持候補対象物体のうちの1つを、把持対象物体として前記把持部に把持させ、他の物体に組みつける制御工程と、
    前記把持対象物体と前記他の物体との組みつけの状態が所定の状態でない場合に、前記複数の把持候補対象物体が存在する領域以外の領域の中から、前記把持対象物体を戻す領域を決定する領域決定工程とを備え、
    前記制御工程では、前記ロボットを制御して、前記把持部が把持する把持対象物体を前記決定された領域内に戻させることを特徴とする情報処理方法。
  17. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2012053685A 2012-03-09 2012-03-09 情報処理装置、情報処理方法 Active JP5975685B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012053685A JP5975685B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法
US13/784,684 US9102053B2 (en) 2012-03-09 2013-03-04 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053685A JP5975685B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2013184278A JP2013184278A (ja) 2013-09-19
JP2013184278A5 JP2013184278A5 (ja) 2015-03-26
JP5975685B2 true JP5975685B2 (ja) 2016-08-23

Family

ID=49114799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053685A Active JP5975685B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9102053B2 (ja)
JP (1) JP5975685B2 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5664629B2 (ja) * 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
US9233470B1 (en) * 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US9817922B2 (en) 2014-03-01 2017-11-14 Anguleris Technologies, Llc Method and system for creating 3D models from 2D data for building information modeling (BIM)
US9782936B2 (en) * 2014-03-01 2017-10-10 Anguleris Technologies, Llc Method and system for creating composite 3D models for building information modeling (BIM)
JP6338421B2 (ja) 2014-03-31 2018-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム
JP6363863B2 (ja) * 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6537332B2 (ja) * 2014-04-28 2019-07-03 キヤノン株式会社 画像処理方法および撮影装置
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US9981380B2 (en) * 2014-07-01 2018-05-29 Seiko Epson Corporation Teaching apparatus and robot system
JP6486114B2 (ja) 2015-01-16 2019-03-20 株式会社東芝 荷役装置
JP6335806B2 (ja) * 2015-01-22 2018-05-30 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
US9486921B1 (en) 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
JP6122065B2 (ja) 2015-05-29 2017-04-26 ファナック株式会社 搬送物を吊り下げて搬送するロボットシステム
JP2017020873A (ja) * 2015-07-09 2017-01-26 キヤノン株式会社 被計測物の形状を計測する計測装置
JP2017039189A (ja) * 2015-08-20 2017-02-23 株式会社東芝 配置検出装置およびピッキング装置
ES2952517T3 (es) 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
JP6570395B2 (ja) * 2015-09-28 2019-09-04 株式会社富士通アドバンストエンジニアリング ピッキング装置及び復旧プログラム
US10867282B2 (en) 2015-11-06 2020-12-15 Anguleris Technologies, Llc Method and system for GPS enabled model and site interaction and collaboration for BIM and other design platforms
US10949805B2 (en) 2015-11-06 2021-03-16 Anguleris Technologies, Llc Method and system for native object collaboration, revision and analytics for BIM and other design platforms
DE102015014485A1 (de) * 2015-11-10 2017-05-24 Kuka Roboter Gmbh Kalibrieren eines Systems mit einem Fördermittel und wenigstens einem Roboter
CA3192023A1 (en) 2015-11-13 2017-05-18 Berkshire Grey Operating Company, Inc. Sortation systems and methods for providing sortation of a variety of objects
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
JP6758903B2 (ja) * 2016-05-06 2020-09-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
JP6838833B2 (ja) * 2016-09-05 2021-03-03 国立大学法人信州大学 把持装置、把持方法、及びプログラム
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6438512B2 (ja) 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP6325174B1 (ja) 2017-04-04 2018-05-16 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
CN110621451B (zh) 2017-04-04 2021-07-06 牧今科技 信息处理装置、拾取系统、物流系统、程序以及信息处理方法
DE112017007398B4 (de) * 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
JP6258556B1 (ja) 2017-04-04 2018-01-10 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法
US10761542B1 (en) 2017-07-11 2020-09-01 Waymo Llc Methods and systems for keeping remote assistance operators alert
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US20190126490A1 (en) * 2017-10-26 2019-05-02 Ca, Inc. Command and control interface for collaborative robotics
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
US10436590B2 (en) * 2017-11-10 2019-10-08 Ankobot (Shanghai) Smart Technologies Co., Ltd. Localization system and method, and robot using the same
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP7097799B2 (ja) * 2018-11-21 2022-07-08 Thk株式会社 画像情報処理装置、把持システム、および画像情報処理方法
JP2020149162A (ja) * 2019-03-11 2020-09-17 富士通株式会社 情報処理装置、画像処理プログラム及び画像処理方法
JP7424800B2 (ja) 2019-11-06 2024-01-30 ファナック株式会社 制御装置、その制御方法、及び制御システム
US20210323158A1 (en) * 2020-04-17 2021-10-21 Abb Schweiz Ag Recovery system and method using multiple sensor inputs
JP7395451B2 (ja) * 2020-09-16 2023-12-11 株式会社東芝 ハンドリング装置、処理装置、コントローラ及びプログラム
CA3202375A1 (en) * 2020-11-17 2022-05-27 Apera Ai Inc. Pick and place systems and methods
CN114888816B (zh) * 2022-07-13 2022-09-27 中迪机器人(盐城)有限公司 一种智能上下料机器人的控制系统及方法
WO2024024877A1 (ja) * 2022-07-29 2024-02-01 Telexistence株式会社 商品移動装置及びその制御方法

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402053A (en) 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4412293A (en) 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
JPS60200385A (ja) 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
US4639878A (en) 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4831549A (en) 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US5501498A (en) 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4942539A (en) 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
JP2637546B2 (ja) 1989-03-22 1997-08-06 キヤノン株式会社 X線露光装置
US4985846A (en) 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
US5325468A (en) * 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
US5499306A (en) 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JPH0970780A (ja) 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
US5943476A (en) 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
US5953812A (en) * 1997-07-03 1999-09-21 Schlumberger Technologies, Inc. Misinsert sensing in pick and place tooling
US6101455A (en) 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3377465B2 (ja) 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3925020B2 (ja) * 1999-12-21 2007-06-06 株式会社明電舎 ロボットの制御装置
JP3556589B2 (ja) 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP3647376B2 (ja) 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6730926B2 (en) 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
JP2003098215A (ja) 2001-09-26 2003-04-03 Canon Inc 電力変換システムにおける地絡検出のための装置及び方法
WO2003037573A2 (en) 2001-10-31 2003-05-08 Ross-Hime Designs, Incoporated Robotic manipulator
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
US7168748B2 (en) 2002-09-26 2007-01-30 Barrett Technology, Inc. Intelligent, self-contained robotic hand
JP4401728B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4522129B2 (ja) 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US7739306B2 (en) * 2004-04-14 2010-06-15 Verisign, Inc. Method and apparatus for creating, assembling, and organizing compound media objects
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP4958497B2 (ja) 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
JP4226623B2 (ja) 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5153468B2 (ja) 2008-06-12 2013-02-27 キヤノン株式会社 無線通信装置及びその通信方法
JP4565023B2 (ja) 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5393318B2 (ja) 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5395615B2 (ja) 2009-10-27 2014-01-22 キヤノン株式会社 無線通信装置、無線通信装置の制御方法及びプログラム
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
JP5460341B2 (ja) 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5229253B2 (ja) * 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法
FI20105732A0 (fi) 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US9014857B2 (en) 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
US9102053B2 (en) 2015-08-11
US20130238125A1 (en) 2013-09-12
JP2013184278A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
JP5975685B2 (ja) 情報処理装置、情報処理方法
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP2016099257A (ja) 情報処理装置及び情報処理方法
US11396101B2 (en) Operating system, control device, and computer program product
JP6810173B2 (ja) 物体把持システム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
US11816754B2 (en) Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
WO2018145025A1 (en) Calibration article for a 3d vision robotic system
JP5544464B2 (ja) 対象物の3次元位置・姿勢認識装置及びその方法
KR20110095700A (ko) 작업대상물 픽업을 위한 산업용 로봇 제어방법
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP7180783B2 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
JP2020075340A (ja) 作動システム、制御装置、およびプログラム
WO2021149429A1 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP6784991B2 (ja) ワーク検知システム及び衣服検知システム
JP6285765B2 (ja) 情報処理装置、情報処理方法
Irvine NEW APPROACH FOR ROBOTIC GRASPING OF UNKNOWN THREE DIMENSIONAL OBJECTS

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R151 Written notification of patent or utility model registration

Ref document number: 5975685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151