JP2013184279A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2013184279A
JP2013184279A JP2012053687A JP2012053687A JP2013184279A JP 2013184279 A JP2013184279 A JP 2013184279A JP 2012053687 A JP2012053687 A JP 2012053687A JP 2012053687 A JP2012053687 A JP 2012053687A JP 2013184279 A JP2013184279 A JP 2013184279A
Authority
JP
Japan
Prior art keywords
target object
unit
gripping
orientation
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012053687A
Other languages
English (en)
Other versions
JP5977544B2 (ja
JP2013184279A5 (ja
Inventor
Masahiro Suzuki
雅博 鈴木
Kazuhiko Kobayashi
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012053687A priority Critical patent/JP5977544B2/ja
Priority to US13/781,644 priority patent/US9156162B2/en
Publication of JP2013184279A publication Critical patent/JP2013184279A/ja
Publication of JP2013184279A5 publication Critical patent/JP2013184279A5/ja
Application granted granted Critical
Publication of JP5977544B2 publication Critical patent/JP5977544B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw

Abstract

【課題】 把持対象の候補を減らさずに効率的な作業を行う為の技術を提供すること。
【解決手段】 第1のセンサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める。把持部を有するロボットを制御して、1以上の対象物体のうち1つの対象物体を把持対象物体として把持部に把持させる。把持部が把持している対象物体を計測するための第2のセンサが上記制御後に行った計測の結果から、把持部が把持対象物体の把持に成功しているか否かを判断する。把持部が把持対象物体の把持に失敗している場合、1以上の対象物体のうち把持対象物体に対して相互作用のある1つを選択し、選択した対象物体を把持部に把持させるようにロボットを制御する。
【選択図】図1

Description

本発明は、対象物体の位置姿勢を求める技術に関するものである。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピックして組立を行う。従来より、ピックするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、あるいはパレット(箱)に部品を様々な姿勢で山積みすることによって行われている。パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピックは比較的容易に行われる。しかしパーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならないこともある。一方、部品を山積みにして供給する場合はパレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
従来技術である特許文献1では、山積みからのロボットによる部品の取り出しや把持に失敗した場合、対象部品を一定回数把持対象から除外する。取り出しや把持に失敗した部品を一定回数除外することで、しばらくの間再度失敗を繰り返すことを回避することができる。
特許第04226623号
特許文献1による方法では、ロボットによる取り出しに失敗した部品を一定回数把持対象から除外することで、部品の位置姿勢が変わるのを消極的に待っていた。この方法では一定回数作業を行う間、把持対象の候補数が減ることになる。山積みされた部品には限りがあるため候補数が減ると効率的に作業を行うことができない。
本発明は、このような問題に鑑みてなされたものであり、把持対象の候補を減らさずに効率的な作業を行う為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、第1のセンサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める計算手段と、把持部を有するロボットを制御して、前記1以上の対象物体のうち1つの対象物体を把持対象物体として前記把持部に把持させる制御手段と、前記把持部が把持している対象物体を計測するための第2のセンサが前記制御後に行った計測の結果から、前記把持部が把持対象物体の把持に成功しているか否かを判断する判断手段と、前記把持部が前記把持対象物体の把持に失敗している場合、前記1以上の対象物体のうち前記把持対象物体に対して相互作用のある1つを選択する選択手段とを備え、前記制御手段は、前記選択手段が選択した対象物体を前記把持部に把持させるように前記ロボットを制御することを特徴とする。
本発明の構成によれば、把持対象の候補を減らさずに効率的な作業を行うことができる。
システムの構成例を示す図。 3次元幾何モデルを説明する図。 CADモデルとCADモデルを取り囲むGeodesic Sphereを示す図。 システムの動作を示すフローチャート。 エッジ検出を説明する図。 線分の投影像と検出されたエッジの関係を説明する図。 把持候補物体を示す図。 把持候補物体を示す図。 システムの構成例を示す図。 システムの動作を示すフローチャート。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、対象物体に関する2次元情報(2次元画像)と3次元情報(距離画像や3次元点群データを求めるための2次元画像)とを取得する為の第1のセンサ(プロジェクタとカメラ)を用いてパレット内に山積みされた対象物体の位置姿勢を計測する。
また、ロボットに装着され対象物体の3次元情報(距離画像や3次元点群データを求めるための2次元画像)を取得する為の第2のセンサ(プロジェクタとカメラ)を用いてロボットで取出す対象物体の取出し状態計測を行う。
そして、ロボットでの取出しに失敗したと判断した場合、第1のセンサを用いて計測したパレット内の対象物体の位置姿勢に基づいて、取出しに失敗した対象物体に対して相互作用のある対象物体を選択する。本実施形態では、パレット内にある対象物体の位置姿勢に基づき2次元画像上で相互作用のある対象物体を選択する。そしてロボットに対して、選択した対象物体を把持する指示を行う。ロボットは指示に従って対象物体を把持する。 先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。
ロボット100は、多関節ロボットであり、ロボットコントローラ部120からの制御命令を受けて稼働する。ロボット100の先端にはエンドエフェクタであるハンド部が装着されており、対象物体に対する作業を行うことが可能である。本実施形態では、エンドエフェクタとして対象物体を把持することが可能なチャック機構を持つハンド部を用いる。エンドエフェクタにはモータ駆動可能なハンド部を用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。
なお、センサ部101の位置姿勢、ロボット100やハンド部の位置や軌道、ロボット100のアームとセンサ部102の相対位置姿勢のキャリブレーション作業は、公知の技術によって予め行われているものとする。これによって、位置姿勢計測処理部113が計測するパレット104内の対象物体の位置姿勢、取り出し状態計測処理部115が計測する対象物体の位置姿勢を、パレット104が置かれた空間に固定されたワークスペース座標系に変換することが可能になる。また、ワークスペース座標系で指定した位置姿勢にハンド部が移動するようにロボット100を制御することが可能になる。
センサ部101は、プロジェクタと、2次元情報としての2次元画像を撮影するカメラと、を有する。センサ部101は、パレット104の上方に固定的に配置されており、山積みされた対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に対して出力する。本実施形態では、センサ部101で撮影した画像は画像処理部110で処理するが、センサ部101内に画像処理機構を持たせて画像処理した結果を出力してもよい。センサ部101のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。
センサ部101のプロジェクタは、対象物体103に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体103をセンサ部101のカメラにより撮影し、撮影した画像をセンサ情報取得部111に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。撮影された画像は、センサ情報取得部111を経由して位置姿勢計測処理部113にて三角測量の原理により距離を求めるために用いられる。
また、センサ部101のプロジェクタは対象物体に対して均一輝度の光を照射することも可能である。センサ部101のカメラにより均一輝度で照らされた対象物体の画像を撮影し、センサ情報取得部111に対して2次元画像を出力する。
センサ部102は、小型のプロジェクタと、2次元画像を撮影する小型のカメラと、を有する。センサ部102は、ロボット100の各関節の角度によってその位置姿勢が制御可能(変更可能)なハンド部近くに固定的に装着されており、ハンド部が把持している対象物体を撮影する。センサ部102のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。本実施形態では、センサ部102で撮影した画像は画像処理部110で処理するが、センサ部102内に画像処理機構を持たせて画像処理した結果を出力してもよい。
センサ部102のプロジェクタは、対象物体103に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体103をセンサ部102のカメラにより撮影し、撮影した画像をセンサ情報取得部114に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部102は、回折格子と照明とカメラとから構成されてもよい。この場合は回折格子と照明により対象物体にパターン光を投射し、カメラによりパターンを撮影する。撮影された画像は、センサ情報取得部114を経由して取り出し状態計測処理部115にて三角測量の原理により距離を求めるために用いられる。
対象物体103は、工業製品を構成する部品である。ロボット100によりピックされて製品に組み付けられる。素材には、プラスチック、金属、ビニールなど、様々なものを用いることができる。対象物体103が様々な姿勢になるようにパレット104に山積みされている。
パレット104は、対象物体103を入れるための箱である。パレットの素材に制約はないが、プラスチックや紙素材を用いることが多い。また形状にも制約はないが、作りやすさの点から立方体あるいは直方体にすることが多い。大きさにも制約はないが、通常はセンサ部101で計測可能な範囲内に収まるようにする。
次に、情報処理装置として機能する画像処理部110について説明する。
センサ情報取得部111は、センサ部101が撮影した対象物体103の撮影画像を取得し、該取得した撮影画像を位置姿勢計測処理部113に対して出力する。センサ部101にはパターン光および均一輝度の光を照射するプロジェクタが備えられており、センサ情報取得部111はパターン光および均一輝度の光が照射された対象物体103の撮影画像を取得する。
モデル情報保持部112は、位置姿勢計測処理部113および取り出し状態計測処理部115で対象物体103の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報の1つとして、3次元CADに基づく対象物体103の3次元幾何モデルがあげられる。もう1つのモデル情報として、実際の対象物体103もしくは対象物体103を模した3次元幾何モデルを予め定められた複数の視点から見た参照画像の集合である参照画像モデルがあげられる。
3次元幾何モデルは、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素で構成される3次元幾何モデルを用いる。ポリゴン要素で構成される3次元幾何モデルについて、図2を用いて説明する。
ポリゴン要素で構成される3次元幾何モデルは、図2に示すような点、線、面といった構成要素からなる。図2(a)〜(c)はいずれも同じ3次元幾何モデルを示している。
ポリゴン要素で構成される3次元幾何モデルのモデル情報では、図2(a)に例示している3次元幾何モデルの各頂点について、図2(d)に示す如く、該頂点のインデックスと、該頂点の3次元座標値と、を管理している。
また、このモデル情報では、図2(b)に例示している3次元幾何モデルの各辺について、図2(e)に示す如く、該辺のインデックスと、該辺の両端における頂点のインデックスと、を管理している。
また、このモデル情報では、図2(c)に例示している3次元幾何モデルの各面(ポリゴン)について、図2(f)に示す如く、該ポリゴンのインデックスと、該ポリゴンの各辺のインデックスと、該ポリゴンの法線ベクトルと、を管理している。
参照画像モデルは、複数の2次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体103を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。どの方法で撮影を行ってもよいが、撮影したときのカメラと対象物体103との相対位置姿勢を求め、撮影画像と関連付けて記憶しておく。相対位置姿勢は、やぐらに複数のカメラを配置したときは、やぐらの形状から求めることができる。人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着することで、該位置姿勢センサから求めることができる。ロボットに装着したカメラで撮影するときはロボットの制御情報を利用して求めることができる。
対象物体103を模した3次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から頂点が等しい距離になるGeodesic Sphereを設定し、Geodesic Sphereの頂点からCADモデルの中心を向いたときの画像を用いる。Geodesic Sphereの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかを画像と共に記憶しておく。図3にCADモデルとCADモデルを取り囲むGeodesic Sphereとを示す。Geodesic Sphereの各頂点から中心をみたときの画像の集合を参照画像モデルとする。なお、参照画像モデルは輝度画像でもよいし距離画像でもよい。
対象物体103が1種類と予め分かっている場合は、その種類のモデル情報だけをモデル情報保持部112に格納しておく。複数種類の対象物体を扱うときは、複数のモデル情報をモデル情報保持部112に格納しておき、利用時に切り替える。
位置姿勢計測処理部113は、センサ情報取得部111からの撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、パレット104内で、ロボット100のハンド部が把持可能な1以上の対象物体(把持候補物体)の位置姿勢を求める。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの辺である線と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分と、の対応付けを行うことで対象物体103の位置姿勢を求める。本実施形態では撮影画像上で、対象物体103のエッジと、3次元幾何モデルにおいて該エッジに対応する部分と、が一致するように3次元幾何モデルの位置姿勢の概略値を反復演算により繰り返し補正する。これにより、該補正結果を、対象物体103の位置姿勢として求める。
また、3次元幾何モデルから抽出した表面の点群データと、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群との対応付けを行うことで対象物体の位置姿勢を求めることもできる。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため、本実施形態では詳しく説明しない。求めた距離点群とモデル情報とを利用して対象物体の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体の位置姿勢を反復演算によって繰り返し補正する。さらに、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求めることもできる。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとし、テンプレートマッチングにより撮影画像と最も一致する参照画像を求め、求めた参照画像に関連付けられている相対位置姿勢を元に対象物体103の位置姿勢を求める。
そして位置姿勢計測処理部113は、1以上の把持候補物体の位置姿勢を、ロボット作業指示部121及び対象物体選択部117に対して出力する。これによりロボット作業指示部121は、この1以上の位置姿勢のうち1つの位置姿勢の把持候補物体をハンド部にて把持させるための指示信号をロボット制御部122に対して送出する。
センサ情報取得部114は、センサ部102が撮影した対象物体103の撮影画像を取得し、取得した撮影画像を取り出し状態計測処理部115に対して出力する。
取り出し状態計測処理部115は、センサ情報取得部114から出力された撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、ロボット100のハンド部による対象物体の取り出し状態を計測する。本実施形態では、ロボット100のハンド部により、把持候補物体のうち1つを把持対象物体として取り出すことに成功したか否かを、取り出し状態として計測する。即ち、ハンド部が把持対象物体の取り出しに成功し、該把持対象物体の位置姿勢を求めることができれば、該位置姿勢を取り出し状態とし、該取り出しに失敗したことで該位置姿勢を求めることができなかった場合は、その旨を示す情報を取り出し状態とする。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群データと、センサ情報取得部114から出力された2次元のパターン画像から抽出した距離点群との対応付けを行うことで対象物体の位置姿勢を求める。上記のパターン像が投影された対象物体の撮影画像から距離点群を求めるためには、空間符号化法、光切断法などの公知技術を用いればよい。求めた距離点群とモデル情報とを利用して対象物体の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための手法はICP法に限るものではない。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。
そして、取り出し状態計測処理部115は、上記のようにして求めた取り出し状態を、判断部116に対して送出する。
判断部116は、取出し状態計測処理部115から出力された取出し状態を用いて、ロボット100が把持対象物体を取り出すことに成功しているか判断する。なお、取り出しが成功しているというのは、その後の既定の作業(例えば組み付け作業)のためにロボット100が対象物体を取出して把持できている状態のことを指す。また、取り出しが失敗しているというのは、ロボットにより対象物体を把持し損ねてそのままパレット内に対象物体が残っている状態のことを指す。
そして判断部116は、取り出しに成功していると判断した場合は、ロボット作業指示部121に対してロボット100が既定の作業(例えば組み付け作業)を行うよう指示する。一方、判断部116は、取り出しに失敗していると判断した場合は、次に把持を行う対象物体を選択するために、対象物体選択部117に対して取り出しが失敗したことを示す情報を出力する。
対象物体選択部117は、判断部116からロボット100による取り出しが失敗した情報を受け取り、さらに位置姿勢計測処理部113から出力された位置姿勢を受け取る。これらの情報を受け取った対象物体選択部117は、ロボット100が次に把持すべき対象物体を選択する。そして対象物体選択部117は、次に把持すべき対象物体の位置姿勢を把持指示部118に対して出力する。
把持指示部118は、対象物体選択部117から位置姿勢を受け取ると、ロボット作業指示部121に対してロボット100が次に把持すべき対象物体を把持するよう指示を行う。
次にロボットコントローラ部120について説明する。
ロボット作業指示部121は、位置姿勢計測処理部113、判断部116、把持指示部118が求めた情報に基づいて、ハンド部を移動させる為の指示信号を生成する。
例えば、ロボット作業指示部121は、位置姿勢計測処理部113から対象物体の位置姿勢を受けると、該位置姿勢にある対象物体を把持できる位置姿勢にハンド部を移動させて把持を行うことを指示するための指示信号を生成する。
また、ロボット作業指示部121は、判断部116からの指示に応じて、既定の作業(例えば組み付け作業)を行うよう、ハンド部を移動させるための指示信号を生成する。
また、ロボット作業指示部121は、把持指示部118からの指示に応じて、次に把持すべき対象物体を把持するよう、ハンド部を移動させるための指示信号を生成する。
なお、ロボットの作業は移動、把持、吸着、組み付けに限られるものではなく、対象物体103の外観検査など、他の作業も含むことは言うまでもない。さらに、ロボットも多関節ロボットではなくNC制御可能な可動式の機械でもよいことは言うまでもない。
ロボット制御部122は、ロボット作業指示部121から指示信号を受けると、この指示信号に従ってロボット100の動作制御を行う。これによりロボット100のハンド部の位置姿勢を指示信号に応じて移動させることが出来る。
次に、本実施形態に係るシステムの動作について、図4のフローチャートを用いて説明する。
ステップS401では、パレット104の上方に固定されたセンサ部101が対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に出力する。センサ部101の位置姿勢は予めキャリブレーションで求まっているものとする。そしてセンサ情報取得部111は、センサ部101から受けた対象物体103の撮影画像を位置姿勢計測処理部113に対して送出する。
ステップS402では、位置姿勢計測処理部113は、センサ情報取得部111から受けた撮影画像中の複数の対象物体のうち少なくとも1つの対象物体の位置姿勢を求める(計測する)。求めた位置姿勢は、対象物体をロボットに取り出させて把持させる際に利用する。
対象物体の位置姿勢を計測する方法として本実施形態では3通りの方法を説明する。第1の方法として、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した2次元画像と、モデル情報保持部112が保持しているモデル情報とをマッチングして対象物体103の位置姿勢を計測する方法を説明する。第2の方法として、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群と、3次元幾何モデルから抽出した表面の点群データとのマッチングを行うことで対象物体の位置姿勢を求める方法を説明する。第3の方法として、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求める方法について説明する。
まず第1の方法である、センサ情報取得部111から出力された均一輝度の光を対象物体に照射した2次元画像と、モデル情報保持部112が保持しているモデル情報と、をマッチングして対象物体103の位置姿勢を計測する方法について説明する。
モデル情報として3次元幾何モデルを利用する場合は、対象物体の3次元幾何モデルの辺である線分と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分との対応付けを行うことで対象物体の位置姿勢を求める。本実施形態では、撮影画像に3次元幾何モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置姿勢(6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための最適化手法はGauss−Newton法に限るものではない。
図5はエッジ検出を説明する図である。何らかの方法(例えばテンプレートマッチング)により得られた対象物体の概略位置姿勢とキャリブレーション済みのセンサ部101の内部パラメータを用いて、3次元幾何モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は画像上でも線分となる。次に、画像上で等間隔になるように、投影された線分501上に制御点502を設定し、制御点502ごとに、投影された線分501の法線方向503に1次元のエッジ504の検出を行う(図5(a))。エッジは画素値の濃度勾配505の極値として検出されるため、図5(b)に示すように、複数のエッジ506が検出されることがある。本実施形態では、検出されるエッジをすべて保持する。
3次元幾何モデルの辺である線分とセンサ情報取得部111から出力された撮影画像のエッジ成分との対応付けを行い、対象物体の位置姿勢を求めるには、位置姿勢を算出するための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、画像上での点と直線の距離を位置姿勢の関数とした時の、位置姿勢の各要素に関する1次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離である。係数行列の導出について説明する。
図6は、線分の投影像と検出されたエッジの関係を説明する図である。図6では、画像の水平方向、垂直方向をそれぞれu軸601、v軸602としている。ある制御点603(投影された各線分を画像上で等間隔に分割した点)の画像上での座標604を(u0,v0)、該制御点が所属する線分の画像上での傾きをu軸601に対する傾きθ605と表す。傾きθ605は、線分606の両端の三次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該線分606の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点603の対応点607の画像上での座標608を(u’,v’)とする。ここで、対応点607の座標608(u’,v’)を通り、傾きがθ605である直線(図6の破線)上の点(u,v)は、以下の式で表すことが出来る。
Figure 2013184279
制御点603の画像上での位置は対象物体の位置姿勢により変化する。また、対象物体の位置姿勢の自由度は6自由度である。すなわち、sは6次元ベクトルであり、対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す三次元ベクトルなどによって表現される。位置姿勢により変化する点の画像上での座標(u,v)は、座標604(u0,v0)の近傍で1次のテイラー展開によって以下の式(2)のように近似できる。但し△si(i=1,2,・・・,6)はsの各成分の微小変化を表す。
Figure 2013184279
位置姿勢の概略値と実際の位置姿勢との差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は(1)が表す直線上にあると仮定できる。(2)によって近似されるu、vを(1)に代入することにより、(3)が得られる。
Figure 2013184279
ただし、r=u0sinθ−v0cosθ(定数)である。(3)は対応付けが行われたすべてのエッジについて立式することができる。なお、すべてのエッジについて立式せずに一部のエッジについてだけ立式してもよい。(3)はsの各成分の微小変化△si(i=1,2,・・・,6)についての方程式であるため、(4)のような△siに関する線形連立方程式を立てることができる。
Figure 2013184279
ここで(4)を(5)のように表す。
Figure 2013184279
線形連立方程式の係数行列Jを算出するため偏微分係数の算出を行う。(5)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いて位置姿勢の補正値△sを最小二乗基準で求める。しかしながら、エッジには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、(4)の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える。重みは例えば(6)に示すようなTukeyの関数により与える。
Figure 2013184279
c1,c2は定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える関数であれば、如何なる関数であってもよい。各計測情報(エッジまたは点群データ)に対応する重みをwiとする。ここで(7)のように重み行列Wを定義する。
Figure 2013184279
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。この重み行列Wを用いて、(5)を(8)のように変形する。
Figure 2013184279
(8)を(9)のように解くことにより補正値△sを求める。
Figure 2013184279
算出された位置姿勢の補正値△sを用いて以下の式を計算することで、位置姿勢の概略値を補正する。
Figure 2013184279
そして、sの収束判定を行い、収束していれば終了し、そうでなければ繰り返し算出を行う。収束判定では、補正値△sがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。このように、収束するまで繰り返すことで、位置姿勢を算出できる。
本実施形態では最適化手法としてGauss−Newton法を用いる方法について説明したが、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。参照画像の輝度をT(i,j)、撮影画像の輝度をI(i,j)として、参照画像をm画素×n画素の画像としたとき、参照画像と撮影画像との一致度Rは(10)で求めることができる。
Figure 2013184279
次に第2の方法である、センサ情報取得部111から出力された2次元のパターン画像から抽出した距離点群と、3次元幾何モデルから抽出した表面の点群データとのマッチングを行うことで対象物体の位置姿勢を求める方法について説明する。
パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため本実施形態では詳しく説明しない。3次元幾何モデルの点群と距離画像点群との対応付けを行うために、本実施例ではICP(Iterative Closest Point)法を用いる。3次元幾何モデルの表面点群をPとし、以下のように定義する。
Figure 2013184279
また、距離画像点群をAとし、以下のように定義する。
Figure 2013184279
3次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点piに距離が最も近い点群Aの点をbi∈Aとしたとき、(13)の誤差関数を定義できる。Rとtはそれぞれ姿勢パラメータと移動ベクトルである。
Figure 2013184279
誤差関数Eを小さくするRとtを求め、(14)による補正を行う。
Figure 2013184279
誤差関数Eを小さくするRとtを求める方法については、以下の文献に載っている。
K.S.Arun,T.S.Huang,and S.D.Blostein,“Least−Squares Fitting of Two 3−D Point Sets,” PAMI,vol.9,no.5,1987
そして、Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、例えば、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出できる。
最後に第3の方法として、エッジ対応付けと距離点群対応付けとの両方を考慮して対象物体の位置姿勢を求めることもできる。この方法は例えば特開2011−27623号公報に開示の方法を適用することで実現できる。
このように、ステップS402において位置姿勢計測処理部113が、把持候補物体の位置姿勢を求めると、この求めた位置姿勢をロボット作業指示部121および対象物体選択部117に対して送出する。なお、位置姿勢計測処理部113は、複数個の把持候補物体の位置姿勢を求めたのであれば、求めた全ての位置姿勢をロボット作業指示部121及び対象物体選択部117に対して送出する。
ステップS403では、ロボット作業指示部121は、位置姿勢計測処理部113から受けた位置姿勢にロボット100のハンド部を移動させるための指示信号を生成し、生成した指示信号をロボット制御部122に送出する。なお、ロボット100が対象物体を吸着するパッドを備えていれば、位置姿勢計測処理部113から受けた位置姿勢に基づいて、対象物体103の吸着が可能な位置姿勢にロボット100のパッドを移動させるための指示信号を生成する。
ロボット作業指示部121は、位置姿勢計測処理部113から複数の把持候補物体の位置姿勢を受け取った場合は、それらのうち1つの把持候補物体の位置姿勢を選択する。例えば山積みの中でピックできる可能性が高いと想定される一番上にある把持候補物体(位置成分のうちパレット104が載置されている面の法線方向の座標成分が最も大きい把持候補物体)を選択する。図7にセンサ部101が撮影した画像から位置姿勢を求めることができた対象物体(把持候補物体)を点線で囲って示している。図7では4つの把持候補物体についてその位置姿勢が求められていることが分かる。この4つの把持候補物体うち一番上にある把持候補物体103’を把持対象物体として選択する。なお、図7の点線はあくまで説明のためのものであり実際の画像には現れない。
なお、本実施形態では、ロボット作業指示部121で位置姿勢を計測できた複数の対象物体から1つの対象物体を選択したが、位置姿勢計測処理部113で1つの対象物体を選択してからロボット作業指示部121に該対象物体の位置姿勢を出力してもよい。
また、位置姿勢計測処理部113でも判断部116でも把持指示部118でも、ロボット作業指示部121にその位置姿勢が送出された対象物体については、画像処理部110内の不図示のメモリ部内に管理されている把持指示済みリストに登録する。登録する情報については特定情報に限るものではなく、位置姿勢であっても良いし、撮像画像上の位置や領域を示す情報であっても良いし、撮影画像上で割り当てられた識別情報であっても良い。
ステップS404では、ロボット制御部122は、ロボット作業指示部121からの指示信号に従ってロボット制御部122を制御し、該指示信号が示す位置姿勢にハンド部を移動させる。ロボット100が把持候補物体103’を把持する場合は、ロボット制御部122がロボット100に対して把持候補物体103’を把持する制御を行う。ロボット100が把持候補物体103’を吸着する場合は、ロボット制御部122がロボット100に対して把持候補物体103’を吸着する制御を行う。
ステップS405では、ハンド部に装着されているセンサ部102は、ハンド部が把持している(必ず把持しているとは限らない)把持対象物体を撮影し、撮影した画像をセンサ情報取得部114に対して送出する。センサ部102にはパターン光を照射するプロジェクタが備えられており、センサ情報取得部114は、パターン光が照射された把持対象物体の画像を取得する。この撮影は、把持地点より上空に所定距離(例えば5cm)ロボット100を動かしてから行う。
ステップS406では、取り出し状態計測処理部115は、センサ情報取得部114から取得した撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて把持対象物体の位置姿勢を求める。把持対象物体の位置姿勢を求めるために、モデル情報保持部112は保持しているモデル情報を出力する。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの表面から抽出した点群と、センサ情報取得部114から出力された撮影画像から求めた距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。パターン画像から距離点群を求めるには、空間符号化法、光切断法などの公知技術を用いればよいため本実施形態では詳しく説明しない。3次元幾何モデルの点群と距離画像点群との対応付けを行うには、ステップS402の第2の方法で説明したICP(Iterative Closest Point)法を用いればよい。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。具体的な方法は、ステップS402の第1の方法後半で説明している。
そして取り出し状態計測処理部115は、把持対象物体の位置姿勢を求めることができれば、該求めた位置姿勢を判断部116に対して送出する。なお、取り出し状態計測処理部115は、ロボット100のハンド部が対象物体の取り出しに失敗するなどが原因で、該対象物体の位置姿勢を求めることができなかった場合には、その旨を示す情報を判断部116に出力する。
ステップS407では、判断部116は、取り出し状態計測処理部115から位置姿勢を求めることができなかった旨を示す情報を受け取っておらず、且つ位置姿勢を受け取った場合には、ハンド部による対象物体の取り出しに成功したと判断する。一方、判断部116は、取り出し状態計測処理部115から位置姿勢を求めることができなかった旨を示す情報を受け取った場合には、ハンド部による対象物体の取り出しに失敗したと判断する。なお、判断部116が位置姿勢を受け取ったとしても、該位置姿勢が、予めティーチング作業などにより教示した対象物体を把持すべき位置姿勢と比較して大きく異なる場合には、取り出しは失敗したと判断する。
以上のような判断処理により、取り出しが成功したと判断した場合は、処理はステップS408に進み、取り出しが失敗したと判断した場合は、処理はステップS410に進む。
ステップS408では、判断部116は、ロボット作業指示部121に対してロボット100が既定の作業(例えば組み付け作業)を行うよう指示する。
ステップS409では、ステップS408の指示内容を実行するようロボット作業指示部121がロボット制御部122に指示を行う。そしてロボット制御部122は、ロボット作業指示部121からの指示信号に従ってロボット100を制御し、該指示信号が示す位置姿勢にハンド部を移動させて上記の既定の作業(例えば組み付け作業)を行わせる。
一方、ステップS410では、次に把持すべき対象物体を選択するため、判断部116は、対象物体選択部117に対して取り出しが失敗したことを示す情報(取出し失敗情報)を出力する。対象物体選択部117は、判断部116から出力された取出し失敗情報、位置姿勢計測処理部113から出力された把持候補物体の位置姿勢、不図示のメモリ部に登録されている把持指示済みリストを用いて、次に把持すべき対象物体を選択する。
本実施形態では、ステップS402で位置姿勢を計測できた対象物体のうち、把持指示済みリストに登録されている対象物体を除き(未選択の対象物体)、取り出しに失敗した対象物体に一番近い位置の把持候補物体を次の把持候補とする。一番近い対象物体を把持候補としてロボット100が把持することで、取り出しに失敗した対象物体の位置姿勢を積極的に変えることができる。
図7に示した、センサ部101による撮影画像において、対象物体103’はハンド部による取り出しが失敗した対象物体である。対象物体103’を除いて位置姿勢を検出できている対象物体は残り3つある。これら3つのうち撮影画像上で対象物体103’の位置に一番近い対象物体103”を次に把持すべき対象物体として選択する。対象物体の近さは、対象物体の位置姿勢を計測したときのモデル重心位置同士を比較すればよい。比較する際は、モデル重心位置を対象物体の位置姿勢を規定するローカル座標系からワークスペース座標系に変換してから行う。
ステップS411では、対象物体選択部117は、ステップS410で次に把持すべき対象物体を選択できたかを判断する。例えば、図7では対象物体103’以外に3つの対象物体の位置姿勢を計測できていたが、もし対象物体103’以外に1つも位置姿勢を計測できていない場合は次に把持すべき対象物体を選択することはできない。もちろんステップS410での選択条件に合う対象物体がない場合も次に把持すべき対象物体を選択することはできない。これらはステップS402での位置姿勢計測結果と把持指示済みリストとを参照することで分かる。
次に把持すべき対象物体を選択できない場合は、対象物体選択部117は、パレット104を揺動する不図示の機構に対して、パレット104の揺動指示を出し、その後、処理はステップS401に戻る。また、対象物体選択部117は、把持指示済みリストを初期化する。
一方、ステップS411で、ステップS410で次に把持すべき対象物体を選択できた、と判断した場合には、処理はステップS412に進む。
ステップS412では、対象物体選択部117は、選択した対象物体の位置姿勢(ステップS402で求めた位置姿勢のうち把持候補の位置姿勢として選択した位置姿勢)を、把持指示部118に対して送出する。また、把持指示部118はロボット作業指示部121に対して選択した対象物体の位置姿勢を送出する。
ロボット作業指示部121は、把持指示部118から受けた位置姿勢にロボット100のハンド部を移動させるための指示信号を生成し、生成した指示信号をロボット制御部122に送出する。また、把持指示部118は、選択した対象物体を把持指示済みリストに登録する。そして処理はステップS404に進む。
ステップS413では、終了指示があったかどうかを判定する。終了指示がなければ把持指示済みリストを初期化し、ステップS401に戻る。終了指示があればフローを終了して全ての動作を停止する。なお、ステップS413での終了判定を待たずに、ユーザが図示しない緊急停止ボタンを押すことによりフローを終了して全ての動作を停止してもよい。
上記のように、本実施形態では、対象物体の位置姿勢を固定的に配置したセンサを利用して計測し、ロボットによる取出し状態をロボットに装着したセンサを利用して計測する。ロボットによる取出しに失敗したと判断した場合は、パレット内にある対象物体の位置姿勢に基づき撮影画像上で一番近い位置の対象物体を相互作用のある対象物体として選択して把持指示する。このようにすることで取出しに失敗した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。
<変形例>
第1の実施形態では、パレット内にある把持候補物体の位置姿勢に基づき撮影画像上で一番近い位置の対象物体を次の把持候補とした。これに対する変形例として、取出しに失敗した対象物体に重なっている対象物体を次の把持候補とすることもできる。対象物体が重なっていることは、図8(a)に示すようにステップS402で対象物体の位置姿勢計測を行った際のモデルを撮影画像に投影配置して外形が干渉していることから判定してもよい。また、図8(b)に示すように対象物体の位置姿勢を元に撮影画像上に対象物体を囲うバウンディングボックスを配置してバウンディングボックス同士が干渉していることから判定してもよい。図8(a)、(b)共に対象物体103’に対象物体103”が干渉していると判定する。対象物体103’の取出しに失敗した場合は、次に把持すべき対象物体として対象物体103”を選択する。なお、2つの領域の干渉判定については既知の技術であるためここでは説明を省略する。
このように、第1の実施形態の変形例では取り出しに失敗した対象物体に重なった対象物体を次の把持対象にするため、確実に取り出しに失敗した対象物体を動かすことができる。
[第2の実施形態]
本実施形態では、ロボットでの取出しに失敗したと判断した場合、パレット内にある対象物体の位置姿勢に基づき3次元空間的に相互作用のある対象物体を選択する。本実施形態と第1の実施形態との差異は、対象物体選択部117の動作(S410)のみである。然るに以下では、本実施形態における対象物体選択部117の動作について説明し、以下で特に説明しない限りは、第1の実施形態と同様であるものとする。
対象物体選択部117は、判断部116からロボット100による取出しが失敗した旨を示す情報を受け取り、さらに位置姿勢計測処理部113から出力された位置姿勢を受け取る。これらの情報を受け取った対象物体選択部117は、ロボット100が次に把持すべき対象物体を選択する。対象物体選択部117は、次に把持すべき対象物体の位置姿勢を把持指示部118に対して出力する。
ステップS410では、次に把持すべき対象物体を選択するため、判断部116が対象物体選択部117に対して取出しが失敗した旨を示す情報を出力する。対象物体選択部117は、判断部116から出力された取出し失敗情報、位置姿勢計測処理部113から出力された対象物体の位置姿勢、把持指示済みリスト、を用いて、次に把持すべき対象物体を選択する。
次に把持すべき対象物体を選択する方法について説明する。本実施形態では、ステップS402で位置姿勢を計測した対象物体のうち、把持指示済みリストに登録されている対象物体を除き、センサ部101から見て取出しに失敗した対象物体より3次元空間的に奥の位置にある対象物体を次に把持すべき対象物体とする。ここで、「センサ部101から見て取出しに失敗した対象物体より3次元空間的に奥の位置にある」とは「センサ部101から取出しに失敗した対象物体までの距離より長い距離の位置にある」ことを意味する。
取出しに失敗した対象物体よりも下にある対象物体をロボット100が把持することで、上にある取出しに失敗した対象物体の位置姿勢を積極的に変えることができる。なお、取出しに失敗した対象物体よりも下にあるというのは、重なるように下にある場合も含むし、センサ部101による撮影画像的には離れていても他の対象物体を経由して相互作用を与える場合も含むことは言うまでもない。3次元空間中での位置は、対象物体の位置姿勢を計測したときのモデル重心位置とする。モデル重心位置は対象物体の位置姿勢を規定するローカル座標系からワークスペース座標系に変換しておく。
単にセンサ部101からの距離に基づいて対象物体を選択してもよいし、パレット内にある対象物体の山積みを山ごとに領域分割して、取出しに失敗した対象物体と同じ山内に存在し、かつ奥にある対象物体を次に把持すべき対象物体として選択してもよい。山ごとの領域分割は、センサ部101を利用して撮影したパターン画像から抽出した距離画像を利用して行うことができる。例えば距離画像を100画素×100画素の領域に分割し、各領域の平均距離値を各領域の代表距離値とする。代表距離値間を補間することで山積みの等高線を求めることができる。等高線から山の勾配が分かるので山ごとの領域分割を行うことができる。また、距離画像から直接的に等高線を求めて山ごとの領域分割を行ってもよい。
上記のように、本実施形態では、ロボットによる取出しに失敗したと判断した場合は、パレット内にある対象物体の位置姿勢に基づきセンサ部101から見て取出しに失敗した対象物体より3次元空間的に奥の位置にある対象物体を選択して把持指示する。このようにすることで、取出しに失敗した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗した対象物体よりも下にある対象物体を次の把持対象にするため山積みの山を崩すことができ、確実に取出しに失敗した対象物体を動かすことができる。
<変形例>
第2の実施形態では、パレット内にある対象物体の位置姿勢に基づき取出しに失敗した対象物体よりも下にある対象物体を次の把持候補とした。第2の実施形態の変形例として、取出しに失敗した対象物体に3次元的に干渉している対象物体を次の把持候補にすることもできる。対象物体が干渉していることは、ステップS402で対象物体の位置姿勢計測を行った際のモデルを3次元空間に配置してモデル表面が干渉している、あるいは極めて近接している位置(例えば1mm以内)にあることから判定してもよい。また、対象物体の位置姿勢を元に3次元空間に対象物体を囲うバウンディングボックスを配置してバウンディングボックス同士が干渉していることから判定してもよい。2つの空間の干渉判定については既知の技術であるためここでは説明を省略する。
上記のように、第2の実施形態の変形例では、取出しに失敗した対象物体に干渉している対象物体を次の把持対象にするため、確実に取出しに失敗した対象物体を動かすことができる。
なお、第1,2の実施形態及びそれらの変形例は、次の構成の一例過ぎず、次の構成に沿った構成であれば、如何なる変形、変更を行っても良い。即ち、第1のセンサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める。そして、把持部を有するロボットを制御して、上記1以上の対象物体のうち1つの対象物体を把持対象物体として把持部に把持させる。そして、把持部が把持している対象物体を計測するための第2のセンサが上記制御後に行った計測の結果から、把持部が把持対象物体の把持に成功しているか否かを判断する。そして、把持部が把持対象物体の把持に失敗している場合、上記1以上の対象物体のうち把持対象物体に対して相互作用のある1つを選択し、選択した対象物体を把持部に把持させるようにロボットを制御する。
[第3の実施形態]
本実施形態では、対象物体に関する2次元情報(2次元画像)と3次元情報(距離画像や3次元点群データを求めるための2次元画像)とを取得する第1のセンサ(プロジェクタとカメラ)を用いてパレット内に山積みされた対象物体の位置姿勢を計測する。
そして、計測した対象物体の位置姿勢に基づき、ロボットで把持する対象物体の取出し状態予測を行う。ロボットでの取出しに失敗すると予測した場合、第1のセンサを用いて計測したパレット内の対象物体の位置姿勢に基づいて、取出しに失敗すると予測した対象物体に対して相互作用のある対象物体を選択する。そしてロボットに対して選択した対象物体を把持する指示を行う。ロボットは指示に従って対象物体を把持する。
本実施形態に係るシステムの構成例について、図9を用いて説明する。
ロボット900は、多関節ロボットであり、ロボットコントローラ部920からの制御命令を受けて稼働する。ロボット900の先端にはエンドエフェクタであるハンド部が装着されており、対象物体に対する作業を行うことが可能である。本実施形態では、エンドエフェクタとして対象物体を把持することが可能なチャック機構を持つハンド部を用いる。エンドエフェクタにはモータ駆動可能なハンド部を用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。
なお、センサ部901の位置姿勢、ロボット900やハンド部の位置や軌道、のキャリブレーション作業は、公知の技術によって予め行われているものとする。これによって、位置姿勢計測処理部913が計測するパレット904内の対象物体の位置姿勢を、パレット104が置かれた空間に固定されたワークスペース座標系に変換することが可能になる。また、ワークスペース座標系で指定した位置姿勢にハンド部が移動するようにロボット900を制御することが可能になる。
センサ部901は、プロジェクタと、2次元情報としての2次元画像を撮影するカメラと、を有する。センサ部901は、パレット904の上方に固定的に配置されており、山積みされた対象物体903の画像を撮影し、撮影した画像をセンサ情報取得部911に対して出力する。本実施形態では、センサ部901で撮影した画像は画像処理部910で処理するが、センサ部901内に画像処理機構を持たせて画像処理した結果を出力してもよい。センサ部901のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。
センサ部901のプロジェクタは、対象物体903に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体903をセンサ部901のカメラにより撮影し、撮影した画像をセンサ情報取得部911に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。撮影された画像は、センサ情報取得部911を経由して位置姿勢計測処理部913にて三角測量の原理により距離を求めるために用いられる。
また、センサ部901のプロジェクタは対象物体に対して均一輝度の光を照射することも可能である。センサ部901のカメラにより均一輝度で照らされた対象物体の画像を撮影し、センサ情報取得部911に対して2次元画像を出力する。
対象物体903は、工業製品を構成する部品である。ロボット900によりピックされて製品に組み付けられる。素材には、プラスチック、金属、ビニールなど、様々なものを用いることができる。対象物体903が様々な姿勢になるようにパレット904に山積みされている。
パレット904は、対象物体903を入れるための箱である。パレットの素材に制約はないが、プラスチックや紙素材を用いることが多い。また形状にも制約はないが、作りやすさの点から立方体あるいは直方体にすることが多い。大きさにも制約はないが、通常はセンサ部901で計測可能な範囲内に収まるようにする。
次に、情報処理装置として機能する画像処理部910について説明する。
センサ情報取得部911は、センサ部901が撮影した対象物体903の撮影画像を取得し、該取得した撮影画像を位置姿勢計測処理部913に対して出力する。センサ部901にはパターン光および均一輝度の光を照射するプロジェクタが備えられており、センサ情報取得部911はパターン光および均一輝度の光が照射された対象物体903の撮影画像を取得する。
モデル情報保持部912は、位置姿勢計測処理部913で対象物体903の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報については第1の実施形態と同様であるため、これに係る説明は省略する。
位置姿勢計測処理部913は、センサ情報取得部911からの撮影画像と、モデル情報保持部912が保持しているモデル情報と、を用いて、パレット904内で、ロボット900のハンド部が把持可能な1以上の対象物体(把持候補物体)の位置姿勢を求める。位置姿勢計測処理部913による位置姿勢計算処理は、上記の位置姿勢計測処理部113によるそれと同様であり、これについては第1の実施形態ですでに説明したため、これに係る説明は省略する。そして位置姿勢計測処理部913は、1以上の把持候補物体の位置姿勢を、予測部914及び対象物体選択部915に対して出力する。
予測部914は、位置姿勢計測処理部913から受けた把持候補物体の位置姿勢を元に、ロボット900で取出す対象物体の取出し状態を予測する。本実施形態では、対象物体を取出すことに成功するか否かを取出し状態として予測する。なお、取出しが成功するというのは、その後の既定の作業(例えば組み付け作業)のためにロボット900が対象物体を取出して把持できる状態のことを指す。また、取出しが失敗するというのは、ロボットにより対象物体を把持し損ねてそのままパレット内に対象物体が残る状態のことを指す。
そして予測部914は、取出しに成功すると予測した場合は、ロボット作業指示部921に対してロボット900が既定の作業(例えば把持や組み付け作業)を行うよう指示を行う。一方、予測部914は、取出しに失敗すると予測した場合は、次に把持を行う対象物体を選択するために、対象物体選択部915に対して取出しが失敗することを示す情報を出力する。
対象物体選択部915は、予測部914からロボット900による取出しが失敗することを示す情報を受け取り、さらに位置姿勢計測処理部913から出力された位置姿勢を受け取る。これらの情報を受け取った対象物体選択部915は、ロボット900が次に把持すべき対象物体を選択する。そして対象物体選択部915は、次に把持すべき対象物体の位置姿勢を把持指示部916に対して出力する。
把持指示部916は、対象物体選択部915から位置姿勢を受け取ると、ロボット作業指示部921に対してロボット900が次に把持すべき対象物体を把持するよう指示を行う。
次にロボットコントローラ部920について説明する。
ロボット作業指示部921は、予測部914、把持指示部916が求めた情報に基づいて、ハンド部を移動させる為の指示信号を生成する。例えば、ロボット作業指示部921は、予測部914からの指示に応じて、既定の作業(例えば組み付け作業)を行うよう、ハンド部を移動させるための指示信号を生成する。また、ロボット作業指示部921は、把持指示部916からの指示に応じて、次に把持すべき対象物体を把持するよう、ハンド部を移動させるための指示信号を生成する。
なお、ロボットの作業は移動、把持、吸着、組み付けに限られるものではなく、対象物体903の外観検査など、他の作業も含むことは言うまでもない。さらに、ロボットも多関節ロボットではなくNC制御可能な可動式の機械でもよいことは言うまでもない。
ロボット制御部922は、ロボット作業指示部921から指示信号を受けると、この指示信号に従ってロボット900の動作制御を行う。これによりロボット900のハンド部の位置姿勢を指示信号に応じて移動させることが出来る。
次に、本実施形態に係るシステムの動作について、図10のフローチャートを用いて説明する。
ステップS1001では、パレット904の上方に固定されたセンサ部901が対象物体903の画像を撮影し、撮影した画像をセンサ情報取得部911に出力する。センサ部901の位置姿勢は予めキャリブレーションで求まっているものとする。そしてセンサ情報取得部911は、センサ部901から受けた対象物体903の撮影画像を位置姿勢計測処理部913に対して送出する。
ステップS1002では、位置姿勢計測処理部913は、センサ情報取得部911から受けた撮影画像中の複数の対象物体のうち少なくとも1つの対象物体の位置姿勢を求める(計測する)。求めた位置姿勢は、対象物体の取出し成功を予測する際や、対象物体をロボットに把持させる際に利用する。ステップS1002における処理は、上記のステップS402における処理と同様であるため、これに係る説明は省略する。
そして、位置姿勢計測処理部913が、把持候補物体の位置姿勢を求めると、この求めた位置姿勢を予測部914及び対象物体選択部915に対して送出する。なお、位置姿勢計測処理部913は、複数個の把持候補物体の位置姿勢を求めたのであれば、求めた全ての位置姿勢を予測部914及び対象物体選択部915に対して送出する。
ステップS1003では、予測部914は、位置姿勢計測処理部913から複数の把持候補物体の位置姿勢を受け取った場合は、それらのうち1つの把持候補物体の位置姿勢を選択する。例えば山積みの中でピックできる可能性が高いと想定される一番上にある把持候補物体(位置成分のうちパレット104が載置されている面の法線方向の座標成分が最も大きい把持候補物体)を選択する。なお、位置姿勢計測処理部913から1つの対象物体の位置姿勢を受け取った場合はその対象物体の位置姿勢を選択する。
次に、予測部914は、選択した対象物体の位置姿勢を元にロボット900により取出しが成功するか否かを示す取出し状態を予測する。予めロボット900による取出しが成功する可能性の高い対象物体の位置または姿勢または位置姿勢の範囲を、画像処理部910内の不図示のメモリ部に取出し成功範囲情報として保持しておく。この範囲は不図示のユーザインタフェース部をユーザが操作することにより設定して決めてもよいし、過去のロボットによる取出し等の作業履歴から決めてもよい。取出し状態の予測は、上記で選択した対象物体の位置姿勢が取出し成功範囲内に含まれているかどうかで行う。選択した対象物体の位置姿勢が取出し成功範囲に含まれていれば取出しが成功すると予測する。そうでなければ取出しが失敗すると予測する。
また、予測部914は、取り出し状態の予測を行った対象物体については、画像処理部110内の不図示のメモリ部内に管理されている予測済みリストに登録する。登録する情報については特定情報に限るものではなく、位置姿勢であっても良いし、撮像画像上の位置や領域を示す情報であっても良いし、撮影画像上で割り当てられた識別情報であっても良い。
そして、予測部914が取出しに成功すると予測した場合は、処理はステップS1005に進み、予測部914が取出しに失敗すると予測した場合は、処理はステップS1007に進む。
ステップS1005では、予測部914は、ロボット作業指示部921に対してロボット100が既定の作業(例えば組み付け作業)を行うよう指示する。
ステップS1006では、ステップS1005の指示内容を実行するようロボット作業指示部921がロボット制御部922に指示を行う。そしてロボット制御部922は、ロボット作業指示部921からの指示信号に従ってロボット900を制御し、該指示信号が示す位置姿勢にハンド部を移動させて上記の既定の作業(例えば組み付け作業)を行わせる。
一方、ステップS1007では、次に把持すべき対象物体を選択するため、予測部914は、対象物体選択部915に対して取り出しが失敗するという予測情報を出力する。対象物体選択部915は、予測部914から出力された予測情報、位置姿勢計測処理部913から出力された把持候補物体の位置姿勢、不図示のメモリ部に登録されている予測済みリストを用いて、次に把持すべき対象物体を選択する。
本実施形態では、ステップS1002で位置姿勢を計測できた対象物体(把持候補物体)のうち、予測済みリストに登録されている対象物体を除き、取り出しに失敗すると予測した対象物体に一番近い位置の対象物体を次の把持候補とする。一番近い対象物体を把持候補としてロボット900が把持することで、取り出しに失敗すると予測した対象物体の位置姿勢を積極的に変えることができる。
対象物体の近さは、対象物体の位置姿勢を計測したときのモデル重心位置同士を比較すればよい。比較する際は、モデル重心位置を対象物体の位置姿勢を規定するローカル座標系からワークスペース座標系に変換してから行う。
ステップS1008では、対象物体選択部915は、ステップS1007で次に把持すべき対象物体を選択できたかを判断する。例えば、取り出しに失敗すると予測した対象物体以外に1つも位置姿勢を計測できていない場合は次に把持すべき対象物体を選択することはできない。もちろんステップS1007での選択条件に合う対象物体がない場合も次に把持すべき対象物体を選択することはできない。これらはステップS1002での位置姿勢計測結果と予測済みリストとを参照することで分かる。
そして対象物体選択部915は、次に把持すべき対象物体を選択できた場合には、ステップS1002で求めた位置姿勢のうち、把持候補の位置姿勢として選択した位置姿勢を、把持指示部916に対して送出する。そして処理はステップS1003に進む。
次に把持すべき対象物体を選択できない場合は、対象物体選択部915は、パレット904を揺動する不図示の機構に対して、パレット904の揺動指示を出し、その後、処理はステップS1001に戻る。また、対象物体選択部915は、予測済みリストを初期化する。
ステップS1009では、終了指示があったかどうかを判定する。終了指示がなければ予測済みリストを初期化し、ステップS1001に戻る。終了指示があればフローを終了して全ての動作を停止する。なお、ステップS1009での終了判定を待たずに、ユーザが図示しない緊急停止ボタンを押すことによりフローを終了して全ての動作を停止してもよい。
このように、本実施形態では、対象物体の位置姿勢を固定的に配置したセンサを利用して計測し、予め用意した取出し成功範囲情報と比較することでロボットによる取出し状態を予測する。ロボットによる取出しに失敗すると予測した場合は、パレット内にある対象物体の位置姿勢に基づき撮影画像上で一番近い位置の対象物体を相互作用のある対象物体として選択して把持指示する。このようにすることで、取出しに失敗すると予測した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗すると予測した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗すると予測した対象物体を把持しないため、作業工程のタクトタイムを短くすることができる。
<変形例>
第3の実施形態では、パレット内にある対象物体の位置姿勢に基づき撮影画像上で一番近い位置の対象物体を次の把持候補とした。これに対する変形例として、取出しに失敗すると予測した対象物体に重なっている対象物体を次の把持候補とすることもできる。対象物体が重なっていることは、図8(a)に示すようにステップS1002で対象物体の位置姿勢計測を行った際のモデルを撮影画像に投影配置して外形が干渉していることから判定してもよい。また、図8(b)に示すように対象物体の位置姿勢を元に撮影画像上に対象物体を囲うバウンディングボックスを配置してバウンディングボックス同士が干渉していることから判定してもよい。なお、2つの領域の干渉判定については既知の技術であるためここでは説明を省略する。
このように、第3の実施形態の変形例では取り出しに失敗すると予測した対象物体に重なった対象物体を次の把持対象にするため、確実に取り出しに失敗すると予測した対象物体を動かすことができる。
[第4の実施形態]
本実施形態では、ロボットでの取出しに失敗すると予測した場合、パレット内にある対象物体の位置姿勢に基づき3次元空間的に相互作用のある対象物体を選択する。本実施形態と第3の実施形態との差異は、対象物体選択部915の動作(S1007)のみである。然るに以下では、本実施形態における対象物体選択部915の動作について説明し、以下で特に説明しない限りは、第3の実施形態と同様であるものとする。
対象物体選択部915は、予測部914からロボット900による取出しが失敗するという予測情報を受け取り、さらに位置姿勢計測処理部913から出力された位置姿勢を受け取る。これらの情報を受け取った対象物体選択部915は、ロボット900が次に把持すべき対象物体を選択する。対象物体選択部915は、次に把持すべき対象物体の位置姿勢情報を把持指示部916に対して出力する。
ステップS1007では、次に把持すべき対象物体を選択するため、予測部914が対象物体選択部915に対して取出しが失敗するという予測情報を出力する。対象物体選択部915は、予測部914から出力された予測情報、位置姿勢計測処理部913から出力された対象物体の位置姿勢、予測済みリスト、を用いて、次に把持すべき対象物体を選択する。
次に把持すべき対象物体を選択する方法について説明する。本実施形態ではステップS1002で位置姿勢を計測した対象物体のうち予測済みリストに登録されている対象物体を除き、センサ部901から見て取出しに失敗すると予測した対象物体より3次元空間的に奥の位置の対象物体を次に把持すべき対象物体とする。ここで、「センサ部901から見て取出しに失敗すると予測した対象物体より3次元空間的に奥の位置」とは「センサ部901から取出しに失敗すると予測した対象物体までの距離より長い距離の位置」ことを意味する。
取出しに失敗すると予測した対象物体よりも下にある対象物体をロボット900が把持することで、上にある取出しに失敗すると予測した対象物体の位置姿勢を積極的に変えることができる。なお、取出しに失敗すると予測した対象物体よりも下にあるというのは、重なるように下にある場合も含むし、センサ部901による撮影画像的には離れていても他の対象物体を経由して相互作用を与える場合も含むことは言うまでもない。3次元空間中での位置は、対象物体の位置姿勢を計測したときのモデル重心位置とする。モデル重心位置は対象物体の位置姿勢を規定するローカル座標系からワークスペース座標系に変換しておく。
単にセンサ部901からの距離に基づいて対象物体を選択してもよいし、パレット内の対象物体の山積みを山ごとに領域分割し、取出しに失敗すると予測した対象物体と同じ山内に存在し、かつ奥にある対象物体を次に把持すべき対象物体として選択してもよい。この技術は、第2の実施形態ですでに説明したため、これに係る説明は省略する。
上記のように本実施形態では、ロボットによる取出しに失敗すると予測した場合、パレット内にある対象物体の位置姿勢に基づきセンサ部901から見て取出しに失敗すると予測した対象物体より3次元空間的に奥の位置にある対象物体を選択して把持指示する。このようにすることで、取出しに失敗すると予測した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗すると予測した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗すると予測した対象物体よりも下にある対象物体を次の把持対象にするため山積みの山を崩すことができ、確実に取出しに失敗すると予測した対象物体を動かすことができる。
<変形例>
第4の実施形態では、パレット内にある対象物体の位置姿勢に基づき取出しに失敗すると予測した対象物体よりも下にある対象物体を次の把持候補とした。第4の実施形態の変形例として、取出しに失敗すると予測した対象物体に3次元的に干渉している対象物体を次の把持候補にすることもできる。対象物体が干渉していることは、ステップS1002で対象物体の位置姿勢計測を行った際のモデルを3次元空間に配置してモデル表面が干渉している、あるいは極めて近接している位置(例えば1mm以内)にあることから判定してもよい。また、対象物体の位置姿勢を元に3次元空間に対象物体を囲うバウンディングボックスを配置してバウンディングボックス同士が干渉していることから判定してもよい。2つの空間の干渉判定については既知の技術であるためここでは説明を省略する。
上記のように、第4の実施形態の変形例では、取出しに失敗すると予測した対象物体に干渉している対象物体を次の把持対象にするため、確実に取出しに失敗すると予測した対象物体を動かすことができる。
なお、第3,4の実施形態及びそれらの変形例は、次の構成の一例過ぎず、次の構成に沿った構成であれば、如何なる変形、変更を行っても良い。即ち、センサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める。そして、上記1以上の対象物体のうちの1つの対象物体について求めた結果に基づいて、ロボットが有する把持部が該1つの対象物体の把持に成功するか否かを予測する。失敗すると予測した場合には、上記1以上の対象物体のうち上記1つの対象物体に対して相互作用のある1つを選択し、選択した1つの対象物体を把持部に把持させる。
[第5の実施形態]
第1,2の実施形態では、対象物体の位置姿勢を固定されたセンサ部を用いて計測し、対象物体の取出し状態をロボットに装着したセンサ部を用いて計測した。この変形例として、対象物体の位置姿勢をロボットに装着したセンサ部を用いて計測し、対象物体の取出し状態を固定されたセンサ部を用いて計測してもよい。
また、第3,4の実施形態では、対象物体の位置姿勢を固定されたセンサ部を用いて計測したが、ロボットに装着したセンサ部を用いて計測してもよい。
また、第1〜4の実施形態では、位置姿勢計測処理部113(913)で対象物体の位置姿勢を計測したが、近い対象物体や下にある対象物体を選択するために位置のみを計測してもよい。
また、第1〜4の実施形態では、センサ部101(901)をパレット104(904)の上方に固定的に配置していたが、パレット104(904)に対して斜めあるいは横に近い位置姿勢に配置してもよい。第2,4の実施形態では、取出しに失敗した、あるいは取出しに失敗すると予測した対象物体の下にある対象物体を次に把持すべき対象物体として選択するため、センサ部101(901)から見て奥にある対象物体を選択した。センサ部101(901)をパレット104(904)に対して斜めあるいは横に近い位置姿勢に配置した場合は、3次元空間的な配置から幾何変換を行い対象物体の下にある対象物体を選択する。
また、第1,2の実施形態では、ロボットに装着したセンサ部を利用して取出し状態を計測したが、ロボットの制御パラメータを利用して取出し状態を計測してもよい。例えばロボットハンドが対象物体を取出す時の把持角度(もしくはトルクや吸着圧力)といった制御パラメータと予め定めたロボットの制御パラメータとが異なると判断した場合、取出しが失敗したと判断して次に把持すべき対象物体を選択し、把持を指示する。
また、センサ部101とセンサ部102とを同じセンサ部で構成してもよい。具体的にはロボットに装着したセンサ部102にセンサ部101の役割も持たせることで実現する。まず、ロボット100によりセンサ部102をパレット104の上方に配置してパレット内の対象物体の位置姿勢を計測する。ロボット100による対象物体の把持を行ったらセンサ部102で把持している対象物体の取出し状態を計測する。取出しに失敗していると判断したら、センサ部102を用いて計測した対象物体の位置姿勢に基づいて次に把持すべき対象物体を選択し、把持することを指示する。
また、センサ部101、102、901は対象物体に関する3次元情報(距離画像や3次元点群データ)を取得するセンサ部(距離画像センサや3次元点群計測センサ)であってもよい。距離画像を取得するセンサ部としては、プロジェクタとカメラからなる距離画像センサや、各画素までの奥行きを光伝播時間によって計測するTOF型の距離画像センサなどを用いることができる。また、2次元配列に並ぶ画像状の距離データになっていなくとも、まばらな点群として計測されている3次元点群データであってもよい。また、1次元ラインセンサを走査して距離画像や3次元点群データといった3次元情報を取得してもよい。
また、上記ではモデル情報保持部112に保持されたモデルを利用した位置姿勢計測について説明を行ったが、センサ部101、センサ部102、センサ部901をそれぞれステレオカメラで構成してステレオ計測により対象物体の位置姿勢計測を行ってもよい。
また、上記の説明では対象物体に対する作業を行うロボットを用いたが、ロボットを用いることに限らない。例えば、直動ステージと回転ステージを組み合わせた機構部で構成され、ステージの制御によって位置姿勢を変更しても良い。
また、図1,9に示した画像処理部110(910)は、一般のPC(パーソナルコンピュータ)を用いて実現することができる。例えば、モデル情報保持部112(912)をハードディスク装置で構成する。そして、画像処理部110(910)においてモデル情報保持部112(912)以外の各部の機能をPCのCPUに実行させるためのコンピュータプログラムやデータをこのハードディスク装置に格納しておく。CPUは、ハードディスク装置に格納されているコンピュータプログラムやデータを適宜RAM等のメモリにロードし、該コンピュータプログラムやデータを用いて処理を実行できる。これにより、結果としてPCは、画像処理部110(910)の機能を実現することができる。
<各実施形態の効果>
第1の実施形態では、対象物体の位置姿勢を固定的に配置したセンサを利用して計測し、ロボットによる取出し状態をロボットに装着したセンサを利用して計測する。ロボットによる取出しに失敗したと判断した場合は、パレット内にある対象物体の位置姿勢に基づき2次元画像上で一番近い位置の対象物体を相互作用のある対象物体として選択して把持指示する。このようにすることで、取出しに失敗した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。
第1の実施形態の変形例では、取出しに失敗した対象物体に重なった対象物体を次の把持対象にするため、確実に取出しに失敗した対象物体を動かすことができる。
第2の実施形態では、ロボットによる取出しに失敗したと判断した場合は、パレット内にある対象物体の位置姿勢に基づき、センサ部101から見て取出しに失敗した対象物体より3次元空間的に奥の位置にある対象物体を選択して把持指示する。このようにすることで、取出しに失敗した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗した対象物体よりも下にある対象物体を次の把持対象にするため、山積みの山を崩すことができ、確実に取出しに失敗した対象物体を動かすことができる。
第2の実施形態の変形例では、取出しに失敗した対象物体に干渉している、もしくは近接している対象物体を次の把持対象にするため、確実に取出しに失敗した対象物体を動かすことができる。
第3の実施形態では、対象物体の位置姿勢を固定的に配置したセンサを利用して計測し、予め用意した取出し成功範囲情報と比較することでロボットによる取出し状態を予測する。ロボットによる取出しに失敗すると予測した場合は、パレット内にある対象物体の位置姿勢に基づき2次元画像上で一番近い位置の対象物体を相互作用のある対象物体として選択して把持指示する。このようにすることで、取出しに失敗すると予測した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗すると予測した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗すると予測した対象物体を把持しないため、作業工程のタクトタイムを短くすることができる。
第3の実施形態の変形例では、取出しに失敗すると予測した対象物体に重なった対象物体を次の把持対象にするため、確実に取出しに失敗すると予測した対象物体を動かすことができる。
第4の実施形態では、ロボットによる取出しに失敗すると予測した場合は、パレット内にある対象物体の位置姿勢に基づきセンサ部901から見て取出しに失敗すると予測した対象物体より3次元空間的に奥の位置にある対象物体を選択して把持指示する。このようにすることで、取出しに失敗すると予測した対象物体を積極的に動かすことができ、把持対象の候補を減らさずに効率的な作業を行うことができる。また、次の対象物体を把持することと、取出しに失敗すると予測した対象物体を動かすこととを同時に行うため、作業工程のタクトタイムを短くすることができる。また、取出しに失敗すると予測した対象物体よりも下にある対象物体を次の把持対象にするため、山積みの山を崩すことができ、確実に取出しに失敗すると予測した対象物体を動かすことができる。また、取出しに失敗すると予測した対象物体を把持しないため、作業工程のタクトタイムを短くすることができる。
第4の実施形態の変形例では、取出しに失敗すると予測した対象物体に干渉している、もしくは近接している対象物体を次の把持対象にするため、確実に取出しに失敗すると予測した対象物体を動かすことができる。
<定義>
上記の「取出し状態」は、ロボットが対象物体を取出した状態、もしくは取出す状態を示すものであればどのようなものであってもよい。取出し状態の例としては、第1の実施形態、第2の実施形態の対象物体の把持が成功したか否かを示す情報であってもよいし、第3の実施形態、第4の実施形態の対象物体の把持が成功するか否かを示す情報であってもよい。
また、「相互作用のある対象物体」は、取出しに失敗した対象物体、もしくは取出しに失敗すると予測した対象物体を動かすことができる対象物体であればどのようなものであってもよい。相互作用のある対象物体の例としては、第1,3の実施形態の近い位置にある対象物体であってもよいし、第1,3の実施形態の変形例の重なっている対象物体であってもよい。また、第2,4の実施形態の第1のセンサから見て奥にある、即ち下にある対象物体であってもよいし、第2,4の実施形態の変形例の干渉している、もしくは近接している対象物体であってもよい。
また、上記の「第1のセンサ」は、パレット内の対象物体の位置姿勢を計測するものであればどのようなものであってもよい。第1のセンサの例としては、第1,2の実施形態の固定的に配置されたセンサであってもよいし、その他の実施形態のロボットに装着したセンサであってもよい。
また、上記の「第2のセンサ」は、ロボットによる対象物体の取出し状態を計測するものであればどのようなものであってもよい。第2のセンサの例としては、第1の実施形態のロボットに装着したセンサであってもよいし、その他の実施形態の固定的に配置されたセンサであってもよい。また、上述したように、ロボットの制御パラメータを利用して取出し状態を計測してもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 第1のセンサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める計算手段と、
    把持部を有するロボットを制御して、前記1以上の対象物体のうち1つの対象物体を把持対象物体として前記把持部に把持させる制御手段と、
    前記把持部が把持している対象物体を計測するための第2のセンサが前記制御後に行った計測の結果から、前記把持部が把持対象物体の把持に成功しているか否かを判断する判断手段と、
    前記把持部が前記把持対象物体の把持に失敗している場合、前記1以上の対象物体のうち前記把持対象物体に対して相互作用のある1つを選択する選択手段とを備え、
    前記制御手段は、前記選択手段が選択した対象物体を前記把持部に把持させるように前記ロボットを制御する
    ことを特徴とする情報処理装置。
  2. 前記計算手段は、
    前記第1のセンサが撮影した前記集合の撮影画像を取得し、該撮影画像を用いて、前記1以上の対象物体の位置姿勢を求めることを特徴とする請求項1に記載の情報処理装置。
  3. 前記判断手段は、
    前記第2のセンサが撮影した撮影画像を取得し、該撮影画像を用いて、前記把持対象物体の位置姿勢を求めるための計算処理を行い、
    該計算処理が失敗した場合には、前記把持部が把持対象物体の把持に失敗したと判断する
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記選択手段は、
    前記1以上の対象物体のうちこれまでに未選択の対象物体であって前記把持対象物体に最も近い位置の対象物体を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記選択手段は、
    前記1以上の対象物体のうちこれまでに未選択の対象物体であって前記把持対象物体と重なっている対象物体を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記選択手段は、
    前記1以上の対象物体のうちこれまでに未選択の対象物体であって前記第1のセンサからの距離が前記把持対象物体よりも遠い対象物体を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記選択手段は、
    前記1以上の対象物体のうちこれまでに未選択の対象物体であって前記把持対象物体と近接している対象物体を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  8. 更に、
    前記ロボットと、
    前記第1のセンサと、
    前記第2のセンサと
    を備えることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. センサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める計算手段と、
    前記1以上の対象物体のうちの1つの対象物体について前記計算手段が求めた結果に基づいて、ロボットが有する把持部が該1つの対象物体の把持に成功するか否かを予測する予測手段と、
    前記予測手段が失敗すると予測した場合には、前記1以上の対象物体のうち前記1つの対象物体に対して相互作用のある1つを選択する選択手段と、
    前記ロボットを制御して、前記選択手段が選択した1つの対象物体を前記把持部に把持させる制御手段と
    を備えることを特徴とする情報処理装置。
  10. 更に、
    前記ロボットと、
    前記センサと
    を備えることを特徴とする請求項9に記載の情報処理装置。
  11. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の計算手段が、第1のセンサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める計算工程と、
    前記情報処理装置の制御手段が、把持部を有するロボットを制御して、前記1以上の対象物体のうち1つの対象物体を把持対象物体として前記把持部に把持させる制御工程と、
    前記情報処理装置の判断手段が、前記把持部が把持している対象物体を計測するための第2のセンサが前記制御後に行った計測の結果から、前記把持部が把持対象物体の把持に成功しているか否かを判断する判断工程と、
    前記情報処理装置の選択手段が、前記把持部が前記把持対象物体の把持に失敗している場合、前記1以上の対象物体のうち前記把持対象物体に対して相互作用のある1つを選択する選択工程とを備え、
    前記制御工程では、前記選択工程で選択した対象物体を前記把持部に把持させるように前記ロボットを制御する
    ことを特徴とする情報処理方法。
  12. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の計算手段が、センサを用いて対象物体の集合を計測した結果から、1以上の対象物体の位置姿勢を求める計算工程と、
    前記情報処理装置の予測手段が、前記1以上の対象物体のうちの1つの対象物体について前記計算工程で求めた結果に基づいて、ロボットが有する把持部が該1つの対象物体の把持に成功するか否かを予測する予測工程と、
    前記情報処理装置の選択手段が、前記予測工程で失敗すると予測した場合には、前記1以上の対象物体のうち前記1つの対象物体に対して相互作用のある1つを選択する選択工程と、
    前記情報処理装置の制御手段が、前記ロボットを制御して、前記選択工程で選択した1つの対象物体を前記把持部に把持させる制御工程と
    を備えることを特徴とする情報処理方法。
  13. コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2012053687A 2012-03-09 2012-03-09 情報処理装置、情報処理方法 Active JP5977544B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012053687A JP5977544B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法
US13/781,644 US9156162B2 (en) 2012-03-09 2013-02-28 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053687A JP5977544B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2013184279A true JP2013184279A (ja) 2013-09-19
JP2013184279A5 JP2013184279A5 (ja) 2015-03-26
JP5977544B2 JP5977544B2 (ja) 2016-08-24

Family

ID=49114798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053687A Active JP5977544B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9156162B2 (ja)
JP (1) JP5977544B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089588A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2015157339A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
WO2016185512A1 (ja) * 2015-05-15 2016-11-24 富士機械製造株式会社 アームロボット
JP2019063907A (ja) * 2017-09-29 2019-04-25 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
WO2019163018A1 (ja) * 2018-02-21 2019-08-29 株式会社Fuji 部品実装システム及び、部品保持方法
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
JP2019188580A (ja) * 2018-04-27 2019-10-31 キヤノン株式会社 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
JP2020110916A (ja) * 2020-04-07 2020-07-27 オムロン株式会社 アクチュエータ制御システム、センサ装置、制御装置、アクチュエータ制御方法、情報処理プログラム、および記録媒体
WO2020158060A1 (ja) * 2019-01-29 2020-08-06 日本金銭機械株式会社 物体把持システム
WO2021029064A1 (ja) * 2019-08-15 2021-02-18 オムロン株式会社 情報処理装置及び情報処理方法

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6049334B2 (ja) 2012-07-12 2016-12-21 キヤノン株式会社 検出装置、検出方法及びプログラム
JP6031293B2 (ja) 2012-08-03 2016-11-24 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
JP6021531B2 (ja) 2012-08-31 2016-11-09 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US9772173B2 (en) * 2013-06-27 2017-09-26 Faro Technologies, Inc. Method for measuring 3D coordinates of a surface with a portable articulated arm coordinate measuring machine having a camera
KR101459479B1 (ko) * 2013-07-01 2014-11-07 현대자동차 주식회사 올인원 지그리스 프로젝션 로딩 시스템 및 이를 이용한 차체 부품 조립 방법
JP2015147256A (ja) 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
CN105313127A (zh) * 2014-06-02 2016-02-10 精工爱普生株式会社 机器人、机器人的控制方法以及机器人的控制装置
US10021379B2 (en) 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
US9402070B2 (en) 2014-06-12 2016-07-26 Faro Technologies, Inc. Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US9506744B2 (en) 2014-12-16 2016-11-29 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
FR3031048B1 (fr) * 2014-12-24 2016-12-30 Solystic Machine de tri postal avec une entree d'alimentation comprenant un bras robotise et un convoyeur a plat incline
FR3032365B1 (fr) * 2015-02-10 2017-02-03 Veolia Environnement-VE Procedure de tri selectif
FR3032364B1 (fr) * 2015-02-11 2017-01-27 Solystic Installation pour la separation et l'individualisation d'objets postaux heterogenes avec un systeme de vision a sources laser
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
JP6582530B2 (ja) * 2015-05-11 2019-10-02 富士通株式会社 支援プログラム、支援方法および支援装置
US11964304B2 (en) 2015-07-16 2024-04-23 Sortera Technologies, Inc. Sorting between metal alloys
US10932874B2 (en) * 2015-08-25 2021-03-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP2017189856A (ja) * 2016-04-15 2017-10-19 オムロン株式会社 アクチュエータ制御システム、アクチュエータ制御方法、情報処理プログラム、および記録媒体
US10131051B1 (en) * 2016-08-12 2018-11-20 Amazon Technologies, Inc. Anticipation-based robotic object grasping
JP2018034242A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
US10576507B2 (en) * 2016-12-07 2020-03-03 Kindred Systems Inc. Systems, devices, articles and methods for the partition of items
KR101864329B1 (ko) * 2016-12-07 2018-06-05 한화에어로스페이스 주식회사 로봇 암 제어 시스템 및 방법
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6773588B2 (ja) 2017-03-10 2020-10-21 株式会社東芝 搬送装置
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
DE112017007399B4 (de) * 2017-04-04 2021-09-23 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
JP6325174B1 (ja) 2017-04-04 2018-05-16 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法
DE112017007394B4 (de) 2017-04-04 2020-12-03 Mujin, Inc. Informationsverarbeitungsvorrichtung, Greifsystem, Verteilersystem, Programm und Informationsverarbeitungsverfahren
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
CN107186708B (zh) * 2017-04-25 2020-05-12 珠海智卓投资管理有限公司 基于深度学习图像分割技术的手眼伺服机器人抓取系统及方法
US10401956B2 (en) * 2017-05-11 2019-09-03 Microsoft Technology Licensing, Llc Infrared eye-tracking in high ambient light conditions
US10761542B1 (en) 2017-07-11 2020-09-01 Waymo Llc Methods and systems for keeping remote assistance operators alert
US11007648B2 (en) * 2017-09-05 2021-05-18 Abb Schweiz Ag Robotic system for grasping objects
US11358290B2 (en) 2017-10-19 2022-06-14 Canon Kabushiki Kaisha Control apparatus, robot system, method for operating control apparatus, and storage medium
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
CN111344119B (zh) * 2017-11-27 2023-06-20 Abb瑞士股份有限公司 用于机器人的装置和方法
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法
EP3763448B1 (de) * 2019-07-12 2022-05-11 BEUMER Group GmbH & Co. KG Verfahren und vorrichtung zum erzeugen und aufrechterhalten einer zuordnung von gegenstandsdaten und position eines gegenstands
WO2021077044A1 (en) * 2019-10-16 2021-04-22 Robert A Montano System and method for unique identification of items
JP7395451B2 (ja) * 2020-09-16 2023-12-11 株式会社東芝 ハンドリング装置、処理装置、コントローラ及びプログラム
WO2023076186A1 (en) * 2021-10-29 2023-05-04 Sortera Alloys, Inc. Metal separation in a scrap yard

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163975A (ja) * 1986-12-26 1988-07-07 Toyota Motor Corp ロボットを用いた物体の取出し方法
JP2001179669A (ja) * 1999-12-21 2001-07-03 Meidensha Corp ロボットの制御装置
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP2007313624A (ja) * 2006-05-29 2007-12-06 Fanuc Ltd ワーク取り出し装置及び方法
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2011073066A (ja) * 2009-09-29 2011-04-14 Canon Inc 物体把持制御方法及び装置
JP2011131300A (ja) * 2009-12-22 2011-07-07 Canon Inc ロボットシステム、その制御装置及び方法
JP2012024903A (ja) * 2010-07-27 2012-02-09 Fanuc Ltd ワーク取出し装置およびワーク取出し方法

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402053A (en) 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4412293A (en) 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
JPS60200385A (ja) 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
US4639878A (en) 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4831549A (en) 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US5501498A (en) * 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4942539A (en) 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
JP2637546B2 (ja) 1989-03-22 1997-08-06 キヤノン株式会社 X線露光装置
US4985846A (en) 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
US5325468A (en) 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
US5499306A (en) 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JPH0970780A (ja) 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
US5943476A (en) 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
US6101455A (en) 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3428920B2 (ja) 1999-03-25 2003-07-22 キヤノン株式会社 視点位置検出装置、方法及び立体画像表示システム
JP3300682B2 (ja) 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3377465B2 (ja) 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3556589B2 (ja) 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP3647376B2 (ja) 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6730926B2 (en) 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
JP2003098215A (ja) 2001-09-26 2003-04-03 Canon Inc 電力変換システムにおける地絡検出のための装置及び方法
WO2003037573A2 (en) * 2001-10-31 2003-05-08 Ross-Hime Designs, Incoporated Robotic manipulator
JP4130780B2 (ja) * 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
WO2004028753A2 (en) * 2002-09-26 2004-04-08 Barrett Technology, Inc. Intelligent, self-contained robotic hand
US7295893B2 (en) * 2003-03-31 2007-11-13 Kabushiki Kaisha Toshiba Manipulator and its control apparatus and method
JP4401728B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4522129B2 (ja) 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US7739306B2 (en) 2004-04-14 2010-06-15 Verisign, Inc. Method and apparatus for creating, assembling, and organizing compound media objects
DE102004021892B4 (de) 2004-05-04 2010-02-04 Amatec Robotics Gmbh Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4958497B2 (ja) 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
US7313464B1 (en) 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5153468B2 (ja) 2008-06-12 2013-02-27 キヤノン株式会社 無線通信装置及びその通信方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
JP5393318B2 (ja) 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
CN102292194B (zh) * 2009-08-21 2015-03-04 松下电器产业株式会社 机器人手臂的控制装置及控制方法、装配机器人、机器人手臂的控制程序及机器人手臂的控制用集成电路
JP4699572B2 (ja) * 2009-09-28 2011-06-15 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
JP5395615B2 (ja) 2009-10-27 2014-01-22 キヤノン株式会社 無線通信装置、無線通信装置の制御方法及びプログラム
JP5460341B2 (ja) 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5229253B2 (ja) 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9014857B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163975A (ja) * 1986-12-26 1988-07-07 Toyota Motor Corp ロボットを用いた物体の取出し方法
JP2001179669A (ja) * 1999-12-21 2001-07-03 Meidensha Corp ロボットの制御装置
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP2007313624A (ja) * 2006-05-29 2007-12-06 Fanuc Ltd ワーク取り出し装置及び方法
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2011073066A (ja) * 2009-09-29 2011-04-14 Canon Inc 物体把持制御方法及び装置
JP2011131300A (ja) * 2009-12-22 2011-07-07 Canon Inc ロボットシステム、その制御装置及び方法
JP2012024903A (ja) * 2010-07-27 2012-02-09 Fanuc Ltd ワーク取出し装置およびワーク取出し方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
CN104608150A (zh) * 2013-11-05 2015-05-13 发那科株式会社 通过机器人取出放置在三维空间中的物品的装置及方法
US9503704B2 (en) 2013-11-05 2016-11-22 Fanuc Corporation Apparatus and method for picking up article disposed in three-dimensional space using robot
US9721184B2 (en) 2013-11-05 2017-08-01 Fanuc Corporation Apparatus and method for picking up article randomly piled using robot
JP2015089588A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP2015157339A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
WO2016185512A1 (ja) * 2015-05-15 2016-11-24 富士機械製造株式会社 アームロボット
JPWO2016185512A1 (ja) * 2015-05-15 2018-03-01 富士機械製造株式会社 アームロボット
US10434652B2 (en) 2017-05-19 2019-10-08 Fanuc Corporation Workpiece picking system
JP2019063907A (ja) * 2017-09-29 2019-04-25 セイコーエプソン株式会社 ロボット、制御装置、及びロボットシステム
WO2019163018A1 (ja) * 2018-02-21 2019-08-29 株式会社Fuji 部品実装システム及び、部品保持方法
JPWO2019163018A1 (ja) * 2018-02-21 2020-12-03 株式会社Fuji 部品実装システム及び、部品保持方法
JP7110318B2 (ja) 2018-02-21 2022-08-01 株式会社Fuji 部品実装システム及び、部品保持方法
US11490553B2 (en) 2018-02-21 2022-11-01 Fuji Corporation Component mounting system and component grasping method
JP2019188580A (ja) * 2018-04-27 2019-10-31 キヤノン株式会社 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
JP7154815B2 (ja) 2018-04-27 2022-10-18 キヤノン株式会社 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
WO2020158060A1 (ja) * 2019-01-29 2020-08-06 日本金銭機械株式会社 物体把持システム
JP2020121352A (ja) * 2019-01-29 2020-08-13 日本金銭機械株式会社 物体把持システム
WO2021029064A1 (ja) * 2019-08-15 2021-02-18 オムロン株式会社 情報処理装置及び情報処理方法
JPWO2021029064A1 (ja) * 2019-08-15 2021-02-18
JP7310895B2 (ja) 2019-08-15 2023-07-19 オムロン株式会社 情報処理装置及び情報処理方法
JP2020110916A (ja) * 2020-04-07 2020-07-27 オムロン株式会社 アクチュエータ制御システム、センサ装置、制御装置、アクチュエータ制御方法、情報処理プログラム、および記録媒体

Also Published As

Publication number Publication date
US9156162B2 (en) 2015-10-13
US20130238124A1 (en) 2013-09-12
JP5977544B2 (ja) 2016-08-24

Similar Documents

Publication Publication Date Title
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP5975685B2 (ja) 情報処理装置、情報処理方法
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP2020055096A (ja) 情報処理装置、情報処理方法及びシステム
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2012101320A (ja) 画像生成装置、画像生成方法、およびプログラム
WO2020158060A1 (ja) 物体把持システム
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2021039775A1 (ja) 画像処理装置、撮像装置、ロボット及びロボットシステム
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
CN111745639B (zh) 信息处理方法及装置、物体检测装置以及机器人系统
US20240003675A1 (en) Measurement system, measurement device, measurement method, and measurement program
Fan et al. An automatic robot unstacking system based on binocular stereo vision
WO2021149429A1 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP2022142773A (ja) オブジェクトのカメラ画像からオブジェクトの場所を位置特定するための装置及び方法
JP7066671B2 (ja) 干渉判定装置、干渉判定方法、プログラム及びシステム
JP7249221B2 (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R151 Written notification of patent or utility model registration

Ref document number: 5977544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151