JP5769411B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP5769411B2
JP5769411B2 JP2010279673A JP2010279673A JP5769411B2 JP 5769411 B2 JP5769411 B2 JP 5769411B2 JP 2010279673 A JP2010279673 A JP 2010279673A JP 2010279673 A JP2010279673 A JP 2010279673A JP 5769411 B2 JP5769411 B2 JP 5769411B2
Authority
JP
Japan
Prior art keywords
range
information
information processing
estimation
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010279673A
Other languages
English (en)
Other versions
JP2012125878A (ja
Inventor
山本 貴久
貴久 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010279673A priority Critical patent/JP5769411B2/ja
Priority to US13/316,268 priority patent/US9083855B2/en
Publication of JP2012125878A publication Critical patent/JP2012125878A/ja
Application granted granted Critical
Publication of JP5769411B2 publication Critical patent/JP5769411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、ばら積みされた物体を取り出すための技術に関するものである。
ばら積みされたワークをカメラ等で撮影し、その撮影画像から各ワークの位置や姿勢を推定してロボットに把持させて順次ワークを取り出す場合に、各ワークの位置や姿勢の推定を高速に、また正確に行う手法が例えば特許文献1、2に開示されている。
特許文献1に開示される技術は、取り出したワークに関するサイズの推定結果を用いて、次回以降行うサイズ推定に制約条件を設けることで、推定精度の向上を図っている。
特許文献2に開示される技術は、ワークのばら積みの状態が取り出し作業によって変化したか否かを判断し、次回取り出すワークの周辺でばら積み状態が変化していないと判断された場合には、次回のワーク取り出し時に撮影を行わないことで高速化を図っている。
特許第4087874号公報 特許第4199264号公報
上述したように、ばら積みされたワークから順次ワークを取り出すには、ワークの位置や姿勢を推定する必要がある。しかも、作業効率の面から、その推定に要する時間は短いほうが好ましい。
特許文献1に開示される技術は、今回取り出したワークのサイズ推定結果を用いて、次回以降のサイズ推定に制限を加えるものである。従って、今回取り出したワークのサイズと、次回取出すワークのサイズとの間に何らかの関連があるという前提が必要となる。しかしながら、ばら積みされたワークに対して、その位置や姿勢を推定することを考えた場合、今回取り出したワークの位置や姿勢と、次回取出すワークの位置や姿勢との間には関係性は乏しく、特許文献1に開示される技術を適用することは困難である。
また、特許文献2に開示される技術は、ばら積み状態が変化した場合の高速化については考慮されていない。
そこで、本発明の目的は、物体の状態の推定処理を高速化させることにある。
本発明の情報処理装置は、撮像手段により複数の物体が撮像された画像データに基づいて、前記複数の物体の状態を推定する推定手段と、前記推定手段により推定された前記複数の物体の状態を示す第1の状態情報に基づいて、前記複数の物体から取り出される物体を選定する選定手段と、前記複数の物体のうちの前記物体以外の他の物体の状態を示す第2の状態情報に基づいて、前記他の物体の状態の推定処理を制限する範囲を示す制限範囲情報を生成する生成手段とを有し、前記推定手段は、前記制限範囲情報に従って、前記他の物体の状態を推定することを特徴とする。
本発明によれば、物体の状態の推定処理を高速化することが可能となる。
本発明の実施形態に係るワーク取り出しシステムの構成を示す図である。 代表姿勢を説明するための測地ドームと呼ばれる考え方を示す図である。 5つの代表姿勢におけるワークの様子(a)〜(e)を示す図である。 ワークの位置や姿勢を推定する手法を説明するための図である。 ワークの位置や姿勢を推定する処理を示すフローチャートである。 制限範囲情報の一例を概念的に示す図である。 ワーク状態認識処理部による位置姿勢推定結果と、制限範囲設定部に対して入力される取り出し前状態情報との一例を示す図である。 本発明の実施形態に係るワーク取り出しシステムの動作を示すフローチャートである。 制限範囲情報を用いた場合におけるワーク状態認識処理部の処理を示すフローチャートである。 本発明の実施形態における制限範囲設定部の動作を示すフローチャートである。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係るワーク取り出しシステムの構成を示す図である。図1において、101は、ロボットアームである。102は、ロボットアーム101のエンドエフェクタであるハンド機構である。106は、把持対象物であるワークである。105は、トレイである。トレイ105には、把持される前の多数のワーク(物体)106がばら積み状態で積載されている。
103は、撮像装置として用いられるカメラである。カメラ103は、不図示のシステム内のフレーム上部若しくは天井等に固定的に取り付けられており、トレイ105及びその上にばら積みされている複数のワーク106の状態を撮影し、画像データを生成することが可能である。
104は、ロボットコントローラである。ロボットコントローラ104は、画像処理部107から受け取るワーク106の位置や姿勢を基に、ロボットアーム101、ハンド102に対してワーク106を取り出すように制御を行う。ここでロボットコントローラ104は、一般的にコンピュータから構成されるが、本発明ではその構成を限定するものではない。
107は画像処理部である。画像処理部107は、カメラ制御部108、ワーク状態推定部109及び取り出しワーク選定部110から構成される。カメラ制御部108は、カメラ103により撮影された画像データを取り込むための制御を行う。ワーク状態推定部109は、ワーク状態認識処理部111、制限範囲設定部112及び辞書データ格納部113から構成される。ワーク状態推定部109は、カメラ103が撮影した画像データに対して後述する所定の処理を行い、ばら積みされた複数のワーク106の位置や姿勢の推定を行う。なお、画像処理部107は、本発明の情報処理装置の適用例となる構成である。
110は取り出しワーク選定部である。取り出しワーク選定部110では、ワーク状態推定部109が推定した各ワーク106の位置や姿勢の情報から、ロボットアーム101が今回取出すワーク(ターゲットワーク)を決定し、そのワークの位置と姿勢をロボットコントローラ104に伝える。取り出すワークの選定手法は特に問わないが、例えば把持するために、ロボットコントローラ104の制御が容易であるワークを選択する、或いは、ワーク状態推定部109での位置及び姿勢の推定の信頼度が高いワークを選択する等が考えられる。
辞書データ格納部113は、ワークを球状に包み込んだあらゆる方向から撮影した画像データを、姿勢情報(ワークを包み込んだ球上の緯度、経度)と対応付けて記憶している。但し、実際には、連続的に全ての方向から撮影した画像データを用意することはできないため、ある程度の粒度でサンプリングした代表姿勢の画像データを辞書データとして格納することになる。
図2は、代表姿勢を説明するための図であり、測地ドームと呼ばれる考え方を示している。本実施形態では、測地ドームとして正二十面体を基本にしており、この中心位置にワーク201を配置したときに、正二十面体上の各代表点からみた方向を代表姿勢として定義している。ここで代表点としては、例えば各頂点及び各面中心点等を用いることができる。正二十面体においては頂点の数は16、面の数は20であるので、計36の代表姿勢が定義可能である。さらにそれぞれの代表姿勢に対して、その方向から見た時の面内回転も考慮する必要がある。例えば角度18度刻みの粒度で面内回転を区別する場合には、20通りの面内回転姿勢が存在する。従って、この場合には、36×20=720通りの姿勢があることになる。
図3は、5つの代表姿勢におけるワークの様子(a)〜(e)を示す図である。このように山積み状態では、ワークはカメラ103に対してあらゆる方向を向く可能性があり、さらにその方向でのあらゆる面内回転をする可能性がある。従って、辞書データ格納部104では、あらゆる方向(本実施例では36方向)から取得した画像を辞書データとして持っている。面内回転の画像は、代表姿勢の画像からアフィン変換処理等を用いて容易に生成できるので、辞書データ格納部104には、36方向から撮影したワーク106の画像を格納すればよく、実際の処理時に面内回転の画像を生成すればよい。
ワーク状態認識処理部111は、カメラ制御部108から画像データを受け取り、画像データ中のワークの位置及び姿勢を推定する処理を行う。図4(a)に、カメラ103によって撮影された画像データの一例を示す。図4(a)に示す画像データには、ばら積みされた複数のワークが撮影されている。
ここで、ワーク状態認識処理部111で行われる、ワークの位置や姿勢を推定する手法について、図4及び図5を用いて説明する。ワーク状態認識処理部111は、画像データ(図4(a))に対して、辞書データ格納部113に格納された辞書データをテンプレートとしてスキャンしながら相関処理を行う。図4(b)はその様子を示している。図4(b)において、400は画像データ、401は辞書データ(テンプレート)である。
ワーク状態認識処理部111は、図5のフローチャートに示す処理により、ばら積みされた複数のワークそれぞれの位置や姿勢を推定する。以下、図5を参照しながら、ワークの位置及び姿勢の推定処理について説明する。
先ずステップS500において、ワーク状態認識処理部111は、制限範囲設定部112より制限範囲情報を受け取る。制限範囲情報には、今回、ワーク状態認識処理部111で行われる位置推定、姿勢推定のそれぞれの処理に対する制限が記されている。位置推定に対しては、辞書データを設定する画像データ中の位置に関して制限が設けられる。姿勢推定に対しては、使用する辞書データに制限が設けられる。本実施形態では、制限内の画像データ中の全ての位置に対して、制限内の全ての姿勢に対応する辞書データを適用する場合について説明する。
図6は、制限範囲情報の一例を概念的に示す図である。図6(a)は、位置に関する制限範囲情報の一例を概念的に示している。即ち、図6(a)は、画像データ600において、辞書データの中央を、図中においてドットで表示していない部分(白塗り部分)に対してのみ設定することができるという制限を表している。図6(b)は、姿勢に関する制限範囲情報の一例を概念的に示している。即ち、図6(b)において、601は測地ドームであり、使用する辞書データを、図中においてドットで表示していない部分(白塗り部分)の方向から撮影した辞書データとするという制限を表している。本実施形態では、辞書データを取得する代表点として、各頂点及び各面の中心点としているので、図6(b)の例では、図中の黒丸点(9点)を代表点とする辞書データに限定されることになる。
ステップS501において、ワーク状態認識処理部111は、辞書データ格納部113から、制限範囲内にある姿勢に対応した辞書データを取得する。例えば姿勢に関する制限が図6(b)のようになっている場合には、ワーク状態認識処理部111は、制限内にある9つの辞書データから任意の一つを選択して、辞書データ格納部113から受け取る。
ステップS502において、ワーク状態認識処理部111は、画像データ中に設定された制限範囲内の位置に、辞書データをテンプレートとして設定する。例えば制限範囲内で最も左上の位置にテンプレートが設定される。
ステップS503において、ワーク状態認識処理部111は、その位置におけるテンプレートと画像データとの相関演算を行い、相関値を算出する。本発明では相関演算の手法は問わないので、既知の手法を用いればよい。例えば正規化相関演算により相関値を算出してもよい。
ステップS504において、ワーク状態認識処理部111は、テンプレートを制限範囲内の全ての位置に設定し、相関値を算出したか否かをチェックする。まだテンプレートが全ての位置に設定されていなければ、処理はステップS505に進む。一方、テンプレートが全ての位置に設定されていれば、処理はステップS506に進む。ステップS505において、ワーク状態認識処理部111は、制限範囲内でテンプレートを次の位置に移動する。ステップS506において、ワーク状態認識処理部111は、制限範囲内の全ての辞書データをテンプレートとして設定し、相関値を算出したか否かをチェックする。まだ全ての辞書データがテンプレートとして設定されていなければ、処理はステップS507に進む。ステップS507において、ワーク状態認識処理部111は、制限範囲内で次の姿勢に対応した辞書データを取得する。この場合、制限範囲内での面内回転も考慮して辞書データを更新する。つまり、辞書データ格納部104に記憶している辞書データ(テンプレート)に対して、アフィン変換を行うことで、新たな辞書データとする場合もある。一方、制限範囲内の全ての辞書データ(面内回転を含む)がテンプレートとして設定されたのであれば、処理はステップS508に進む。
ステップS508において、ワーク状態認識処理部111は、これまでに得られた相関値を大きい順にソートし、閾値処理を行う。即ち、ワーク状態認識処理部111は、閾値未満の相関値は破棄する。ステップS509において、ワーク状態認識処理部111は、破棄されなかった相関値に対して統合処理を行って、複数のワークの位置及び姿勢を算出する。本発明では統合処理の手法は問わないので、既知の手法を用いればよい。例えば、近隣位置の相関値をまとめる等の処理を行えばよい。また、ここでは閾値処理してから統合処理を行うとしたが、両者の順番は問わない。また、両者を一体としたような処理でもよい。ワーク状態認識処理部111は、以上のような手順により、複数のワークの位置及び姿勢を推定する。
図7は、ワーク状態認識処理部111による位置姿勢推定結果と、制限範囲設定部112に対して入力される取り出し前状態情報との一例を示す図である。図7(a)は、n+1個のワークに対して位置姿勢推定結果が出力された場合の例を示している。ワーク状態認識処理部111は、それぞれのワークに対して推定した位置情報(横方向位置、縦方向位置、以下、推定位置情報と称す)と、それぞれのワークに対して推定した姿勢情報(測地ドーム上の緯度、経度と、その位置での面内回転角度、以下この3つを、推定姿勢情報と称す)が示されている。また、図7(a)において、それぞれのワークに対して示されるスコアとは、上記統合処理によって統合された相関値を示している。ワーク状態認識処理部111は、図7(a)に示すような位置姿勢推定結果を取り出しワーク選定部110に出力する。
取り出しワーク選定部110は、ワーク状態認識処理部111から入力した位置姿勢推定結果から、ロボットアーム101が今回取出すワーク(ターゲットワーク)を決定する。そして、取り出しワーク選定部110は、そのターゲットワークの推定位置情報及び推定姿勢情報をロボットコントローラ104に伝える。また同時に、ワーク状態認識処理部111は、ターゲットワーク以外のワークの推定位置情報と推定姿勢情報とを取り出し前状態情報として制限範囲設定部112に送る。例えば、図7(a)に示す位置姿勢推定結果に対して、ワークインデックス0のワークがターゲットワークとして選択された場合には、ワークインデックス1〜nのワークの推定位置情報と推定姿勢情報とが取り出し前状態情報に相当する(図7(b))。なお、図7(a)に示す位置姿勢推定結果は、第1の状態情報の例であり、図7(b)に示す取り出し前状態情報は、第2の状態情報の例である。
制限範囲設定部112は、取り出しワーク選定部110から入力した取り出し前状態情報を基に、次回の位置姿勢推定処理に対して適用される制限範囲情報の算出を行う。本実施形態では、取り出し前状態情報に示される推定位置情報、推定姿勢情報のそれぞれに所定の変動幅を付与することで或る範囲を設定し、それらの範囲が示された情報を制限範囲情報とする。
例えば、図7(b)の推定位置情報(X1,Y1)、(X2,Y2)、・・・、(Xn,Yn)に対して所定の変動幅pを付与し、それぞれの推定位置情報により示される位置を中心とした半径pの円内の範囲を、全ての推定位置情報にわたってマージしたものを位置に関する制限範囲情報とする。同様に、図7(b)の推定姿勢(α1,β1,γ1)、(α2,β2,γ2)、・・・、(αn,βn,γn)に対して所定の変動幅qを付与し、それぞれの推定姿勢情報により示される姿勢を中心とした半径qの球内の範囲を、全ての推定姿勢情報にわたってマージしたものを姿勢に関する制限範囲情報とする。
このような制限範囲情報を用いて、図5のフローチャートに示す処理が実行される。従って、本実施形態では、位置に関する制限範囲情報に示される全範囲内の位置に対して、姿勢に関する制限範囲情報に示される全範囲内の姿勢に対応する辞書データを適用することになる。
変動幅p、qは、位置及び姿勢の推定に要する処理時間や、位置及び姿勢の推定精度の予測値や経験値等により決定される。また、ワークのばら積みの状況が変化した領域では、p、qの値を大きくしてもよい。
また上記では、位置に関する制限範囲情報に関して所定の円内としたが、ワーク状態認識処理部111の実際の処理においては、円形に制限するより矩形に制限した方が、処理が容易ということも考えられる。その場合は、所定の円形を外接するような矩形の領域を位置に関する制限範囲情報としてもよい。位置に関する制限範囲情報の一例を概念的に示す図6(a)は、このような場合に相当する。
また上記では、姿勢に関する制限範囲情報に関して所定の球内としたが、本実施形態のように、測地ドームの代表点を用いて姿勢推定の辞書データを作成している場合には、推定姿勢を中心として、測地ドーム上に沿って測定する所定の距離の範囲内に含まれている辞書データを、姿勢に関する制限範囲情報としてもよい。姿勢に関する制限範囲情報の一例を概念的に示す図6(b)は、このような場合に相当する(ただし、面内回転に関する制限範囲情報に関しては図示されていない)。
次に、図8のフローチャートを用いて、本実施形態に係るワーク取り出しシステムの動作について説明する。
ステップS801において、制限範囲設定部112は制限範囲情報を初期化する。制限範囲情報の初期化とは、制限を全廃することを意味する。これは、ばら積みワークの取り出し処理が開始された直後は取り出し前状態情報が存在しないため、制限範囲を算出することができないためである。従って、最初の位置姿勢推定処理では、位置に関する制限範囲情報も姿勢に関する制限範囲情報もなく、画像データ中の全ての位置にテンプレートを設定し、全ての辞書データをテンプレートとして設定することになる。
ステップS802において、カメラ制御部108は、ばら積みワークが写っている画像データを取得する。ステップS803において、ワーク状態推定部109は、カメラ制御部108が入力した画像データに基づいて、複数のワークの位置及び姿勢を推定する。ステップS804において、取り出しワーク選定部110は、位置及び姿勢が推定された複数のワークから今回取り出すワーク(ターゲットワーク)を選定する。
ステップS805において、取り出しワーク選定部110は、ターゲットワークの推定位置情報及び推定姿勢情報をロボットコントローラ104に伝える。ステップS806において、ロボットコントローラ104は、取り出しワーク選定部110から入力したターゲットワークの推定位置情報及び推定姿勢情報に基づいてロボットアーム101、ハンド102を制御し、ターゲットワークを取り出す。ステップS807において、ワーク状態推定部109は、ワークの取り出し処理を終了するか否かを判断する。この判断は、所定の数のワークが取り出されたか否か等を基準に判断される。ワークの取り出し処理を継続すると判定された場合、ステップS808において、制限範囲設定部112は、取り出し前状態情報における推定位置情報に対して所定の変動幅pを付与し、全ての推定位置情報にわたってマージしたものを位置に関する制限範囲情報として算出する。また、制限範囲設定部112は、取り出し前状態情報における推定姿勢情報に対して所定の変動幅qを付与し、全ての推定姿勢情報にわたってマージしたものを姿勢に関する制限範囲情報として算出する。算出された制限範囲情報はワーク状態認識処理部111に対して設定される。その後、処理はステップS802に戻る。一方、ワークの取り出し処理を終了すると判定された場合、処理は終了する。
以上のように、本実施形態においては、前回のワーク取り出し時における推定位置情報及び推定姿勢情報に基づいて、今回の位置姿勢推定処理で推定を行う範囲に制限を与えることができる。これにより、位置姿勢推定処理の高速化を実現することができる。例えば、図6(a)のように位置推定範囲が制限されれば(白塗り部分が制限範囲内)、本来画像データ全体600に対して位置を推定すべきところが、白塗りの部分のみに制限されるので、処理時間は短縮される。また同様に、図6(b)のように姿勢推定範囲が制限されれば、本来全ての辞書データに対して姿勢を推定すべきところが、黒丸位置に対応する辞書データとその辞書データをアフィン変換して作成される面内回転の辞書データのみに制限されるので、処理時間は短縮される。図6(b)では図示されていないが、それぞれの黒丸位置ごとに面内回転の範囲も制限されている。
また、今回のワーク取り出しにおける位置及び姿勢の推定を完全に省略するわけではないので推定精度も維持される。つまり、ばら積みされた複数のワークの中からある一つのワークを取り出したときに、干渉等により、その他のワークの位置及び姿勢が少し変化してしまったという場合でも、本実施形態では推定精度の劣化なしに対応することができる。
また、本実施形態では、制限範囲設定部112において、位置に関しても姿勢に関しても制限範囲情報を算出する例を示したが、必ずしも位置及び姿勢の両方の制限範囲情報を算出する必要はない。位置に関してのみ、或いは姿勢に関してのみ制限範囲情報を算出してもよい。
次に、本発明の第2の実施形態について説明する。第1の実施形態では、位置に関する制限範囲情報と姿勢に関する制限範囲情報とは、それぞれ独立に算出されていた。従って、第1の実施形態では、位置に関する制限範囲情報に示される全範囲内の位置に対して、姿勢に関する制限範囲情報に示される全範囲内の姿勢に対応する辞書データを適用していた。これに対し、本実施形態では、推定位置毎に位置の制限範囲を設定し、その推定位置毎に設定された位置の制限範囲に対して姿勢の制限範囲を設定する。つまり本実施形態では、それぞれの位置の制限範囲毎に姿勢の制限範囲が設定されるので、第1の実施形態に比べて高速処理が可能となる。
本実施形態では、第1の実施形態の場合と同様に、図7(b)のような取り出し前状態情報が制限範囲設定部112に入力されるものとして、制限範囲設定部112の動作を説明する。また、本実施形態でも、取り出し前状態情報に示される推定位置情報、推定姿勢情報のそれぞれに所定の変動幅を付与して制限範囲情報を算出する。ここで、各々の推定位置情報に所定の変動幅を付与した範囲を位置制限範囲と称す。また、各々の推定姿勢情報に所定の変動幅を付与した範囲を姿勢制限範囲と称す。例えば、図7(b)の推定位置情報(X1,Y1)、(X2,Y2)、・・・、(Xn,Yn)に対して所定の変動幅が付与されることにより、各々の推定位置情報に対して位置制限範囲A1、A2、・・・、Anが算出される。同様に、図7(b)の推定姿勢情報(α1,β1,γ1)、(α2,β2,γ2)、・・・、(αn,βn,γn)に対して所定の変動幅が付与されることにより、各々の推定姿勢情報に対して姿勢制限範囲B1、B2、・・・、Bnが算出される。即ち、本実施形態において算出される制限範囲情報は、位置制限範囲と姿勢制限範囲とが対となっている。
つまり、本実施形態の制限範囲情報を用いた位置及び姿勢の推定処理では、位置を推定する範囲は、位置制限範囲A1、A2、・・・An内に限定され、さらに位置制限範囲A1で行われる姿勢の推定は、姿勢制限範囲B1に限定される。同様に位置制限範囲A2で行われる姿勢の推定は、姿勢制限範囲B2に限定され、・・・、位置制限範囲Anで行われる姿勢推定は、姿勢制限範囲Bnに限定される。
この場合の変動幅p、qも第1の実施形態と同様に、位置及び姿勢の推定に要する処理時間や、位置及び姿勢の推定精度の予測値や経験値等により決定すればよい。
図9は、上述した制限範囲情報を用いた場合におけるワーク状態認識処理部111の処理を示すフローチャートである。なお、図9において、図5と同じ符号のステップは、図5での説明と同様の処理であるため、説明を省略する。
ステップS901において、ワーク状態認識処理部111は、複数の位置制限範囲A1、A2、・・・、Anから、一つの位置制限範囲を選択して設定する。さらにワーク状態認識処理部111は、選択した位置制限範囲に対応する姿勢制限範囲を設定する。例えばワーク状態認識処理部111は、複数の位置制限範囲A1、A2、・・・、Anから位置制限範囲A1を選択して設定すると、位置制限範囲A1に対応する姿勢制限範囲B1を選択して設定する。
ステップS902において、ワーク状態認識処理部111は、ステップS901(或いは、ステップS909)で設定した姿勢制限範囲(例えば、B1)内にある辞書データの一つを辞書データ格納部113から取得する。
ステップS903において、ワーク状態認識処理部111は、ステップS901(或いは、ステップS909)で設定した位置制限範囲(例えば、A1)内の任意の位置に、ステップS902(或いは、ステップS907)で取得した辞書データをテンプレートとして設定する。例えばワーク状態認識処理部111は、図6(a)に示す位置制限範囲内で最も左上の位置にテンプレートを設定するものとする。
ステップS904において、ワーク状態認識処理部111は、テンプレートを位置制限範囲内の全ての位置に設定し、相関値を算出したか否かをチェックする。まだテンプレートが全ての位置に設定されていなければ、処理はステップS905に進む。一方、テンプレートを全ての位置に設定していれば、処理はステップS906に進む。ステップS905において、ワーク状態認識処理部111は、位置制限範囲内でテンプレートを次の位置に移動する。ステップS906において、ワーク状態認識処理部111は、姿勢制限範囲内の全ての辞書データをテンプレートとして設定し、相関値を算出したか否かをチェックする。まだ全ての辞書データがテンプレートとして設定されていなければ、処理はステップS907に進む。ステップS907において、ワーク状態認識処理部111は、設定された姿勢制限範囲内で次の姿勢に対応する辞書データを取得する。この場合、第1の実施形態の場合と同様、制限範囲内での面内回転も考慮して辞書データを更新する。一方、全ての辞書データがテンプレートとして設定されたのであれば、処理はステップS908に進む。ステップS908において、ワーク状態認識処理部111は、全ての位置制限範囲(或いは、姿勢制限範囲)を設定したか否かをチェックする。まだ全ての位置制限範囲(或いは、姿勢制限範囲)が設定されていなければ、処理はステップS909に進む。ステップS909において、ワーク状態認識処理部111は、まだ設定されていない位置制限範囲(及び姿勢制限範囲)を選択し、設定する。一方、全ての位置制限範囲(或いは、姿勢制限範囲)が設定されたのであれば、処理はステップS508に進む。
本実施形態におけるワーク状態認識処理部111は、以上のような手順により、複数のワークの位置及び姿勢を推定する。第1の実施形態では、どの位置制限範囲に対しても共通の姿勢制限範囲を用いて位置姿勢推定を行っていたのに対し、本実施形態では、位置制限範囲毎に姿勢制限範囲が指定される。従って、本実施形態では、第1の実施形態の場合に比べてさらに高速にワークの位置及び姿勢を推定することが可能となる。
次に、本発明の第3の実施形態について説明する。第1、第2の実施形態では、制限範囲情報を算出する際に用いられる変動幅を、取り出したワーク(ターゲットワーク)の位置に関係なく決定する場合の例を示したが、本実施形態では、ターゲットワークがあった位置を起点とする距離に応じて、変動幅を決定する場合の例について示す。
第3の実施形態でも、第1の実施形態の場合と同じく、ワーク状態認識処理部111により、図7(a)のように位置姿勢推定がなされた場合について説明する。さらに、取り出しワーク選定部110が今回取出すワーク(ターゲットワーク)として、ワークインデックス0のワークを選択し、ロボットアーム101、ハンド102がターゲットワークを取り出した場合について説明する。また、説明の簡単のため、ワークインデックス0のワークの位置(X0,Y0)から見て、近い順にワークインデックス1のワーク、ワークインデックス2のワーク、・・・、ワークインデックスnのワークという位置関係にあるものとする。
本実施形態では、取り出しワーク選定部110は、制限範囲設定部112に対して取り出し前状態情報を渡すだけでなく、ターゲットワークの位置情報(X0,Y0)も渡す。本実施形態では、制限範囲設定部112において、取り出し前状態情報における推定位置(例えば、(X1,Y1))と、ターゲットワークの位置(X0,Y0)との距離に応じて、所定の変動幅を付与する。本実施形態では、推定位置とターゲットワークの位置との距離が近いほど大きい変動幅を付与するものとする。従って、例えば図7(b)の推定位置(X1,Y1)、(X2,Y2)、・・・、(Xn,Yn)のそれぞれに対して、変動幅p1、p2、・・・、pnを付与すると、p1が最大の変動幅で、pnが最小の変動幅となる。
このように、ターゲットワークがあった位置を起点とする距離に応じて変動幅を変更するのは、ターゲットワークを取り出すときに、他のワーク(ターゲットワーク以外のワーク)と、ハンド102とが干渉する可能性があることを考慮したためである。また、取り出しによってばら積みされたワークが崩れることを考慮したためである。
取り出し時の干渉の可能性は、ターゲットワークに近いワークほど発生する可能性が高く、また実際に干渉した場合の影響(位置や姿勢が動くこと)も、ターゲットワークに近いワークほど大きいことが予想される。また、ワークの崩れに関してもターゲットワークに近いワークほど発生しやすいことが予想される。従って、ターゲットワークに近いワークほど変動幅を大きくすることで、干渉や崩れが発生しても、位置姿勢が推定できるようにしている。
また、ばら積みされているワークの種類に応じて変動幅を変更するようにしてもよい。こうすることで、ワークの形状によって、干渉の発生しやすさや、ばら積みされたワークの崩れやすさが異なることを考慮に入れた変動幅を設定することができる。例えば、ばら積みされたワークとして、干渉が頻繁に発生するような複雑な形状のワークである場合には変動幅を大きくして、干渉により位置姿勢が大きく変化しても対応できるようにすることができる。同様に、崩れが頻繁に発生するような不安定な形状のワークの場合にも、変動幅を大きくすることで対応可能となる。
次に、本発明の第4の実施形態について説明する。第1〜第3の実施形態では、ばら積みワークの取り出し処理が開始直後のみに、制限範囲設定部112による制限範囲情報の初期化(制限の全廃)が行われる例を示したが、本発明はこれに限定されない。例えば、制限範囲情報を定期的に初期化してもよい。第4の実施形態では、制限範囲情報の初期化以降のワークの取り出し回数(以下、初期化後取り出し回数と称す)を測定し、初期化後取り出し回数が所定回数に達した場合には、制限範囲情報を再度初期化する場合の例を示す。
図10は、第4の実施形態における制限範囲設定部112の動作を示すフローチャートである。以下、図10を参照しながら、本実施形態における制限範囲設定部112の動作について説明する。
ステップS1001において、制限範囲設定部112は、ばら積みワークの取り出し処理の開始直後か否かをチェックする。ばら積みワークの取り出し処理の開始直後の場合、処理はステップS1004に進む。ステップS1004において、制限範囲設定部112は、制限範囲情報を初期化する。さらに処理はステップS1005に進み、制限範囲設定部112は、初期化後取り出し回数を初期化(1にリセット)する。一方、ばら積みワークの取り出し処理の開始直後でない場合、処理はステップS1002に進む。ステップS1002において、制限範囲設定部112は、取り出しワーク選定部110から取り出し前状態情報を受け取る。そして処理はステップS1003に進む。
ステップS1003において、制限範囲設定部112は、初期化後取り出し回数が所定回数に達したか否かをチェックする。所定回数に達した場合、処理はステップS1004に進む。一方、初期化後取り出し回数が所定回数に達していない場合、処理はステップS1006に進む。ステップS1006において、制限範囲設定部112は、取り出し前状態情報から制限範囲情報を算出する。この制限範囲情報の算出処理は、第1〜第3の実施形態と同様である。さらに処理はステップS1007に進み、制限範囲設定部112は、初期化後取り出し回数を1加算する。ステップS1008において、制限範囲設定部112は、制限範囲情報をワーク状態認識処理部111に出力する。
通常、ワークの取り出しを行う毎に、取り出し前状態情報に示されるワークの数が減少していくことが予想される。しかし、本実施形態のように、定期的に制限範囲情報を初期化することによって、定期的に取り出し前状態情報に示されるワークの数が増加し、取り出しワーク選定部110での取り出しワークの選択の幅が広がる。これにより、取り出しワーク選定部110において、例えばロボットコントローラ104の制御が容易であるようなワークの選択の幅が増える、或いは、ワーク状態推定部109での推定の信頼度が高いワークの選択の幅が増えることが考えられる。
また、上記では、初期化後取り出し回数を測定し、初期化後取り出し回数が所定回数に達した場合には制限範囲情報を初期化する例を示したが、取り出し前状態情報に示されるワークの数が所定の数に達した場合に、制限範囲情報を初期化するようにしてもよい。これにより、取り出し前状態情報に示されたワークの数の減少による、取り出しワークの選択肢の減少を防ぐことができる。
また、初期化後取り出し回数と、制限範囲情報を算出する際に用いる変動幅との間に次のような関係があってもよい。例えば、初期化後取り出し回数が多くなるにつれて、変動幅を大きくするようにしてもよい。変動幅を大きくすることで、位置及び姿勢を推定できるワークの数が増加することが予想されるので、これにより、取り出し前状態情報に示されるワークの数の減少による、取り出しワークの選択肢の減少を防ぐことができる。
また、上記の所定回数は以下のように設定されるものでもよい。例えば、ばら積みされたワークの種類に応じて所定回数が設定されてもよい。これにより、ワークの形状によって、干渉の発生しやすさや、ばら積みされたワークの崩れやすさが異なることを考慮に入れた取り出し回数を設定することができる。位置や姿勢が変化しやすいワークの場合には、ある程度頻繁に制限範囲情報を初期化した方がよい。
また、前回の取り出し時の位置姿勢推定結果と、今回推定した位置姿勢推定結果との変化の度合いに応じて所定回数を設定しもよい。或いは、前回の取り出し時の位置姿勢推定結果と、今回推定した位置姿勢推定結果との変化の度合いがある閾値を超えれば初期化を行うようにしてもよい。
次に、本発明の第5の実施形態について説明する。第1〜第4の実施形態では、制限範囲設定部112による制限範囲情報の算出に関して、取り出し前状態情報のみを用いた手法を述べたが、本発明はこれに限らない。例えば、ワークを取り出した後にも撮影を行い、ワークの取り出しの前後でばら積み状況の変化を推定し、その推定結果も用いて制限範囲情報の算出を行うことも本発明に含まれる。ワークのばら積み状況の変化は、ワークの取り出しの前後で撮影を行い、両者の画像データの差分画像を算出することで推定できる。取り出したワークの位置以外に差分があれば、そこでは、ばら積み状況の変化(例えば、ワークを取出す際にばら積みの山が崩れてしまった、或いは、ハンドが触れてワークの姿勢が変化してしまった等)が発生したことがわかる。ばら積み状況の変化量の推定は、例えば、差分画像に対して閾値処理を行った後の非零領域の面積等を基準に推定すればよい。
このようにして推定したばら積み状況の変化量に応じて変動幅を設定し、制限範囲情報の算出を行うこともできる。例えば、取り出し前状態情報におけるあるワークの推定位置情報が、ばら積み状況の変化が大きいと推定された場所に含まれているような場合には、その推定位置情報及び対応する推定姿勢情報に対しては、付与する変動幅を大きくする。逆に、取り出し前状態情報におけるあるワークの推定位置情報が、ばら積み状況の変化が少ないと推定された場所に含まれているような場合には、その推定位置情報及び対応する推定姿勢情報に対しては、付与する変動幅を小さくすればよい。
以上説明した実施形態では、ワーク状態認識処理部111で推定されるワークの位置が2次元の場合を示してきたが、本発明はこれに限らない。即ち、ワークの3次元位置を推定してもよい。ワークの3次元位置を推定した場合には、取り出し前状態情報における推定位置情報を3次元にし、位置に関する制限範囲情報も3次元にすればよい。また、その場合に必要であれば、カメラ103として距離情報も取得できるようなカメラを用いてもよい。
また、上述した実施形態では、ワーク状態認識処理部111で行われる位置姿勢推定の手法として、姿勢毎に用意されたテンプレートを用いた相関処理の場合を示してきたが、本発明によるワーク取り出し手法が対象とするのはそれに限らない。例えば決定木を用いた姿勢推定手法を、画像中で位置をずらしながら行うことで、位置と姿勢を推定する手法でもよい。
この場合、制限する姿勢を色々変えた複数の学習データセットを用意し、それぞれの学習データセットを用いて決定木を学習させることで、制限された姿勢範囲に対応した決定木を用意することができる。用意した複数の決定木のうちから、制限範囲設定部112にから受け取った制限範囲情報に応じた決定木を選択すればよい。
また、上述した実施形態では、取り出し前状態情報に対して所定の変動幅を付与して、制限範囲情報を算出するが、その変動幅の値を実際にいくつにするのかを決定する手法は問わない。例えば、値を変化させて何度か実験を行い、最適な値を見つけてもよい。また、位置姿勢の推定に要する処理時間や、位置姿勢の推定精度の予測値や経験値等により決定されるものであってもよい。
また、画像処理部107は一般的にコンピュータから構成されるが、本発明ではその構成を限定するものではない。また、画像処理部107がロボットコントローラ104と一体になった構成であってもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101:ロボットアーム、102:ハンド機構、103:カメラ、104:ロボットコントローラ、105:トレイ、106:ワーク、107:画像処理部、108:カメラ制御部、109:ワーク状態推定部、110:取り出しワーク選定部、111:ワーク状態認識処理部、112:制限範囲設定部、113:辞書データ格納部

Claims (21)

  1. 撮像手段により複数の物体が撮像された画像データに基づいて、前記複数の物体の状態を推定する推定手段と、
    前記推定手段により推定された前記複数の物体の状態を示す第1の状態情報に基づいて、前記複数の物体から取り出される物体を選定する選定手段と、
    前記複数の物体のうちの前記選定された物体以外の他の物体の状態を示す第2の状態情報に基づいて、前記他の物体の状態の推定処理を制限する範囲を示す制限範囲情報を生成する生成手段とを有し、
    前記推定手段は、前記制限範囲情報に従って、前記他の物体の状態を推定することを特
    徴とする情報処理装置。
  2. 前記生成手段は、前記第2の状態情報に対して所定の変動幅を付与することにより、前記制限範囲情報を生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2の状態情報は、前記他の物体の位置及び姿勢のうちの少なくとも何れか一方を示す情報であることを特徴とする請求項2に記載の情報処理装置。
  4. 前記生成手段は、前記第2の状態情報に示される前記他の物体の位置に対して前記所定の変動幅を付与することにより、前記他の物体の位置の推定処理に係る制限範囲を示す位置制限範囲を前記制限範囲情報として算出し、前記推定手段は、前記位置制限範囲内で前記他の物体の位置を推定することを特徴とする請求項3に記載の情報処理装置。
  5. 前記生成手段は、前記第2の状態情報に示される前記他の物体の姿勢に対して前記所定の変動幅を付与することにより、前記他の物体の姿勢の推定処理に係る制限範囲を示す姿勢制限範囲を前記制限範囲情報として算出し、前記推定手段は、前記姿勢制限範囲内で前記他の物体の姿勢を推定することを特徴とする請求項3に記載の情報処理装置。
  6. 前記生成手段は、前記第2の状態情報に示される前記他の物体の位置に対して前記所定の変動幅を付与することにより、前記他の物体の位置の推定処理に係る制限範囲を示す位置制限範囲を算出するとともに、前記第2の状態情報に示される前記他の物体の姿勢に対して前記所定の変動幅を付与することにより、前記他の物体の姿勢の推定処理に係る制限範囲を示す姿勢制限範囲を算出し、前記推定手段は、前記位置制限範囲及び姿勢制限範囲を含む前記制限範囲情報に従って、前記位置制限範囲内で前記他の物体の位置を推定し、前記位置制限範囲に対応する前記姿勢制限範囲内で前記他の物体の姿勢を推定することを特徴とする請求項3に記載の情報処理装置。
  7. 前記所定の変動幅は、前記選定された物体の位置から、前記推定手段により前記他の物体について推定された位置までの距離に応じて決定される変動幅であることを特徴とする請求項2乃至6の何れか1項に記載の情報処理装置。
  8. 前記生成手段は、前記所定の変動幅として、前記選定された物体の位置から、前記推定手段により前記他の物体について推定された位置までの距離が近い程、大きい変動幅を付与することを特徴とする請求項7に記載の情報処理装置。
  9. 前記所定の変動幅は、前記物体の種類に応じて決定される変動幅であることを特徴とする請求項2乃至6の何れか1項に記載の情報処理装置。
  10. 物体取り出し回数が所定の回数に達した場合、前記制限範囲情報を初期化する初期化手段を更に有することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記所定の回数は、前記複数の物体の種類に応じて決定される回数であることを特徴とする請求項10に記載の情報処理装置。
  12. 前記所定の回数は、前記推定手段による前記複数の物体の状態の推定結果と、前記推定手段による前記他の物体の状態の推定結果との変化の度合いに応じて決定される回数であることを特徴とする請求項10に記載の情報処理装置。
  13. 物体取り出し後における前記他の物体の数が所定の数に達した場合、前記制限範囲情報を初期化する初期化手段を更に有することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  14. 前記推定手段による前記複数の物体の状態の推定結果と、前記推定手段による前記制限範囲情報に従って推定した前記他の物体の状態の推定結果との変化の度合いが所定の閾値を超えた場合、前記制限範囲情報を初期化する初期化手段を更に有することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  15. 前記所定の変動幅は、前記初期化手段による前記制限範囲情報の初期化後における物体取り出し回数に応じて決定される変動幅であることを特徴とする請求項10乃至14の何れか1項に記載の情報処理装置。
  16. 前記所定の変動幅は、前記制限範囲情報の初期化後における物体取り出し回数が多くなるに従って大きく決定される変動幅であることを特徴とする請求項15に記載の情報処理装置。
  17. 前記生成手段は、更に、前記複数の物体が撮像された画像データと、前記物体が取り出された後の前記他の物体が撮像された画像データとの差分に基づいて、前記制限範囲情報を生成することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  18. 前記所定の変動幅は、前記複数の物体が撮像された画像データと、前記物体が取り出された後の前記他の物体が撮像された画像データとの差分に応じて決定される変動幅であることを特徴とする請求項2に記載の情報処理装置。
  19. 前記推定手段は、前記選定手段により前記選定された物体の次に取り出される物体を選定するために、前記選定された物体が取り出された後に前記他の物体を撮像した画像データと、前記制限範囲情報とに従って、前記他の物体の状態を推定することを特徴とする請求項1乃至18の何れか1項に記載の情報処理装置。
  20. 情報処理装置によって実行される情報処理方法であって、
    撮像手段により複数の物体が撮像された画像データに基づいて、前記複数の物体の状態を推定する推定ステップと、
    前記推定ステップにより推定された前記複数の物体の状態を示す第1の状態情報に基づいて、前記複数の物体から取り出される物体を選定する選定ステップと、
    前記複数の物体のうちの前記物体以外の他の物体の状態を示す第2の状態情報に基づいて、前記他の物体の状態の推定処理を制限する範囲を示す制限範囲情報を生成する生成ステップとを含み、
    前記推定ステップは、前記制限範囲情報に従って、前記他の物体の状態を推定することを特徴とする情報処理方法。
  21. 撮像手段により複数の物体が撮像された画像データに基づいて、前記複数の物体の状態を推定する推定ステップと、
    前記推定ステップにより推定された前記複数の物体の状態を示す第1の状態情報に基づいて、前記複数の物体から取り出される物体を選定する選定ステップと、
    前記複数の物体のうちの前記物体以外の他の物体の状態を示す第2の状態情報に基づいて、前記他の物体の状態の推定処理を制限する範囲を示す制限範囲情報を生成する生成ステップとをコンピュータに実行させ、
    前記推定ステップは、前記制限範囲情報に従って、前記他の物体の状態を推定することを特徴とするプログラム。
JP2010279673A 2010-12-15 2010-12-15 情報処理装置、情報処理方法及びプログラム Active JP5769411B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010279673A JP5769411B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理方法及びプログラム
US13/316,268 US9083855B2 (en) 2010-12-15 2011-12-09 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010279673A JP5769411B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012125878A JP2012125878A (ja) 2012-07-05
JP5769411B2 true JP5769411B2 (ja) 2015-08-26

Family

ID=46233882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010279673A Active JP5769411B2 (ja) 2010-12-15 2010-12-15 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9083855B2 (ja)
JP (1) JP5769411B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886029B2 (en) * 2013-12-02 2018-02-06 Daihen Corporation Workpiece processing apparatus and workpiece transfer system
JP6348097B2 (ja) 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6662836B2 (ja) * 2017-11-24 2020-03-11 ファナック株式会社 収容領域又は治具にワークを配置するワーク配置システム
JP7171294B2 (ja) * 2018-07-31 2022-11-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7481867B2 (ja) 2020-03-16 2024-05-13 株式会社東芝 制御装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430991A (ja) * 1990-05-25 1992-02-03 Toyoda Mach Works Ltd 視覚装置付ロボット
JP2004133637A (ja) * 2002-10-09 2004-04-30 Sony Corp 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
JP4940715B2 (ja) * 2006-03-15 2012-05-30 日産自動車株式会社 ピッキングシステム
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5201411B2 (ja) * 2008-11-21 2013-06-05 株式会社Ihi バラ積みピッキング装置とその制御方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法

Also Published As

Publication number Publication date
US9083855B2 (en) 2015-07-14
JP2012125878A (ja) 2012-07-05
US20120154575A1 (en) 2012-06-21

Similar Documents

Publication Publication Date Title
WO2021103648A1 (zh) 手部关键点检测方法、手势识别方法及相关装置
US9044858B2 (en) Target object gripping apparatus, method for controlling the same and storage medium
JP5812599B2 (ja) 情報処理方法及びその装置
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP5769411B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5631086B2 (ja) 情報処理装置及びその制御方法、プログラム
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
US20160217326A1 (en) Fall detection device, fall detection method, fall detection camera and computer program
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
JP2012234258A (ja) 画像処理装置と画像処理方法およびプログラム
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
US9104944B2 (en) Object recognition method, descriptor generating method for object recognition, and descriptor for object recognition
JP2010205095A (ja) 3次元物体認識装置、並びに3次元物体認識プログラム及びこれが記録されたコンピュータ読み取り可能な記録媒体
JP5791373B2 (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
JP2007241833A (ja) 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
JP6425405B2 (ja) 情報処理装置、方法、プログラム
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
JP7059701B2 (ja) 推定装置、推定方法、及び推定プログラム
JP5218209B2 (ja) 複数の物体間の相対移動を検出する方法
JP7103412B2 (ja) 辞書学習装置、情報処理装置、辞書学習方法およびコンピュータプログラム
JP2013053920A (ja) 3次元物体位置検出装置、そのプログラム
CN114729811A (zh) 位置推断装置、车辆、位置推断方法及位置推断程序
JP2018200175A (ja) 情報処理装置、情報処理方法及びプログラム
WO2022190534A1 (ja) 認識装置、ロボット制御システム、認識方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151