JP5806606B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP5806606B2
JP5806606B2 JP2011264125A JP2011264125A JP5806606B2 JP 5806606 B2 JP5806606 B2 JP 5806606B2 JP 2011264125 A JP2011264125 A JP 2011264125A JP 2011264125 A JP2011264125 A JP 2011264125A JP 5806606 B2 JP5806606 B2 JP 5806606B2
Authority
JP
Japan
Prior art keywords
distribution
information processing
orientation
image
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011264125A
Other languages
English (en)
Other versions
JP2013117795A (ja
JP2013117795A5 (ja
Inventor
貴之 猿田
貴之 猿田
克彦 森
克彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011264125A priority Critical patent/JP5806606B2/ja
Priority to US13/685,420 priority patent/US9189709B2/en
Publication of JP2013117795A publication Critical patent/JP2013117795A/ja
Publication of JP2013117795A5 publication Critical patent/JP2013117795A5/ja
Application granted granted Critical
Publication of JP5806606B2 publication Critical patent/JP5806606B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects

Description

本発明は、対象物を高精度に識別するための技術に関するものである。
識別手法のひとつとして、撮像装置から得られる対象物の画像から抽出される特徴量をコンピュータに学習させ、入力された画像中に写っている被写体の種別を識別する研究も活発になされてきた。また、被写体のモデル情報などを用いて、その種別だけではなく、位置や姿勢を同時に推定するような研究もなされてきた。その技術の応用先として、高度な組立等の作業をロボットに行わせるための、部品の位置・姿勢識別(認識)などがあげられる.
非特許文献1では、学習画像からコードブック化した特徴と検出された特徴とを対応付け、確率的投票で物体の中心位置を推定する手法が提案されている(implicit−shape−model)。これにより、種別だけではなく、物体の位置も推定することができる。
また、特許文献1では、入力画像から特徴点を抽出してその特徴量を算出し、学習画像における特徴量と類似する特徴点同士を、対応点として設定する。そして、入力画像における対応点ごとに学習画像の特徴点の特徴量(位置情報を含む)に基づいて基準点に投票することで、対象物の識別や、位置の推定を行う。
また、山積みされた部品等の対象物の状態についてカメラ等のセンサを用いて情報を取得し、取得した画像等の情報から各対象物の位置や姿勢を推定し、ロボットに把持させて順次対象物を取りだす場合の処理を高速化・高精度にする技術が研究されている。
特許文献2では、仮想的な山積みを生成し、その山積みの仮想的な撮像画像に基づいて、ロボット動作をシミュレートする方法を提案している。対象物のCADデータなどのモデルデータを用いて複数の対象物の姿勢をランダムに発生させて山積み状態を想定し、ロボットが対象物をハンドリングする動作をシミュレートする。
特許文献3では、対象物の位置や姿勢を規定するパラメータの取りうる値を確率的に予測し、その予測結果によって、画面上で対象物を規定する特徴が存在する領域(ROI)を制限するか、あるいはパラメータ空間内のその特徴が存在する領域を制限する。
特許文献4では、ワークの姿勢を推定する際に、複数の安定姿勢に限定した中から選択することにより、処理時間の短縮を図っている。特許文献5では、ワークの姿勢毎に安定度を算出しておき、安定度の低い姿勢を表現するテンプレートは使用しないことで、処理時間の短縮を図っている。
特開2008−257649号公報 特許第4238256号 特許第3300092号 特開2007−245283号公報 特開2010−186219号公報
B.Leibe, "Robust Object Detection with Interleaved Categorization and Segmentation", IJCV Special Issue on Learning for Vision for learning, Aug. 2007.
山積みされた部品等の各対象物の位置や姿勢を推定する場合、対象物の位置や姿勢はさまざまなバリエーションがあるため、対象物をさまざまな視点から見た画像から得られる特徴量を学習しなければならない。しかし、ある視点において得られた対象物の画像は識別困難である場合もあり、全ての視点において得られた対象物の画像の識別精度を上げることは困難である。
対象物によっては、各位置や各姿勢の識別精度が異なるのは、対象物の識別に有用な特徴的な部分が、どの視点から撮像した場合でも画像上で得られるとは限らないためである。そのため、例えば、工場などで山積みされた部品等の対象物の位置や姿勢を推定する場合、識別精度が向上するようなカメラの位置や姿勢を決定することが求められている。
特許文献2では、ロボット動作の教示のシミュレーションのために対象物のCGモデルを仮想的に山積みさせている。しかし、特許文献2には、識別精度を向上させるような記述はなされていない。
特許文献3では、対象物の位置や姿勢を確率的に予測している。しかし、特許文献3には、識別精度を向上させるためにカメラの位置や姿勢を決定するような記述はなされていない。
特許文献4では、推定する対象物の姿勢を安定姿勢の周辺に限定する。しかし、特許文献4には、識別精度を向上させるためにカメラの位置や姿勢を決定するような記述はなされていない。
特許文献5では、テンプレート作成のときには姿勢の安定度を利用しているが、姿勢の正確な推定結果を得るために安定度を利用しているわけではない。すなわち、特許文献5では、姿勢の推定に安定度を用いて、姿勢の誤推定を低減するということは考慮されていない。
本発明は、このような問題に鑑みてなされたものであり、撮像装置を用いて撮像した画像中の対象物の識別精度が高くなるような該撮像装置の位置や姿勢を決定するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、対象物の位置及び/又は姿勢を対象物状態とし、該対象物が取り得る対象物状態に対する、該対象物が該対象物状態となる確率の分布を取得する第1の取得手段と、撮像装置の位置姿勢に対して予め定められた相対的な対象物状態に対する、該撮像装置が該対象物状態を有する前記対象物を撮像することで得られる撮像画像から前記対象物の識別に成功する成功率の分布を取得する第2の取得手段と、前記撮像装置が取り得る複数の位置姿勢のそれぞれについての、予め定められた相対的な対象物状態に対する成功率の分布と、前記確率の分布と、に基づいて、該撮像装置の取るべき位置姿勢を決定する決定手段とを備えることを特徴とする。
本発明の構成によれば、撮像装置を用いて撮像した画像中の対象物の識別精度が高くなるような該撮像装置の位置や姿勢を決定することができる。
情報処理装置の機能構成例とその周辺機器について示すブロック図。 情報処理装置200が行う処理のフローチャート。 情報処理装置200を含むシステムの外観図。 代表姿勢について説明する図。 5種類の代表姿勢における対象物31の様子を示す図。 トレイ60上における対象物を説明する図。 シミュレーションによる山積みされた対象物の作成方法を説明する図。 世界座標系とカメラ座標系との関係を説明する図。 学習時の処理のフローチャート。 ステップS910における処理のフローチャート。 識別処理のフローチャート。 投票空間の例を示す図。 情報処理装置の機能構成例とその周辺機器について示すブロック図。 情報処理装置200が行う処理のフローチャート。 対象物の一例を示す図。 対象物の一例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
工場などで山積みされた部品等の対象物の位置や姿勢を推定する場合、あらかじめ対象物のモデル(3次元仮想物体)や対象物が置かれる状況がわかっている場合がある。その場合に、対象物のモデル情報や対象物が置かれている状況をシミュレートすれば、対象物の位置や姿勢の事前分布を学習することができる。また、対象物を撮像する撮像装置の位置や姿勢を規定すれば、仮想的な対象物の画像をシミュレートすることができ、対象物の位置や姿勢ごとの識別精度を予測することができる。
先ず、本実施形態に係る情報処理装置の機能構成例及びその周辺機器について、図1のブロック図を用いて説明する。
撮像部100は、静止画や動画像を撮像するものであり、本実施形態では対象物を撮像するために用いられる。撮像部100の位置や姿勢は情報処理装置200によって制御され、撮像部100により撮像された画像は情報処理装置200に入力される。
情報処理装置200は、撮像部制御部230、出現確率記憶部210、対象物状態識別部240、識別信頼度記憶部220を有する。各部の機能については、情報処理装置200が行う処理のフローチャートを示す図2を用いて説明する。なお、以下の説明において、情報の記憶については、特に説明がない限り、情報処理装置200内の適当なメモリに記憶するものとする。
ステップS110では撮像部制御部230は、対象物の位置及び/又は姿勢を対象物状態とした場合に、該対象物が世界座標系において取り得る対象物状態に対する、該対象物が該対象物状態となる確率(出現確率)の分布を取得する(第1の取得)。
この分布は、例えば、出現確率記憶部210に予め格納しておき、撮像部制御部230がこれを読み出すようにしても良い。また、撮像部制御部230が改めて求めるようにしても良い。本実施形態では、撮像部制御部230がこの分布を改めて求めるものとする。
ステップS120では撮像部制御部230は、次のように動作する。すなわち、撮像部100の位置姿勢に対して予め定められた相対的な対象物状態に対する「撮像部100が該対象物状態の対象物を撮像して得られる撮像画像から該対象物の識別に成功する成功率(識別成功率、識別信頼度)」の分布を取得する(第2の取得)。
この分布は、例えば、識別信頼度記憶部220に予め格納しておき、撮像部制御部230がこれを読み出すようにしても良い。また、撮像部制御部230が改めて求めるようにしても良い。また、オンライン時に識別結果を反映させて算出してもよい。本実施形態では、撮像部制御部230がこの分布を改めて求めるものとする。
ステップS130では、撮像部制御部230は、ステップS110で取得した分布と、ステップS120で取得した分布と、を用いて、撮像部100が取り得る複数の位置姿勢のうち1つを好適な(識別精度が向上するよな)位置姿勢として決定する。そして撮像部制御部230は、撮像部100の位置姿勢を、この決定した位置姿勢に変更する。
なお、ステップS130では、識別精度が向上するように、対象物の出現確率が定義されている座標空間(世界座標系)と、識別成功率が定義されている座標空間(カメラ座標系)との相対位置・姿勢を変化させればよい。そのため、あらかじめ撮像部100の位置が決まっている場合、対象物の位置(配置条件)を変更するようにしても良い。たとえば、対象物全体がトレイなどに載っている場合、トレイの位置や高さを変更して撮像部100との相対位置を変更するようにしてもよい。
ステップS140では、対象物状態識別部240は、位置姿勢が変更された撮像部100により撮像された画像を該撮像部100から取得し、該取得した画像中に写っている対象物の対象物状態を識別する。なお、識別するものについては特定の対象に限るものではない。
本実施形態に係る情報処理装置を含むシステムの具体的な構成例について、図3の外観図を用いて説明する。図3において、図1に示した構成要件と同じものについては同じ参照番号を付しており、その説明は省略する。
撮像部100は、山積みされている対象物30を撮像している。ロボット20は、山積みされている対象物30をピッキングする為のものである。例えば、情報処理装置200が識別した位置姿勢をこのロボット20に送出することで、このロボット20は、情報処理装置200から受けた位置姿勢に応じてアームを制御し、この対象物をピッキングする。
次に、図2に示した各ステップにおける処理の詳細について説明する。先ず、ステップS110における処理の詳細について説明する。ここでは姿勢については360°で定義するが、本実施形態では離散的にサンプリングされる姿勢である代表姿勢を扱う。また、関節物体や変形物体の場合は、関節角や変形度も対象物状態を決定する変数として扱うことができるが、それについては以降の実施形態において説明する。
山積みされた対象物の場合、山に対する位置や高さによって対象物のとりうる姿勢分布の偏りがでてくるため、その偏りを考慮して識別精度が向上するように撮像部100の位置や姿勢を制御する。
上記代表姿勢について、図4を用いて説明する。本実施形態では、代表姿勢を測地ドームにより算出する。ここで測地ドームとは、正多面体の三角形面素を再帰的に同一面積の三角形に分割していくことで球面を均一に離散化表現するものであり、公知の手法である。測地ドームの中心を対象物31と見なせば、測地ドームで得られた正多面体の頂点50は、それぞれ対象物31をさまざまな位置から見下ろすときの視点と考えることができ、該視点には各正二十面体の頂点および各面中心点を用いることができる。
本実施形態では、正二十面体の頂点の数を16、面の数を20とし、計36視点から対象物31を見た姿勢を代表姿勢として定義する。さらに、それぞれの代表姿勢に対して、その方向から見た時の面内回転も考慮する必要がある。例えば、角度18度刻みの粒度で面内回転を区別する場合には、20通りの面内回転姿勢が存在する。従って、この場合には、36×20=720通りの代表姿勢があることになる。図4で定めた代表姿勢のうち、5種類の代表姿勢における対象物31の様子をそれぞれ、図5(a)〜(e)に示す。
山積みされた対象物31は、撮像部100に対してあらゆる方向を向く可能性があり、さらにその方向で面内回転する可能性がある。そのため、検出姿勢は、720通りの姿勢となる。したがって、本実施形態では、720通りの姿勢に対応する出現確率を取得する。ただし、面内回転については考慮せず、36姿勢に対応する出現確率を取得するようにしてもよい。この場合は、識別時に画像を面内回転させて検出することになる。
次に、各対象物状態に対する出現確率を求める方法の一例について説明する。先ず、出現確率記憶部210等のメモリに予め対象物の3次元仮想物体のデータ(CADデータなど)を格納しておき、撮像部制御部230はこのデータを用いて3次元仮想物体を構築する。そして撮像部制御部230は、そのモデル座標系の3軸に対する回転角をランダムに発生させ、上記の複数の代表姿勢のうち、この発生させた回転角に最も近い代表姿勢を選択する。更に、複数の代表姿勢のうち選択された代表姿勢に対するカウント値をカウントアップさせる。これにより、複数の代表姿勢のそれぞれについて選択回数を求めることができるので、この選択回数を回転角の発生回数で割ったものを、出現確率として求めることができる。なお、ベルトコンベアなどで対象物が運ばれてくる状況などでは、対象物は床などに対して安定姿勢となるため、安定姿勢になるように回転角を発生させる。このように、状況によっては、回転角を全くランダムに発生させるのではなく、ある範囲内でランダムに若しくはある規則に基づいて回転角を発生させる。また、位置については、全て0でも良いし、全くランダムに発生させても良いし、ある範囲内でランダムに若しくはある規則に基づいて発生させても良い。
また、本実施形態では、対象物が山積みされた状況を考えているため、対象物が図6のように作業エリア(トレイ)60に山積みされている場合における出現確率の求め方について説明する。このとき、世界座標系のZ方向を、山積みされた対象物集合61の高さ方向に設定している。
図6(a)は山積みされた対象物集合61を上(Z方向)から見たときの様子を示しており、図6(b)は横(Y方向)から見たときの様子を示している。対象物の3次元仮想物体を用いて山積みされた対象物集合61をシミュレーションにより作成し、それぞれの対象物の姿勢に対応する代表姿勢を記憶することで、山積みされた対象物の姿勢の出現確率を記憶することができる。具体的な方法については背景技術で触れた特許文献2に開示されている。
シミュレーションによる山積みされた対象物の作成方法では、図7に示す如く、モデル座標系の3軸に対する回転角をランダムに発生させて姿勢を定義したあと、作業エリア(トレイ)内のランダムな位置から降下させて仮想的に山積みを行う。具体的には世界座標系におけるX、Yの値を、作業エリアを定義する定義域の中からランダムに決定して、Z値は十分に大きな値に設定する。あらかじめ定義された所定数の対象物31を降下させて仮想的な山積み対象物30を作成する。その際に順々に対象物を降下させて、それぞれの対象物が安定するようにする。仮想的な山積みを複数回生成して世界座標系における姿勢分布P(X、Y、Z、θx、θy、θz)を、出現確率記憶部210に格納する。この分布P(X、Y、Z、θx、θy、θz)は、任意の位置(X、Y、Z)において姿勢(θx、θy、θz)をとる確率の分布である。θx、θy、θzはそれぞれ、世界座標系におけるX軸、Y軸、Z軸に対する回転角である。姿勢の定義には、回転軸とその回転軸に関する回転角で表される単回転表現やその他の表現を用いてもかまわない。
このように、各対象物状態に対する出現確率を取得する方法や、対象物状態の表現方法などは、特定の方法(表現方法)に限るものではなく、様々なものを用いることができる。即ち、対象物が取り得る対象物状態に対する、該対象物が該対象物状態となる確率の分布を取得することができるのであれば、如何なる手法を用いても良い。
なお、出現確率記憶部210にこのような分布を予め格納しておく場合、上記のような処理は予め行い、これにより得られる分布を出現確率記憶部210に格納することになる。
次に、ステップS120における処理の詳細について説明する。ステップS120における処理は、大きく分けて画像作成工程と信頼度算出工程の2つの工程に大別される。先ず、画像作成工程について説明する。
本実施形態では上記の通り、撮像部100の位置姿勢に対して予め定められた相対的な対象物状態に対する成功率の分布を求める。即ち、確率の分布は、世界座標系における各対象物状態の確率から求めるのに対し、成功率の分布は、撮像部100の位置姿勢を基準とするカメラ座標系における各対象物状態に対する成功率から求めるものである。もしくは画像座標系において定義してもよい。
世界座標系とカメラ座標系との関係について、図8を用いて説明する。世界座標系とは、現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれX軸、Y軸、Z軸とする座標系であり、図8に示した世界座標系810では、ロボット20のアームの付け根を原点としている。また、カメラ座標系とは、撮像部100上の1点を原点とし、この原点で互いに直交する3軸をそれぞれX軸、Y軸、Z軸とする座標系であり、図8に示したカメラ座標系800では、撮像部100の光学中心を原点としている。
なお、以下では、対象物としてのトレイの世界座標系における位置姿勢、世界座標系におけるカメラ座標系の位置姿勢は既知である(キャリブレーションされている)ものとする。
カメラ座標系800において定義される成功率の分布をP(XC、YC、ZC、θcx、θcy、θcz)と表し、画像座標系において定義される成功率の分布をP(x、y、θcx、θcy、θcz)と表す。姿勢は先と同様にカメラ座標系のX軸、Y軸、Z軸に対する回転角を示す。
カメラ座標系もしくは画像座標系において対象物が配置される範囲は、その配置環境によって決定される。例えば、セルなどでロボットによって山積み対象部品をピッキングするようなタスクの場合、撮像部100が置かれる位置もしくは対象部品が置かれる位置は制限されるため、対象物が配置される範囲は決定される。
画像作成工程では、決定されたカメラ座標系における位置および先の測地ドーム状の視点によって定義される36姿勢もしくは面内回転を考慮した720姿勢の画像を生成する。例えば、カメラ座標系における位置の範囲が50センチ×50センチ×50センチの範囲に限定され、5センチおきに離散的に識別成功率を定義する場合、XC=0,5,…,50、YC=0,5,…,50、ZC=0,5,…,50と定義される。よって、10×10×10×720=720000点で識別成功率を算出すればよく、720000枚の画像を生成することになる。画像数が多い場合には位置範囲および姿勢範囲内でランダムにサンプリングすればよい。または対象物を実際に作業エリア(トレイ)に置いて数回撮像部100で撮影してもよい。その場合には、撮影された対象物のカメラ座標系における位置や姿勢を別途入力する必要がある。撮影した対象物の画像は入力した姿勢に対して最も近い代表姿勢の画像として登録される。登録先については特定の登録先に限るものではなく、情報処理装置200内の適当なメモリであっても良い。
次に、信頼度算出工程について説明する。信頼度算出工程では、先の画像作成工程で登録された画像に対する識別成功率を算出する。識別成功率は、予め学習しておいた識別器を用いて計算する。識別器が入力に対して各状態に関するスコアを算出する識別器の場合は、該当する状態のスコアを評価する。また、識別成功率として、実際に識別処理を行わずに登録画像間の類似度を算出して類似度が大きいものほど識別成功率を低く設定することもできる。
識別器にはさまざまなものがあるが、本実施形態では弱識別器の識別結果を投票による統合処理によって最終的な識別結果を推定する方法について説明する。弱識別器にはさまざまなものがあるが、本実施形態では一例として特徴点ベースの手法と分類木を用いる手法について説明する。
まず、特徴点ベースの投票による識別処理のための学習方法について説明する。あらかじめ対象物の画像(学習画像)を撮影しておき、この学習画像から特徴を抽出する。抽出する特徴の例としては、学習画像から特徴点およびその特徴点まわりを記述する特徴量を抽出する。たとえば、SURF(H.Bay, “Speeded-Up Robust Features (SURF)”, Computing Vision and Image Understanding, Vol.110 (3) June 2008, pp.346-359.)のような抽出された特徴点まわりの輝度勾配の情報を記述するものでよい。その他のいわゆるKeypoints(E.Tola, “A Fast Local Descriptor for Dense Matching”, CVPR 2008.、K.Mikolajczyk, “A Performance Evaluation of Local Descriptors”, PAMI, 27(10) 2004, pp.1615-1630.)などの特徴点でもよい。または、画像パッチやedgeletなどでもよい。
ここでは各特徴点をx、yを画像座標として、fi=(xi,yi)(i=1,2,・・・,N)と表し、特徴量を表す特徴量ベクトルをFi(i=1,2,・・・,N)と表す。Nは学習画像から得られる特徴点の総数、iは各特徴点に対するインデックスである。
学習画像は先の図4のように、対象物31を囲う測地ドームの各視点(頂点50)から捉えた画像を利用する。学習画像の例は先の図5に示した通りである。取得された各学習画像から特徴点を取得してその特徴点まわりを記述する特徴量を取得する。
次に識別器の学習を行う。ここでは、特許文献1のように学習画像の特徴点に対応する対象物の基準点へのベクトルを記憶しておき、特徴量対応付けに従って対象物に設定されている基準点へ投票を行うことで対象物のクラスおよび位置を検出する場合の学習方法と識別方法について述べる。その際の投票空間は特に限定しない。たとえば、画像座標のx軸、y軸およびID軸(登録されている対象物を表すクラスインデックス)空間、画像座標のx軸、y軸およびスケールs軸空間、カメラ座標軸のXCYCZC空間などが考えられる。
また、基準点に投票するのではなく、背景技術で示したimplicit−shape−model(非特許文献1)のように各局所特徴から対象物中心への確率投票を行う方法でも識別することができる。
また、多クラス問題の際は、全クラスに対してそれぞれ投票を行ったあと最も投票されたクラスおよび位置を識別結果とするか、あらかじめ設定された閾値以上の投票がなされた検出点すべてを識別結果としてもよい。
ここでは、画像から特徴点を抽出し、対象物に設定されている基準点に投票をして、対象物の種別および位置を推定する例を示す。学習時の具体的な処理について、同処理のフローチャートを示す図9を用いて説明する。
ステップS900では、学習画像の各特徴点fiの特徴量Fi(i=1,2,…,N)、その対象物のクラス(対象物の姿勢や種別、本実施形態においては1つの代表姿勢を示す)を保存する。ここで、対象物のクラスを示すインデックスはIDiとする(i=1,2,…、N)。IDiは1〜Pまでの値をとる(Pはクラス総数)。
次にステップS910では、学習画像の各特徴点fiから対象物上の基準点Oj(j=1,2,…)へのベクトルMij(i=1,2,…,N、j=1,2,…)を求める。ステップS910における処理について、図10を用いて説明する。
先ず、対象物31の特徴点32fn=(xn,yn)から対象物に設定されている基準点34(ここでは物体中心とする)O=(xo,yo)へのベクトル33Mn=(xo−xn,yo−yn)を算出する.
ステップS900,S910の処理を全ての学習画像に対して行ったのち、ステップS920では、得られたすべての特徴点fi(i=1,2,…,Nall)を特徴量Fi(i=1,2,…,Nall)に従ってクラスタリングする。
ここで、Nallは全学習画像から得られた特徴点数を示している。クラスタリング手法はk−meansや、自己組織化マップアルゴリズムなど、任意のクラスタリング手法を用いることができる。例えば、k−meansを用いる場合、クラスタ数Kを規定して特徴量Fi間のユークリッド距離を用いてクラスタリングすることができる。
そして、最後にステップS930では、それぞれのクラスタの代表ベクトルFk‘(k=1,2,…,K)(Kはクラスタ数、kはそのインデックス)およびそのクラスタに含まれる特徴点を保存し、識別処理の際に得られた特徴量との対応付けに使用する。
識別器の学習には、アンサンブル学習手法の一つであるランダムフォレスト方式(Tin Kam Ho, USP6,009,199)を用いてもよい。ランダムフォレストは複数の決定木を用いてパターン識別を行う手法である。ランダムフォレストでは各ノードでランダムに情報の問い合わせを行い、問い合わせの結果に応じて学習パターンを次々と分割して決定木を分岐させていく。葉ノードに達した時に残っている学習パターンをその葉ノードの分類結果として記憶する。本実施形態においては学習パターンを各学習画像の各特徴点として分類を行う。先の学習と同様に各特徴点fiから対象物上の基準点Oj(j=1,2,…)へのベクトルMij(i=1,2,…,N、j=1,2,…)およびその特徴量Fi(i=1,2,…,N)、その対象物のクラス(対象物の姿勢や種別)を保存している。
判別時には、入力パターンを与えて学習時と同じ問い合わせを行い、ルートノードから葉ノードへとたどる。葉ノードに達したら記憶されているパターンをその決定木の判別結果とする。全ての決定木の判別結果を投票等により統合して最終的な判別結果とする。
識別処理では、学習された識別器を用いて、対象物の位置および姿勢に対応するクラスを出力する。その具体的な処理について、同処理のフローチャートを示す図11を用いて説明する。
ステップS1101では、学習時と同様に画像から特徴抽出を行う。そして、ステップS1102では、抽出された特徴点の特徴量と各クラスタの代表ベクトルとの距離計算を行い、もっとも類似度の高いクラスタを決定する。ランダムフォレストを用いる場合には、画像から抽出された特徴点を分類して葉ノードを決定する。他の分類木や識別器を用いる場合も同様である。
次に、ステップS1103では、対応づけによって求められた代表ベクトルが所属するクラスタ内の各特徴点に付随している基準点へのベクトル、対象物のクラスに基づいて投票を行う。本実施形態における投票空間は画像座標のx、y軸およびクラスIDを表す軸の3軸によって張られる投票空間としている。画像座標のx、y軸およびクラスIDを表す軸の3軸によって張られる投票空間の例を図12に示す。図12には、画像座標のx、y軸およびクラスIDを表す軸の3軸によって張られる投票空間70を示している。あらかじめ各セルの大きさは設定されているものとする。
具体的な投票方法は、まず撮像画像から抽出された各特徴点gm=(xm,ym)(m=1,…,M)の特徴量Gmと、予め学習されている各クラスタの代表ベクトルFk‘(k=1,…,K)との対応付けによって最も類似度が高いクラスタk“が判定される。ここで、Mは画像から抽出された特徴点総数、mはそのインデックスである。
例えば、クラスタk“を、特徴点gmの特徴量Gmと、各クラスタの代表ベクトルFk‘(k=1,…,K)と、のユークリッド距離を用いて算出する場合、以下の数式1に従って算出する。
判定されたクラスタに従って、そのクラスタに含まれている特徴点fiに付随している基準点へのベクトルMij(i=1,2,…,N、j=1,2,…)およびクラスIDi(i=1,2,…,N)に従って、投票処理を行う。具体的には、投票空間の投票点を(x、y、ID)とすれば、以下の数式2のようになる。
実際には、求められた(x、y、ID)に対応するセルに投票されることになる。この処理を判定されたクラスタ内の全特徴点に対して行う。この場合、全投票数は最大でN×Mとなる。
次にステップS1104では、ステップS1103で投票された投票空間において最大投票数のセルを抽出する。若しくは予め定められている閾値以上の投票数のセル、若しくは所定数分(候補数)だけ投票数の多い順にセルを抽出してもよい。ここでは候補数をP(P≧1)とし、各候補を(xP、yP、IDP)(p=1,2,…,P)とする。
以上の方法では対象物の画像座標系における位置を算出することができるので、あらかじめカメラ座標系と画面座標系に関するキャリブレーションを行っておけば、算出された画面座標系における位置からカメラ座標系における位置を算出することができる。ここでは各候補をキャリブレーション結果を用いて(XCP、YCP、ZCP、IDP)(p=1,2,・・・、P)と変換しておく。
登録された全ての画像に対してあらかじめ定められた候補数P個の識別結果を求める。次に、各画像に対して対応するカメラ座標系における位置姿勢に対応する識別成功率を求める。これにより、識別成功率の分布であるP(XC、YC、ZC、θx、θy、θz)を算出する。この分布P(XC、YC、ZC、θx、θy、θz)は、カメラ座標系における任意の位置(XC、YC、ZC)において姿勢(θx、θy、θz)をとる対象物の識別成功率の分布である。実際には各姿勢IDに対応するθx、θy、θzの位置の識別成功率を算出することになる。
識別成功率は、各画像に対する識別結果とあらかじめ記憶しておいた正解から算出される。先の識別方法では、投票数が識別スコアとして利用することができる。そのため、識別成功率を、対応する登録画像に対して識別を行った際に識別候補P=1の識別スコアSCORE、予め設定された正解となる識別結果を出す識別候補PTRUEの識別スコアSCORETRUE、から以下の数式3により算出する。
登録画像に対して候補P=1の識別結果がTRUEの場合、識別成功率Pは最大値1をとる。全候補の中にTRUEとなる識別結果がない場合はSCORETRUEを0とし、識別成功率Pも0となる。または候補P=1がTRUEの場合は識別スコアを識別成功率にし、FALSEの場合は識別成功率を0とする方法や、候補P=1の識別結果がTRUEの場合は識別成功率を1、FALSEの場合は0にするなどの方法がある。全登録画像に対して識別成功率を算出し、P(XC、YC、ZC、θcx、θcy、θcz)を次の処理で用いる。
ステップS130では、撮像部制御部230は、撮像部100が取り得る複数の位置姿勢のそれぞれについて、該位置姿勢に対して予め定められた相対的な対象物状態に対する成功率の分布と、確率の分布と、の内積を求める。そして撮像部制御部230は、この求めた内積の値が最大となる位置姿勢を決定する。
ここで、世界座標系における撮像部100の姿勢成分から成る回転行列をR、世界座標系における撮像部100の位置成分から成る並進行列をTとすると、複数種のT,Rについて以下の数式4を計算する。
f(P(XC、YC、ZC、θcx、θcy、θcz)、R,T)は、カメラ座標系において定義されている成功率の分布をR,Tを用いて世界座標系における成功率の分布に変換する関数である。
ここで、φ={R、T}、X={X、Y、Z、θx、θy、θz}とおく。f(PR(XC、YC、ZC、θcx、θcy、θcz)、R,T)はP(X、Y、Z、θx、θy、θz|R、T)と書き直すことができる.よって数式4は以下の数式に書き直すことができる。
数式5においてL(φ)=PP(X)・PR(X|φ)とおけば、logL(φ)を最大化すればよい。これは以下の数式6に示す更新式を繰り返すことにより解くことができる。
εは小さな正のスカラー値を示す。この処理により、世界座標系における成功率の分布と確率の分布との内積が大きくなるようにR、Tを求めればよい。この内積処理では、上記の式の通り、変換後の成功率の分布と、確率の分布とで、同じ対象物状態に対する値(それぞれ成功率と確率値)を掛け合わせたものを、全ての対象物状態(実際にはそれぞれの分布が重なっている部分)について総和した結果を求める。
なお、ここでは出現確率分布と識別成功率分布との内積が最大となる撮像部100の位置や姿勢を算出しているが、数式6の更新式を少なくとも1回更新して、撮像部100の位置や姿勢を決定してもよい。また、撮像部100の位置や姿勢の初期値はランダムに与えてもいいし、ユーザが与えてもよい。
次にステップS140では、対象物状態識別部240は、撮像部100の位置姿勢をステップS130で決定した位置姿勢に変更させ、その後、この撮像部100により撮像された撮像画像を取得する。そして対象物状態識別部240は、この取得した撮像画像中に写っている対象物の対象物状態を識別(推定)する。この識別では、先のステップS120で用いた識別器を再度利用してもよいし、別途識別器を用意してもよい。
以上の説明のように、本実施形態によれば、対象物の状態毎の出現確率と状態毎の識別成功率とから撮像装置の位置や姿勢を決定することで、この撮像装置による撮像画像からの対象物の識別精度を向上させることができる。
[第2の実施形態]
本実施形態に係る情報処理装置の機能構成例について、図13のブロック図を用いて説明する。図13に示した構成において図1に示した構成要件と同じものについては同じ参照番号を付しており、その説明は省略する。図13に示した構成は、図1に示した構成に撮像部変更部250を加えた構成となっている。
本実施形態に係る情報処理装置が行う処理について、同処理のフローチャートを示す図14を用いて説明する。図14のフローチャートは、図2のフローチャートに、ステップS250〜S270を追加した構成となっている。
ステップS250では、対象物状態識別部240は、対象物の状態の識別処理を続けるか否かを判定する。続けると判定した場合は、処理はステップS260に進む。ステップS260では、撮像部制御部230は、撮像部100の位置姿勢を変更する必要があるか否かを判断する。この判断の結果、変更する必要があれば、処理はステップS270に進み、変更する必要がない場合は、処理はステップS240に戻る。ステップS270では、撮像部制御部230は、撮像部100の位置姿勢を変更する。
本実施形態では、山積みされた対象物の状態が変わるような状況を仮定している。たとえば、ロボット20などにより次々に対象物がピッキングされていくような状況を考えている。
ステップS210では、撮像部制御部230は、上記のステップS110における処理に加え、変数として、対象物の個数や山積み対象物の高さを示す変数を、情報処理装置内の適当なメモリに格納する処理を行う。これにより、対象物の個数や高さに従って変化する分布を記憶することができる。具体的には、対象物の個数ごと、高さごとの出現確率分布を学習し、識別時にロードする出現確率分布を変更する。識別時に個数が減ったり、高さが下がってきたりする場合に、ロードされる分布が変更され、その分布に基づいて識別精度を向上させるように撮像部100の位置姿勢を変更する。
ステップS220〜S240ではそれぞれ、上記のステップS120〜S140と同様の処理を行う。なお、ステップS240ではこれに加え、対象物状態が識別された対象物を示す情報を情報処理装置内の適当なメモリに格納するか、この対象物をロボット20などによりピッキングして、以降の識別処理の識別対象から除外する。
ステップS250では、対象物状態識別部240は、識別処理を続けるか否かを判断する。識別処理を続けるか否かの判断基準については特定の判断基準に限るものではなく、例えば、現在の対象物の個数が規定数以下になれば続けないと判断しても良い。現在の対象物の個数は、撮像部100による撮像画像に写っている対象物を認識してその個数をカウントすればよい。
ステップS260では、撮像部変更部250は、撮像部100の位置姿勢を変更するか否かを判断する。先ず、上記の出現確率分布において、ステップS240で対象物状態が識別された対象物に対応する位置と姿勢の出現確率を削除する(0にする)、もしくは対象物の個数や高さに対応する出現確率分布を更新する。対象物の個数は設計時に入力しておくなどしておけばよい。対象物の高さはTOFなどの測距センサで測定すればよい。次に、更新された出現確率分布と識別成功率分布との内積を第1の実施形態と同様にして計算し、内積の結果がある所定値よりも小さくなるような場合は撮像部100の位置や姿勢を変更すると判断する。もしくは、ある所定数より対象物の個数が小さくなるような場合に撮像部100の位置や姿勢を変更すると判断する。
撮像部100の位置姿勢を変更すると判断した場合は、処理はステップS270に進み、変更しないと判断した場合は、処理はステップS240に戻る。
ステップS270では、撮像部制御部230は、上記の数式6を用いて、撮像部100の位置姿勢を変更する。もしくは、あらかじめ対象物の数に対応する出現確率分布から撮像部100の移動先の位置や姿勢をシミュレートしておいても良い。
以上の説明のように、本実施形態によれば、第1の実施形態に係る効果に加え、識別中に撮像部100の少なくとも位置もしくは姿勢を変更することで、撮像部100による撮像画像からの対象物の識別精度を向上させることができる。
[第3の実施形態]
本実施形態では、図15,図16に示すような対象物の対象物状態を識別する。この場合、情報処理装置200は、第1,2の実施形態に加え、対象物の変形度も記憶することになる。なお、本実施形態には、第1,2の実施形態で説明した情報処理装置を適用することができる。
図15に示した対象物(関節物体)は、基準物体300とその他の物体301とで構成されており、図15では、物体301は、基準物体300に対して適当な角度302だけ傾いている。この場合、上記の変形度は、この角度302に相当する。また、図15に示したような関節物体の位置姿勢は、基準物体300の位置姿勢とする。然るに、図15に示したような関節物体の対象物状態の識別とは、基準物体300の位置姿勢と変形度の識別となる。
図16に示した対象物(変形物体)303は、軸305に対して304で示す曲率だけ変形している。然るに、図16に示したような変形物体303の対象物状態の識別とは、変形物体303の位置、軸305の方向、曲率304の識別となる。
本実施形態の場合、基本的には、図2のフローチャートに従った処理を行う。しかし、ステップS110では、第1の実施形態に加え、変数として世界座標系における位置・姿勢以外に図15のような関節物体の場合は角度302、図16のような変形物体の場合は軸305の方向及び曲率304を記憶する。また、第2の実施形態と同様に対象物の個数を記憶してもよい。
以降については、第1の実施形態や第2の実施形態と同様に処理を行うのであるが、本実施形態ではこれに加えて、関節物体、変形物体の識別を行うためのその識別方法のみが異なる。
図15のような関節物体の場合、基準物体300の位置および姿勢を推定する。推定方法は第1の実施形態における対象物の識別方法と同様でよい。基準物体300の位置、姿勢を推定したあと、その基準物体300に対する物体301の存在可能領域を算出する。次に、物体301の存在可能領域から物体301の位置および姿勢を識別する。識別方法は第1の実施形態における対象物の識別方法と同様である。これにより、基準物体300と物体301との間の角度302を求めることができる。
また、図16のような変形物体の場合、変形物体303の端部の位置を画像中から識別して端部から変形物体303の他方の端部に向かってエッジなどを探索することで軸305の方向およびその軸305に対する曲率304を推定することができる。
以上の説明のように、本実施形態によれば、対象物の変形度や曲率を含む状態毎の出現確率と状態毎の識別成功率から撮像部100の位置や姿勢を決定することで、この撮像装置による撮像画像からの対象物の識別精度を向上させることができる。また、出現確率および識別成功率から対象物の存在する位置や領域を決定することで、撮像装置による撮像画像からの対象物の識別精度を向上させることができる。
[第4の実施形態]
図1,13に示した情報処理装置200を構成する各部はハードウェアで構成しても良いが、出現確率記憶部210、識別信頼度記憶部220をRAMやハードディスクなどのメモリで構成し、その他の各部をコンピュータプログラムで構成しても良い。この場合、このコンピュータプログラムはこのメモリに格納され、更にこのコンピュータプログラムはCPU等のプロセッサにより実行される。
然るに、少なくともこのメモリとプロセッサとを有するコンピュータは、上記の情報処理装置200に適用することができる。また、上記の撮像部100はこのコンピュータに接続させ、撮像部100による撮像画像をこのコンピュータに入力するようにしても良いし、上記のハードディスクに予め撮像画像を格納しておいても良い。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (7)

  1. 対象物の位置及び/又は姿勢を対象物状態とし、該対象物が取り得る対象物状態に対する、該対象物が該対象物状態となる確率の分布を取得する第1の取得手段と、
    撮像装置の位置姿勢に対して予め定められた相対的な対象物状態に対する、該撮像装置が該対象物状態を有する前記対象物を撮像することで得られる撮像画像から前記対象物の識別に成功する成功率の分布を取得する第2の取得手段と、
    前記撮像装置が取り得る複数の位置姿勢のそれぞれについての、予め定められた相対的な対象物状態に対する成功率の分布と、前記確率の分布と、に基づいて、該撮像装置の取るべき位置姿勢を決定する決定手段と
    を備えることを特徴とする情報処理装置。
  2. 更に、
    前記撮像装置の位置姿勢を前記決定手段が決定した位置姿勢に変更する変更手段と、
    前記変更手段により位置姿勢が変更された前記撮像装置が撮像した画像中に写っている前記対象物の対象物状態を識別する手段と、を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 更に、
    前記対象物の対象物状態の識別の後、前記確率の分布において該対象物状態に対する確率の値を0に更新する手段を備えることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記第1の取得手段は、予め作成された前記確率の分布を取得し、
    前記第2の取得手段は、予め作成された前記成功率の分布を取得する
    ことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記決定手段は、前記撮像装置が取り得る複数の位置姿勢のそれぞれについて、予め定められた相対的な対象物状態に対する成功率の分布と、前記確率の分布と、の内積を求め、求めた内積の値が最大となる位置姿勢を、該撮像装置の取るべき位置姿勢として決定する
    ことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の第1の取得手段が、対象物の位置及び/又は姿勢を対象物状態とし、該対象物が取り得る対象物状態に対する、該対象物が該対象物状態となる確率の分布を取得する第1の取得工程と、
    前記情報処理装置の第2の取得手段が、撮像装置の位置姿勢に対して予め定められた相対的な対象物状態に対する、該撮像装置が該対象物状態を有する前記対象物を撮像することで得られる撮像画像から前記対象物の識別に成功する成功率の分布を取得する第2の取得工程と、
    前記情報処理装置の決定手段が、前記撮像装置が取り得る複数の位置姿勢のそれぞれについての、予め定められた相対的な対象物状態に対する成功率の分布と、前記確率の分布と、に基づいて、該撮像装置の取るべき位置姿勢を決定する決定工程と
    を備えることを特徴とする情報処理方法
  7. コンピュータを、請求項1乃至5の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2011264125A 2011-12-01 2011-12-01 情報処理装置、情報処理方法 Active JP5806606B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011264125A JP5806606B2 (ja) 2011-12-01 2011-12-01 情報処理装置、情報処理方法
US13/685,420 US9189709B2 (en) 2011-12-01 2012-11-26 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011264125A JP5806606B2 (ja) 2011-12-01 2011-12-01 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2013117795A JP2013117795A (ja) 2013-06-13
JP2013117795A5 JP2013117795A5 (ja) 2015-01-22
JP5806606B2 true JP5806606B2 (ja) 2015-11-10

Family

ID=48523730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011264125A Active JP5806606B2 (ja) 2011-12-01 2011-12-01 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9189709B2 (ja)
JP (1) JP5806606B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6126437B2 (ja) 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
JP2017525172A (ja) * 2014-05-12 2017-08-31 フィリップス ライティング ホールディング ビー ヴィ 符号化光の検出
US9836069B1 (en) * 2015-03-31 2017-12-05 Google Inc. Devices and methods for protecting unattended children in the home
KR102573769B1 (ko) * 2015-12-15 2023-09-04 삼성전자주식회사 전자장치 및 그 거치대
CN110088797B (zh) * 2016-12-19 2023-04-21 株式会社安川电机 工业设备图像识别处理器及控制器
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US11741662B2 (en) * 2018-10-29 2023-08-29 Autodesk, Inc. Shaped-based techniques for exploring design spaces
US11380045B2 (en) 2018-10-29 2022-07-05 Autodesk, Inc. Shaped-based techniques for exploring design spaces
US11126330B2 (en) 2018-10-29 2021-09-21 Autodesk, Inc. Shaped-based techniques for exploring design spaces
JP6904327B2 (ja) * 2018-11-30 2021-07-14 オムロン株式会社 制御装置、制御方法、及び制御プログラム
JP7242309B2 (ja) * 2019-01-16 2023-03-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7275759B2 (ja) 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555823B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP3300092B2 (ja) * 1993-02-19 2002-07-08 オリンパス光学工業株式会社 画像特徴抽出装置
US5930392A (en) 1996-07-12 1999-07-27 Lucent Technologies Inc. Classification technique using random decision forests
JP4846924B2 (ja) 2001-05-31 2011-12-28 キヤノン株式会社 パターン認識装置
WO2004055735A1 (ja) 2002-12-16 2004-07-01 Canon Kabushiki Kaisha パターン識別方法、その装置及びそのプログラム
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
EP3190546A3 (en) * 2003-06-12 2017-10-04 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
EP1650711B1 (en) 2003-07-18 2015-03-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US8209172B2 (en) 2003-12-16 2012-06-26 Canon Kabushiki Kaisha Pattern identification method, apparatus, and program
JP4217664B2 (ja) 2004-06-28 2009-02-04 キヤノン株式会社 画像処理方法、画像処理装置
JP5008269B2 (ja) 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
JP4940715B2 (ja) 2006-03-15 2012-05-30 日産自動車株式会社 ピッキングシステム
JP4238256B2 (ja) 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP4988408B2 (ja) 2007-04-09 2012-08-01 株式会社デンソー 画像認識装置
JP2009086749A (ja) 2007-09-27 2009-04-23 Canon Inc パターン識別手法、識別用パラメータ学習方法、及び装置
JP4948379B2 (ja) 2007-12-18 2012-06-06 キヤノン株式会社 パターン識別器生成方法、情報処理装置、プログラム及び記憶媒体
US8331655B2 (en) 2008-06-30 2012-12-11 Canon Kabushiki Kaisha Learning apparatus for pattern detector, learning method and computer-readable storage medium
JP2010186219A (ja) 2009-02-10 2010-08-26 Seiko Epson Corp テンプレート生成システム、テンプレートマッチングシステムおよびテンプレート生成方法
JP5254893B2 (ja) 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
JP5336995B2 (ja) 2009-10-19 2013-11-06 キヤノン株式会社 特徴点位置決め装置、画像認識装置、その処理方法及びプログラム
JP5282717B2 (ja) * 2009-10-19 2013-09-04 株式会社安川電機 ロボットシステム
JP5361664B2 (ja) * 2009-10-30 2013-12-04 キヤノン株式会社 画像処理装置、画像処理方法
JP5554984B2 (ja) 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP2012038106A (ja) 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP5675214B2 (ja) 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20130141570A1 (en) 2013-06-06
JP2013117795A (ja) 2013-06-13
US9189709B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP5806606B2 (ja) 情報処理装置、情報処理方法
CN108986801B (zh) 一种人机交互方法、装置及人机交互终端
CN106780608B (zh) 位姿信息估计方法、装置和可移动设备
Kasaei et al. GOOD: A global orthographic object descriptor for 3D object recognition and manipulation
US9280827B2 (en) Method for determining object poses using weighted features
JP4709723B2 (ja) 姿勢推定装置及びその方法
JP5588196B2 (ja) 認識装置及びその制御方法、コンピュータプログラム
Paul et al. FAB-MAP 3D: Topological mapping with spatial and visual appearance
US9378431B2 (en) Method of matching image features with reference features and integrated circuit therefor
JP5705147B2 (ja) 記述子を用いて3dオブジェクトまたはオブジェクトを表す方法
CN111795704A (zh) 一种视觉点云地图的构建方法、装置
EP2907082B1 (en) Using a probabilistic model for detecting an object in visual data
JP5759161B2 (ja) 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム
CN110472585B (zh) 一种基于惯导姿态轨迹信息辅助的vi-slam闭环检测方法
CN111780764A (zh) 一种基于视觉地图的视觉定位方法、装置
JP2012113353A (ja) 特定領域選択装置、特定領域選択方法及びプログラム
CN110414550B (zh) 人脸识别模型的训练方法、装置、系统和计算机可读介质
JP6128910B2 (ja) 学習装置、学習方法及びプログラム
JP2022523312A (ja) Vslam方法、コントローラ及び移動可能機器
CN114937285B (zh) 动态手势识别方法、装置、设备及存储介质
CN107480627B (zh) 行为识别方法、装置、存储介质和处理器
CN109961103B (zh) 特征提取模型的训练方法、图像特征的提取方法及装置
JP5746550B2 (ja) 画像処理装置、画像処理方法
US20200257372A1 (en) Out-of-vocabulary gesture recognition filter
KR102556765B1 (ko) 비주얼 로컬라이제이션을 위한 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150904

R151 Written notification of patent or utility model registration

Ref document number: 5806606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151