JP6796850B2 - 物体検出装置、物体検出方法および物体検出プログラム - Google Patents

物体検出装置、物体検出方法および物体検出プログラム Download PDF

Info

Publication number
JP6796850B2
JP6796850B2 JP2016136359A JP2016136359A JP6796850B2 JP 6796850 B2 JP6796850 B2 JP 6796850B2 JP 2016136359 A JP2016136359 A JP 2016136359A JP 2016136359 A JP2016136359 A JP 2016136359A JP 6796850 B2 JP6796850 B2 JP 6796850B2
Authority
JP
Japan
Prior art keywords
image
target object
patch
images
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016136359A
Other languages
English (en)
Other versions
JP2017201498A (ja
Inventor
橋本 直己
直己 橋本
小林 大祐
大祐 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Publication of JP2017201498A publication Critical patent/JP2017201498A/ja
Application granted granted Critical
Publication of JP6796850B2 publication Critical patent/JP6796850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体検出装置、物体検出方法および物体検出プログラムに関する。
ファクトリ・オートメーション、拡張現実感(AR:Augmented Reality)、映像投影を用いた空間演出、プロジェクションマッピング等のエンターテインメント等において、対象物体の位置姿勢(位置、方向)の検出が必要となる場面がある。例えば、ファクトリ・オートメーションにおいては、生産ラインを流れる部品・製品等の外観から部品・製品等の特定や載置された位置・方向を検出し、その部品・製品等に対するその後の処理を決定する場合がある。また、拡張現実感、映像投影を用いた空間演出、プロジェクションマッピング等のエンターテインメント等では、映像を重ねる対象物体の位置姿勢の検出が必須となる。
従来、画像中から対象物体の位置姿勢を検出(推定)する手法として、特徴点マッチングによる手法と、テンプレートマッチングによる手法と、投票ベースによる手法とが用いられていた。なお、ここでは対象物体の形状は変化しないものとする。
特徴点マッチングによる手法は、予め登録しておいた対象物体の特徴点の3次元位置と入力画像から検出した特徴点との複数の対応関係から位置姿勢を推定するものである。この手法では、照明変化や部分的な特徴点の遮蔽(自己遮蔽)に頑健であるが、表面に模様等が存在しないか少ないテクスチャレス物体に対しては、有効な特徴点が抽出しづらく、安定した位置姿勢の推定が行えないという問題がある。プロジェクションマッピング等では、投影による映像効果を高めるため、単色(白色等)の対象物体が用いられることが多く、テクスチャレス物体への対応は重要である。
テンプレートマッチングによる手法は、入力画像上を走査し、予め位置姿勢に対応させて登録しておいた2次元画像のテンプレートデータベースから類似度の高いテンプレートを選択することによって位置姿勢の推定を行うものである。この手法では、テクスチャレス物体に対しても有効であるが、ある位置姿勢における対象物体の全体の画像に基づいたテンプレートを用いるため、対象物体の微小な変動や自己遮蔽に対して頑健ではないという問題がある。
この点につき、位置姿勢の変動に対応する手法として、微小な変動を考慮したテンプレートマッチングによる手法が提案されている(例えば、特許文献1、非特許文献1等を参照)。これは、3次元のCAD(Computer-Aided Design)データからテンプレート画像のデータベースを作成する際に、CADモデルを微小に変動させた際の輝度勾配方向を累積させることによって、3次元の姿勢の変動に頑健な特徴量を生成し、それを推定に用いるものである。この手法では、CADモデルを変動させる際に観測される輝度勾配の出現の頻度によって画素に重みを加えているが、CADモデルの重心から離れるほど変動量が増えるため、特徴量として選択されにくくなる。そのため、重心から離れた画像の特徴量が推定に反映されず、推定の精度を高められないという問題がある。また、この手法も、自己遮蔽に関しては考慮されていない。
投票ベースによる手法は、画像を小さなサイズのパッチ画像に分け、対象物体かどうかのクラス確率とその物体中心へのオフセット量を複数の決定木で学習(機械学習)する。そして、識別時に決定木による識別結果を画像空間に投票することで、投票密度の高い点から物体中心を求め、位置姿勢を推定するものである。この手法は、対象物体の微小な変動や自己遮蔽に対しては頑健であるが、一元的な処理により推定を行うことと、処理能力の関係から学習に用いることのできるパッチ数に限界があることから、位置姿勢の推定の精度が低いという問題がある。
特開2015‐007972号公報
小西嘉典,半澤雄希,川出雅人,橋本学:"階層的統合モデルを用いた単眼カメラからの高速3次元物体位置・姿勢認識,Vision Engineering workshop (2015).
上述したように、テクスチャレス物体に対しては、輝度勾配方向を累積させたテンプレートマッチングによる手法や、投票ベースによる手法が有利と考えられる。しかし、照明変化や対象物体の位置姿勢の変動や自己遮蔽に対する頑健さと位置姿勢の推定の精度の向上とを同時に満たすことができる手法は存在しなかった。
本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、照明変化や対象物体の位置姿勢の変動や自己遮蔽に対する頑健さと位置姿勢の推定の精度の向上とを同時に満たすことができる手法を提供することにある。
上記の課題を解決するため、本発明にあっては、検出の対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、前記対象物体を撮影して得た入力画像のパッチ画像をいずれかの姿勢クラスに分類する第1の識別器と、前記対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、姿勢クラスが推定された入力画像のパッチ画像をいずれかの姿勢パラメータに分類する第2の識別器とを備える。
本発明にあっては、照明変化や対象物体の位置姿勢の変動や自己遮蔽に対する頑健さと位置姿勢の推定の精度の向上とを同時に満たすことができる。
プロジェクションマッピングに適用した一実施形態のシステム構成例を示す図である。 実施形態の機能構成例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 オフライン処理の例を示すフローチャートである。 3Dモデルからポジティブ画像を生成する例を示す図である。 パッチ画像の抽出の例を示す図である。 特徴量の例を示す図である。 記憶されるパッチ情報のデータ構造例を示す図である。 機械学習に用いられる決定木の例を示す図である。 オンライン処理の例を示すフローチャートである。 あるスケールに対応する投票空間への投票結果の例を示す図である。 エッジ点の例を示す図である。 対象物体への投影の例を示す図である。
以下、本発明の好適な実施形態につき説明する。
<構成>
図1はプロジェクションマッピングに適用した一実施形態のシステム構成例を示す図である。図1において、事前に行われるオフライン処理のためのPC(Personal Computer)等の情報処理装置1と、本番におけるオンライン処理のためのPC等の情報処理装置2とが設けられている。なお、情報処理装置1によるオフライン処理の結果は、決定木パラメータとして情報処理装置2に引き渡される。なお、情報処理装置1と情報処理装置2は同じ装置を用いてもよく、その場合は決定木パラメータの引き渡しは必要ない。
オンライン処理においては、情報処理装置2のほかに、カメラ3とプロジェクタ4と赤外照明5とが設けられ、対象物体Oをカメラ3により撮影した入力画像が情報処理装置2に入力され、情報処理装置2からは出力画像(投影映像)がプロジェクタ4に出力される。なお、カメラ3とプロジェクタ4は、チェッカーボード等を用いたキャリブレーションが予め行われ、画素位置の対応付けがなされる。また、カメラ3は、プロジェクタ4により対象物体O上に投影される画像や外光による影響を受けないように、赤外線カメラが用いられる。更に、対象物体Oの動きへの追跡が容易となるように、カメラ3には高速度(フレームレートが高)のものが用いられる。
図2は実施形態の機能構成例を示す図である。図2において、オフライン処理を実行する情報処理装置1による機能構成として、パッチ画像抽出部13と特徴量抽出部14と決定木学習部16とを備えている。パッチ画像抽出部13は、CADモデルを使用して生成されたポジティブ画像11と、背景画像等のネガティブ画像12とを入力し、複数(多数)の小サイズのパッチ画像を抽出する機能を有している。特徴量抽出部14は、パッチ画像抽出部13により抽出されたパッチ画像から画像の特徴量を抽出し、学習時および識別(オンライン処理における初期の位置姿勢推定)時に用いる他の情報を付加したパッチ情報をパッチ情報記憶部15に格納する機能を有している。特徴量としては、ポジティブ画像11については主に累積勾配方向特徴量を用い、ネガティブ画像12については量子化勾配方向特徴量を用いている。なお、ポジティブ画像11について累積勾配方向特徴量を用いることで効率的な学習が可能になるが、量子化勾配方向特徴量を用いてもよい。累積勾配方向特徴量と量子化勾配方向特徴量の詳細については後述する。決定木学習部16は、パッチ情報記憶部15に格納されたパッチ情報に基づき、決定木のパラメータ(決定木パラメータ)を機械学習し、学習結果の決定木パラメータを決定木パラメータ記憶部17に格納する機能を有している。
一方、オンライン処理を実行する情報処理装置2による機能構成として、パッチ画像・特徴量抽出部22と位置姿勢推定部(初期)23と位置姿勢推定部(追跡)24と投影画像生成部25とを備えている。位置姿勢推定部23は、姿勢クラス・重心位置・スケール推定部231と姿勢パラメータ・スケール推定部232とを備えている。位置姿勢推定部24は、位置姿勢追跡部241と動き予測部242とを備えている。位置姿勢追跡部241は、エッジ点抽出部2411と入力画像-エッジ間マッチング部2412と誤差最小化部2413とを備えている。
パッチ画像・特徴量抽出部22は、カメラ3による撮影で取得された画像を複数のスケールにした入力画像21からパッチ画像を抽出し、その特徴量を抽出する機能を有している。特徴量としては、量子化勾配方向特徴量を用いている。複数のスケールの入力画像21とするのは、対象物体Oのカメラ3からの距離を推定するためである。
位置姿勢推定部23は、入力画像21の1フレーム目または追跡失敗後の先頭フレームからパッチ画像・特徴量抽出部22により抽出されたパッチ画像の特徴量に基づき、オフライン処理で学習された決定木パラメータに基づいて対象物体Oの初期の位置姿勢を推定する機能を有している。姿勢クラス・重心位置・スケール推定部231は、第1段階(Layer1)の推定として、対象物体Oの姿勢クラスと重心位置とスケールを推定する機能を有している。スケールは、パッチ画像の生成時の仮想カメラと対象物体Oの関係から距離に変換することが可能であり、カメラ3と対象物体Oの距離の表現方法の一つである。この姿勢クラス・重心位置・スケール推定部231は、入力画像21のパッチ画像を姿勢クラスに分類する識別器として動作する。姿勢パラメータ・スケール推定部232は、第2段階(Layer2)の推定として、姿勢クラス・重心位置・スケール推定部231により推定された対象物体Oの姿勢クラスと重心位置とスケールに基づき、詳細な姿勢パラメータとスケール(第1段階よりも細分化したもの)を推定する機能を有している。第2段階で最終的に推定されたスケールから、カメラ3と対象物体Oの距離が求められる。この姿勢パラメータ・スケール推定部232は、姿勢クラス・重心位置・スケール推定部231により推定された姿勢クラス内で、入力画像21のパッチ画像を詳細な姿勢パラメータに分類する識別器として動作する。
位置姿勢推定部24は、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値に基づき、位置姿勢の誤差の補正およびその後の対象物体Oの追跡を行う機能を有している。追跡が失敗した場合、位置姿勢推定部24は位置姿勢推定部23に対して追跡失敗を通知する。位置姿勢追跡部241は、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値によるCADモデル上のエッジ点と入力画像21のエッジ点とを比較することにより、推定後に変化した対象物体Oの位置姿勢に補正する機能を有している。なお、この位置姿勢の補正は、位置姿勢推定部23による位置姿勢の推定の誤差を補正することにもなり、位置姿勢の精度向上に寄与する。
エッジ点抽出部2411は、入力画像21から対象物体Oの輪郭を示すエッジ点を抽出するとともに、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値によるCADモデル上のエッジ点を抽出する機能を有している。入力画像-エッジ間マッチング部2412は、CADモデル上のエッジ点と入力画像21のエッジ点とを対応付ける機能を有している。誤差最小化部2413は、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値によるCADモデル上のエッジ点と入力画像21のエッジ点との誤差が最小化するように位置姿勢を補正する機能を有している。
動き予測部242は、追跡中の対象物体Oの位置姿勢から、後続の投影画像の生成および対象物体Oへの投影に要する遅延時間後の対象物体Oの位置姿勢を予測する機能を有している。
投影画像生成部25は、位置姿勢推定部24により推定された対象物体Oの位置姿勢に基づいて、その位置姿勢に整合させた投影画像を生成し、出力画像26として出力する機能を有している。
なお、オンライン処理においては、初期の位置姿勢推定と、その後の追跡における位置姿勢推定とを同時に実施する場合について記載しているが、それぞれを単独で実施することもできる。例えば、追跡が必要ない場合または他の手法により追跡を行う場合は、初期の位置姿勢推定を単独で実施することができる。また、初期の位置姿勢推定を他の手法により行う場合は、追跡における位置姿勢推定を単独で実施することができる。
図3は情報処理装置1、2のハードウェア構成例を示す図である。図3において、情報処理装置1、2は、バス107を介して相互に接続されたCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103を備えている。なお、CPU101には、汎用的なCPUの他に、GPU(Graphic Processing Unit)も含まれるものとする。また、情報処理装置1、2は、HDD(Hard Disk Drive)/SSD(Solid State Drive)104、接続I/F(Interface)105、通信I/F106を備えている。CPU101は、RAM103をワークエリアとしてROM102またはHDD/SSD104等に格納されたプログラムを実行することで、情報処理装置1、2の動作を統括的に制御する。接続I/F105は、情報処理装置1、2に接続される機器とのインタフェースである。通信I/F106は、ネットワークを介して他の情報処理装置と通信を行うためのインタフェースである。
図2で説明した情報処理装置1、2の機能は、CPU101において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。処理に際して参照・更新されるデータは、RAM103またはHDD/SSD104に保持される。
<動作>
図4はオフライン処理の例を示すフローチャートである。図4において、情報処理装置1では、検出対象となる対象物体OのCADモデルからポジティブ画像11を生成する(ステップS11)。なお、他の情報処理装置においてポジティブ画像11を生成し、それを情報処理装置1で取得するようにしてもよい。
図5は3Dモデルからポジティブ画像を生成する例を示す図である。図5において、対象物体OのCADによる3Dモデルを中心とした所定半径の仮想球面上に仮想カメラVCを置き、様々な位置からのポジティブ画像11を取得する。仮想カメラVCの位置をv、v、v、仮想カメラVCの光軸回りの回転角をθroとすると、姿勢パラメータθは、
θ={v,v,v,θro
と表すことができる。
また、2段階の機械学習における第1段階の機械学習に対応させるため、仮想カメラVCを置く球面を例えば8つの領域(クラス)に区分する。8つの領域は、例えば、球面を北半球と南半球に分けた上で、それぞれを経度方向に4つに区分する。そして、8つの領域内において、仮想カメラVCの位置と回転を均等に変化させてポジティブ画像11を取得する。なお、ポジティブ画像11の特徴量に用いる累積勾配方向特徴量を得ることができるように、位置姿勢を微小に変化させたポジティブ画像11を併せて取得する。ただし、対象物体Oの重心を中心に位置姿勢を変化させた場合には重心から遠くなる点が特徴量に反映されにくくなるため、空間的に均等に配置されたサンプリング点を中心に位置姿勢を微小に変化させる。なお、照明の強度についても一様乱数で変化させる。
図4に戻り、背景画像や、対象物体O以外の誤検出される可能性のある物体についてネガティブ画像12を取得する(ステップS12)。ネガティブ画像12は、デジタルカメラ等により撮影したもの等を用いることができる。
次いで、情報処理装置1のパッチ画像抽出部13は、ポジティブ画像11およびネガティブ画像12からそれぞれパッチ画像を抽出する(ステップS13)。抽出したパッチ画像は、相対位置(ポジティブ画像11にあっては対象物体Oの重心からのオフセット)と対応付けておく。図6はパッチ画像の抽出の例を示しており、対象物体Oからパッチ画像Pを抽出する様子を示している。パッチ画像Pは、重複を許容し、縦横に数ピクセルずつずらしながら、多数抽出する。
図4に戻り、情報処理装置1の特徴量抽出部14は、パッチ画像抽出部13により抽出されたパッチ画像から画像の特徴量を抽出し(ステップS14)、学習時および識別時に用いる他の情報を付加したパッチ情報をパッチ情報記憶部15に格納する(ステップS15)。
図7は、パッチ画像Pをグリッド状に分割した各格子内における輝度勾配(矢印で示す)の例を示している。輝度勾配は画像にsobelフィルタを適用することで求めることができる。各格子内で輝度勾配の大きさが所定の閾値を超えるものの勾配方向を例えば8つの方向に量子化したものが量子化勾配方向特徴量である。また、ポジティブ画像11の生成時にサンプリング点を中心に位置姿勢を微小に変化させた複数のポジティブ画像11から抽出した近傍にある複数のパッチ画像における量子化勾配方向特徴量を累積し、出現頻度が所定の閾値を超えるものを抽出したものが累積勾配方向特徴量である。また、その際の出現頻度は累積勾配方向特徴量の重みとする。
図8はパッチ情報記憶部15に記憶されるパッチ情報のデータ構造例を示す図である。ポジティブ画像11に対するパッチ情報は、「量子化勾配方向特徴量」「累積勾配方向特徴量」「累積勾配方向特徴量の重み」「パッチのクラスラベル」「パッチの姿勢方向ラベル」「オフセットベクトル」「姿勢パラメータ」「対象物体との距離」等を含んでいる。ネガティブ画像12に対するパッチ情報は、「量子化勾配方向特徴量」「パッチのクラスラベル」等を含んでいる。この場合の「パッチのクラスラベル」は、ポジティブ画像11の位置姿勢(図5において撮影を行う8つの領域に対応)のクラスラベル(例えば、1〜8)とは異なるクラスラベル(例えば、0)が設定される。
図4に戻り、情報処理装置1の決定木学習部16は、パッチ情報記憶部15に格納されたパッチ情報に基づいて2段階(2層)の機械学習を行い(ステップS16)、学習結果の決定木パラメータを決定木パラメータ記憶部17に格納する(ステップS17)。
図9は機械学習に用いられる決定木の例を示す図であり、決定木は複数設けられ、各決定木はルートのノードから2つに分岐して行き、以降のノードでも2つに分岐し、末端のノードに達する。各ノードには分岐関数が設定され、判断結果により左か右に分岐する。各ノードの分岐関数は、学習サンプルとなるパッチ画像と、比較対象としてランダムに選択されるパッチ画像の特徴量とから類似度を計算し、類似度を所定の閾値と比較して、閾値以上であるか否かの判断を行う。なお、一般にはRandom Forestsと呼ばれる、各ノードの分岐関数が異なるものが用いられるが、本実施形態では、演算処理の高速化のために、1つの決定木において、同じ階層のノードにおける分岐関数を同じにしたRandom Fernsと呼ばれる形式を用いている。
第1段階(Layer1)の学習では、パッチ情報記憶部15に格納された多数のパッチ情報からランダムにサンプリングしたデータセットと、サンプル内からランダムに取り出したポジティブ画像のパッチ情報とに基づいて決定木で分岐する。第2段階(Layer1)の学習では、クラスラベル(例えば、1〜8)毎に、各クラスに属するパッチ情報のデータセットと、同じクラス内からランダムに取り出したポジティブ画像のパッチ情報とに基づいて決定木で分岐する。そして、第1段階および第2段階のいずれにおいても、ポジティブ画像のパッチ情報と分岐関数の閾値とをランダムに変動させ、分岐結果のエントロピーが最小になるように各ノードのポジティブ画像のパッチ情報と閾値を決定する。
第1段階(Layer1)の決定木は、並列的に複数(例えば、20)設けられ、各決定木の末端のノードにはクラスラベル(例えば、0、1〜8)が割り当てられ、更に「クラス確率」と「オフセットベクトル」が保持される。「クラス確率」は、末端のノードに割り当てられたクラスラベルに実際に分類された同クラスラベルのパッチ画像の比率である。例えば、クラスラベル「4」が割り当てられた末端のノードに10個のパッチ画像が分類され、そのうちクラスラベル「4」のパッチ画像が3個ある場合、クラス確率は0.3(=3÷10)となる。「オフセットベクトル」は、末端のノードに割り当てられたクラスラベルに実際に分類された同クラスラベルのパッチ画像のオフセットベクトルの平均である。各ノードにおける比較対象のパッチ情報と閾値と、末端のノードのクラスラベルとクラス確率とオフセットベクトルは、第1段階の決定木の決定木パラメータとして決定木パラメータ記憶部17に格納される。
第2段階(Layer2)の決定木は、ポジティブ画像に対応するクラスラベル(例えば、1〜8)のそれぞれに複数(例えば、20)設けられ、決定木の末端のノードには「姿勢パラメータ」が保持される。「姿勢パラメータ」は、末端のノードに分類されたパッチ画像の姿勢パラメータの平均である。各ノードにおける比較対象のパッチ情報と閾値と、末端のノードの姿勢パラメータは、第2段階の決定木の決定木パラメータとして決定木パラメータ記憶部17に格納される。
図10はオンライン処理の例を示すフローチャートである。図10において、情報処理装置2のパッチ画像・特徴量抽出部22は、カメラ3による撮影で取得された画像を複数のスケールにした入力画像21からパッチ画像を抽出し、その特徴量を抽出する(ステップS201)。特徴量としては、量子化勾配方向特徴量を用いる。
次いで、位置姿勢推定部(初期)23は、入力画像21の1フレーム目または追跡失敗後の先頭フレームからパッチ画像・特徴量抽出部22により抽出されたパッチ画像の特徴量に基づき、オフライン処理で学習された決定木パラメータに基づいて対象物体Oの初期の位置姿勢を推定する(ステップS202)。
すなわち、位置姿勢推定部23の姿勢クラス・重心位置・スケール推定部231は、第1段階(Layer1)の推定として、対象物体Oの姿勢クラスと重心位置とスケールを推定する(ステップS203)。より具体的には、次のような処理を行う。先ず、各スケールおよび姿勢方向クラスに対するxy空間の投票空間(投票平面)(より具体的には、スケール毎の投影平面(xy空間)が、スケール分だけ重なったような3次元空間)を作成しておく。入力画像21から抽出したパッチ画像を第1段階の決定木パラメータに基づく決定木に入力し、各ノードの分岐関数に基づいて分岐させる。末端のノードに辿りついた際に、格納されている姿勢方向のクラスおよびスケールに対応する投票空間に投票する。図11はあるスケールに対応する投票空間への投票結果の例を示す図であり、台風の目のように見える点が極大値(あるスケールでの重心)を示しており、x,y,scaleで構築される3次元空間の中なら、mean shift法を使って極大が求められる。全ての決定木の結果を投票した上で、極大が求められ、その位置、スケールおよび姿勢方向クラスが第1段階の推定の結果として出力される。なお、姿勢クラスには別に投票処理が用意され、末端に到達したパッチ数と、末端に保持されているクラス確率とが掛け合わされ、全末端ノード分を足し合わせた中から最大となるクラスが求められる。
図10に戻り、位置姿勢推定部23の姿勢パラメータ・スケール推定部232は、第2段階(Layer2)の推定として、姿勢クラス・重心位置・スケール推定部231により推定された対象物体Oの姿勢クラスと重心位置とスケールに基づき、詳細な姿勢パラメータとスケール(第1段階よりも細分化したもの)を推定する(ステップS204)。より具体的には、次のような処理を行う。先ず、各スケール(第1段階よりも細分化したもの)および姿勢パラメータに対応するxy空間の投票空間(各スケール毎に投票平面を考え、これを積み重ねた3次元空間)を作成しておく。第1段階の推定で得られた姿勢方向クラスに対応する第2段階の決定木に対して、第1段階で検出した領域内(第1段階で検出した重心を中心とした、対象物体が含まれると想定される領域内)のパッチ情報を入力して分岐させる。末端のノードに辿りついた際に、スケールに対応する投票空間(スケールと、それに対応する重心(x,y)で構成される3次元空間)に投票する。姿勢パラメータに対しては、投票空間に、決定木の末端に設定された姿勢パラメータに、到達したパッチ画像数を重みとして、平均を求めて、姿勢パラメータを加えていく。全ての決定木の結果を投票した上で、極大を求め、その位置、スケールおよび加重平均した姿勢パラメータが最終的な結果として出力される。順番的には、まずスケールと重心を全ての木の結果を総合して求め、それに対応する姿勢パラメータ(つまり回転)を求める。推定されたスケールからは、学習時にサンプルを撮影した距離を利用して、距離が算出される。
次いで、位置姿勢推定部(追跡)24は、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値に基づき、位置姿勢の誤差の補正およびその後の対象物体Oの追跡を行う(ステップS205)。すなわち、位置姿勢推定部24の位置姿勢追跡部241のエッジ点抽出部2411は、入力画像21から対象物体Oの輪郭を示すエッジ点を抽出するとともに、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値によるCADモデル上のエッジ点を抽出する(ステップS206)。次いで、入力画像-エッジ間マッチング部2412は、CADモデル上のエッジ点と入力画像21のエッジ点とを対応付ける(ステップS207)。そして、誤差最小化部2413は、位置姿勢推定部23により推定された対象物体Oの位置姿勢推定値によるCADモデル上のエッジ点と入力画像21のエッジ点との誤差(位置誤差の総和)が最小化するように対象物体Oの位置姿勢を補正する(ステップS208)。図12はエッジ点の例を示しており、入力画像21から得られた輪郭をE1、CADモデルから得られた輪郭をE2で示している。CADモデルの位置姿勢を変化させて入力画像21から得られたエッジ点とできるだけ一致させることで、対象物体Oの位置姿勢を補正する。
図10に戻り、エッジ点間の誤差が所定の閾値以下であって補正可である場合(ステップS209のYes)、過去の対象物体Oの動きの変化から所定の遅延後の対象物体Oの位置姿勢を予測して出力し(ステップS210)、位置姿勢の追跡(ステップS205)を繰り返す。カメラ3により撮影された入力画像21による対象物体Oの位置姿勢の推定は、撮影後の処理による遅延により既に実際の位置姿勢から遅延したものであり、更に、その後に投影画像を生成して実際に投影するまでには更に処理の遅延が起きるため、それらの合計の遅延に相当する予測を行う。位置姿勢の予測は、例えば、直前までの対象物体Oの並行移動の速度および回転の角速度から予測する。また、誤差が所定の閾値より大きく補正不可である場合(ステップS209のNo)、パッチ画像および特徴量の抽出(ステップS201)および初期の位置姿勢の推定(ステップS202)から処理を繰り返す。
一方、投影画像生成部25は、出力された位置姿勢に基づいて投影画像を生成して出力する(ステップS211)。図13は対象物体Oへの投影の例を示しており、テクスチャレス物体である対象物体Oに顔の画像を投影した状態を示している。対象物体Oの位置姿勢はリアルタイムに推定・予測され、その位置姿勢に応じた投影画像が生成されて投影されるため、対象物体Oを動かしても、自然な投影を行うことができる。
<総括>
以上説明したように、本実施形態によれば、照明変化や対象物体の位置姿勢の変動や自己遮蔽に対する頑健さと位置姿勢の推定の精度の向上とを同時に満たすことができる。
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
1 情報処理装置
11 ポジティブ画像
12 ネガティブ画像
13 パッチ画像抽出部
14 特徴量抽出部
15 パッチ情報記憶部
16 決定木学習部
17 決定木パラメータ記憶部
2 情報処理装置
21 入力画像
22 パッチ画像・特徴量抽出部
23 位置姿勢推定部
231 姿勢クラス・重心位置・スケール推定部
232 姿勢パラメータ・スケール推定部
24 位置姿勢推定部
241 位置姿勢追跡部
2411 エッジ点抽出部
2412 入力画像-エッジ間マッチング部
2413 誤差最小化部
242 動き予測部
25 投影画像生成部
26 出力画像
3 カメラ
4 プロジェクタ
5 赤外照明
O 対象物体

Claims (8)

  1. 検出の対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、前記対象物体を撮影して得た入力画像のパッチ画像をいずれかの姿勢クラスに分類する第1の識別器と、
    前記対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、姿勢クラスが推定された入力画像のパッチ画像をいずれかの姿勢パラメータに分類する第2の識別器と
    を備え
    前記第1の識別器および前記第2の識別器は、前記入力画像の個々のパッチ画像による分類結果の総合的な投票結果に基づいて分類を行い、
    前記第2の識別器が分類する前記パッチ画像は、前記第1の識別器が検出した重心を中心とした領域内の画像である、ことを特徴とする物体検出装置。
  2. 前記入力画像を赤外線カメラから入力する
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記特徴量として累積勾配方向特徴量または量子化勾配方向特徴量を用いる
    ことを特徴とする請求項1または2に記載の物体検出装置。
  4. 前記第1の識別器および前記第2の識別器は、前記第1の識別器および前記第2の識別器を構成する決定木をRandom Ferns形式で構成する
    ことを特徴とする請求項1乃至のいずれか一項に記載の物体検出装置。
  5. 前記第2の識別器により推定された姿勢パラメータを初期値として、前記入力画像により前記対象物体の位置姿勢を追跡する位置姿勢追跡部と、
    前記対象物体の過去の位置姿勢の変化から所定の遅延後の前記対象物体の位置姿勢を予測する動き予測部と
    を備えたことを特徴とする請求項1乃至のいずれか一項に記載の物体検出装置。
  6. 前記位置姿勢追跡部は、前記初期値における前記対象物体のCADモデル上のエッジ点と前記入力画像から抽出した前記対象物体のエッジ点との誤差を最小化するように位置姿勢に補正を加える
    ことを特徴とする請求項に記載の物体検出装置。
  7. 検出の対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、前記対象物体を撮影して得た入力画像のパッチ画像をいずれかの姿勢クラスに分類する第1の識別手順と、
    前記対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、姿勢クラスが推定された入力画像のパッチ画像をいずれかの姿勢パラメータに分類する第2の識別手順と
    をコンピュータが実行し、
    前記第1の識別手順および前記第2の識別手順は、前記入力画像の個々のパッチ画像による分類結果の総合的な投票結果に基づいて分類を行い、
    前記第2の識別手順が分類する前記パッチ画像は、前記第1の識別手順が検出した重心を中心とした領域内の画像である、ことを特徴とする物体検出方法。
  8. 検出の対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、前記対象物体を撮影して得た入力画像のパッチ画像をいずれかの姿勢クラスに分類する第1の識別手順と、
    前記対象物体の様々な姿勢の画像から抽出したパッチ画像の特徴量に基づいて学習され、姿勢クラスが推定された入力画像のパッチ画像をいずれかの姿勢パラメータに分類する第2の識別手順と
    をコンピュータに実行させ
    前記第1の識別手順および前記第2の識別手順は、前記入力画像の個々のパッチ画像による分類結果の総合的な投票結果に基づいて分類を行い、
    前記第2の識別手順が分類する前記パッチ画像は、前記第1の識別手順が検出した重心を中心とした領域内の画像である、ことを特徴とする物体検出プログラム。
JP2016136359A 2016-04-28 2016-07-08 物体検出装置、物体検出方法および物体検出プログラム Active JP6796850B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016101917 2016-04-28
JP2016101917 2016-04-28

Publications (2)

Publication Number Publication Date
JP2017201498A JP2017201498A (ja) 2017-11-09
JP6796850B2 true JP6796850B2 (ja) 2020-12-09

Family

ID=60264624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016136359A Active JP6796850B2 (ja) 2016-04-28 2016-07-08 物体検出装置、物体検出方法および物体検出プログラム

Country Status (1)

Country Link
JP (1) JP6796850B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774510B2 (en) * 2012-09-11 2014-07-08 Sharp Laboratories Of America, Inc. Template matching with histogram of gradient orientations
JP6245880B2 (ja) * 2013-07-31 2017-12-13 キヤノン株式会社 情報処理装置および情報処理手法、プログラム
JP2015045751A (ja) * 2013-08-28 2015-03-12 株式会社ニコン 投影装置
JP6305856B2 (ja) * 2014-07-11 2018-04-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2017201498A (ja) 2017-11-09

Similar Documents

Publication Publication Date Title
US12020474B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN111795704B (zh) 一种视觉点云地图的构建方法、装置
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
CN104573614B (zh) 用于跟踪人脸的设备和方法
US9665803B2 (en) Image processing apparatus and image processing method
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
Tippetts et al. Dense disparity real-time stereo vision algorithm for resource-limited systems
CN110942515A (zh) 基于点云的目标物体三维计算机建模方法和目标识别方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2011133273A (ja) 推定装置及びその制御方法、プログラム
JP5833507B2 (ja) 画像処理装置
JP2021163503A (ja) 2次元カメラによる3次元の姿勢推定
CN112200056B (zh) 人脸活体检测方法、装置、电子设备及存储介质
JP4925120B2 (ja) 物体認識装置および物体認識方法
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
CN110546687B (zh) 图像处理装置及二维图像生成用程序
JP2022068282A (ja) ホワイトバランス調整装置、フォーカス制御装置、露出制御装置、ホワイトバランス調整方法、フォーカス制御方法、露出制御方法、及びプログラム
Kanaujia et al. Part segmentation of visual hull for 3d human pose estimation
JP6796850B2 (ja) 物体検出装置、物体検出方法および物体検出プログラム
KR101868520B1 (ko) 손 제스처 인식 방법 및 그 장치
JP2018185655A (ja) 物体検出装置、物体検出方法、物体検出プログラムおよび物体検出システム
CN112016495A (zh) 人脸识别的方法、装置和电子设备
Betta et al. Metrological characterization of 3D biometric face recognition systems in actual operating conditions
CN118365888B (zh) 去除图像中动态物体的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201110

R150 Certificate of patent or registration of utility model

Ref document number: 6796850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150