JP2008305059A - 物体認識装置および物体認識方法 - Google Patents

物体認識装置および物体認識方法 Download PDF

Info

Publication number
JP2008305059A
JP2008305059A JP2007150226A JP2007150226A JP2008305059A JP 2008305059 A JP2008305059 A JP 2008305059A JP 2007150226 A JP2007150226 A JP 2007150226A JP 2007150226 A JP2007150226 A JP 2007150226A JP 2008305059 A JP2008305059 A JP 2008305059A
Authority
JP
Japan
Prior art keywords
eigenvector
image
vector
image information
cut
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007150226A
Other languages
English (en)
Other versions
JP4866793B2 (ja
Inventor
Masayuki Obata
昌之 小畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YE Digital Co Ltd
Original Assignee
Yaskawa Information Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Information Systems Co Ltd filed Critical Yaskawa Information Systems Co Ltd
Priority to JP2007150226A priority Critical patent/JP4866793B2/ja
Publication of JP2008305059A publication Critical patent/JP2008305059A/ja
Application granted granted Critical
Publication of JP4866793B2 publication Critical patent/JP4866793B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】
ビデオカメラなどで撮影した監視対象物の位置を高速認識することができる物体認識装置を提供する。
【解決手段】
監視対象物またはその三次元モデルを回転させて得た複数のテンプレート画像の画像情報からテンプレート画像固有ベクトルを求めて、テンプレート画像固有ベクトル記憶部11にあらかじめ記憶させておき、実画像情報を所定の時間間隔で記憶する画像情報記憶部12と、実画像情報とテンプレート画像固有ベクトルとを比較して監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法によって監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、固有空間法状態推定部13とパーティクルフィルタ法状態推定部14の切り替えを行う推定方法切替部15とにより、監視対象物の位置をリアルタイムで認識する。
【選択図】 図1

Description

本発明は、ビデオカメラなどで撮影した監視対象物の位置をリアルタイムで高速認識するための物体認識装置および物体認識方法に関する。
ビデオカメラなどで撮影された動画像中から、任意の形状を持つ3次元物体を画像処理して、特定の監視対象物をリアルタイムで認識させる場合、カメラと物体(監視対象物)の位置関係によって、カメラで撮影された監視対象物の見かけの画像が様々に変化するという問題に対応しなければならない。このような認識方法は、大きく分けて幾何モデルとの比較を行う方法と、テンプレートマッチングに基づく方法に分類することができる。
幾何モデルとの比較に基づく方法は、監視対象物の幾何モデルをあらかじめ記憶し、取得した画像中の物体の構造を解析し、記憶された幾何モデルとの比較を行うことで監視対象物を認識する。幾何モデルとの比較は、画像中における監視対象物の形状が複雑な場合に、その監視対象物を正確にモデリングすることが困難であり、さらに幾何モデルの複雑さが画像処理等における計算コストを増加させるという問題を有する。
一方、テンプレートマッチングに基づく方法は、監視対象物の様々に変化する見かけ画像をテンプレート画像としてあらかじめ記憶し、取得した画像と記憶されたテンプレート画像をマッチングさせるので、監視対象物の形状の複雑さに依存しないという利点を有する。しかしながら、この方法はマッチング処理のために多様な画像をテンプレート画像として大量に記憶しておかなければならないので、必要とされる記憶容量が増加するとともに、マッチングのための画像処理等に要する時間が長いという問題点がある。このため、このような問題点を解決するためのさまざまなアプローチが試みられてきた。
このようなアプローチの一つとして、主成分分析を利用してマッチング処理を行う方法がある。主成分分析とは、多変量の計測値から、その特性を少数の合成変数で説明するといった多変量データ解析による手法であり、画像圧縮等の情報圧縮やパターン認識のための特徴抽出等の多くの分野で利用されている。マッチング処理による物体認識において主成分分析を利用する場合には、マッチング処理のためのテンプレート画像を低次元の固有ベクトルとして圧縮し、これを辞書データとして保持することで、記憶すべきデータ容量を低減することができる。
また、主成分分析を用いた物体認識においては、非特許文献1に記載された技術が知られている。テンプレート画像から主成分分析を用いて低次元の固有ベクトルとして圧縮し辞書データを作成しておき、辞書データを用いて動画像中から3次元物体の認識を行うという方法が開示されている。
すなわち、非特許文献1では、特定の物体たる監視対象物の位置や姿勢を認識するために、あらかじめ、回転等により変化する見かけ画像をテンプレートとして複数枚撮影して、各画像について画像の固有ベクトルを求めておき、物体認識の段階では、リアルタイムで取得した画像を切り出して、切り出した画像を固有ベクトルで張られた空間に投影したときに求められる特性値を算出して、切り出した画像内に特定の物体が含まれているか否かを判断するとともに、特定の物体が含まれていない場合には、取得した画像の切り出しをやり直し、特定の物体が含まれている場合には、切り出した画像がどのテンプレート画像に類似しているかを判別するという固有空間法によるパターンマッチングに関する技術が開示されている。
村瀬ら:「2次元照合による3次元物体認識―パラメトリック固有空間法―」(信学論,Vol.J77-D-II,No.11,pp.2179-2187,1994)
このように、パラメトリック固有空間法によれば、テンプレート画像の画像情報が固有ベクトルを用いることによって低次元化できるので、学習させておくために必要な情報量を抑えることができる。
そして、非特許文献2では、各時刻における状態ベクトルを逐次的に推定する手法としてパーティクルフィルタに関する技術が開示されている。
パーティクルフィルタでは、独立な実現値とみなせる多数のパーティクル(=状態ベクトル)を発生させ、各パーティクルについて、次の状態を近似によって推定し(手順a)、 更に次の状態として残すべきパーティクルを、そのパーティクルを確率分布に従ってリサンプリングし(手順b)、この手順a, 手順bを繰り返すことで、各時刻における状態ベクトルが逐次的に推定される。
樋口:「解説 粒子フィルタ」(信学論,Vol.88,No.12,pp.989-994,2005)
パーティクルフィルタによって推定されたパーティクルが有する状態ベクトルと実際に撮影した監視対象物が有する特性ベクトルの両者を比較することで、比較させる対象を少なくすることができ、パラメトリック固有空間法よりも少ない計算量で、監視対象物の位置を推定できる。
ところが、前述した技術では次のような問題がある。
非特許文献1の固有空間法によって、特定の物体を認識させようとすると、撮影した画像とテンプレート画像を比較しなければならず、撮影された画像のどの範囲に監視対象物が存在するかを確認する作業(たとえば、撮影した画像から監視対象物の中心位置を求めるといった作業等)が必要となってくる。監視対象物の中心位置が判らない場合には、撮影した画像を複数切り出して、その切り出した画像のそれぞれについてテンプレート画像との比較を行わなければならず、画像処理における計算量を増大させてしまう。
また、非特許文献2のパーティクルフィルタでも、監視対象物の中心位置が判らない場合には、その監視対象物の次タイミングにおける位置についてパーティクルを以って推定することが出来ず、監視対象物に追跡させることが困難となる。特に、動きのある監視対象物に対しては、これをリアルタイムで追跡することが困難であるという問題があった。
そこで、本発明は、ビデオカメラなどで撮影した監視対象物の位置を高速認識し、特に動きのある監視対象物をリアルタイムで追従することができる物体認識装置および物体認識方法を提供する。
本発明は、監視対象物またはその三次元モデルを回転させて得た複数のテンプレート画像の画像情報からテンプレート画像固有ベクトルを求めて、テンプレート画像固有ベクトル記憶部11にあらかじめ記憶させておき、実画像情報を所定の時間間隔で記憶する画像情報記憶部12と、実画像情報とテンプレート画像固有ベクトルとを比較して監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法によって監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、固有空間法状態推定部13とパーティクルフィルタ法状態推定部14の切り替えを行う推定方法切替部15とにより、監視対象物の位置をリアルタイムで認識するものである。
すなわち、第1の発明にかかる物体認識装置は、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、前記固有ベクトルを記憶するテンプレート画像固有ベクトル記憶部11と、所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶部12と、前記実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、前記固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定を前記パーティクルフィルタ法状態推定部14で行わせるようにし、前記パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を前記固有空間法状態推定部13で行わせる推定方法切替部15と、を備えるものである。
また、第2の発明に係る物体認識装置は、第1の発明の構成に加え、前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とするものである。
また、第3の発明に係る物体認識装置は、第1の発明または第2の発明の構成に加え、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、前記テンプレート画像固有ベクトル記憶部11では、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルがあわせて記憶され、前記固有空間法状態推定部13では、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、前記パーティクルフィルタ法状態推定部14では、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とするものである。
また、第4の発明に係る物体認識装置は、第1の発明ないし第3の発明の構成に加え、前記固有空間法状態推定部13は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、前記パーティクルフィルタ法状態推定部14は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することを特徴とするものである。
また、第5の発明に係る物体認識装置は、第4の発明の構成に加え、前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることを特徴とするものである。
また、第6の発明に係る物体認識方法は、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶するテンプレート画像固有ベクトル記憶ステップS11と、所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶ステップS12と、前記実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13c、を含んだ固有空間法状態推定ステップS13と、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成するステップS14a、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS14b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるステップS14c、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するステップS14d、を含んだパーティクルフィルタ法状態推定ステップS14と、固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15b、を含んだ推定方法切替ステップS15と、によって、監視対象物の位置を特定させるものである。
また、第7の発明に係る物体認識方法は、第6の発明の手順に加え、前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とするものである。
また、第8の発明に係る物体認識方法は、第6の発明または第7の発明の手順に加え、前記テンプレート画像固有ベクトル記憶ステップS11では、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出して、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルをあわせて記憶し、前記固有空間法状態推定ステップS13のステップS13cでは、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、前記パーティクルフィルタ法状態推定ステップS14のステップS14cでは、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とするものである。
また、第9の発明に係る物体認識方法は、第6の発明ないし第8の発明の手順に加え、前記固有空間法状態推定ステップS13のステップS13cでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することによって、監視対象物の位置および角度を特定させることを特徴とするものである。
また、第10の発明に係る物体認識方法は、第9の発明の手順に加え、前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることによって、監視対象物の位置および角度を特定させることを特徴とするものである。
本発明第1の構成による物体認識装置(または本発明第6の手順による物体認識方法)によれば、固有空間法状態推定部13(または固有空間法状態推定ステップS13)とパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)の二つを設けると共に、これらを切り替える推定方法切替部15(または推定方法切替ステップS15)を設けることで、最初の段階あるいはパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)での位置推定が失敗したときには、固有空間法状態推定部13(または固有空間法状態推定ステップS13)によって、撮影された画像の広い範囲からの位置推定を行うと共に、位置推定が出来た後は、パーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)によって、高速の位置推定(監視対象物のリアルタイム認識)を継続させることが出来る。
また、本発明第2の構成による物体認識装置(または本発明第7の手順による物体認識方法)によれば、特定された監視対象物の位置から速度を算出し、その速度に応じて各パーティクルを平行移動させることで、動きのある測定対象物の位置追従を高い精度で行わせることが出来る。
また、本発明第3の構成による物体認識装置(または本発明第8の手順による物体認識方法)によれば、撮影された位置によって見かけ上の大きさが異なる監視対象物に対して、大きさの異なるテンプレート画像を用意し、これらの固有ベクトルをそれぞれ記憶させておき、固有空間法状態推定部13(または固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で類似性を比較するにあたり実画像情報を切り出した位置に対応する大きさのテンプレート画像の固有ベクトルを用いることで広い範囲を対象とした監視対象物の位置認識が実現される。
また、本発明第4の構成による物体認識装置(または本発明第9の手順による物体認識方法)によれば、固有空間法状態推定部13(固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
また、本発明第5の構成による物体認識装置(または本発明第10の手順による物体認識方法)によれば、監視対象物の位置と角度を特定して、監視対象物の移動方向を予測し、パーティクルフィルタ法において次タイミングにおけるパーティクルを、監視対象物の移動方向を長軸とする楕円の範囲内で移動させることで、パーティクルフィルタ法による粒子の数を抑える(または粒子を高密度化させる)ことができ、監視対象物の位置推定の高速化(または高精度化)が実現される。
本発明を実施するための形態を実施例1および実施例2にて説明する。
本発明の実施例1について図1〜図5に基づいて説明する。
図1は実施例1による物体認識装置の構成を示す説明図である。物体認識装置1は、撮影装置(ビデオカメラ)10と接続され、撮影装置10が撮影した監視対象物の位置をリアルタイムにて特定する。内部にはテンプレート画像固有ベクトル記憶部11、実画像情報記憶部12、固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15を備える。
図示による説明は省略するが、物体認識装置1を実現するハードウエア構成の一例としては、メモリ、中央演算装置(CPU)、キャプチャボードを供えたパーソナルコンピュータが考えられる。撮影装置10で撮影された画像はキャプチャボードによりパーソナルコンピュータ上に取り込まれる。メモリには、テンプレート画像固有ベクトル記憶部11および実画像情報記憶部12に相当する記憶領域があり、さらに、固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15の演算用メモリ・プログラムなどが記憶されている。固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15の演算処理はCPUにて行い、メモリに記憶されたプログラムに基づいて行われる。
実施例1により監視対象物の位置を特定させるためには、監視対象物を複数の角度から撮影して、撮影された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、テンプレート画像固有ベクトル記憶部11に、その算出された固有ベクトルを記憶させておく。なお、画像情報は、監視対象物の三次元モデルを複数の角度から表示して、表示された画像情報を用いることによって作成しても良い。
テンプレート画像の固有ベクトルの求め方は次の通りである。すなわち、監視対象物(または監視対象物の三次元モデル)をあらかじめ色々な角度から撮影(または表示)し、その画像データをPi (1≦i≦d)とする。ここで、dは撮影したテンプレート画像の枚数、Piはm×n画素の画像データであって、xij(1≦j≦J=m×n)を画像データPiのj番目の画素値としたときに、xi=(xi1,xi2,…,xiJ)Tとおくと、xiはJ次元ベクトルとなる。なお、xiは、その大きさが|xi|=1となるように、正規化の処理を行っておき、各成分xij(1≦i≦d,1≦j≦J)の平均値をmとおく。
そして、Mをすべての成分がmであるベクトルとし、S=(x1−M,x2−M,…,xd−M)(x1−M,x2−M,…,xd−M) T で定義される共分散行列Sに対して、Sujj ujなる固有値と固有ベクトルの組(λj ,uj)(ただし、λj≧λj+1)を算出し、固有値が大きい順に、固有値と固有ベクトルの組(λj ,uj)をk組(ただし、kはd以下)選び、k個の固有ベクトルから、行列E=(u1,u2,…,uk)を定め、ベクトルgi=ET(xi−M) (1≦i≦d)および行列Eをテンプレート画像固有ベクトルとして、テンプレート画像固有ベクトル記憶部11に記憶させる。
図2は、テンプレート画像の一例を示したものである。監視対象物を10degreeずつ回転させて、36枚の画像を撮影し、そのうち16枚の画像を図2で表示している。図3は、図2と同じテンプレート画像について、共分散行列Sを求め、その固有ベクトルをu1,u2,u3として3つ選び、その固有ベクトルから求まるベクトルgi(1≦i≦36)を三次元表示させたものである。回転などで連続的に変化するテンプレート画像は、連続する2枚の画像間の相関が一般的に強いことから、テンプレート画像を固有空間上に投影すると、図3に示すように滑らかな閉曲線を描く。これは、相関が強い2枚の画像に対応する固有空間上の2点は距離が近くなるという性質のためである。
実画像情報記憶部12は、所定の時間間隔で撮影された画像を実画像情報として記憶するものである。すなわち、撮影装置10から撮影した画像情報が所定の時間間隔で記録される。
固有空間法状態推定部13は、実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、その切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から、該監視対象物の位置を特定するものである。
なお、固有空間法状態推定部13は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、実画像情報を位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定するものである。
なお、パーティクルフィルタ法状態推定部14は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
推定方法切替部15は、固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定部14で行わせるようにし、パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を固有空間法状態推定部13で行わせるものである。
続いて、実施例1による物体認識方法の手順を、図4のフローチャートに従って説明する。
テンプレート画像固有ベクトル記憶ステップS11では、前述した方法により、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶する。
撮影装置10により撮影された画像情報は、実画像情報記憶部12に送られ、実画像情報記憶ステップS12では、所定の時間間隔で撮影された画像を実画像情報として記憶する。
固有空間法状態推定ステップS13は、実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13cからなる。なお、図4では、ステップS13cによる処理をステップS13c−1、ステップS13c−2およびステップS13c−3に分けて説明している。
詳説すると、固有空間法状態推定部13では、実画像情報記憶部12から実画像情報を読み込んで、テンプレート画像と同じ大きさになる画像を複数枚切り出し(ステップS13a)、切り出された画像情報をそれぞれベクトル表示に置き換える(ステップS13b)。ここで、例としてテンプレート画像の大きさを30×50ピクセル、撮影装置で撮影した画像の大きさを60×100ピクセルとした場合、撮影装置10で撮影した実画像情報から1ピクセルずつシフトさせて画像を切り出すと、その切り出し画像の枚数は31×51枚となる。そこで、切り出した各画像に番号r(1≦r≦31×51)を付与し、画像rとテンプレート画像との相関を次のように求める。すなわち、切り出した画像rについて、yj(1≦j≦J=m×n)を画像rのj番目の画素値として、切出画像ベクトルをy(r)=(y1,y2,…,yJ)Tとおくと、y(r)はJ次元ベクトルとなる。ここで、y(r)はその大きさが|y(r)|=1となるように、正規化の処理を行っておく。
ステップS13c−1では、テンプレート画像固有ベクトル記憶部11から固有ベクトルを参照し(ステップS13c−2)、切出画像ベクトルと固有ベクトルの類似性をそれぞれ評価する。すなわち、ベクトルgi (1≦i≦36)と行列Eを参照し、具体的には、|gi−ET(y(r)−M)|を各r (1≦r≦31×51)と各i(1≦i≦36)について算出することとなる。
ステップS13c−3では、|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求め、切出画像ベクトルy(r’)に対応する実画像情報の切り出し位置から監視対象物の位置を特定する。ここで、|gi’−ET(y(r’)−M)|の値が一定の値を超えた場合には、固有空間法状態推定ステップS13における該監視対象物の位置が特定できなかったものとしてステップS13aに戻り(ステップS13c−3でNO)、次の撮影タイミングにおける該監視対象物の位置の特定を再び固有空間法状態推定ステップS13で行わせるようにする。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS13c−3にて|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求めたあとで、切り出した画像r’およびその周辺以外で切り出した画像を対象にステップS13c−3と同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(r)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
なお、ステップS13c−3では、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。つまり、|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求め、ベクトルgiに対応するテンプレート画像iの撮影角度または表示角度を特定するようにすれば良い。
このように、固有空間法状態推定部13(固有空間法状態推定ステップS13)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
ステップS13c−3で、|gi’−ET (y(r’)−M)|の値が一定の値を超えなかった場合には、その結果をディスプレイ等の出力装置(図示省略)に表示すると共に、次のステップS15aに進む(ステップS13c−3でYES)。
パーティクルフィルタ法状態推定ステップS14では、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し(ステップS14a)、実画像情報を位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて(ステップS14b)、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め(ステップS14c)、その切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定する(ステップS14d)。なお、図4では、ステップS14aによる処理をステップS14a−1、ステップS14a−2およびステップS14a−3に分けて説明し、ステップS14bによる処理をステップS14b−1およびステップS14b−2に分けて説明し、ステップS14cによる処理をステップS14c−1およびステップS14c−2に分けて説明している。
パーティクルフィルタは、多数(本実施例では100個とする)のパーティクルを発生させ、そのパーティクルを所定の方法によって逐次ランダム移動させて、その移動させたパーティクルのどこかに監視対象物があるものと仮定して、監視対象物の位置を推定するものである。
詳説すると、パーティクルフィルタ法状態推定ステップS14は、ステップS15aにより固有空間法状態推定ステップS13からパーティクルフィルタ法状態推定ステップS14への切替が行われた後に起動し、初期パーティクルの生成を行う(ステップS14a−1)。ここでは、ステップS13c−3によって、監視対象物の位置がわかっていることから、初期パーティクルのすべてを監視対象物の位置で生成させる。
ステップS14a−2では、次タイミングでの監視対象物の位置を予測するために、生成された各パーティクルをランダムに移動させる。すなわち、パーティクルn(1≦n≦100)のタイミングtにおける位置をP(n)(t)=(Px (n)(t),Py (n)(t))としたときに、P(n)(t+1)=(Px (n)(t)+Randx,Py (n)(t)+ Randy) により、次タイミングt+1におけるパーティクルの位置を決定する。ただし、Randx、Randは、0を中心値として一定の範囲で発生する乱数であって、|Randx|、|Rand|≦maxdistance(正の一定値)である。
また、こういった方法のほか、ステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させるようにしてもよい。
すなわち、ステップS14a−2では、P(n)(t+1)=(Px (n)(t)+ (T(t+1)-T(t))×Vx(t)+Randx, Py (n)(t)+ (T(t+1)-T(t))×Vy(t)+ Randy)により、次タイミングt+1におけるパーティクルの位置を決定させるようにする。
このように、特定された監視対象物の位置から速度を算出し、その速度に応じて各パーティクルを平行移動させることで、動きのある測定対象物の位置追従を高い精度で行わせることが出来る。
ステップS14b−1では、次のタイミングで撮影され実画像情報記憶部12に記憶された実画像情報を参照し、各パーティクルの位置に基づいて実画像情報をそれぞれ切り出す。具体的には、パーティクルnの位置がP(n)(t+1)=(Px (n)(t+1), Py (n)(t+1))であるから、座標P(n)(t+1)を中心とし、大きさがテンプレート画像と同じ大きさになる切り出し画像を各n(1≦n≦100)について作成し、切り出した各画像に番号n(1≦n≦100)を付与する。
ステップS14b−2では、切り出された画像の画像情報をそれぞれベクトル表示に置き換える。すなわち、切り出した画像nについて、yj (1≦j≦J=m×n)を画像nのj番目の画素値として、切出画像ベクトルをy(n)=(y1,y2,…,yJ)Tとおくと、y(n)はJ次元ベクトルとなる。ここで、y(n)はその大きさが|y(n)|=1となるように、正規化の処理を行っておく。
ステップS14c−1では、テンプレート画像固有ベクトル記憶部11から固有ベクトルを参照し(ステップS14c−2)、切出画像ベクトルと固有ベクトルの類似性をそれぞれ評価する。すなわち、ベクトルgi (1≦i≦36)と行列Eを参照し、具体的には、|gi−ET(y(n)−M)|を各n (1≦n≦100)と各i(1≦i≦36)について算出することとなる。
ステップS14dでは、|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求め、切出画像ベクトルy(n’)に対応するパーティクルnの位置から監視対象物の位置を特定する。ここで、|gi’−ET(y(n’)−M)|の値が一定の値を超えた場合には、パーティクルフィルタ法状態推定ステップS14における該監視対象物の位置が特定できなかったものとしてステップS15bに進み(ステップS14dでNO)、次の撮影タイミングにおける該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるようにする。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS14dにて|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求めたあとで、切り出した画像n’およびその周辺以外で切り出した画像を対象にステップS14dと同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(n)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
なお、ステップS14dでは、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。つまり、|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求め、ベクトルgiに対応するテンプレート画像iの撮影角度または表示角度を特定するようにすれば良い。
このように、パーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
ステップS14dで、|gi’−ET (y(n’)−M)|の値が一定の値を超えなかった場合には、その結果をディスプレイ等の出力装置(図示省略)に表示すると共に、次のステップS14a−3に進む(ステップS14dでYES)。
ステップS14a−3では、次タイミングt+1で撮影された監視対象物の位置を推定するために、次タイミングt+1でのパーティクルを再発生させる。その発生方法としては、タイミングtにおける各パーティクルnについて|gi−ET (y(n)−M)|の最小値|gi’−ET(y(n)−M)|を求め、各パーティクルnについて、評価の指標として尤度を用い、|gi’−ET (y(n)−M)|の値が小さいときは尤度が高いものとし、逆に|gi’−ET(y(n)−M)|の値が大きいときは尤度が低いものとし、尤度の高いパーティクルが次タイミングにおける候補に採用されやすいような方法で再発生させる。
図5は、パーティクルフィルタ法によるパーティクルの発生方法を示したものであり、タイミングtにて尤度が高いパーティクル51や尤度が普通のパーティクル52は、複数個または1個のパーティクルとして残し、逆に尤度が小さいパーティクル53は、タイミングtにて消滅・淘汰される。そうすることで、次タイミングt+1では、タイミングtにおける同じ数のパーティクルが発生すると共に、次タイミングt+1でも引き続き高い精度での位置推定が期待される。
次タイミングt+1でのパーティクルを再発生させた後は、ステップS14a−2に移り、次タイミング以降に撮影された画像の位置推定を、引き続きパーティクルフィルタ状態推定ステップS14により行わせる。
推定方法切替ステップS15は、固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置の特定を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15bからなる。
詳説すると、ステップS15aは、ステップS13c−3でYESとなったときに、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えを行って、ステップS14a−1に進む。また、ステップS15bは、ステップS14dでNOとなったときに、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えを行って、ステップS13aに進む。
このように、固有空間法状態推定部13(または固有空間法状態推定ステップS13)とパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)の二つを設けると共に、これらを切り替える推定方法切替部15(または推定方法切替ステップS15)を設けることで、最初の段階あるいはパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)での位置推定が失敗したときには、固有空間法状態推定部13(または固有空間法状態推定ステップS13)によって、撮影された画像の広い範囲からの位置推定を行うと共に、位置推定が出来た後は、パーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)によって、高速の位置推定(監視対象物のリアルタイム認識)を継続させることが出来る。
本発明の実施例2について図6〜図10に基づいて説明する。なお、実施例1と同じ構成や方法となる部分については同一の符号を使用し、詳細の説明については省略する。
実施例2では、図6に示す自動車の模型を監視対象物とし、物体認識装置1はその自動車の模型の位置を認識させる。
図7は、監視対象物である自動車の模型について、その角度を変えて複数撮影したテンプレート画像であり、自動車の角度を10degreeずつ回転させて撮影を行った36枚のうち、12枚を抜き出して表示させている。なお、テンプレート画像は、図7に示すように実際に撮影した画像情報から、監視対象物以外の背景を取り除いてから処理することが好ましい。
図8は、自動車の模型の回転角度が30degreeであるときのテンプレート画像について、その固有ベクトルを求め、それを画像表示させたものである。このように、固有ベクトルを画像表示させると、監視対象物たる自動車模型の輪郭等が現れる。
ここで、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、テンプレート画像固有ベクトル記憶部11では、固有ベクトルのほか、拡大画像固有ベクトルまたは縮小画像固有ベクトルがあわせて記憶させるようにすると好ましい。
図9は、実画像情報と拡大画像情報または縮小画像情報の関係を示す説明図である。すなわち、テンプレート画像92のほか、監視対象物たる自動車模型を拡大表示した拡大画像情報93、縮小表示した縮小画像情報91を各回転角度に応じて作成し、拡大画像情報93や縮小画像情報91についても、拡大画像の固有ベクトル、縮小画像の固有ベクトルを作成し、監視対象物の見かけ画像の変化の度合いによって、異なる大きさで求めた固有ベクトルを用意しておく。
そして、固有空間法状態推定部13(固有空間法状態推定ステップS13のステップS13c)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14のステップS14c)では、切出画像ベクトルの切出し位置に応じて、
(1)切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求めるか、
(2)切出画像ベクトルと拡大画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)切出画像ベクトルと縮小画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する実画像情報の切出し位置や切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定するようにする。
つまり、実画像情報94のうち、遠くの位置として撮影される部分94aでは監視対象物が見かけ上で小さく見え、近くの位置として撮影される部分94bでは監視対象物が見かけ上で大きく見えることから、遠くの位置に対応する切出し画像に対しては縮小画像固有ベクトルとの比較を行い、近くの位置に対応する切出し画像に対しては拡大画像固有ベクトルとの比較を行うようにする。
このように、撮影された位置によって見かけ上の大きさが異なる監視対象物に対して、大きさの異なるテンプレート画像を用意し、これらの固有ベクトルをそれぞれ記憶させておき、固有空間法状態推定部13(または固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で類似性を比較するにあたり実画像情報を切り出した位置に対応する大きさのテンプレート画像の固有ベクトルを用いることで広い範囲を対象とした監視対象物の位置認識が実現される。
続いて、パーティクルフィルタ法の処理について説明する。実施例2では、パーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14のステップS14a)の処理で、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にしてその進行方向を長軸とする楕円の範囲内でパーティクルを移動させる。
たとえば、自動車などのように、見かけの回転角度から移動する方向がある程度予測できる監視対象物について、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成する場合には、各パーティクルをランダムに移動させるよりも、その監視対象物の移動方向に応じて各パーティクルを偏在させることが効果的である。
すなわち、次タイミングでの監視対象物の位置を予測にあたっては、図10のように、監視対象物101の位置を中心として、その進行方向102(θ)を長軸とした楕円の範囲内103で、生成された各パーティクルをランダムに移動させる。楕円の長半径をa、短半径をb、rRandを[0,1]の範囲で発生する乱数、θRandを[0,2π]の範囲で発生する乱数としたときに、P(n)(t+1)=(Px (n)(t)+Δx,Py (n)(t)+Δy) により、次タイミングt+1におけるパーティクルの位置を決定する。ただし、Δx=c×(cosθcosθRand−sinθsinθRand),Δy=c×(sinθcosθRand+cosθsinθRand),c=rRand×{(ab)2÷(b2cos2θRand+a2sin2θRand)}1/2である。
このように、監視対象物の位置と角度を特定して、監視対象物の移動方向を予測し、パーティクルフィルタ法において次タイミングにおけるパーティクルを、監視対象物の移動方向を長軸とする楕円の範囲内で移動させることで、パーティクルフィルタ法による粒子の数を抑える(または粒子を高密度化させる)ことができ、監視対象物の位置推定の高速化(または高精度化)が実現される。
本発明は、産業用ロボットに取り付けられたワークの位置や姿勢を監視する用途、人や物の移動を監視する用途などで利用されることが考えられる。
実施例1による物体認識装置の構成を示す説明図 テンプレート画像の一例を示した説明図 テンプレート画像を固有空間上に現した三次元投影図 実施例1による物体認識方法の手順を示すフローチャート パーティクルフィルタ法によるパーティクルの発生方法を示す説明図 実施例2における監視対象物(自動車の模型)の写真 実施例2における監視対象物(自動車の模型)のテンプレート画像 テンプレート画像から固有ベクトルを求めて画像表示させたイメージ図 実画像情報と拡大画像情報または縮小画像情報の関係を示す説明図 次タイミングで監視対象物の位置を予測する範囲を示す説明図
符号の説明
1 物体認識装置
10 撮影装置
11 テンプレート画像固有ベクトル記憶部
12 実画像情報記憶部
13 固有空間法状態推定部
14 パーティクルフィルタ法状態推定部
15 推定方法切替部
51,52,53 パーティクル
91 監視対象物たる自動車模型を縮小表示した縮小画像情報
92 テンプレート画像
93 監視対象物たる自動車模型を拡大表示した拡大画像情報
94 実画像情報
94a 実画像情報のうち遠くの位置として撮影される部分
94b 実画像情報のうち近くの位置として撮影される部分
101 監視対象物
102 進行方向
103 パーティクルの発生範囲

Claims (10)

  1. 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、
    前記固有ベクトルを記憶するテンプレート画像固有ベクトル記憶部11と、
    所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶部12と、
    前記実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定する固有空間法状態推定部13と、
    パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、
    前記固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定を前記パーティクルフィルタ法状態推定部14で行わせるようにし、前記パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を前記固有空間法状態推定部13で行わせる推定方法切替部15と、
    を備える物体認識装置。
  2. 前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項1に記載の物体認識装置。
  3. 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、
    前記テンプレート画像固有ベクトル記憶部11では、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルがあわせて記憶され、
    前記固有空間法状態推定部13では、前記切出画像ベクトルの切出し位置に応じて、
    (1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
    (2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
    もしくは、
    (3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
    のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
    前記パーティクルフィルタ法状態推定部14では、前記切出画像ベクトルの切出し位置に応じて、
    (1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
    (2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
    もしくは、
    (3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
    のいずれかを選択し、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項1または請求項2に記載の物体認識装置。
  4. 前記固有空間法状態推定部13は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
    前記パーティクルフィルタ法状態推定部14は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することを特徴とする請求項1ないし請求項3のいずれかに記載の物体認識装置。
  5. 前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることを特徴とする請求項4に記載の物体認識装置。
  6. 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶するテンプレート画像固有ベクトル記憶ステップS11と、
    所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶ステップS12と、
    前記実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13c、を含んだ固有空間法状態推定ステップS13と、
    パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成するステップS14a、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS14b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるステップS14c、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するステップS14d、を含んだパーティクルフィルタ法状態推定ステップS14と、
    固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15b、を含んだ推定方法切替ステップS15と、
    によって、監視対象物の位置を特定させる物体認識方法。
  7. 前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項6に記載の物体認識方法。
  8. 前記テンプレート画像固有ベクトル記憶ステップS11では、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出して、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルをあわせて記憶し、
    前記固有空間法状態推定ステップS13のステップS13cでは、前記切出画像ベクトルの切出し位置に応じて、
    (1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
    (2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
    もしくは、
    (3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
    のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
    前記パーティクルフィルタ法状態推定ステップS14のステップS14cでは、前記切出画像ベクトルの切出し位置に応じて、
    (1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
    (2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
    もしくは、
    (3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
    のいずれかを選択し、
    前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項6または請求項7に記載の物体認識方法。
  9. 前記固有空間法状態推定ステップS13のステップS13cでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
    前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することによって、監視対象物の位置および角度を特定させることを特徴とする請求項6ないし請求項8のいずれかに記載の物体認識方法。
  10. 前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることによって、監視対象物の位置および角度を特定させることを特徴とする請求項9に記載の物体認識方法。
JP2007150226A 2007-06-06 2007-06-06 物体認識装置および物体認識方法 Expired - Fee Related JP4866793B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007150226A JP4866793B2 (ja) 2007-06-06 2007-06-06 物体認識装置および物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007150226A JP4866793B2 (ja) 2007-06-06 2007-06-06 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JP2008305059A true JP2008305059A (ja) 2008-12-18
JP4866793B2 JP4866793B2 (ja) 2012-02-01

Family

ID=40233755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007150226A Expired - Fee Related JP4866793B2 (ja) 2007-06-06 2007-06-06 物体認識装置および物体認識方法

Country Status (1)

Country Link
JP (1) JP4866793B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018139301A1 (ja) * 2017-01-24 2018-08-02 日本電気株式会社 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体
JP2018151830A (ja) * 2017-03-13 2018-09-27 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018197945A (ja) * 2017-05-23 2018-12-13 株式会社デンソーテン 障害物検出装置および障害物検出方法
US11693538B2 (en) 2012-12-17 2023-07-04 Interdigital Madison Patent Holdings, Sas Method for activating a mobile device in a network, and associated display device and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JP2005267512A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 特定領域検出方法、特定領域検出装置、およびプログラム
JP2006146922A (ja) * 2004-11-17 2006-06-08 Samsung Electronics Co Ltd テンプレート方式の顔検出方法
JP2007128513A (ja) * 2005-10-31 2007-05-24 Sony United Kingdom Ltd シーン解析

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JP2005267512A (ja) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd 特定領域検出方法、特定領域検出装置、およびプログラム
JP2006146922A (ja) * 2004-11-17 2006-06-08 Samsung Electronics Co Ltd テンプレート方式の顔検出方法
JP2007128513A (ja) * 2005-10-31 2007-05-24 Sony United Kingdom Ltd シーン解析

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693538B2 (en) 2012-12-17 2023-07-04 Interdigital Madison Patent Holdings, Sas Method for activating a mobile device in a network, and associated display device and system
WO2018139301A1 (ja) * 2017-01-24 2018-08-02 日本電気株式会社 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体
JPWO2018139301A1 (ja) * 2017-01-24 2019-11-07 日本電気株式会社 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体
JP2018151830A (ja) * 2017-03-13 2018-09-27 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018197945A (ja) * 2017-05-23 2018-12-13 株式会社デンソーテン 障害物検出装置および障害物検出方法

Also Published As

Publication number Publication date
JP4866793B2 (ja) 2012-02-01

Similar Documents

Publication Publication Date Title
EP2088535B1 (en) Image processing apparatus and method, and program
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
Cootes et al. Robust and accurate shape model fitting using random forest regression voting
Liu et al. Joint subspace learning for view-invariant gait recognition
KR100714724B1 (ko) 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템
JP5940453B2 (ja) 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置
EP2192549B1 (en) Target tracking device and target tracking method
WO2011080900A1 (ja) 移動体検出装置および移動体検出方法
JP2009015827A (ja) 物体追跡方法、物体追跡システム、及び物体追跡プログラム
Chu et al. Posture and gesture recognition using 3D body shapes decomposition
JP4709668B2 (ja) 3次元物体認識システム
Sedai et al. A Gaussian process guided particle filter for tracking 3D human pose in video
JP2007072620A (ja) 画像認識装置及びその方法
TW201832182A (zh) 動作學習裝置、技能判別裝置以及技能判別系統
US7224835B2 (en) Three-dimensional object recognizing apparatus, method and computer program product
EP3886046A1 (en) Multi-view positioning using reflections
JP4866793B2 (ja) 物体認識装置および物体認識方法
JPWO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
Zhang et al. Real time feature based 3-d deformable face tracking
EP2672424A1 (en) Method and apparatus using adaptive face registration method with constrained local models and dynamic model switching
JP6393495B2 (ja) 画像処理装置および物体認識方法
CN114743264A (zh) 拍摄行为检测方法、装置、设备及存储介质
Hammouche et al. Toward a real time view-invariant 3d action recognition
Joshi et al. Meta-Learning, Fast Adaptation, and Latent Representation for Head Pose Estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees