JP2011186780A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2011186780A
JP2011186780A JP2010051361A JP2010051361A JP2011186780A JP 2011186780 A JP2011186780 A JP 2011186780A JP 2010051361 A JP2010051361 A JP 2010051361A JP 2010051361 A JP2010051361 A JP 2010051361A JP 2011186780 A JP2011186780 A JP 2011186780A
Authority
JP
Japan
Prior art keywords
image
pattern
patterns
frame
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010051361A
Other languages
English (en)
Inventor
Jun Yokono
順 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010051361A priority Critical patent/JP2011186780A/ja
Priority to US13/022,900 priority patent/US8428369B2/en
Priority to CN2011100408290A priority patent/CN102194126A/zh
Publication of JP2011186780A publication Critical patent/JP2011186780A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】パターンのグルーピングを最適化し、これにより動画像上の物体を高い精度で認識する。
【解決手段】時刻tの特定されたパターンをXiとして、時刻t−τから時刻t+τまでの期間にパターンXjが特定される確率Pijについて考える。確率Pijは時刻t−τから時刻t+τまでの時間にパターンXjが特定されたフレームの数をカウントすることにより取得することにする。この確率Pijを要素とするアフィニティマトリクスWに基づくスペクトラルクラスタリングにより、n種類のパターンをグルーピングする。本発明は、画像認識処理に適用できる。
【選択図】図4

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、画像上の物体を認識する場合に用いて好適な情報処理装置、情報処理方法、およびプログラムに関する。
従来、画像(静止画像または動画像)上に存在する物体を認識するための技術が存在する。その方法の1つとして、画像上に覗き窓を設け、覗き窓の領域の特徴量を算出し、様々な既知の物体に対応して予め用意されているパターンの特徴量と比較して、各局所ブロックがどのパターンに最も一致するかを特定する方法がある。
しかしながら、例えば人の膝などのように関節を有する物体を動画像上から認識しようとした場合、図1に示すように、当該物体は単に移動するだけでなく、より複雑な動きをする。したがって、当該物体に注目した場合、時刻t1の状態を基準としてその後の状態と比較すると、同一の物体であるにも拘わらず、図2に示すように徐々に相関値が低下してしまい、各時刻において特定されるパターンが異なるものとなってしまう。すなわち、時刻t1の膝の画像に対しては特徴量x1のパターン(パターンx1とも記述する。他のパターンについても同様とする)が特定され、時刻t2の膝の画像に対しては特徴量x2のパターンx2が特定されることになる。
各パターンの特徴量x1乃至x4は、図3Aに示すようにそれぞれが異なる値である。しかしながら、上述したように、同一の物体(人の膝)に対応するものとして識別するためには、何らかの変換式(射影関数など)やグルーピングなどにより、図3Aに示す特徴量x1乃至x4を、図3Bに示す不変特徴量空間上に集めて、同一の物体に対応する特徴量であることを学習しておく必要がある。
そこで従来、異なるパターンを学習によりグルーピングする方法として、学習用画像(動画像)の各フレーム上に位置を固定した覗き窓を設け、覗き窓から抽出した画像の時間変化を利用してパターンを学習する方法が提案されている。
例えば、非特許文献1に記載の方法では、時間的にパターンの応答を持続させることで、多少変化したパターンが入ってきても、同じパターンが反応するように重みを学習するようになされている。
また、非特許文献2に記載では、局所ブロックの時間的な遷移に基づいてパターンのグルーピングを行っている。
Learning Invariance from Transformation Sequences, Peter Foldiak, Neural Computation,1991 PHD Thesis of Dileep George, "How The Brain Might Work: A Hierarchical and Temporal Model for Learning and Recognition"
上述した、非特許文献1に記載の方法では、局所的な入力にのみ注視しているので、動画像に含まれるノイズに弱いという欠点があった。
非特許文献2に記載の方法では、局所ブロックの時間的な遷移に基づくものの、隣り合うフレーム間の関係を一方向にのみ利用しているに過ぎず、パターンのグルーピング方法に改善の余地がある。
本発明はこのような状況に鑑みてなされたものであり、時間的に近いフレーム間の関係を双方向に利用することにより、パターンのグルーピングを最適化し、これにより画像上の物体を高い精度で認識できるようにするものである。
本発明の一側面である情報処理装置は、異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出手段と、学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定手段と、前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算手段と、演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピング手段とを含む。
前記演算手段は、前記学習用動画像の各フレームを順次、基準フレームに設定して、前記基準フレームに対して特定された前記画像パターンを前記第1の画像パターンXiとし、前記基準フレームとの時間的な前後の距離が所定の閾値τ以内に位置する複数のフレームのうちで前記第2の画像パターンXjが特定されたフレームの数をカウントし、カウントした値を、前記時基準フレームを設定し直す毎に積算することにより前記共起確率Pijを演算するようにすることができる。
前記演算手段は、前記学習用動画像の各フレームを順次、基準フレームに設定して、前記基準フレームに対して特定された前記画像パターンを前記第1の画像パターンXiとし、前記基準フレームとの時間的な前後の距離が所定の閾値τ以内に位置する複数のフレームのうちで前記第2の画像パターンXjが特定されたフレームの数を前記基準フレームとの時間的距離に応じて重み付けしてカウントし、重み付けしてカウントした値を、前記時基準フレームを設定し直す毎に積算することにより前記共起確率Pijを演算するようにすることができる。
前記グルーピング手段は、演算された前記共起確率Pijにスペクトラルクラスタリングを適用して前記複数nの画像パターンをグルーピングするようにすることができる。
本発明の一側面である情報処理装置は、パターン用画像の異なる複数nの位置から所定のサイズの局所ブロックを抽出することにより前記複数のnの画像パターンを生成する画像パターン生成手段をさらに含むことができる。
本発明の一側面である情報処理装置は、認識対象画像に対して、グルーピングされている前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定し、特定結果に基づいて前記認識対象画像上の物体を認識する認識手段をさらに含むことができる。
本発明の一側面である情報処理方法は、同一の物体に対応する画像パターンをグルーピングする情報処理装置の情報処理方法において、前記情報処理装置による、異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出ステップと、学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定ステップと、前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算ステップと、演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピングステップとを含む。
本発明の一側面であるプログラムは、同一の物体に対応する画像パターンをグルーピングする情報処理装置の制御用のプログラムであって、異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出ステップと、学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定ステップと、前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算ステップと、演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピングステップとを含む処理を情報処理装置のコンピュータに実行させる。
本発明の一側面においては、異なる複数nの画像パターンそれぞれに対して特徴量が算出され、学習用動画像を構成する時間的連続性がある各フレームに対して複数nの画像パターンのうち、最も適合する画像パターンが特定され、複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijが演算され、演算された共起確率Pijを用いて複数nの画像パターンがグルーピングされる。
本発明の一側面によれば、画像認識用のパターンを最適にグルーピングすることができる。また、本発明の一側面によれば、画像上の物体を高い精度で認識できる。
認識対象の物体を含む動画像の一例を示す図である。 図1に対応する時間経過と相関値の関係を示す図である。 不変特徴量空間を説明する図である。 本発明の概要を説明する図である。 アフィニティマトリクスを示す図である。 アフィニティマトリクスを幾何的に表したグラフを示す図である。 本発明を適用した画像認識装置の構成例を示すブロック図である。 図7の不変特徴量学習部11の詳細な構成例を示すブロック図である。 パターン用画像の一例を示す図である。 学習用画像の一例を示す図である。 スペクトラルクラスタリングを説明するための図である。 学習処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。なお、説明は、以下の順序で行なう。
1.本発明の概要
2.実施の形態
<1.本発明の概要>
図4乃至図6は、動画像上に存在する物体を認識するためのパターンのグループを自動的に学習するための手法の概要を示している。
図4に示すように、動画像の連続したフレームの所定の位置から抽出した局所ブロックの画像が推移した場合、すなわち、縦方向に伸びた物体が画面内で右方向に移動した場合、各時刻の局所ブロックに対して、n種類のパターンのいずれかが特定される。
時刻tのフレームの局所ブロックに対して特定されたパターンをXiとして、時刻tよりも時間(時間的距離)τだけ前の時刻t−τから、時間τだけ後の時刻t+τまでの時間のフレームの局所ブロックに対してパターンXjが特定される共起確率Pij(以下、単に確率Pijと称する)について考える。時間τは任意の値である。この確率Pijは、パターンXiが特定された時刻tを中心とする時刻t−τから時刻t+τまでの時間に、パターンXjが特定されたフレームの数をカウントすることにより取得することにする。したがって、確率Pijは0以上の値となる。
ただし、パターンXjが特定されたフレーム数を単にカウントするだけでなく、時刻tに時間的に近いほどカウントする値が大きくなるように、時刻tに対する時間的距離に応じた重み付け係数を乗算してからカウントするようにしてもよい。
図5は、このようにして得られる確率Pijを要素とするアフィニティマトリクス(Affinity Matrix)Wを示している。
このアフィニティマトリクスWは、パターンの数がn種類であることからn×nの正方行列となる。また、アフィニティマトリクスWの要素である確率Pijは、パターンXiとパターンXjの時間間隔に依存し、その時間方向には依存しないので、確率Pij=確率Pjiとなる。したがって、アフィニティマトリクスWの各要素の値は、対角成分を結ぶ線に対して線対称となる。
図6は、アフィニティマトリクスWを幾何的なグラフG=(V,E)に表したものである。このグラフG=(V,E)における各ノードが各パターンに対応し、エッジの太さが確率に対応する。例えば、パターンXiに対応するノードとパターンXjに対応するノードを結ぶエッジの太さが確率Pijに相当する。
したがって、n種類のパターンをグルーピングすることは、図6に示されたグラフG=(V,E)におけるノードをグルーピングすることと等価である。グラフG=(V,E)のノードのグルーピングには、既存の手法であるグラフカット(Graph Cut)、スペクトラルクラスタリング(Spectral Clustering)などを用いることが考えられる。
ノードのグルーピングにスペクトラルクラスタリングを適用できる条件は、エッジの重み(太さ)が正であること、確率Pij=確率Pjiとなる対称性を有することである。図5に示されたアフィニティマトリクスは、上述したように、確率Pijは0以上の値であり、確率Pij=確率Pjiであるのでスペクトラルクラスタリングを適用できることが確認できる。よって、以下に説明する実施の形態においては、n種類のパターンをスペクトラルクラスタリングによりグルーピングするようにする。
<2.実施の形態>
[画像認識装置の構成例]
図7は、本発明の一実施の形態である画像認識装置の構成例を示している。この画像認識装置10は、不変特徴量学習部11、特徴プール12、および認識部13から構成される。
不変特徴量学習部11は、入力されるパターン用画像(静止画像)を切り出すことによりn種類のパターンを作成するとともに、各パターンの特徴量を算出して特徴プール12に登録する。また、不変特徴量学習部11は、学習用画像(動画像)を用いて、特徴プール12に登録されているn種類のパターンをグルーピングする。
特徴プール12には、n種類のパターンとその特徴量がグルーピングされて登録されている。ここで、同一のグループに分類されたパターン(の特徴量)が不変特徴量となる。
認識部13は、入力される認識対象画像(動画像)のフレームを複数の局所ブロックに分割して各局所ブロックの特徴量を算出し、特徴プール12に登録されているn種類のパターンの特徴量と比較して、各局所ブロックがどのパターンに最も一致するかを特定する。そして、その特定結果と各パターンのグルーピングの状況に基づき、認識対象画像上の物体を認識して認識結果を出力する。なお、認識部13による認識処理は既存の任意の方法を適用することができる。また、認識部13においては、静止画像を認識対象画像とすることができる。
図8は、図7の不変特徴量学習部11の詳細な構成例を示している。不変特徴量学習部11は、2値化部21、フィルタリング部22、局所ブロック設定部23、局所特徴量算出部24、覗き窓設定部25、特徴量算出部26、マッチング判定部27、アフィリティマトリクス生成部28、およびグルーピング部29から構成される。
2値化部21は、入力されるパターン用画像の画素を2値化してフィルタリング部22に出力する。パターン用画像としては、例えば図9に示すように、縦横数十画素程度のシンプルな画像を用いればよい。
フィルタリング部22は、例えばガウシアンスムージングフィルタなどを用いることにより、2値化されたパターン用画像にぼかし処理を行って局所ブロック設定部23に出力する。
局所ブロック設定部23は、2値化されてぼかされたパターン用画像上のランダムな位置に複数nの局所ブロック(例えば、4×4画素)を設定し、各局所ブロックの領域を抽出して局所特徴量算出部24に出力する。局所特徴量算出部24は、各局所ブロックから抽出された、2値化されてぼかされたパターン用画像の領域を1つのパターンとみなし、その特徴量を算出して、特徴プール12に出力して登録させる。なお、この局所特徴量の算出方法については、既存の任意の算出方法を用いればよい。これにより、特徴プール12には、n種類のパターンに対応付けてその特徴量が登録されたことになる。
覗き窓設定部25は、学習用画像(動画像)の各フレームの所定の固定位置に所定のサイズの覗き窓を設定し、各覗き窓の領域を抽出して特徴量算出部26に出力する。学習用画像としては、例えば図10に示すように、既知の任意の物体が被写体となっている画像を用いればよい。
特徴量算出部26は、局所特徴量算出部24と同様の特徴量算出方法により、各除き窓から抽出された、学習用画像の各フレームの領域の特徴量を算出してマッチング判定部27に出力する。
マッチング判定部27は、学習用画像の各フレームの覗き窓の領域の特徴量に基づき、特徴プール12に登録されているn種類のパターンのうち、最も適合するものを特定してアフィニティマトリクス生成部28に出力する。
アフィニティマトリクス生成部28は、学習用画像の各フレームの覗き窓に対して特定されたパターンに基づき、確率Pijを要素とするn×nのアフィニティマトリクスWを生成してグルーピング部29に出力する。
グルーピング部29は、入力されるアフィニティマトリクスWに基づき、スペクトラルクラスタリングを用いてn種類のパターンをグルーピングし、その結果を特徴プール12に通知する。これにより、特徴プール12に登録されているn種類のパターンがグルーピングされたことになる。ここで、同一のグループに分類されたパターン(の特徴量)が不変特徴量となる。
ここで、グルーピング部29によるスペクトラルクラスタリングを用いたn種類のパターンのグルーピングについて説明する。
図11は、スペクトラルクラスタリングの概要を示している。まず、アフィニティマトリクスWの要素である確率Pijを各行毎に積算して、その値の対角成分の値とすることによりn×nの行列Dを生成する。次に、アフィニティマトリクスWから行列Dを減算してラプラシアン(Laplacian)L=W−Dを算出する。次に、ラプラシアンLの固有値および固有ベクトルを算出し、M≪n個の固有ベクトルから写像を計算し、それをKmeans法によってクラスタリングすることにより、n種類のパターンを複数のグループにグルーピングする。
なお、グルーピング部29によるスペクトラルクラスタリングの手順は上述したものに限定されず、任意の手順にしたがって実行するようにしてもよい。また、グルーピング部29においてスペクトラルクラスタリング以外の方法、例えば、Kmeams法により、n種類のパターンをグルーピングするようにしてもよい。
[動作説明]
次に、不変特徴量学習部11による学習処理について説明する。図12は、当該学習処理を説明するフローチャートである。
ステップS1において、不変特徴量学習部11は、パターン用画像を取得する。このパターン用画像は2値化部21に入力される。
ステップS2において、2値化部21は、パターン用画像の画素を2値化してフィルタリング部22に出力する。フィルタリング部22は、2値化されたパターン用画像にぼかし処理を行って局所ブロック設定部23に出力する。局所ブロック設定部23は、2値化されてぼかされたパターン用画像上のランダムな位置に複数nの局所ブロックを設定し、各局所ブロックの領域を抽出して局所特徴量算出部24に出力する。
ステップS3において、局所特徴量算出部24は、各局所ブロックから抽出された、2値化されてぼかされたパターン用画像の領域を1つのパターンとみなし、その特徴量を算出して、特徴プール12に出力して登録させる。
ステップS4において、不変特徴量学習部11は、学習用画像を取得する。この学習用画像は覗き窓設定部25に入力される。
ステップS5において、覗き窓設定部25は、学習用画像(動画像)の各フレームの所定の固定位置に所定のサイズの覗き窓を設定し、各覗き窓の領域を抽出して特徴量算出部26に出力する。特徴量算出部26は、各除き窓から抽出された、学習用画像の各フレームの領域の特徴量を算出してマッチング判定部27に出力する。マッチング判定部27は、学習用画像の各フレームの覗き窓の領域の特徴量に基づき、特徴プール12に登録されているn種類のパターンのうち、最も適合するものを特定してアフィニティマトリクス生成部28に出力する。
アフィニティマトリクス生成部28は、学習用画像の各フレームの覗き窓に対して特定されたパターンに基づいてアフィニティマトリクスWを生成してグルーピング部29に出力する。具体的には、例えば、学習用画像の各フレームを順次、基準フレームに設定する。そして、基準フレームの覗き窓に対して特定されたパターンをパターンXiとし、基準フレームとの時間的距離が時間τ以内のフレームのうちでパターンXjが特定されたフレームの数をカウントして積算する確率Pijを演算する。このようにして得られた確率Pijを要素としてアフィニティマトリクスWを生成する。
ステップS6において、グルーピング部29は、入力されたアフィニティマトリクスWに基づき、スペクトラルクラスタリングを用いて、n種類のパターンをグルーピングし、そのグルーピング結果を特徴プール12に通知する。ステップS7において、特徴プール12は、登録されているn種類のパターンのグルーピング結果も登録する。同一のグループに分類されたパターン(の特徴量)が不変特徴量となる。以上で登録処理は終了される。
以上に説明した登録処理のステップS4において、より長時間の学習用画像を用いることにより、高い学習の効果が得られる、すなわち、適切なグルーピングが行われることが期待できる。
このようにして学習された特徴プール12には、n種類のパターンがグルーピングされて、すなわち、不変特徴量として登録されるので、これを用いて動画像上の物体を認識する際に用いることにより、動画像上の物体が複雑な動きをしたとしても、それを高い精度で識別することが可能となる。また、静止画像上の物体も高い精度で識別することが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
10 画像認識装置, 11 不変特徴量学習部, 12 特徴プール, 13 認識部, 21 2値化部, 22 フィルタリング処理部, 23 局所ブロック設定部, 24 局所特徴量算出部, 25 除き窓設定部, 26 特徴量算出部, 27 マッチング判定部, 28 アフィリティマトリクス生成部, 29 グルーピング部,100 コンピュータ, 101 CPU

Claims (8)

  1. 異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出手段と、
    学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定手段と、
    前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算手段と、
    演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピング手段と
    を含む情報処理装置。
  2. 前記演算手段は、前記学習用動画像の各フレームを順次、基準フレームに設定して、前記基準フレームに対して特定された前記画像パターンを前記第1の画像パターンXiとし、前記基準フレームとの時間的な前後の距離が所定の閾値τ以内に位置する複数のフレームのうちで前記第2の画像パターンXjが特定されたフレームの数をカウントし、カウントした値を、前記時基準フレームを設定し直す毎に積算することにより前記共起確率Pijを演算する
    請求項1に記載の情報処理装置。
  3. 前記演算手段は、前記学習用動画像の各フレームを順次、基準フレームに設定して、前記基準フレームに対して特定された前記画像パターンを前記第1の画像パターンXiとし、前記基準フレームとの時間的な前後の距離が所定の閾値τ以内に位置する複数のフレームのうちで前記第2の画像パターンXjが特定されたフレームの数を前記基準フレームとの時間的距離に応じて重み付けしてカウントし、重み付けしてカウントした値を、前記時基準フレームを設定し直す毎に積算することにより前記共起確率Pijを演算する
    請求項2に記載の情報処理装置。
  4. 前記グルーピング手段は、演算された前記共起確率Pijにスペクトラルクラスタリングを適用して前記複数nの画像パターンをグルーピングする
    請求項2に記載の情報処理装置。
  5. パターン用画像の異なる複数nの位置から所定のサイズの局所ブロックを抽出することにより前記複数のnの画像パターンを生成する画像パターン生成手段を
    さらに含む請求項2に記載の情報処理装置。
  6. 認識対象画像に対して、グルーピングされている前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定し、特定結果に基づいて前記認識対象画像上の物体を認識する認識手段を
    さらに含む請求項2に記載の情報処理装置。
  7. 同一の物体に対応する画像パターンをグルーピングする情報処理装置の情報処理方法において、
    前記情報処理装置による、
    異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出ステップと、
    学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定ステップと、
    前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算ステップと、
    演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピングステップと
    を含む情報処理方法。
  8. 同一の物体に対応する画像パターンをグルーピングする情報処理装置の制御用のプログラムであって、
    異なる複数nの画像パターンそれぞれに対して特徴量を算出する特徴量算出ステップと、
    学習用動画像を構成する時間的連続性がある各フレームに対して前記複数nの画像パターンのうち、最も適合する前記画像パターンを特定する特定ステップと、
    前記複数nの画像パターンのうちの第1の画像パターンXiが特定されたフレームとの時間的距離が所定の閾値τ以内に位置するフレームに対して、前記複数nの画像パターンのうちの第2の画像パターンXjが特定された確率を示す共起確率Pijを演算する演算ステップと、
    演算された前記共起確率Pijを用いて前記複数nの画像パターンをグルーピングするグルーピングステップと
    を含む処理を情報処理装置のコンピュータに実行させるプログラム。
JP2010051361A 2010-03-09 2010-03-09 情報処理装置、情報処理方法、およびプログラム Withdrawn JP2011186780A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010051361A JP2011186780A (ja) 2010-03-09 2010-03-09 情報処理装置、情報処理方法、およびプログラム
US13/022,900 US8428369B2 (en) 2010-03-09 2011-02-08 Information processing apparatus, information processing method, and program
CN2011100408290A CN102194126A (zh) 2010-03-09 2011-02-18 信息处理设备、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010051361A JP2011186780A (ja) 2010-03-09 2010-03-09 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2011186780A true JP2011186780A (ja) 2011-09-22

Family

ID=44560009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010051361A Withdrawn JP2011186780A (ja) 2010-03-09 2010-03-09 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US8428369B2 (ja)
JP (1) JP2011186780A (ja)
CN (1) CN102194126A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013130929A (ja) * 2011-12-20 2013-07-04 Nec Corp 因果関係要約方法、因果関係要約装置及び因果関係要約プログラム
WO2014017164A1 (ja) 2012-07-26 2014-01-30 ソニー株式会社 情報処理装置、情報処理方法およびシステム
JP2014229142A (ja) * 2013-05-23 2014-12-08 富士通株式会社 プログラム、情報処理装置、及び情報処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5911165B2 (ja) * 2011-08-05 2016-04-27 株式会社メガチップス 画像認識装置
JP7024231B2 (ja) * 2017-07-10 2022-02-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
CN110111374B (zh) * 2019-04-29 2020-11-17 上海电机学院 基于分组阶梯式阈值判断的激光点云匹配方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2812391B2 (ja) * 1988-09-29 1998-10-22 キヤノン株式会社 パターン処理方法
JPH08212300A (ja) * 1995-02-08 1996-08-20 N T T Data Tsushin Kk 文字認識方法及び文字認識装置
EP1353516A1 (en) * 2002-04-08 2003-10-15 Mitsubishi Electric Information Technology Centre Europe B.V. A method and apparatus for detecting and/or tracking one or more colour regions in an image or sequence of images
CN1972186B (zh) * 2005-11-24 2011-11-09 中国科学院自动化研究所 一种移动式身份认证系统及其认证方法
US8041509B2 (en) * 2008-08-19 2011-10-18 Analytical Graphics, Inc. System and method of addressing nonlinear relative motion for collision probability using parallelepipeds
TWI382354B (zh) * 2008-12-02 2013-01-11 Nat Univ Tsing Hua 臉部辨識方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013130929A (ja) * 2011-12-20 2013-07-04 Nec Corp 因果関係要約方法、因果関係要約装置及び因果関係要約プログラム
WO2014017164A1 (ja) 2012-07-26 2014-01-30 ソニー株式会社 情報処理装置、情報処理方法およびシステム
JP2014229142A (ja) * 2013-05-23 2014-12-08 富士通株式会社 プログラム、情報処理装置、及び情報処理方法

Also Published As

Publication number Publication date
US8428369B2 (en) 2013-04-23
US20110222759A1 (en) 2011-09-15
CN102194126A (zh) 2011-09-21

Similar Documents

Publication Publication Date Title
CN110598558B (zh) 人群密度估计方法、装置、电子设备及介质
CN106845487B (zh) 一种端到端的车牌识别方法
US9128528B2 (en) Image-based real-time gesture recognition
CN110853033B (zh) 基于帧间相似度的视频检测方法和装置
US10565713B2 (en) Image processing apparatus and method
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
CN110909618B (zh) 一种宠物身份的识别方法及装置
JP4858612B2 (ja) 物体認識システム、物体認識方法および物体認識用プログラム
JP2011186780A (ja) 情報処理装置、情報処理方法、およびプログラム
Biswas et al. Anomaly detection via short local trajectories
Avgerinakis et al. Activity detection using sequential statistical boundary detection (ssbd)
CN109800682A (zh) 驾驶员属性识别方法及相关产品
JPWO2013122009A1 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
CN105426928B (zh) 一种基于Haar特征和EOH特征的行人检测方法
JP2016200971A (ja) 学習装置、識別装置、学習方法、識別方法及びプログラム
Chen et al. SuperBE: computationally light background estimation with superpixels
KR20120129301A (ko) 이동 객체 추출 및 추적 방법 및 장치
Manap et al. PATCH-IQ: a patch based learning framework for blind image quality assessment
JP4983539B2 (ja) 情報処理装置および方法、並びにプログラム
CN114708645A (zh) 物件辨识装置及物件辨识方法
CN110570450A (zh) 一种基于级联的上下文感知框架的目标跟踪方法
Tal et al. An accurate method for line detection and manhattan frame estimation
Gomez-Nieto et al. Quality aware features for performance prediction and time reduction in video object tracking
CN110751034B (zh) 行人行为识别方法及终端设备
WO2021049119A1 (ja) 学習装置、学習方法及び学習プログラムが格納された非一時的なコンピュータ可読媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604