JP3775683B2 - 人物検出装置および人物検出方法 - Google Patents

人物検出装置および人物検出方法 Download PDF

Info

Publication number
JP3775683B2
JP3775683B2 JP2005513284A JP2005513284A JP3775683B2 JP 3775683 B2 JP3775683 B2 JP 3775683B2 JP 2005513284 A JP2005513284 A JP 2005513284A JP 2005513284 A JP2005513284 A JP 2005513284A JP 3775683 B2 JP3775683 B2 JP 3775683B2
Authority
JP
Japan
Prior art keywords
person
spatiotemporal
image
fragment
motion model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005513284A
Other languages
English (en)
Other versions
JPWO2005020152A1 (ja
Inventor
正宏 岩崎
太郎 今川
健司 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3775683B2 publication Critical patent/JP3775683B2/ja
Publication of JPWO2005020152A1 publication Critical patent/JPWO2005020152A1/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理によって、歩行する人物を検出する人物検出装置等に関し、特に、人物の存在位置および歩行方向を検出する人物検出装置等に関する。
従来の人物検出技術の多くは、静止画もしくは1枚の差分画像を用いている。静止画や1枚の差分画像を用いて人物検出を行う場合、遮蔽等で起こりうる人物の形状特徴変化を設計時に予測することが難しいために、誤検出や未検出を招く場合があるが、それに対し、画像シーケンスを用いる手法では、遮蔽等によって起こる一時的な特徴量の変動に対して、補間および予測機構を用いることができるために、遮蔽や一時的な環境変動に対してロバストな検出が期待できる。
従来、動画像シーケンスを用いた人物検出技術(第1の従来技術)として、画像を時間方向に並べた3次元時空間画像を生成し、フレームごとに人物の足首位置に合わせて3次元時空間画像を切断した時空間断片画像を抽出し、人物歩行に特有の周期性の検出を行うことによって人物を検出する方法が提案されている(たとえば、Niyogi、Adelson "Analyzing and Recognizing Walking Figures in XYT"、MIT−TR−223、1994の第3頁および第3図等)。これにより、他の移動物体と人物との識別が可能となり、さらに、画像シーケンスを用いることによって、一時的な環境変化においても、安定した人物検出が可能となる。
また、別の従来技術(第2の従来技術)として、画像中に複数本のスリットを配置し、そのスリット領域の時間的な画素値変化を用いて移動物体像を形成し、移動物体の移動方向を判定すると共に計数する方法も提案されている(たとえば、特許第3183320号公報の第7頁および第4図等)。この技術によれば、スリットを通過する人物の時間的変化を考慮することによって、安定して人物の検出および移動方向を判定することが可能となる。
しかしながら、上記第1の従来技術では、人物の足首位置が既知であり、かつ画像に対して左右方向に歩行している場合に限定されている。また、事前に足首位置を検出する必要があるため、人物の初期検出が既になされていることが前提となる。そのため、画像中を様々な方向に歩行する人物を検出することが難しいという問題がある。
また、上記第2の従来技術では、人物検出用のスリットを画像中に複数本配置することによって歩行方向を検出することが可能であるが、設計者が事前にスリット配置を決定する必要があり、画像中から人物検出を行える領域が限定されてしまうという問題がある。
本発明は、上記問題点を解決するものであり、人物の歩行方向が一定でない場合においても画像中の検出領域を限定することなく、人物の存在位置および歩行方向を含む人物検出を行うことができる人物検出装置等を提供することを目的とする。
上記目的を達成するために、本発明に係る人物検出装置は、動画像に含まれる人物を検出する装置であって、人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成手段と、生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出手段と、人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段と、前記時空間断片抽出手段が抽出した実画像時空間断片と前記時空間断片出力手段が出力した人体部位動きモデル時空間断片とを照合する時空間断片照合手段と、前記時空間断片照合手段による照合結果に基づいて、前記動画像における人物の存否を含む人物属性を出力する属性出力手段とを備えることを特徴とする。これによって、実画像から生成された実画像時空間断片と、典型的な人物の動きを表現した人物動きモデルから生成された人体部位動きモデル時空間断片とが照合されるので、例えば、照合の一致度が一定基準を満たす実画像時空間断片と人体部位動きモデル時空間断片の探索が可能となり、人物の歩行方向や画像中の検出領域を限定することなく、人物の存在位置および歩行方向を含む人物検出を行うことができる。
ここで、前記時空間断片抽出手段は、前記フレーム画像を切断する断片抽出線を決定し、決定した断片抽出線を時間軸に沿って並べることによって得られる面を切断面として前記実画像時空間断片を抽出することとし、例えば、前記3次元時空間画像における人物の脚を切断する断片抽出線を用いて前記実画像時空間断片を抽出する。一方、前記時空間断片出力手段は、人物の歩行特性を規定した人物動きモデルに基づいて、当該人物動きモデルの歩行時における脚を切断する切断面によって得られる人体部位動きモデル時空間断片を生成する。これによって、人物の動きに特有の歩行特性を利用した人物検出が行われるので、歩行特性を持たない車等の移動物体が誤って検出されてしまうことが回避される。
なお、人物動きモデルの具体例として、例えば、2本の脚に対応する一端どうしが結合された2本の線分で表現され、各線分が結合点を回転中心として一定の角速度ωで交互に最大角度2θLまで回転するように規定されるモデルを挙げることができる。
また、前記時空間断片照合手段は、前記実画像時空間断片に対して、前記時空間断片出力手段が出力した一歩分の人体部位動きモデル時空間断片を時間方向に走査していったときの画像どうしの一致度を算出することによって、前記照合を行うのが好ましい。これによって、人間の歩行が周期的な動作であることを利用することで、簡易な画像マッチングで人物を確実に検出することができる。
また、前記人物検出装置はさらに、前記時空間ボリューム生成手段によって生成された3次元時空間画像から、当該3次元時空間画像に存在する移動物体の移動方向を算出する移動方向算出手段を備え、前記時空間断片抽出手段は、前記移動方向算出手段によって算出された移動方向に従って前記断片抽出線を決定してもよい。このとき、前記移動方向算出手段は、例えば、前記3次元時空間画像を構成するフレーム画像ごとに前記移動物体を抽出し、抽出した移動物体のフレーム画像間における動きベクトルを求めることによって、前記移動物体の移動方向を算出してもよいし、前記3次元時空間画像を構成するフレーム画像ごとに小領域に区分し、小領域ごとにフレーム画像間における動きベクトルを求めることによって、前記移動物体の移動方向を算出してもよい。これによって、人物の移動方向に追随して断片抽出線が決定されるので、人物の移動方向や位置に拘わらず、最も適切な時空間断片を生成する断片抽出線、例えば、画像中の人物の位置に拘わらず常に人物の脚を切断するような断片抽出線が自動決定される。なお、前記断片抽出線は、例えば、直線または曲線である。
また、前記属性出力手段は、前記時空間断片照合手段により前記実画像時空間断片と前記人体部位動きモデル時空間断片とが一定の基準以上に一致すると照合された場合に、前記切断面または切断片を特定するパラメータと前記人体動きモデルを特定するパラメータとから前記動画像における人物の位置および移動方向を算出して出力し、前記人物検出装置はさらに、前記属性出力手段から出力された人物の位置および移動方向を含む人物属性を表示する表示手段を備えてもよい。これによって、動画像における人物の存否だけでなく、検出された人物の位置や移動方向も特定され、監視装置におけるカメラの追随制御等に利用することができる。
また、前記人物検出装置はさらに、前記時空間断片抽出手段によって抽出された実画像時空間断片が人物の歩行に特有の周期的動作に基づく画像であるか否かを解析する周期性解析手段を備え、前記時空間断片抽出手段は、前記周期性解析手段による解析結果に基づいて断片抽出線を変更し、変更した断片抽出線を用いて再び実画像時空間断片を抽出してもよい。このとき、前記周期性解析手段は、例えば、前記実画像時空間断片を構成する各時間における画像を示す1次元データに対して自己相関関数を求めることによって相関長の時系列データを生成し、生成した相関長の時系列データにおいて周期性が存在する場合に、前記実画像時空間断片が人物の歩行に特有の周期的動作に基づく画像であると解析し、前記相関長の時系列データに対して自己相関関数を求めることによって相関長に対する自己相関関数値の変化を示すグラフを求め、そのグラフにおいてピークが存在する場合に、相関長の時系列データに周期性が存在すると判断してもよい。これによって、実画像時空間断片において人物の動きに特有の歩行特性に基づく周期性が検出されるように断片抽出線のパラメータが変更され、決定されるので、人物の歩行方向や位置に依存することなく、確実に人物が検出される。
また、前記人物検出装置はさらに、前記時空間断片照合手段による照合結果に基づいて、前記時空間断片抽出手段に前記切断面または切断片を特定するパラメータを変更させたうえで再び実画像時空間断片を抽出させること、および、前記時空間断片出力手段に前記人体動きモデルを特定するパラメータを変更させたうえで再び人体部位動きモデル時空間断片を出力させることの少なくとも1つを実行させることで、前記切断面または切断片を特定する最適なパラメータおよび前記人体動きモデルを特定する最適なパラメータを探索する解探索手段を備えてもよい。このとき、前記解探索手段は、例えば、遺伝的アルゴリズムを用いて最適なパラメータを探索するのが好ましい。これによって、より短時間で精度の高いパラメータが決定され、人物の存在位置および移動方向の検出が正確となる。
また、前記時空間ボリューム生成手段は、前記フレーム画像を背景差分またはフレーム間差分した後に2値化して得られる画像を少なくとも1枚以上重ね合わせることによって前記3次元時空間画像を生成してもよい。これによって、移動する物体のみから3次元時空間画像が生成されるので、照合速度の高速化および照合精度の向上が図られる。
また、前記時空間断片出力手段は、予め記憶する複数の異なる種類の人物動きモデルの中から選択した人物動きモデルに対応する人体部位動きモデル時空間断片を生成して出力し、前記時空間断片照合手段は、前記照合による結果が一定の基準を満たさない場合に、前記時空間断片出力手段に新たな人物動きモデルに対応する人体部位動きモデル時空間断片を生成して出力させることで、前記照合を繰り返してもよい。このとき、前記時空間断片出力手段が予め記憶する複数の人物動きモデルの例として、モデリングの対象となる人物の性別、年齢、人物が歩行する路面の状況、および、歩行する場所における混雑度の少なくとも1つが異なるようにしておいてもよい。これによって、動画像に含まれる人物の存否、位置、移動方向だけでなく、人物の性別や年齢等のタイプ、路面の状況や混雑度等の動き空間に関する環境についても判別が可能となる。
なお、本発明は、人物検出装置として実現することができるだけでなく、動画像に含まれる人物の画像と予め蓄積している人物の画像とを照合する装置であって、上記人物検出装置と、パン、チルトおよびズームの少なくとも1つの機能を有する照合カメラと、前記人物検出装置で検出され人物の位置または移動方向に基づいて、前記照合カメラによるパン、チルトおよびズームの少なくとも1つを制御するカメラ制御手段と、前記照合カメラにより撮影された人物の画像と予め蓄積している人物の画像とを照合する人物照合手段とを備える人物照合装置として実現することもできる。これによって、特定の人物を探し出したり、人物を認証したりする人物監視装置や人物認証装置等に応用することができる。
また、本発明は、人物の動き特性を規定した人物動きモデルを画像上の人物の動きにフィッティングさせる装置であって、人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成手段と、生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出手段と、前記人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段と、前記時空間断片抽出手段が抽出した実画像時空間断片と前記時空間断片出力手段が出力した人体部位動きモデル時空間断片とを照合する時空間断片照合手段と、前記時空間断片照合手段による照合結果に基づいて、前記人物動きモデルが前記動画像における人物の動きを示すように、前記人物動きモデルを特定するパラメータの値を決定するモデルフィッティング手段とを備える人物モデルフィッティング装置として実現することもできる。これによって、マーカー等の特殊な装置を被写体に取り付けることなく、画像に存在する人物に対してモデルをフィッティングすることができ、個々の人物がもつ個性を反映したモデルデータが容易に作成される。よって、作成されたモデルデータを照合の基準として使用することで、特定の人物を検出する装置が実現される。
また、本発明は、動画像に含まれる人物の検出に用いられる画像等を生成する装置であって、動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を切断したときの切断面または切断片における画像を時空間断片としたときに、人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段を備える画像生成装置として実現することもできる。これによって、人物動きモデルから特徴的な人体部位の動きを表現した時空間断片が生成されるので、例えば、上記人物検出装置における照合対象となる各種人物モデルに対応した基準データを生成する専用の装置として利用することができる。
なお、本発明は、このような人物検出装置、人物照合装置、人物モデルフィッティング装置および画像生成装置として実現することができるだけでなく、人物検出方法、人物照合方法、人物モデルフィッティング方法および画像生成方法として実現したり、そのような方法をコンピュータに実行させるプログラムとして実現したり、プログラムが記録されたコンピュータ読み取り可能な記録媒体として実現することもできる。
以下、本発明の実施の形態について、図面を用いて説明する。
(第1の実施の形態)
まず、本発明の第1の実施の形態における人物検出装置について説明する。
図1は、本実施の形態における人物検出装置の構成を示す機能ブロック図である。この人物検出装置は、街頭や駐車場、店舗内などを撮影した映像中に存在する人物を検出する装置であり、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、属性出力部17および表示部18を備える。なお、本実施の形態では、時空間断片を画像として抽出した場合について述べるが、時空間断片は、必ずしも画像である必要はなく、画像から抽出した特徴量や楕円、直線等の当てはめによって抽出したパラメータであってもよい。
図1において、カメラ10は、映像を撮影し、撮影した映像をフレーム毎に映像処理部11に出力する撮像装置である。映像処理部11は、入力された映像に対してフレーム毎にフレーム間差分処理、若しくは、背景差分処理を行い、閾値により映像を2値化する処理部である。
連続画像処理部12は、入力画像から3次元時空間画像を生成する場合は、入力画像をフレームの時間順に蓄積し、一方、時空間ボリュームを画像以外で生成する場合は、入力画像を用いて特徴抽出や楕円、直線等の当てはめを行い、その結果をパラメータとして時間順に蓄積する処理部である。
時空間ボリューム生成部13は、予め決定したフレーム数N枚分の画像もしくはパラメータを用いて時空間ボリュームを生成する処理部である。時空間断片抽出部14は、時空間ボリューム生成部13で生成された時空間ボリュームを用いて時空間断片を抽出する処理部である。ここで、時空間断片とは、時空間ボリュームが示す3次元空間画像を時間軸に沿って切断したときの切断面または切断片における画像である。たとえば、3次元空間画像をフレームの横軸に平行でかつ時間軸に平行な面で切断したときの切断面における画像であり、このときには、フレームの横軸と時間軸とからなる2次元画像となる。なお、切断片とは、厚みを持った切断面に相当し、切断片における画像は、3次元画像となる。
人体部位動きモデル時空間断片出力部15は、人物動きモデルに従った人体部位動きモデル時空間断片を出力する処理部である。時空間断片照合部16は、時空間断片抽出部14において生成された実画像からの時空間断片と人体部位動きモデル時空間断片出力部15において人物動きモデルから生成された人体部位動きモデル時空間断片との照合を行う処理部である。
属性出力部17は、時空間断片照合部16の結果を用いて、検出した人物の位置、歩行方向、角速度等を算出したり、t秒後の人物の存在位置を予測したりする処理部である。表示部18は、時空間断片照合部16で検出された人物の存在位置と歩行方向を俯瞰図に配置して表示する処理部およびディスプレイ等である。
以下に、本実施の形態における人物検出装置の動作について、図2のフローチャートを用いて詳細に説明する。
まず、S201にて、カメラ10は、移動物体等の対象物の映像を撮影する。なお、カメラ10は、複数のカメラにより構成されてもよい。
次に、S202にて、映像処理部11は、カメラ10から入力された映像に対して、フレーム毎にフレーム間差分処理、若しくは、背景差分処理を行い、閾値により映像を2値化する。なお、背景差分処理を行う場合は、人物の存在しない背景となる画像を事前に準備しておく。
次に、S203にて、連続画像処理部12は、2値化処理された画像を、時空間ボリュームを生成するために、バッファとして画像を内蔵のハードディスク等に蓄積しておき、フレーム毎に時空間ボリューム生成部13に画像を送信したり、時空間ボリュームを画像以外から生成する場合には、入力画像を用いて特徴抽出や楕円、直線等の当てはめを行い、その結果をパラメータとして出力したりする。
次に、S204からS206にて、時空間ボリューム生成部13は、予め決定したフレーム数N枚分の画像、若しくは、時刻N分のパラメータを用いて時空間ボリュームを生成する。ここで、新たに連続画像処理部12からN+1枚目の画像が送信された場合は、S206にて、時空間ボリュームの1枚目を破棄することによって、常時、Nフレーム分の画像を保持した時空間ボリュームを生成する。
なお、時空間ボリュームの生成方法については後述する。ここでは、必ずしも、1枚ずつ入力および破棄する必要はなく、時刻N分の連続したデータを取得する手法であれば何でもよい。
次に、S207にて、時空間断片抽出部14は、断片抽出線のパラメータを決定し、決定した断片抽出線を用いて、時空間ボリューム生成部13で生成された時空間ボリュームから時空間断片を抽出する。
ここで、図3を用いて、時空間断片の作成方法を説明する。図3(a)は、時空間ボリューム21を示し、図3(b)は、断片抽出線23により決定された時空間断片22を示す。図3(b)に示される時空間断片22は、時空間ボリューム21を構成する各フレームにおける断片抽出線23での1次元画像を時間軸に並べたものであり、時空間ボリューム21が示す3次元時空間画像を時間軸に沿って切断したときの切断面における画像に相当する。
ここで、時空間断片を抽出するための断片抽出線23は、図3(a)に示されるように、直線だけでなく、曲線であってもよい。さらに、一定の厚み(太さ)を持つ線であってもよい。なお、断片抽出線の決定方法については、後述する。
次に、S208にて、人体部位動きモデル時空間断片出力部15は、S207にて決定した断片抽出線のパラメータに基づいて人物動きモデルのパラメータを決定し、決定した人物動きモデルのパラメータに基づいて生成した人物動きモデルから人体部位動きモデル時空間断片を生成する。なお、人物動きモデルのパラメータ決定方法および人体部位動きモデル時空間断片の生成法については、後述する。
次に、S209にて、時空間断片照合部16は、時空間断片抽出部14が抽出した時空間断片と人体部位動きモデル時空間断片出力部15が生成した人体部位動きモデル時空間断片とのマッチングを行う。
そして、S210にて、時空間断片照合部16は、時空間断片と人体部位動きモデル時空間断片とを照合し、照合結果が一致でない場合は(S210でNO)、S211に移行し、人物動きモデルのパラメータをすべて試行していないときは(S211でNO)、S208に移行し、人体部位動きモデル時空間断片出力部15が新たな人体部位動きモデル時空間断片を生成し、一方、人物動きモデルのパラメータをすべて試行したときは(S211でYES)、S207に移行し、再度、時空間断片抽出部14が断片抽出線23を決定する。
一方、S210にて、照合結果において時空間断片と人体部位動きモデル時空間断片とが一致するかもしくは閾値以上である場合は(S210でYES)、時空間断片照合部16は、その時点における断片抽出線のパラメータ、および人物動きモデルのパラメータを属性出力部17に出力する。
そして、S212にて、属性出力部17は、人物の存在が確認できた場合には、人物の存在位置および歩行方向を算出し、表示部18に出力する。最後に、S213にて、表示部18は、人物の存否、存在位置および歩行方向を画面に表示する。
ここで、時空間断片抽出部14について、図4を用いて詳しく説明する。時空間断片抽出部14は、図4に示されるように、実空間における人物の存在位置および移動方向を実空間上に表現する座標軸であるワールド座標系において時空間ボリュームを切断する断片抽出線23を決定する断片抽出線生成部30、カメラ10の設置に関するパラメータを用いてワールド座標系から画像平面を表現するピクセル座標系への変換を行う座標変換部31、時空間ボリューム21から時空間断片22の抽出を行う時空間ボリューム切断部32を備える。
以下、断片抽出線として、直線で生成する場合について述べる。
まず、断片抽出線生成部30は、ワールド座標上での直線および曲線を定義する。ここで、断片抽出線生成部30は、実空間における人物の存在位置および移動方向に基づいて直線および曲線を生成するために、座標軸を実空間上に表現するワールド座標系を用いる。
なお、ワールド座標を(XW、YW、ZW)で示す。ワールド座標の詳細は、徐、辻著、「3次元ビジョン」、9ページ、共立出版、1998年発行に記述されている。
ここで、ZWをワールド座標上における天地方向と仮定してZWを一定値とすると、図5に示されるように、ワールド座標における断片抽出線23は、以下の式1で定義することができる。
Figure 0003775683
θwは、実空間を表現するワールド座標上において存在する人物の歩行方向に関するパラメータとなる。切片bwを求めることができれば、ワールド座標上における人物の歩行は、この式1で示される直線上に乗っていることになる。なお、断片抽出線23は、曲線を用いることも可能であり、例えば、歩行のゆらぎに合わせた曲線を用いることも有効である。この場合、歩行周期を仮定することによって、sinカーブ等で断片抽出線を決定し、位相をずらしながら断片抽出を行うことによって、歩行における周期的な上下動に合った断片抽出を行うことができる。
さらに、例えば、膝下から足首までの動きに基づいて人物検出を行いたい場合は、断片抽出線に厚みを持たせることによって、実現可能である。この場合、時空間ボリュームから抽出される時空間断片は、一定の厚みを持ったものとなる。また、上記θwおよびbwは、監視領域内を網羅するような組み合わせをとることになり、後述する時空間断片照合部16の照合結果により、順次、決定される。なお、他の検出手法と併用する場合には、その検出結果をもとに前記2つのパラメータを決定すればよく、必ずしも網羅的である必要はない。
他の検出手法と併用する場合については、第4および第5の実施の形態で説明する。
次に、座標変換部31は、このθwおよびbwのパラメータにより生成された断片抽出線23を、カメラ10の設置位置、焦点距離、スケールファクタ等の予め既知のパラメータを用いて、ワールド座標系から、画像平面を表現するピクセル座標系への変換を行う。この変換により、断片抽出線は2次元画像上の線となる。
次に、時空間ボリューム切断部32は、時空間断片の抽出を行う。この時空間断片の抽出は、座標変換部31で生成されたピクセル座標系における断片抽出線を用いて、時空間ボリューム生成部13で生成された時空間ボリュームを切断することによって行う。
次に、時空間断片照合部16は、時空間ボリューム切断部32で抽出された時空間断片と人体部位動きモデル時空間断片出力部15から出力された人体部位動きモデル時空間断片とを照合し、照合結果から断片抽出線のパラメータ変更を示す信号である断片抽出線パラメータ変更信号を断片抽出線生成部30に出力する。
以下、同様に、時空間断片抽出部14は、断片抽出線パラメータ変更信号の入力が終了するまで、断片抽出線を作成し、時空間断片を作成する。
次に、人体部位動きモデル時空間断片出力部15について、詳細に説明する。
人体部位動きモデル時空間断片出力部15は、図6に示されるように、断片抽出線23を用いてワールド座標上における人物の歩行をモデル化する人物動きモデル生成部50、ワールド座標系からピクセル座標系への変換を行う座標変換部51、人物動きモデルに従った時空間断片を生成する時空間断片出力部52を備える。
本実施の形態では、脚を表現する2本の線分を用いて人物の歩行をモデル化した例について説明する。なお、膝関節や足首等を考慮してより精細な人物動きモデルを用いても構わない。さらに、胴体、頭部、腕、手の動きも同時にモデル化することも可能である。また、線分に限らず楕円などを用いて人物の動きをモデル化してもよい。
まず、人物動きモデル生成部50は、ワールド座標系における歩行1歩分を基本単位として、図7に示されるように、人物動きモデルが歩行するワールド座標上での位置(xstart、ystart)および角速度ωを決定する。ここで、位置(xstart、ystart)は、時空間断片抽出部14で決定したワールド座標上における断片抽出線23上の1点であるとする。
なお、図7は、人物動きモデルにおいて、脚を最大に開いた場合を示す。また、次の1歩は、(x2nd、y2nd)を起点として、角速度ω、角度2θLまで移動するものである。
人物動きモデルに関するパラメータであるワールド座標上での位置(xstart、ystart)および角速度ωの決定方法について説明する。
断片抽出線生成部30で決定した断片抽出線のパラメータθwおよびbwは、ワールド座標上における直線を表現している。人物動きモデルのパラメータである、ワールド座標上での位置(xstart、ystart)は、このワールド座標上での直線上であるとの拘束のもとに、監視領域内の位置について網羅的にパラメータを決定する。なお、他の検出手法と併用する場合には、その検出結果をもとに位置に関するパラメータを決定すればよく、必ずしも網羅的である必要はない。
次に、人物動きモデル生成部50における人物動きモデルの動作について述べる。人物動きモデルは、図7に示されるように、人間の脚の動きをモデル化したものであり、2本の直線を脚とし、ワールド座標における位置(xstart、ystart)を起点として、角速度ωで人物動きモデルの脚を動かすことによって、一歩分の歩行を生成する。人物動きモデルの股間の角度を2θLとした場合、2θL/ωが一歩歩行するのにかかる時間もしくはフレーム数となる。ここで、ωは、人物の歩行速度を考慮して、可能性のある角速度ωを網羅的に試行することとしたため、角速度ωとワールド座標における位置(xstart、ystart)の組み合わせ分の人体部位動きモデル時空間断片を生成する。なお、本実施の形態では、脚の長さLおよび股間の角度θLは、事前に設計者が決定した場合について説明するが、これらのパラメータも状況に応じて変化させ、数種類の人物動きモデルを用意することで、より精細な人物動きモデルとすることも可能である。また勿論、人物動きモデルが生成する歩行は、1歩に限定するものではなく、数歩分を基本単位とすることも可能である。
次に、座標変換部51は、座標変換部31と同様に、カメラ10の設置位置、焦点距離、スケールファクタ等の予め既知のパラメータを用いて、人物動きモデルが生成したワールド座標上での1歩分の人物動きモデルをピクセル座標系での歩行に変換することによって、人物動きモデルから時空間ボリュームを生成する。
次に、時空間断片出力部52は、座標変換部51で生成されたピクセル座標系での時空間ボリュームに対して、時空間断片抽出部14と同じθwおよびbwのパラメータを用いて時空間断片を生成する。
なお、ここでは、人物動きモデル生成部50において生成した人物動きモデルを用いて、座標変換部51で時空間ボリュームを生成し、時空間ボリュームから人物動きモデルの時空間断片を生成したが、人物動きモデルの特定部位に着目することによって、特定部位の動きを直接計算することにより、時空間断片を生成することも可能である。この場合、人物動きモデルを脚の動きとしてモデル化しているが、人体部位動きモデル時空間断片は、足首位置などのように、脚の一部位に着目した断片として生成されることになる。このように、特定部位の動きを直接計算することによって、人体部位動きモデル時空間断片を生成すれば、計算量を削減でき、かつ、人物特有の部位の動きを用いることで、人物検出が容易になる利点がある。
次に、時空間断片照合部16は、時空間断片抽出部14で抽出された時空間断片と人体部位動きモデル時空間断片出力部15から出力された人体部位動きモデル時空間断片とを照合し、照合結果から人体部位動きモデル時空間断片のパラメータ変更を示す信号である人体部位動きモデル時空間断片パラメータ変更信号を、人物動きモデル生成部50に出力する。
以下、同様に、人体部位動きモデル時空間断片出力部15は、人体部位動きモデル時空間断片パラメータ変更信号の入力が終了するまで、人物動きモデルから人体部位動きモデル時空間断片を作成する。
以上のように、人物動きモデルのパラメータは、断片抽出線のパラメータによる拘束のもとに決定されるものであり、人物動きモデルのパラメータが第1の処理ループ、断片抽出線のパラメータが第2の処理ループとすると、第1のループは、第2の処理ループに含まれるものである。
次に、時空間断片照合部16について図8を用いて説明する。時空間断片照合部16は、時空間断片抽出部14において抽出された時空間断片と人体部位動きモデル時空間断片出力部15において人物動きモデルから生成された人体部位動きモデル時空間断片との照合を行う照合処理部150と、照合結果を保持し、予め定めた閾値と比較し、照合結果またはパラメータの変更要求を出力する比較部152とを備える。
照合処理部150は、実画像から抽出した時空間断片に対し、人物動きモデルから生成した人体部位動きモデル時空間断片を時間方向にスキャンしながらマッチングを行うことで照合する。以下、2値化された画像に対しての照合例を説明する。
図9(a)は、実画像から抽出した人物の脚の動きに着目した時空間断片70であり、図9(b)は、人物動きモデルから生成した人体部位動きモデル時空間断片71であり、図9(c)は、両者の照合得点であるマッチングスコアを示す。
実画像から抽出された時空間断片70に対し、人物動きモデルから生成された人体部位動きモデル時空間断片71を上から下方向に1ピクセル毎にスキャンし、マッチングスコアを計算する。なお、本実施の形態では、マッチングスコアを計算する工程をステップと称する。
ここで、マッチングスコアは、時空間断片70および人体部位動きモデル時空間断片71を、"0"および"1"の2値化した場合に、画素の値が、"1"のピクセルをONピクセルとし、画素の値が、"0"のピクセルをOFFピクセルとし、人体部位動きモデル時空間断片71のONピクセルおよびOFFピクセルを、時空間断片70のONピクセルおよびOFFピクセルと照合するものである。
まず、時空間断片70の任意の場所に、人体部位動きモデル時空間断片71を重ね合わせる。
次に、人体部位動きモデル時空間断片71を基準として、人体部位動きモデル時空間断片71がONピクセルであり、かつ、時空間断片70もONピクセルである場合のONピクセルの照合数を算出する。
次に、人体部位動きモデル時空間断片71を基準として、人体部位動きモデル時空間断片71がOFFピクセルであり、かつ、時空間断片70もOFFピクセルである場合のOFFピクセルの照合数を算出する。
次に、ONピクセルの照合数を人体部位動きモデル時空間断片71のONピクセル数で正規化した値とOFFピクセルの照合数を人体部位動きモデル時空間断片71のOFFピクセル数で正規化した値とを加算することでマッチングスコアとする。
なお、マッチングスコアの計算方法は、他の方法を用いることも可能である。
図9(c)の照合結果に示されるように、人体部位動きモデル時空間断片71をステップ毎にスキャンしながらマッチングスコアを計算し、比較部151に出力する。
次に、比較部151は、スキャン処理の中で最大のマッチングスコアを示したスコアを予め定めた閾値と比較し、閾値を上回るマッチングスコア、そのステップ数および人物動きモデルのパラメータを照合結果として属性出力部17に出力する。なお、ここでは、最大のマッチングスコアを示したスコアに対してのみ閾値と比較したが、ステップ毎に閾値と比較しても構わない。
更に、時空間断片照合部16は、マッチングスコアが閾値以下であり、全ての人物動きモデルのパラメータについての検討が終了していない場合は、人体部位動きモデル時空間断片のパラメータの変更を要求する人体部位動きモデル時空間断片パラメータ変更信号を人体部位動きモデル時空間断片出力部15に出力し、全ての人物動きモデルのパラメータについての検討が終了している場合は、断片抽出線のパラメータの変更を要求する断片抽出線パラメータ変更信号を時空間断片抽出部14に出力する。
なお、人体部位動きモデル時空間断片パラメータ変更信号および断片抽出線パラメータ変更信号には、断片抽出線23のパラメータであるθwおよびbw、人物動きモデルのパラメータである(xstart、ystart)およびωが含まれる。
また、図9(a)における時間は、時空間ボリューム生成部13で、予め決定したフレーム数Nであり、図9(b)における時間は、人物動きモデル生成部50で生成された人物動きモデルの股間角度を2θL、角速度ωとした場合、2θL/ωであり、図9(c)におけるステップは、照合処理部150で行うスキャン処理のステップ数である。
スキャンが終了したら、断片抽出線パラメータの拘束のもと、人体部位動きモデル時空間断片出力部15の人物動きモデルのパラメータを変更して、人物動きモデルに関するパラメータの組み合わせを試行する。最高精度の検出結果を得るためには、監視領域を網羅するすべてのパラメータの組み合わせを試行するが、準最適精度の検出結果でもよい場合には、照合処理部150での閾値によって検出結果とすることも可能である。また、他の初期検出手法を用いて人物候補領域を算出可能な場合は、必ずしも監視領域を網羅する全てのパラメータの組み合わせを試行する必要はない。
次に、再度、時空間断片抽出部14の断片抽出線のパラメータを変更して、断片抽出線の拘束のもとに、再度、人物動きモデルに関するパラメータの組み合わせを繰り返し試行する。ここでも、最高精度の検出結果を得るためには、監視領域を網羅するすべてのパラメータの組み合わせを試行するが、準最適精度の検出結果でもよい場合には、照合処理部150での閾値によって検出結果とすることも可能である。また、他の初期検出手法を用いて人物候補領域を算出可能な場合は、必ずしも監視領域を網羅する全てのパラメータの組み合わせを試行する必要はない。
なお、断片抽出線に厚みを持たせた場合、抽出される時空間断片は、厚みを持った断片となる。この場合、人体部位動きモデル時空間断片も同様に厚みを持った断片とする。この場合、時空間断片照合部では、厚みを持った断片同士を照合してもよいし、時空間ボリュームから抽出した時空間断片と人物動きモデルから生成した人体部位動きモデル時空間断片それぞれを、1枚の画像に圧縮することによって画像同士の照合を行ってもよい。
次に、監視領域を網羅する全てのパラメータの組み合わせの全探索結果、もしくは、照合処理部150で閾値以上の探索結果から、最終的に高いマッチングスコアを得たワールド座標上における断片抽出線23および人物動きモデルのパラメータを人物検出結果とする。ただし、他の初期検出手法を用いて人物候補領域を算出可能な場合は、必ずしも監視領域を網羅する全てのパラメータの組み合わせを試行する必要はない。
次に、属性出力部17は、時空間断片照合部16の出力するパラメータの組み合わせ結果を用いて、検出した人物の位置、歩行方向、角速度を基に、t秒後も同じ歩行方向で、かつ、検出時と同様に一定の角速度で移動していることを仮定して、t秒後の人物の存在位置を算出する。
ここで、高いマッチングスコアを得たパラメータの組み合わせのうち、断片抽出線パラメータのθwは、ワールド座標上における歩行方向に該当し、人物動きモデルのパラメータ(xstart、ystart)が、人物の存在位置に該当する。また、検出時刻は、パラメータの組み合わせに添付された照合処理部150で行うスキャン処理のステップ数により算出され、具体的には、最大のマッチングスコアを示した時のステップ数から算出できる。
人物動きモデルの脚の長さLおよび股間の角度θLは既知であるため、歩幅を算出可能であり、その歩幅および、人物動きモデルの角速度および歩行方向から、検出を行ってからt秒経過後の存在位置を予測するものである。なお、この予測値は、ワールド座標上における人物の存在位置である。
最後に、表示部18は、時空間断片照合部16で検出した人物の存在位置と歩行方向を俯瞰図に配置し、表示する。
これにより、時刻、位置、歩行方向を同時に検出することが可能である。なお、本手法は、パラメータの探索方法を限定するものではない。
以上のように、本実施の形態によれば、人物の歩行方向や位置を限定することなく、歩行する人物の存在位置および移動方向を検出し、人物検出を行うことができる。
(第2の実施の形態)
次に、本発明の第2の実施の形態における人物検出装置について説明する。
図10は、本実施の形態における人物検出装置の構成を示す機能ブロック図である。この人物検出装置は、第1の実施の形態と同様に街頭や駐車場、店舗内などを撮影した映像中に存在する人物を検出する装置であるが、第1の実施の形態に比べて高速な時空間断片の照合が可能であるという特徴を有し、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、属性出力部17、表示部18および解探索部110を備える。この構成は、第1の実施の形態における人物検出装置の構成に解探索部110を付加したものに相当する。以下、第1の実施の形態と異なる点を中心に説明する。
第1の実施の形態では、断片抽出線のパラメータおよび人物動きモデルのパラメータを全探索するか、もしくは、照合結果が閾値以上のパラメータを探索することによって時空間断片の照合を行ったが、本実施の形態では、上記パラメータを決定する解探索部110を設けることにより、高速な時空間断片の照合が可能となる。
以下に、本実施の形態の人物検出装置の動作について説明する。なお、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15および時空間断片照合部16は、第1の実施の形態と同様の動作であるため、説明を省略する。
まず、時空間断片照合部16は、第1の実施の形態と同様に、時空間断片70と人体部位動きモデル時空間断片71との照合を行い、照合後に、マッチングスコア、ステップ数、断片抽出線のパラメータおよび人体部位動きモデル時空間断片のパラメータを解探索部110に出力する。なお、照合方法は、第1の実施の形態と同様である。
次に、解探索部110は、北野著、「遺伝的アルゴリズム」、1−41頁、産業図書、1993年出版に記載されている遺伝的アルゴリズムを用いて、準最適なパラメータセットを探索し、断片抽出線23のパラメータであるθwおよびbwを断片抽出線生成部30に、人物動きモデルのパラメータである(xstart、ystart)およびωを出力することによって、高速な人物検出を実現する。
図11は、解探索部110の詳細な構成を示す機能ブロック図である。
解探索部110は、時空間断片照合部16から入力されたマッチングスコアなどのパラメータをビット列に変換するする二値化部121、ビット列に変換した複数のパラメータを繋ぎ合わせて1本のビット列としたもののうち、遺伝操作を行うビット列を選択する遺伝子選択部122、選択したビット列の組を用いて、突然変異、交差などの遺伝的手法を行いて新たなビット列を生成する遺伝的操作部123および生成した新しいビット列を再度実数値に変換する実数変換部124を備える。
以下に、解探索部110での処理を説明する。
まず、二値化部121は、時空間断片照合部16から入力された、断片抽出線23のパラメータであるθwおよびbw、人物動きモデルのパラメータである(xstart、ystart)およびωをそれぞれビット列に変換し、繋ぎ合わせることによって一つのビット列を生成する。なお、ビット列への変換は、10進法から2進法への変換である。
次に、遺伝子選択部122は、ビット列の初期値を、時空間断片照合部16から入力されたパラメータの初期値をランダムに選択することによって決定することができ、決定したビット列をマッチングスコアが高い順に並び替える。
なお、他の人物初期検出手法を用いて初期検出を行った結果を初期値とすることも有効である。
次に、遺伝的操作部123は、各パラメータを繋ぎ合わせたビット列を遺伝子と考え、マッチングスコア値が高いビット列ほど高確率で親として選択することとし、交叉、突然変異を行うことによって、新たなパラメータのビット列を得る。
ここで、交叉は、例えば、ペアとなる選択された2つのビット列のうち、交叉点と呼ばれる交叉するビット位置を乱数で決定し、交叉点を境にして、前後のビット列を交互に入れ替えることで、新たなビット列を作成するものであり、突然変異は、例えば、ある一定の確率でランダムに、変異を起こすビット位置を決定し、ビット列を反転することによって、ビット列を変化させるものである。ただし、人物動きモデルのパラメータである(xstart、ystart)を表現するビット列は、断片抽出線23のパラメータであるθwおよびbwの直線上であるとの拘束条件を用いる。
なお、遺伝的操作部123の出力結果を遺伝子選択部122に出力し、遺伝的操作を繰り返すことで、効率良く解の探索が可能となる。
次に、実数変換部124は、遺伝的操作部123により新たに作成されたビット列を実数値のパラメータに変換し、時空間断片抽出部14に対して各種パラメータを含む断片抽出線パラメータ変更信号として出力し、人体部位動きモデル時空間断片出力部15に対して各種パラメータを含む人体部位動きモデル時空間断片パラメータ変更信号として出力する。
次に、時空間断片抽出部14は、解探索部110から入力されたパラメータを含む断片抽出線パラメータ変更信号を基に、断片抽出線23を決定し、時空間断片を抽出し、人体部位動きモデル時空間断片出力部15は、解探索部110から入力されたパラメータを含む人体部位動きモデル時空間断片パラメータ変更信号を基に、人物動きモデルを生成し、人物動きモデル時空間断片を生成し、それぞれを時空間断片照合部16へ出力し、時空間断片照合部16は、それらの照合を行う。
上記の解探索操作を予め定めた一定回数繰り返した後、最大のマッチングスコアを得た直線および人物動きモデルのパラメータを人物検出結果とする。
以後の処理は、第1の実施の形態と同様であるので、ここでの説明は省略する。
以上のように、本実施の形態によれば、断片抽出線23のパラメータおよび人物動きモデルのパラメータを、遺伝的アルゴリズムにより解探索することにより、全探索しながら時空間断片照合を行う場合に比べて、より高速な人物検出が可能となる。
(第3の実施の形態)
次に、本発明の第3の実施の形態における人物照合装置について説明する。
図12は、本実施の形態における人物照合装置の構成を示す機能ブロック図である。この人物照合装置は、第1の実施の形態における人物検出装置を用いてカメラを制御することによって人物を照合する装置であり、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、属性出力部17、表示部18、カメラ制御部100、人物照合部103および照合カメラ94−1〜nを備える。この構成は、第1の実施の形態における人物検出装置が備える構成にカメラ制御部100、人物照合部103および照合カメラ94−1〜nを付加したものに相当する。以下、第1の実施の形態と異なる点を中心に説明する。
なお、人物検出装置は、第2〜第5の実施の形態における人物検出装置を用いても同様の効果を得ることができる。
カメラ制御部100は、属性出力部17の結果を用いて、該当する人物を追跡するものであり、照合カメラ94−1〜nは、パン、チルトおよびズーム機能を持ち、設置されているワールド座標上での位置、可動範囲および撮影可能範囲を記憶しているものである。人物照合部103は、照合カメラ94−1〜nの撮影した映像を用いて、人物の照合を行うものである。
表示部18は、検出された人物を配置した俯瞰図を表示する処理部およびディスプレイ等である。カメラ制御部100は、人物91−1〜nを撮影可能なワールド座標上で位置が最も近い照合カメラ94−1〜nを算出し、パン、チルト、ズームを行う制御信号を照合カメラ94−1〜n出力する制御部である。照合カメラ94−1〜nは、その制御信号によりパン、チルト、ズームを行い、該当する人物を撮影する撮像装置である。人物照合部103は、撮影された人物と予め蓄積された映像とを比較して人物の照合を行う処理部である。
図13に、表示部18に示される俯瞰図90と人物照合の状態を示す。ここで、俯瞰図90が人物を監視することのできる領域であり、人物91−1〜nは、人物の位置と歩行方向とを示すものである。俯瞰図90は、実空間を表現するワールド座標上での位置との対応関係を事前に作成しておくことによって、検出した人物の位置を表示する。
ここで、人物91−1〜nの照合を行う場合について説明する。なお、照合する人物の選択は、カメラ制御部100が順次選択するのでもよいし、監視者が任意で選択してもよい。
以下に、人物照合装置の動作について詳細に説明する。
まず、属性出力部17は、予測した人物の位置および時空間断片照合部16で検出した移動方向の人物情報を表示部18に出力することで、人物91−1をモニタ上に表示させるとともに、人物91−1の位置および移動方向を示す人物情報をカメラ制御部100に出力する。
次に、カメラ制御部100は、属性出力部17から出力された人物情報から最適な照合カメラ94−1を選択し、人物情報を用いて最適なパン、チルト、ズームの制御量を決定したカメラ制御信号を照合カメラ94−1に出力する。照合カメラ94−1は、カメラ制御信号に従って動作することによって、追跡対象の人物を撮影し、表示部18の俯瞰図90において、人物91−1の表示を強調表示する。
次に、照合カメラ94−1は、カメラ制御信号に基づいて、人物91−1を撮影し、撮影した画像を人物照合部103に出力する。
次に、人物照合部103は、図13の表示例に示されるように、撮影された画像95と、予め記憶している照合対象の画像96とを比較し、照合する。ここで、照合結果97が一致である場合は、照合処理は終了し、照合結果97が不一致である場合は、属性出力部17が、次の照合の対象となる人物91−2を選択し、人物情報をカメラ制御部100に出力し、以下、同様の処理を、照合結果97が一致となるか、照合の対象となる人物を全て選択するまで、繰り返す。
なお、カメラ制御部100より選択される照合カメラ94は、複数であってもよく、また、照合に用いる画像は、複数の照合カメラ94により撮影された画像から選択することで、照合精度を向上することができる。
特に、顔照合を行う場合においては、検出した歩行方向を用いて、カメラ制御部100により、人物の存在位置から人物を撮影可能なカメラを決定し、かつ、各カメラの可動範囲を考慮して、検出した歩行方向と最も正対する方向にカメラを制御することによって、正面の顔画像を撮影することが可能である。これにより、より詳細な顔画像を提供することが可能であると共に、自動顔照合を行う場合においても、顔照合の信頼性を向上させることが可能である。
以上のように、本実施の形態によれば、人物の存在位置と歩行方向を検出し、その結果を基にカメラを制御することによって、より精細な人物の画像を撮影することができる。
(第4の実施の形態)
次に、本発明の第4の実施の形態における人物検出装置について説明する。
図14は、本実施の形態における人物検出装置の構成を示す機能ブロック図である。この人物検出装置は、第1〜第3の実施の形態と同様に街頭や駐車場、店舗内などを撮影した映像中に存在する人物を検出する装置であるが、移動物体の移動方向を算出し、算出した移動方向に従って断片抽出線を決定する点に特徴を有し、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、属性出力部17、表示部18および移動方向算出部140を備える。この構成は、第1の実施の形態における人物検出装置が備える構成に移動方向算出部140を付加したものに相当する。以下、第1の実施の形態と異なる点を中心に説明する。
第1の実施の形態では、断片抽出線のパラメータおよび人物動きモデルのパラメータを全探索するか、もしくは、照合結果が閾値以上のパラメータを探索することによって時空間断片の照合を行ったが、本実施の形態では、移動物体の移動方向を算出する移動方向算出部140を設けることにより、高速な時空間断片の照合が可能となり、より正確な人物検出が可能となる。
以下に、本実施の形態の人物検出装置の動作について説明する。なお、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15および時空間断片照合部16は、第1の実施の形態と同様の動作であるため、説明を省略する。
まず、時空間ボリューム生成部13で生成された時空間ボリュームから、画像上での物体の移動方向を算出する移動方向算出部140について説明する。
移動方向の算出方法には、対象物体の候補を検出して移動方向を算出する方法と、対象物体の検出は行わずに移動方向を算出する方法とがある。
まず、対象物体の候補を検出して移動方向を算出する方法について説明する。図15(a)に示されるように、1枚の差分画像から、孤立した物体を抽出するラベリングアルゴリズムを用いて、孤立した物体を一つの検出対象物体の候補であると捉える。
ラベリングアルゴリズムによる物体抽出は、画素値が1のピクセルを連結し、異なった連結部には異なったラベルをつけることによって行う。本実施例では、以下のように行った。
まず、時刻tにおける2値化された差分画像に対し、画素値が1であり、かつラベルの付けられていない画素Pを検出し、ラベルLを付与する。画素Pと連結している画素全てに対し、同じラベルLを付与する。この操作をラベル付けされていない画素が存在しなくなるまで続けることによって、物体抽出を行う。もちろん、孤立した物体を抽出できるものであれば、他のラベリング手法を用いても構わない。
続いて、図15(b)に示されるように、時刻t+1における2値化された差分画像に対し、時刻tにおいてラベリングした移動物体候補を画像上で摂動させながらマッチングすることによって、最もマッチング値が高い位置までの動きベクトルを算出する。この動きベクトル算出処理を一定時刻行い、ラベルごとの平均動きベクトルを求めることによって、対象物体候補の移動方向を算出する。
次に、対象物体の検出を行わずに移動方向を算出する方法について説明する。ここでは、図16(a)に示されるように、小領域に区切って算出する方法について説明する。
なお、これは、小領域の区切り方を限定するものではない。
まず、時刻tにおける二値化された差分画像に対し、各小領域ごとにある一定数以上の画素値1のピクセルが存在する場合、その小領域を摂動させることによって、時刻t+1における二値化された差分画像とのマッチングを行う。この時、現在の位置から摂動させた結果、最大のマッチング値を持った位置までの動きベクトルを算出する。これにより、図16(b)のように、それぞれの小領域において、動きベクトルが算出されることになる。この動きベクトル算出処理を一定時刻行い、各小領域ごとの平均動きベクトルを求める。そして、各小領域ごとに算出した平均動きベクトルを投票し、ある一定値以上の投票が得られた場合に、対象物体候補の移動方向とする。
なお、本実施の形態では、上記のような移動方向算出方法について述べたが、移動ベクトルを算出することができれば、他の物体検出手法を用いても構わない。
以下、時空間断片抽出部14が断片抽出線23を直線で生成する場合について述べる。
時空間断片抽出部14は、図17に示されるように、断片抽出線を生成する断片抽出線生成部171と時空間断片を抽出する時空間ボリューム切断部172と画像上での直線および曲線パラメータをワールド座標上における直線および曲線に変換する座標変換部173とを備える。
ここで、断片抽出線生成部171について説明する。まず、画像上での直線および曲線を定義する。ここでは、画像上に直線を引くことで、断片抽出線23を求める場合について説明する。
断片抽出線23は、以下の式2で定義することができる。
Figure 0003775683
ここで、傾きaは、画像上における移動物体の移動方向に関するパラメータとなり、bは、画像上での切片である。
傾きaは、移動方向算出部140により算出された対象物体候補の移動方向により求めることができる。この傾きaに応じて、切片bの値を変更することによって断片抽出線23を生成し、時空間ボリューム切断部172にて、時空間断片22を抽出することができる。抽出された、時空間断片22は、時空間断片照合部16へ送られる。
次に、座標変換部173では、断片抽出線生成部171で生成された画像上での直線をワールド座標における直線に変換する。人体部位動きモデル時空間断片出力部15では、ここで変換したワールド座標系における直線にしたがって人物動きモデルを生成するため、以下の動作は、第1の実施の形態と同様である。
次に、時空間断片照合部16は、第1の実施の形態と同様に、時空間断片70と人体部位動きモデル時空間断片71との照合を行い、照合結果から断片抽出線のパラメータ変更を示す信号である断片抽出線パラメータ変更信号を断片抽出線生成部171に出力する。
以下、同様に、時空間断片抽出部14は、断片抽出線パラメータ変更信号の入力が終了するまで、時空間データからパラメータに従った時空間断片を作成する。ここで、断片抽出線パラメータ変更信号は、移動方向算出部で算出した移動物体候補の移動方向に基づいて、すべてのパラメータ候補についてパラメータ変更をしてもよいし、属性出力部17で移動物体検出が行われるまでとしてもよい。
なお、断片抽出線パラメータ変更信号は、断片抽出線のパラメータであるaおよびbである。
以後の処理は、第1の実施の形態と同様であるので、ここでの説明は省略する。
以上のように、本実施の形態によれば、移動物体の移動方向を算出することによって、断片抽出線23のパラメータおよび人物動きモデルのパラメータを削減することができ、全探索しながら時空間断片照合を行う場合に比べて、より高速な人物検出が可能となる。
(第5の実施の形態)
次に、本発明の第5の実施の形態における人物検出装置について説明する。
図18は、本実施の形態における人物検出装置の構成を示す機能ブロック図である。この人物検出装置は、第1〜第4の実施の形態と同様に街頭や駐車場、店舗内などを撮影した映像中に存在する人物を検出する装置であるが、移動物体の移動方向を算出するとともに、歩行に特有の周期的動作をも検証しながら断片抽出線を決定する点に特徴を有し、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、属性出力部17、表示部18、移動方向算出部140および周期性解析部190を備える。この構成は、第1の実施の形態における人物検出装置が備える構成に移動方向算出部140および周期性解析部190を付加したもの、つまり、第4の実施の形態における構成に周期性解析部190を付加したものに相当する。以下、第1および第4の実施の形態と異なる点を中心に説明する。
第1の実施の形態では、断片抽出線のパラメータおよび人物動きモデルのパラメータを全探索するか、もしくは、照合結果が閾値以上のパラメータを探索することによって時空間断片の照合を行ったが、本実施の形態では、移動物体の移動方向を算出する移動方向算出部140を設け、さらに歩行に特有な周期的動作を検証する周期性解析部190を設けることにより、高速な時空間断片の照合が可能となり、より正確な人物検出が可能となる。
以下に、本実施の形態の人物検出装置の動作について説明する。なお、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、移動方向算出部140は、第1および第4の実施の形態と同様の動作であるため、説明を省略する。
まず、時空間断片抽出部14が断片抽出線23を直線で生成した場合について述べる。
本実施の形態では、時空間断片抽出部14は、移動方向算出部140で算出された移動物体の移動方向に基づいて、画像上での直線および曲線を定義する。ここでは、画像上に直線を引くことで、断片抽出線23を求める場合について説明する。
断片抽出線23は、以下の式3で定義することができる。
Figure 0003775683
ここで、傾きaは、画像上における移動物体の移動方向に関するパラメータとなり、bは、画像上での切片である。
傾きaは、移動方向算出部140により算出された対象物体候補の移動方向により求めることができる。この傾きaに応じて、切片bの値を変更することによって断片抽出線23を生成し、時空間断片22を抽出することができる。抽出された時空間断片22および断片抽出線23のパラメータは、周期性解析部190へ送られる。
周期性解析部190は、図19に示されるように、時空間断片に対して時刻tごとに自己相関関数を計算し、それぞれ相関長を計算する相関長計算部191と、それぞれ算出した相関長を時間方向に並べた相関長の時系列に対して、再度、自己相関関数を計算する相関長自己相関計算部192と、相関長自己相関計算部192から入力された相関長の自己相関関数からピーク位置を検出し、検出したピーク位置が移動物体の移動周期にマッチしているかどうかを検証することによって移動物体か否かを判定するピーク検出部193、ピーク検出部193でピークが検出された時の画像上での直線をワールド座標における直線に変換する座標変換部194とを備える。
周期性解析部190は、時空間断片22の周期性の解析を行い、その周期性解析が終了したら、断片抽出線23のパラメータ変更を示す信号である断片抽出線パラメータ変更信号を時空間断片抽出部14に出力する。
以下、同様に、時空間断片抽出部14は、断片抽出線パラメータ変更信号の入力が終了するまで、断片抽出線23を作成し時空間断片22を作成する。
次に、相関長計算部191について説明する。相関長計算部191は、図20(a)に示されるような時空間断片201に対して、図20(b)に示される例のように、時刻tごとに1次元データ202を作成して、それぞれの1次元データ202に対して自己相関関数203を計算する。
なお、図20(a)の時間は、時空間ボリューム生成部13で予め決定したフレーム数Nである。図20(b)の長さは、図20(a)に示される時空間断片201の幅Xである。自己相関関数203の計算は、以下の式4で定義することができる。
Figure 0003775683
ここで、f(x)が1次元データ202であり、C(τ)は、自己相関関数203である。すなわち、自己相関関数C(τ)は、1次元データf(x)をある間隔τだけずらした場合(f(x+τ))に、元の1次元データf(x)とどれだけ似ているかを示す尺度となる。図20(c)に、自己相関関数C(τ)とτの関係を示す。自己相関関数C(0)は、自分自身との相関を示すことになるために、最大値をとることになる。また、自己相関関数C(τp)は、自己相関関数C(τ)がピークになる位置τpであり、1次元データで相関の高いONピクセルの間隔はτpに相当する。自己相関関数C(τ)においてピークの存在する位置τpは、移動物体の脚に着目した場合、歩幅を示すことになる。すなわち、自己相関関数C(τ)の時間的変化は、移動における歩幅の時間的変化を示すこととなり周期的であることが期待できる。
なお、図20(d)、(e)、(f)は、歩行の特徴(周期性)が存在しない場合、例えば、断片抽出線が人物の胴体を横切る位置に設定された場合に得られる時空間断片のデータ例であり、それぞれ、時空間断片、時空間断片のある時刻における一次元データの例、周期τと自己相関関数C(τ)との関係を示すグラフであり、歩行の特徴が存在する場合における図20(a)、(b)、(c)に対応する。図20(f)に示されるように、時空間断片において周期性が存在しない場合には、自己相関関数C(τ)のグラフにおいてピークが存在しないことになる。
本実施の形態では、自己相関関数C(τp)のようなピークが必ずしも存在しない場合があることを考慮して、自己相関関数C(τ)=0となる位置τLを用いて周期性の解析を行うこととする。これは、脚が閉じている状態時に起こりうる。また、以降、このτLを相関長と呼ぶこととする。なお、本実施の形態においては、自己相関関数C(τ)=0となる位置τLを相関長としたが、必ずしも相関関数C(τ)=0となる位置τである必要はなく、歩幅の周期的変動を捉えられるものであれば、何でもよい。
相関長τLは、時刻ごとに計算され、時刻ごとに計算された相関長τLを時間順に並べることによって、相関長の時系列データ210を得る。相関長τLの時系列データ210を図21(a)に示す。相関長τLの時系列データ210は、理想的な時空間断片が入力された場合において、歩幅の時間的変化に相当するものとなり、時間に応じて周期的に変動する。
次に、相関長自己相関計算部192について詳しく説明する。相関長計算部191は、算出した相関長τLの時系列データ210を相関長自己相関計算部192に出力する。相関長自己相関計算部192は、図21(a)に示されるような相関長τLの時系列データ210に対して自己相関関数211を計算する。計算式は、前述の式4と同様である。この計算結果を図21(b)に示す。ここで、相関長τLの時系列データ210に対して自己相関関数211を計算した結果であるCt(α)をピーク検出部193に出力する。
なお、断片抽出線パラメータ変更信号は、断片抽出線のパラメータであるbである。
次に、ピーク検出部193について説明する。ピーク検出部193では、相関長自己相関計算部から入力された相関長の自己相関関数Ct(α)からピーク位置αwを検出し、検出したピーク位置αwが移動物体の移動周期にマッチしているかどうかを検証することによって移動物体か否かを判定し、移動物体と判定した場合に、移動物体の存在位置と移動方向を特定し、表示部18に出力する。
すなわち、相関長の自己相関関数Ct(α)は、τL(t)をある間隔αだけずらしたτL(t+α)と、τL(t)とがどれだけ似ているかを示す尺度となる。
本実施の形態では、ピーク位置αwの検出は、位置α=0から探索を行い、最初のピークを検出することによって行ったが、他のピーク検出手法を用いても構わないし、後述する設計者が決定したフレーム数付近のピークを探索する方法を用いても構わない。
本実施の形態では、移動1歩分の移動周期を検出する場合について述べる。ピーク検出部193は、ピーク位置αwが一歩の移動に必要なフレーム数である場合に、移動物体であると判定する。一歩の移動に必要なフレーム数は、映像処理部11で1秒間に何フレーム取得できるかによって異なるが、本実施の形態では、1秒間に30フレーム入力された場合で、20フレームから30フレームを一歩の移動に必要なフレーム数とし、ピーク位置αが20フレームから30フレームの間に相関長の自己相関関数Ct(α)のピークが検出された場合に移動物体であると判定する。このフレーム数は、設計者によって自在に決定可能である。なお、より高精度な移動物体判定を行う場合は、2歩以上を一単位とした移動周期を検出することも可能である。その場合は、前記設計者が決定するフレーム数を歩数倍することによって対応可能である。
また、犬やネコ等の動物を検出する場合においても、同様に周期性を判定することが可能である。
さらに、自己相関関数Ct(α)を計算する代わりにフーリエ変換を用いることも可能である。この場合、特定の周波数にピークが存在するか否かを判定することになる。
なお、本実施の形態では、フレーム毎に画像が入力された場合について述べたが、一定時間ごとにサンプリングした画像を用いてもよい。その場合には、移動物体が一歩移動するために必要な時間から、ピーク検出部193のピーク位置αwを計算すればよい。
また、ピーク検出部193は、時空間断片を抽出するためのパラメータ変更を示す信号である断片抽出線パラメータ変更信号を時空間断片抽出部14に出力する。
以下、同様に、時空間断片抽出部14は、移動方向算出部から得られたパラメータの拘束のもとに、断片抽出線パラメータ変更信号の入力が終了するまで、時空間データからパラメータに従った時空間断片を作成する。ここで、断片抽出線パラメータ変更信号は、移動方向算出部で算出した移動物体候補の移動方向に基づいて、すべてのパラメータ候補についてパラメータ変更してもよいし、属性出力部17で移動物体検出が行われるまでとしてもよい。
次に、ピーク検出部193は、相関長の自己相関関数から移動物体の移動に特有のピークが検出された場合、断片抽出線パラメータを座標変換部194に送信する。
次に、座標変換部194は、ピーク検出部193でピークが検出された時の画像上での直線をワールド座標における直線に変換する。人体部位動きモデル時空間断片出力部15は、ここで変換したワールド座標系における直線にしたがって人物動きモデルを生成する。以下の動作は、第1の実施の形態と同様である。
属性出力部17は、移動物体の存在位置と移動方向を特定し、表示部18に出力する。
次に、時空間断片照合部16は、第1の実施の形態と同様に、周期性解析部190でピークが検出できた時の時空間断片70と人体部位動きモデル時空間断片71との照合を行い、照合結果から断片抽出線のパラメータ変更を示す信号である断片抽出線パラメータ変更信号を時空間断片抽出部14に出力する。
以下、同様に、時空間断片抽出部14は、断片抽出線パラメータ変更信号の入力が終了するまで、時空間データからパラメータに従った時空間断片を作成する。ここで、断片抽出線パラメータ変更信号は、移動方向算出部で算出した移動物体候補の移動方向に基づいて、すべてのパラメータ候補についてパラメータ変更してもよいし、属性出力部17で移動物体検出が行われるまでとしてもよい。
なお、断片抽出線パラメータ変更信号は、断片抽出線のパラメータであるaおよびbである。
以後の処理は、第1の実施の形態と同様であるので、ここでの説明は省略する。
以上のように、本実施の形態によれば、移動物体の移動方向を算出し、移動物体の周期性を解析することによって、断片抽出線23のパラメータおよび人物動きモデルのパラメータを削減することにより、全探索しながら時空間断片照合を行う場合に比べて、より高速な人物検出が可能となる。
(第6の実施の形態)
次に、本発明の第6の実施の形態における人物モデルフィッティング装置について説明する。
図22は、本実施の形態における人物モデルフィッティング装置の構成を示す機能ブロック図である。この人物モデルフィッティング装置は、マーカー等の特殊な装置を被写体に取り付ける必要がなく、画像に存在する人物に対してモデルをフィッティングする装置であり、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15、時空間断片照合部16、表示部18およびモデルフィッティング部220を備える。この構成は、第1の実施の形態における人物検出装置が備える構成要素のうち、属性出力部17をモデルフィッティング部220に置き換えた構成に相当する。以下、第1の実施の形態と異なる点を中心に説明する。
なお、人物モデルのフィッティングとは、人物動きモデルを画像に存在する人物にフィッティングすることであり、ここでは、図7に示される人物動きモデルのパラメータの値(画像に存在する人物の動きに合致した値)を決定することをいう。
以下に、本実施の形態の人物モデルフィッティング装置の動作について説明する。なお、カメラ10、映像処理部11、連続画像処理部12、時空間ボリューム生成部13、時空間断片抽出部14、人体部位動きモデル時空間断片出力部15および時空間断片照合部16は、第1の実施の形態と同様の動作であるため、説明を省略する。
モデルフィッティング部220は、図23に示されるように、モデル生成部231と座標変換部232とを備える。
まず、モデル生成部231は、時空間断片照合部16の出力するワールド座標上での人物の存在位置を示すパラメータの組み合わせ結果から、図7に示される人物動きモデルを再度生成する。人物動きモデルの脚の長さLおよび股間の角度θLは、既知であるため、これらのパラメータから図7に示される人物動きモデルを生成可能である。
ここで、モデル生成部231は、人体部位動きモデル時空間断片出力部15が備える人物動きモデル生成部50と同様の機能を有する。
また、この人物動きモデルは、ワールド座標系における存在位置や歩行方向をパラメータとして持つため、座標変換部232にて、座標変換を行うことで画像上に人物動きモデルをフィッティングする。具体的には、高いマッチングスコアを得たパラメータの組み合わせのうち、断片抽出線パラメータのθwは、ワールド座標上における歩行方向に該当し、人物動きモデルのパラメータ(xstart、ystart)が、人物の存在位置に該当する。また、検出時刻は、パラメータの組み合わせに添付された時空間断片照合部16の照合処理部150で行うスキャン処理のステップ数により算出され、その時刻における画像に座標変換を行ったモデルを重ねることによって、フィッティングを行う。
最後に、表示部18は、モデルフィッティング部220でフィッティングされた画像を表示する。
以上のように、本実施の形態によれば、マーカー等の特殊な装置を被写体に取り付ける必要がなく、画像に存在する人物に対してモデルをフィッティングすることができる。
なお、本実施の形態は、第2、第4および第5の実施の形態のように計算時間短縮のための構成をとる事も可能である。
以上、本発明に係る人物検出装置、人物照合装置および人物モデルフィッティング装置について、6つの実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。
たとえば、第1の実施の形態等では、人体部位動きモデル時空間断片出力部15の人物動きモデル生成部50は、時空間断片抽出部14から出力される断片抽出線のパラメータに基づいて具体的なパラメータを持つ人物モデルを生成したが、予め複数の人物動きモデルテンプレートを保持しておき、その中から、最適なテンプレートを選択して出力してもよい。例として、人体部位動きモデル時空間断片出力部15が、図24に示されるように、大人(男性)、大人(女性)、子供および老人というタイプ別の人物動きモデルテンプレートの中から、時空間断片抽出部14から出力されたパラメータに近いものを選択し、選択した人物動きモデルテンプレートの人体部位動きモデル時空間断片を出力する。そして、時空間断片照合部16は、時空間断片抽出部14から出力される時空間断片と人体部位動きモデル時空間断片出力部15から出力される人体部位動きモデル時空間断片とを照合する。照合の結果、一定の基準が満たされない場合には、人体部位動きモデル時空間断片出力部15は、次の候補となる人物動きモデルテンプレートを選択し、その人物動きモデルテンプレートの人体部位動きモデル時空間断片を出力し、時空間断片照合部16が照合を繰り返す。これによって、最も一致度の高い人物動きモデルテンプレートが決定され、対象画像中の人物のタイプが決定される。
なお、図24に示された人物動きモデルテンプレートでは、各パラメータは、1つの値に設定されていたが、一定の範囲(例えば、子供のパラメータLとして300〜700mm等)が設定されていてもよい。この場合には、設定された範囲内で時空間断片照合部16が繰り返して照合計算を行うことで、最適な値や最適なタイプの人物動きモデルテンプレートを探索すればよい。
また、このような人物動きモデルテンプレートとしては、人物のタイプ別に限られず、図25に示されるように、歩行する路面の状況別に複数のテンプレートを用意しておいたり、図26に示されるように、歩行する場所における混雑度別に複数のテンプレートを用意しおいてもよい。これによって、画像から得られる時空間断片に最も近い人体部位動きモデル時空間断片を生成する人物動きモデルテンプレートを探索することで、人物だけでなく、歩行の環境についても、各種状況を判断することができる。つまり、人物が歩行している映像から、人物のタイプだけでなく、路面状況、歩行場所における混雑度等をある程度予測することができる。
本発明は、人物の存在、位置、歩行方向等を検出する人物検出装置等として、例えば、街頭や施設内に設置する監視装置や建物への入退出時における認証装置等として、特に、人物の現在位置、歩行方向が既知でない場合においても、画像中の検出領域を限定することなく、人物検出を行うことが可能な人物検出装置、人物照合装置等として利用することができる。
図1は、本発明の第1の実施の形態における人物検出装置の構成を示す機能ブロック図である。 図2は、本発明の第1の実施の形態における人物検出装置の動作を示すフローチャートである。 図3は、本発明の第1の実施の形態における時空間断片の抽出を示す図である。 図4は、本発明の第1の実施の形態における時空間断片抽出部の構成を示す機能ブロック図である。 図5は、本発明の第1の実施の形態におけるワールド座標上の断片抽出線を示す図である。 図6は、本発明の第1の実施の形態における人体部位動き時空間断片出力部の構成を示す機能ブロック図である。 図7は、本発明の第1の実施の形態における人物動きモデルを示す図である。 図8は、本発明の第1の実施の形態における時空間断片照合部の構成を示す機能ブロック図である。 図9(a)は、本発明の第1の実施の形態における時空間断片を示す図であり、図9(b)は、本発明の第1の実施の形態における人体部位動きモデル時空間断片を示す図であり、図9(c)は、本発明の第1の実施の形態におけるマッチングを示す図である。 図10は、本発明の第2の実施の形態における人物検出装置の構成を示す機能ブロック図である。 図11は、本発明の第2の実施の形態における解探索部の構成を示す機能ブロック図である。 図12は、本発明の第3の実施の形態における人物検出装置の構成を示す機能ブロック図である。 図13は、本発明の第3の実施の形態における表示部の表示を示す図である。 図14は、本発明の第4の実施の形態における人物検出装置の構成を示す機能ブロック図である。 図15は、本発明の第4の実施の形態における移動方向算出方法の例を示す図である。 図16は、本発明の第4の実施の形態における移動方向算出方法の例を示す図である。 図17は、本発明の第4の実施の形態における時空間断片抽出部の構成を示す機能ブロック図である。 図18は、本発明の第5の実施の形態における人物検出装置の構成を示す機能ブロック図である。 図19は、本発明の第5の実施の形態における周期性解析部の構成を示す機能ブロック図である。 図20は、本発明の第5の実施の形態における自己相関関数計算の例を示す図である。 図21は、本発明の第5の実施の形態における相関長の自己相関関数計算の例を示す図である。 図22は、本発明の第6の実施の形態における人物モデルフィッティング装置の構成を示す機能ブロック図である。 図23は、本発明の第6の実施の形態における人物モデルフィッティング部の構成を示す機能ブロック図である。 図24は、タイプ別の人物動きモデルテンプレートの例を示す図である。 図25は、歩行する路面の状況別に異なる複数の人物動きモデルテンプレートの例を示す図である。 図26は、歩行する場所における混雑度別に異なる複数の人物動きモデルテンプレートの例を示す図である。

Claims (31)

  1. 動画像に含まれる人物を検出する装置であって、
    人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成手段と、
    生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出手段と、
    人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段と、
    前記時空間断片抽出手段が抽出した実画像時空間断片と前記時空間断片出力手段が出力した人体部位動きモデル時空間断片とを照合する時空間断片照合手段と、
    前記時空間断片照合手段による照合結果に基づいて、前記動画像における人物の存否を含む人物属性を出力する属性出力手段と
    を備えることを特徴とする人物検出装置。
  2. 前記時空間断片抽出手段は、前記フレーム画像を切断する断片抽出線を決定し、決定した断片抽出線を時間軸に沿って並べることによって得られる面を切断面として前記実画像時空間断片を抽出する
    ことを特徴とする請求の範囲1記載の人物検出装置。
  3. 前記時空間断片抽出手段は、前記3次元時空間画像における人物の脚を切断する断片抽出線を用いて前記実画像時空間断片を抽出し、
    前記時空間断片出力手段は、人物の歩行特性を規定した人物動きモデルに基づいて、当該人物動きモデルの歩行時における脚を切断する切断面によって得られる人体部位動きモデル時空間断片を生成する
    ことを特徴とする請求の範囲2記載の人物検出装置。
  4. 前記人物動きモデルは、2本の脚に対応する一端どうしが結合された2本の線分で表現され、各線分が結合点を回転中心として一定の角速度ωで交互に最大角度2θLまで回転するように規定される
    ことを特徴とする請求の範囲3記載の人物検出装置。
  5. 前記時空間断片照合手段は、前記実画像時空間断片に対して、前記時空間断片出力手段が出力した一歩分の人体部位動きモデル時空間断片を時間方向に走査していったときの画像どうしの一致度を算出することによって、前記照合を行う
    ことを特徴とする請求の範囲3記載の人物検出装置。
  6. 前記人物検出装置はさらに、前記時空間ボリューム生成手段によって生成された3次元時空間画像から、当該3次元時空間画像に存在する移動物体の移動方向を算出する移動方向算出手段を備え、
    前記時空間断片抽出手段は、前記移動方向算出手段によって算出された移動方向に従って前記断片抽出線を決定する
    ことを特徴とする請求の範囲2記載の人物検出装置。
  7. 前記移動方向算出手段は、前記3次元時空間画像を構成するフレーム画像ごとに前記移動物体を抽出し、抽出した移動物体のフレーム画像間における動きベクトルを求めることによって、前記移動物体の移動方向を算出する
    ことを特徴とする請求の範囲6記載の人物検出装置。
  8. 前記移動方向算出手段は、前記3次元時空間画像を構成するフレーム画像ごとに小領域に区分し、小領域ごとにフレーム画像間における動きベクトルを求めることによって、前記移動物体の移動方向を算出する
    ことを特徴とする請求の範囲6記載の人物検出装置。
  9. 前記断片抽出線は、直線または曲線である
    ことを特徴とする請求の範囲2記載の人物検出装置。
  10. 前記属性出力手段は、前記時空間断片照合手段により前記実画像時空間断片と前記人体部位動きモデル時空間断片とが一定の基準以上に一致すると照合された場合に、前記切断面または切断片を特定するパラメータと前記人体動きモデルを特定するパラメータとから前記動画像における人物の位置および移動方向を算出して出力する
    ことを特徴とする請求の範囲1記載の人物検出装置。
  11. 前記人物検出装置はさらに、前記属性出力手段から出力された人物の位置および移動方向を含む人物属性を表示する表示手段を備える
    ことを特徴とする請求の範囲10記載の人物検出装置。
  12. 前記人物検出装置はさらに、前記時空間断片抽出手段によって抽出された実画像時空間断片が人物の歩行に特有の周期的動作に基づく画像であるか否かを解析する周期性解析手段を備え、
    前記時空間断片抽出手段は、前記周期性解析手段による解析結果に基づいて断片抽出線を変更し、変更した断片抽出線を用いて再び実画像時空間断片を抽出する
    ことを特徴とする請求の範囲1記載の人物検出装置。
  13. 前記周期性解析手段は、前記実画像時空間断片を構成する各時間における画像を示す1次元データに対して自己相関関数を求めることによって相関長の時系列データを生成し、生成した相関長の時系列データにおいて周期性が存在する場合に、前記実画像時空間断片が人物の歩行に特有の周期的動作に基づく画像であると解析する
    ことを特徴とする請求の範囲12記載の人物検出装置。
  14. 前記周期性解析手段は、前記相関長の時系列データに対して自己相関関数を求めることによって相関長に対する自己相関関数値の変化を示すグラフを求め、そのグラフにおいてピークが存在する場合に、相関長の時系列データに周期性が存在すると判断する
    ことを特徴とする請求の範囲13記載の人物検出装置。
  15. 前記人物検出装置はさらに、前記時空間断片照合手段による照合結果に基づいて、前記時空間断片抽出手段に前記切断面または切断片を特定するパラメータを変更させたうえで再び実画像時空間断片を抽出させること、および、前記時空間断片出力手段に前記人体動きモデルを特定するパラメータを変更させたうえで再び人体部位動きモデル時空間断片を出力させることの少なくとも1つを実行させることで、前記切断面または切断片を特定する最適なパラメータおよび前記人体動きモデルを特定する最適なパラメータを探索する解探索手段を備える
    ことを特徴とする請求の範囲1記載の人物検出装置。
  16. 前記解探索手段は、遺伝的アルゴリズムを用いて最適なパラメータを探索する
    ことを特徴とする請求の範囲15記載の人物検出装置。
  17. 前記時空間ボリューム生成手段は、前記フレーム画像を背景差分またはフレーム間差分した後に2値化して得られる画像を少なくとも1枚以上重ね合わせることによって前記3次元時空間画像を生成する
    ことを特徴とする請求の範囲1記載の人物検出装置。
  18. 前記時空間断片出力手段は、予め記憶する複数の異なる種類の人物動きモデルの中から選択した人物動きモデルに対応する人体部位動きモデル時空間断片を生成して出力し、
    前記時空間断片照合手段は、前記照合による結果が一定の基準を満たさない場合に、前記時空間断片出力手段に新たな人物動きモデルに対応する人体部位動きモデル時空間断片を生成して出力させることで、前記照合を繰り返す
    ことを特徴とする請求の範囲1記載の人物検出装置。
  19. 前記時空間断片出力手段が予め記憶する複数の人物動きモデルは、モデリングの対象となる人物の性別、年齢、人物が歩行する路面の状況、および、歩行する場所における混雑度の少なくとも1つが異なる
    ことを特徴とする請求の範囲18記載の人物検出装置。
  20. 動画像に含まれる人物の画像と予め蓄積している人物の画像とを照合する装置であって、
    請求の範囲1〜19のいずれか1項に記載の人物検出装置と、
    パン、チルトおよびズームの少なくとも1つの機能を有する照合カメラと、
    前記人物検出装置で検出され人物の位置または移動方向に基づいて、前記照合カメラによるパン、チルトおよびズームの少なくとも1つを制御するカメラ制御手段と、
    前記照合カメラにより撮影された人物の画像と予め蓄積している人物の画像とを照合する人物照合手段と
    を備えることを特徴とする人物照合装置。
  21. 人物の動き特性を規定した人物動きモデルを画像上の人物の動きにフィッティングさせる装置であって、
    人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成手段と、
    生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出手段と、
    前記人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段と、
    前記時空間断片抽出手段が抽出した実画像時空間断片と前記時空間断片出力手段が出力した人体部位動きモデル時空間断片とを照合する時空間断片照合手段と、
    前記時空間断片照合手段による照合結果に基づいて、前記人物動きモデルが前記動画像における人物の動きを示すように、前記人物動きモデルを特定するパラメータの値を決定するモデルフィッティング手段と
    を備えることを特徴とする人物モデルフィッティング装置。
  22. 画像を生成する装置であって、
    動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を切断したときの切断面または切断片における画像を時空間断片としたときに、
    人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力手段を備える
    ことを特徴とする画像生成装置。
  23. 動画像に含まれる人物を検出する方法であって、
    人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成ステップと、
    生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出ステップと、
    人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を出力する時空間断片出力ステップと、
    前記時空間断片抽出ステップで抽出された実画像時空間断片と前記時空間断片出力ステップで出力された人体部位動きモデル時空間断片とを照合する時空間断片照合ステップと、
    前記時空間断片照合ステップによる照合結果に基づいて、前記動画像における人物の存否を含む人物属性を出力する属性出力ステップと
    を含むことを特徴とする人物検出方法。
  24. 動画像に含まれる人物を検出する装置のためのプログラムであって、
    請求の範囲23記載の人物検出方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
  25. 動画像に含まれる人物の画像と予め蓄積している人物の画像とを照合する方法であって、
    請求の範囲23記載の人物検出方法に含まれるステップと、
    前記人物検出方法で検出された人物の位置または移動方向に基づいて、照合カメラによるパン、チルトおよびズームの少なくとも1つを制御するカメラ制御ステップと、
    前記照合カメラにより撮影された人物の画像と予め蓄積している人物の画像とを照合する人物照合ステップと
    を含むことを特徴とする人物照合方法。
  26. 動画像に含まれる人物の画像と予め蓄積している人物の画像とを照合する装置のためのプログラムであって、
    請求の範囲25記載の人物照合方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
  27. 人物の動き特性を規定した人物動きモデルを画像上の人物の動きにフィッティングさせる方法であって、
    人物が撮影された動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を生成する時空間ボリューム生成ステップと、
    生成された3次元時空間画像から、当該3次元時空間画像を切断したときの切断面または切断片における画像である実画像時空間断片を抽出する時空間断片抽出ステップと、
    前記人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力ステップと、
    前記時空間断片抽出ステップで抽出された実画像時空間断片と前記時空間断片出力ステップで出力された人体部位動きモデル時空間断片とを照合する時空間断片照合ステップと、
    前記時空間断片照合ステップによる照合結果に基づいて、前記人物動きモデルが前記動画像における人物の動きを示すように、前記人物動きモデルを特定するパラメータの値を決定するモデルフィッティングステップと
    を含むことを特徴とする人物モデルフィッティング方法。
  28. 人物の動き特性を規定した人物動きモデルを画像上の人物の動きにフィッティングさせる装置のためのプログラムであって、
    請求の範囲27記載の人物モデルフィッティング方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
  29. 動画像に含まれる人物の検出に用いられる画像を生成する方法であって、
    動画像を構成するフレーム画像を時間軸に沿って並べた3次元時空間画像を切断したときの切断面または切断片における画像を時空間断片としたときに、
    人物の動き特性を規定した人物動きモデルに基づいて、当該人物動きモデルによる動きによって得られる時空間断片である人体部位動きモデル時空間断片を生成して出力する時空間断片出力ステップを含む
    ことを特徴とする画像生成方法。
  30. 動画像に含まれる人物の検出に用いられる画像を生成する装置のためのプログラムであって、
    請求の範囲29記載の画像生成方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
  31. 前記時空間断片出力手段は、人物の動き特性を規定した人物動きモデルを画像に変換することによって人体部位動きモデル時空間断片を生成する
    ことを特徴とする請求の範囲1記載の人物検出装置。
JP2005513284A 2003-08-21 2004-08-11 人物検出装置および人物検出方法 Expired - Fee Related JP3775683B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003297118 2003-08-21
JP2003297118 2003-08-21
PCT/JP2004/011790 WO2005020152A1 (ja) 2003-08-21 2004-08-11 人物検出装置および人物検出方法

Publications (2)

Publication Number Publication Date
JP3775683B2 true JP3775683B2 (ja) 2006-05-17
JPWO2005020152A1 JPWO2005020152A1 (ja) 2006-10-19

Family

ID=34213634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005513284A Expired - Fee Related JP3775683B2 (ja) 2003-08-21 2004-08-11 人物検出装置および人物検出方法

Country Status (4)

Country Link
US (1) US7613325B2 (ja)
JP (1) JP3775683B2 (ja)
CN (1) CN1839409A (ja)
WO (1) WO2005020152A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009542080A (ja) * 2006-06-19 2009-11-26 エヌエックスピー ビー ヴィ 大域的動き推定方法
CN101515374B (zh) * 2008-02-20 2010-12-01 中国科学院自动化研究所 基于图像的个性化真实感虚拟人物造型方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432929B2 (ja) * 2006-04-25 2010-03-17 トヨタ自動車株式会社 駐車支援装置及び駐車支援方法
JP4984728B2 (ja) * 2006-08-07 2012-07-25 パナソニック株式会社 被写体照合装置および被写体照合方法
JP4386083B2 (ja) * 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP4315991B2 (ja) * 2007-04-20 2009-08-19 本田技研工業株式会社 車両周辺監視装置、車両周辺監視方法、車両周辺監視プログラム
JP4894741B2 (ja) * 2007-12-03 2012-03-14 ソニー株式会社 情報処理装置および情報処理方法、プログラム、並びに記録媒体
US8170278B2 (en) 2008-08-06 2012-05-01 Sri International System and method for detecting and tracking an object of interest in spatio-temporal space
US8121424B2 (en) 2008-09-26 2012-02-21 Axis Ab System, computer program product and associated methodology for video motion detection using spatio-temporal slice processing
CN102334142A (zh) * 2009-02-24 2012-01-25 三菱电机株式会社 人物追踪装置以及人物追踪程序
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
JP2011114823A (ja) * 2009-11-30 2011-06-09 Sanyo Electric Co Ltd 画像処理装置及び撮像装置
EP2587451A4 (en) * 2010-06-23 2015-04-08 Univ Osaka DEVICE FOR DETECTING MOVING OBJECTS
CN103221977B (zh) * 2010-12-09 2015-10-14 松下电器产业株式会社 姿势状态估计装置及姿势状态估计方法
US8913129B2 (en) * 2011-01-27 2014-12-16 Thermal Matrix USA, Inc. Method and system of progressive analysis for assessment of occluded data and redundant analysis for confidence efficacy of non-occluded data
JP5975353B2 (ja) * 2011-03-31 2016-08-23 パナソニックIpマネジメント株式会社 人数計測装置
CN102609680B (zh) * 2011-12-22 2013-12-04 中国科学院自动化研究所 一种基于三维深度图像信息的并行统计学习人体部位检测方法
WO2013114862A1 (ja) * 2012-01-30 2013-08-08 パナソニック株式会社 最適カメラ設定装置及び最適カメラ設定方法
US8872850B2 (en) * 2012-03-05 2014-10-28 Microsoft Corporation Juxtaposing still and dynamic imagery for cliplet creation
US9367733B2 (en) * 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
JP5961123B2 (ja) * 2013-01-30 2016-08-02 パナソニック株式会社 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム
US9639747B2 (en) 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
JP6551226B2 (ja) 2013-04-26 2019-07-31 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US9256348B2 (en) * 2013-12-18 2016-02-09 Dassault Systemes Americas Corp. Posture creation with tool pickup
KR101679741B1 (ko) * 2015-05-06 2016-11-28 고려대학교 산학협력단 외곽 공간 특징 정보 추출 방법
US9648211B2 (en) * 2015-05-14 2017-05-09 Xerox Corporation Automatic video synchronization via analysis in the spatiotemporal domain
CN105892538B (zh) * 2016-04-22 2018-08-31 郑贵林 用于构建主动消防体系及智慧建筑的智能终端和智能终端系统
US10402643B2 (en) * 2016-06-15 2019-09-03 Google Llc Object rejection system and method
JP6701018B2 (ja) * 2016-07-19 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2018043437A1 (ja) * 2016-09-01 2018-03-08 公立大学法人会津大学 画像距離算出装置および画像距離算出用プログラムを記録したコンピュータ読み取り可能な非一過性の記録媒体
JP6750183B2 (ja) 2016-09-01 2020-09-02 公立大学法人会津大学 画像距離算出装置、画像距離算出方法および画像距離算出用プログラム
CN106652002A (zh) * 2016-09-20 2017-05-10 努比亚技术有限公司 一种轨迹动画影像的生成方法及生成系统
EP3407232B1 (en) * 2017-05-23 2021-07-28 Ordnance Survey Limited Spatiotemporal authentication
WO2019160133A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 情報管理装置、情報管理方法及び情報管理プログラム
US11315363B2 (en) * 2020-01-22 2022-04-26 Board Of Trustees Of Michigan State University Systems and methods for gait recognition via disentangled representation learning

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07121499A (ja) * 1993-10-20 1995-05-12 Nippon Telegr & Teleph Corp <Ntt> 動きパラメータ推定方法
JP3183320B2 (ja) 1994-08-31 2001-07-09 日本電信電話株式会社 移動物体方向別計数方法および装置
US5574762A (en) * 1994-08-31 1996-11-12 Nippon Telegraph And Telephone Corp. Method and apparatus for directional counting of moving objects
JP2001109891A (ja) * 1999-10-08 2001-04-20 Toshiba Corp 物体領域抽出方法
JP2001202379A (ja) * 2000-01-21 2001-07-27 Kobe University 仮想空間における仮想人物動作データブラウジング装置
JP2001266131A (ja) * 2000-03-23 2001-09-28 Minolta Co Ltd 監視システム
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009542080A (ja) * 2006-06-19 2009-11-26 エヌエックスピー ビー ヴィ 大域的動き推定方法
US8451900B2 (en) 2006-06-19 2013-05-28 Entropic Communications, Inc. System and method for global motion estimation using profile matching
CN101515374B (zh) * 2008-02-20 2010-12-01 中国科学院自动化研究所 基于图像的个性化真实感虚拟人物造型方法

Also Published As

Publication number Publication date
US20060115116A1 (en) 2006-06-01
WO2005020152A1 (ja) 2005-03-03
CN1839409A (zh) 2006-09-27
JPWO2005020152A1 (ja) 2006-10-19
US7613325B2 (en) 2009-11-03

Similar Documents

Publication Publication Date Title
JP3775683B2 (ja) 人物検出装置および人物検出方法
US7330566B2 (en) Video-based gait recognition
US7702019B2 (en) Moving object detection device and moving object detection method
Pai et al. Pedestrian detection and tracking at crossroads
US11188788B2 (en) System and method to determine a timing update for an image recognition model
Gowsikhaa et al. Automated human behavior analysis from surveillance videos: a survey
KR100886557B1 (ko) 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
JP5820366B2 (ja) 姿勢推定装置及び姿勢推定方法
RU2546327C1 (ru) Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека
JP3981391B2 (ja) 監視装置
US9275472B2 (en) Real-time player detection from a single calibrated camera
WO2019023921A1 (zh) 一种手势识别方法、装置及设备
US20140333775A1 (en) System And Method For Object And Event Identification Using Multiple Cameras
Singh et al. Action recognition in cluttered dynamic scenes using pose-specific part models
CN107851318A (zh) 用于对象跟踪的系统和方法
JP2007334623A (ja) 顔認証装置、顔認証方法、および入退場管理装置
CN112651291B (zh) 基于视频的姿势估计方法、装置、介质及电子设备
KR20140114741A (ko) 인체 포즈 추정 장치 및 방법
JP2007209008A (ja) 監視装置
JP7518609B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20220366570A1 (en) Object tracking device and object tracking method
JP3910626B2 (ja) 監視装置
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
JP2004348303A (ja) 物体検出装置及びプログラム
JP2007134913A (ja) 映像選択方法および映像選択装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060216

R150 Certificate of patent or registration of utility model

Ref document number: 3775683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110303

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120303

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130303

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130303

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140303

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees