JP5478928B2 - 人物同定装置、人物同定方法、及び人物同定プログラム - Google Patents

人物同定装置、人物同定方法、及び人物同定プログラム Download PDF

Info

Publication number
JP5478928B2
JP5478928B2 JP2009088562A JP2009088562A JP5478928B2 JP 5478928 B2 JP5478928 B2 JP 5478928B2 JP 2009088562 A JP2009088562 A JP 2009088562A JP 2009088562 A JP2009088562 A JP 2009088562A JP 5478928 B2 JP5478928 B2 JP 5478928B2
Authority
JP
Japan
Prior art keywords
person
identification
identification element
tracking
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009088562A
Other languages
English (en)
Other versions
JP2010239992A (ja
Inventor
正貴 村川
聡 二見
健宏 馬渕
拓雄 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SOHGO SECURITY SERVICES CO.,LTD.
Original Assignee
SOHGO SECURITY SERVICES CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SOHGO SECURITY SERVICES CO.,LTD. filed Critical SOHGO SECURITY SERVICES CO.,LTD.
Priority to JP2009088562A priority Critical patent/JP5478928B2/ja
Publication of JP2010239992A publication Critical patent/JP2010239992A/ja
Application granted granted Critical
Publication of JP5478928B2 publication Critical patent/JP5478928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、人物同定装置、人物同定方法、及び人物同定プログラムに係り、特に画像に含まれる人物の状況に応じて高精度に人物の同定を行うための人物同定装置、人物同定方法、及び人物同定プログラムに関する。
従来、カメラ等の撮像手段により撮影された画像や映像を用いて人物を検出し、その人物が誰であるかを顔認証により同定する手法や、人物を追跡する際に、時系列に得られる画像群からその人物が移動したものであるか、又は他の人物であるかを判定し、人物を同定する手法が知られている(例えば、特許文献1,2参照。)。
上述の特許文献1では、人物の顔の3次元形状及びその表面の画像を検出し、顔の3次元形状及びその表面の画像と問合せ顔画像データとを照合し、その人物を同定する顔照合方法において、問合せ顔画像データの撮影条件を推定し、撮影条件と3次元形状及びその表面の画像によりグラフィクス手段を利用して照合用顔画像データを生成し、照合用顔画像データと問合せ顔画像データを比較し、問合せ顔画像データが、照合用顔画像データとの差異が小さい場合には照合用顔画像データの人物のものであると同定する手法が示されている。
また、上述の特許文献2では、音声と対応付けられた画像を用いた人物同定方法であって、第1の画像中に写っている顔と、第2の画像に写っている顔とが同一人物かどうかを判定する第1の判定工程と、第1及び第2の画像に付随している音声が同一人物のものであるかどうかを判定する第2の判定工程と、第1の判定工程あるいは第2の判定工程のいずれかにより同一人物と判定された画像を、同一の人物であると判定する第3の判定工程とを有する人物同定方法が示されている。
特開2001−283224号公報 特開2000−76459号公報
しかしながら、上述した手法の場合には、顔認証を用いて誰なのかを判定し、人物を同定することになるが、撮影された画像又は映像では、常に顔が映っているとは限らない。つまり、画像による犯罪の予兆察知として、画像上の人物を追跡しなければならず、不審かどうかは、対象の人物によって変化するため、顔の向きに関係なく、常に動作等を追跡しておく必要があり、撮影された画像に含まれる撮影状況に応じた同定手法が必要となる。
本発明は、上記の問題点に鑑みてなされたものであって、画像に含まれる人物の状況に応じて高精度に人物の同定を行うための人物同定装置、人物同定方法、及び人物同定プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定装置において、前記人物の同定要素の特徴量を抽出する同定要素抽出手段と、前記同定要素抽出手段により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段と、前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段とを有し、前記同定手段は、前記同定要素選択手段により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。
また本発明では、前記同定要素抽出手段は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。
また本発明では、前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする。
更に本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定方法において、前記人物の同定要素の特徴量を抽出する同定要素抽出手順と、前記同定要素抽出手順により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手順と、前記同定要素選択手順により得られた同定要素を用いて前記人物の同定を行う同定手順とを有し、前記同定手順は、前記同定要素選択手順により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。
また本発明では、前記同定要素抽出手順は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。
また本発明では、前記同定手順により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手順と、前記追跡手順における追跡結果から不審者を検出する不審者検出手順と、前記追跡結果を表示する画面を生成する画面生成手順とを有することを特徴とする。
更に本発明では、異なる時間に撮影された映像に含まれる人物を同定する人物同定装置における人物同定プログラムにおいて、コンピュータを、前記人物の同定要素の特徴量を抽出する同定要素抽出手段、前記同定要素抽出手段により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段、及び、前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段として機能させ、前記同定手段は、前記同定要素選択手段により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする。これにより、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物同定処理を容易に実現することができる。
また本発明では、前記同定要素抽出手段は、前記同定要素として、歩容、体型、性別を特徴量として抽出し、前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする。
また本発明では、前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする。
本発明によれば、画像に含まれる人物の状況に応じて高精度に人物の同定を行うことができる。
本実施形態における人物同定装置の概略構成の一例を示す図である。 人物の歩き方の一例を示す図である。 歩容特徴量を算出する際の基準となる値を示す図である。 肥満度の算出例を説明するための図である。 本実施形態における人物同定に用いられる特徴量と対応する抽出要素の内容を説明するための図である。 本実施形態における状態判定の一例を示す図である。 特徴量の重みを調整した例を示す図である。 日照変化に強いパラメータを用いた背景差分法を説明するための図である。 人物の存在を考慮した統計的背景差分法について説明するための図である。 追跡画面の一例を示す図である。 本実施形態における人物同定処理が実現可能なハードウェア構成の一例を示す図である。 本実施形態における人物同定処理手順の一例を示すフローチャートである。 人物同定処理手順を示す一例のフローチャートである。
<本発明について> 本発明は、人間が人物を認定する際の処理のように、複数の曖昧な同定要素(身長、体型、歩き方、性別、歩容等)を組み合わせて、人物を同定する手法を構築する。具体的には、本発明では、撮影された画像や人物の撮影状況に応じて適切な同定要素を選択し、その選択された条件に基づいて同定処理を行う。
つまり、本発明は、特徴から人物を同定する際に、不適切な特徴を使用せずに最適な特徴を選択する。具体的には、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報、顔認証の結果等、画像処理によって抽出できる人物に関する特徴量)を人物同定に使用するかどうかを判定する。使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けをし、人物同定への特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量の取捨選択を行う。
以下に、本発明における人物同定装置、人物同定方法、及び人物同定プログラムを好適に実施した形態について、図面を用いて説明する。
<人物同定装置の概略構成例> 図1は、本実施形態における人物同定装置の概略構成の一例を示す図である。図1に示す人物同定装置10は、入力手段11と、出力手段12と、蓄積手段13と、人物検出手段14と、同定要素抽出手段15と、同定要素選択手段16と、同定手段17と、追跡手段18と、不審者検出手段19と、画面生成手段20と、通知手段21と、送受信手段22と、制御手段23と、撮像手段24とを有するよう構成されている。なお、送受信手段22には、所定の領域を撮影するカメラ等の撮像手段24が接続されており、撮像手段24により撮影された映像に含まれる時系列の各画像を取得することができる。また、撮像手段24は、人物同定装置10と一体に構成されていてもよい。
入力手
段11は、使用者等からの人物検出指示や、同定要素抽出指示、同定要素選択指示、同定指示、追跡指示、不審者検出指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。
出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて生成された制御データや人物検出手段14、同定要素抽出手段15、同定要素選択手段16、同定手段17、追跡手段18、不審者検出手段19、画面生成手段20、通知手段21、送受信手段22等の各構成により実行された経過又は結果により得られる各種情報の内容を表示したり、その音声を出力する。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。
蓄積手段13は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段13は、人物検出手段14における人物検出結果や、同定要素抽出手段15における同定要素抽出結果、同定要素選択手段16における同定要素選択結果、同定手段17における同定結果、追跡手段18における追跡結果、不審者検出手段19における不審者検出結果、画面生成手段20における生成した画面情報、通知手段21により通知される内容や今までに通知された内容、送受信手段22により送受信された内容、制御手段23により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。
人物検出手段14は、カメラ等の撮像手段24等により撮影された映像を取得し、その取得した映像に含まれる時系列の各画像のうち、所定の画像(各フレーム画像や数フレーム分の間隔を空けた画像等)について1又は複数の人物の顔を検出する。なお、人物検出手段14は、例えば連続する画像フレーム同士を比較して、色(輝度、色度等)が所定時間内に変化する場所が存在し、更にその場所が所定の領域以上のものを人物として検出する。
また、他の人物検出手法としては、例えば、エッジ等を用いて人の形状にマッチする領域を抽出する手法や、熱画像を用いて背景とは異なる熱源を人体領域とする手法、複数のカメラを用いて形状や大きさを認識し人らしい物体を検出する手法、人の動き(歩いている様子)等に対してシルエット画像等を用いて事前に学習することで人体を検出する手法等も用いることができる。なお、人物検出手段14における人物検出手法については、本発明においてはこれに限定されない。
同定要素抽出手段15は、撮像手段24等により得られる映像(画像)から同定要素を抽出する。なお、本実施形態における同定要素としては、例えば歩容、体型、性別等があり、それぞれを人物同定のパラメータとしてその特徴量を抽出する。なお、具体的な抽出手法については、後述する。
同定要素選択手段16は、同定手段17において前後のフレームでそれぞれ検出された人物が同一か否かを判定するための判定基準として用いられる種別を選択する。具体的には、同定要素選択手段16は、予め設定された少なくとも1つの同定要素に対して、撮像手段24により撮影された時間や場所、人物の映り具合(顔が映っているか、全身が撮影されているか等)に応じて予め設定された同定要素の一部を使用しないようにする。なお、同定要素選択手段16は、上述した条件に応じて同定要素を新たに抽出するようにしてもよい。
つまり、同定要素選択手段16は、各特徴量が有効であるか否かの状態判定を行い、人物の状態によって、ある特徴量が有効ではないと判定された場合に、それ以降の同定処理において、その特徴量を使用しないようにすることができる。例えば、同定要素選択手段16は、昼と夜とで人物同定を行う場合のように、照明条件が変化したら、服の色や髪の色が変わってしまうため、そのような色情報は使用しないようにする。なお、同定要素選択手段16についての具体的な説明については後述する。
同定手段17は、同定要素抽出手段15により抽出された同定要素と、同定要素選択手段16により選択された内容とに基づいて、異なる時間に撮影された映像から抽出された2つの画像から検出される1又は複数の人物に対して、同一人物が含まれているか否かの同定処理を行う。
具体的には、同定手段17は、その画像の状況に応じた特徴量の取捨選択手法により適切なパラメータを用いて人物の同定を行う。例えば、同定手段17は、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報等)を人物同定に使用するかどうかを判定する。
また、同定手段17は、使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けを行い、人物同定への特徴量毎の寄与率を変化させる。つまり、同定手段17は、同定要素選択手段16により選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定する。これにより、状況に応じた特徴量を用いた人物判定を行うことができる。
追跡手段18は、撮像手段24から得られる映像を撮像して時系列の画像から同一の人物の挙動を追跡する。また、追跡手段18は、画像中に含まれる人物領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。
なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、その頭又は足の次の時系列画像における移動範囲が所定された範囲内であり、色情報が同じであれば、同一人物と見なして隠蔽部分に人物がいると推定して、その人物を追跡することができる。また、追跡手段18は、画像中に表示されている1又は複数の人物を経時的に追跡する。
更に、追跡手段18には、人物領域を推定する機能も設けられている。具体的には、追跡手段18は、人物領域の推定として、画像中に存在する人体に関してその外領域からなり、人物がその領域枠内に存在することを画面上で認識させ易くするための人物領域を推定する。
また、追跡手段18は、人物領域の推定として、例えば遮蔽物により人物の一部で隠蔽されている部分が存在すると判断された場合に、正しい人体の領域を推定する。この場合、追跡手段18は、隠蔽されている人体部分の外形(シルエット)又は領域を画面上に表示させる。これにより、隠蔽物により画像上に表示されていない人物のいる位置を正確に把握することができる。
また、追跡手段18は、画像中に存在する人物を経時的に追跡する場合には、人物の向き、姿勢、今までの行動から次の動作可能範囲を推測することができる。この場合、追跡手段18は、その人物が次に動作できる最大の範囲の外枠をフレーム化して画像に合成するための情報を生成する。
不審者検出手段19は、追跡手段18で得られる追跡結果等により、予め設定され蓄積手段13等に蓄積されている時系列の挙動データ等と比較することで、撮像手段24により撮影された人物が不審者である場合に検出を行う。また、追跡手段18は、追跡している人物が遮蔽物に隠れたり、カメラを所定時間以上、気にしてみていたり、キョロキョロしている等の不審行動がある場合には、その人物を不審者として検出する。追跡手段18は、検出された不審者情報を、通知手段に通知する。
例えば、不審者検出手段19は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、キョロキョロしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、不審者検出手段19は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。また、不審者検出手段19は、検出された不審者情報を、通知手段21に通知する。
画面生成手段20は、撮像手段24により撮影された映像を表示する画面を生成する。また、画面生成手段20は、追跡手段18により推定された人物領域を現在撮像手段242等により取得した映像に含まれる時系列の画像中に反映させる。具体的には、画面生成手段20は、人物領域と推定された領域の外側をフレーム化し、撮影された映像に合成して、出力手段12により表示させる。また、画面生成手段20は、画面生成により得られた画像をディスプレイ等の出力手段12に表示される。このとき、画面生成手段20は、例えば人物領域のフレームの位置情報を数値化したもの等を画面上に表示させることができる。
また、画面生成手段20は、人物を追跡している場合に必要となる経時的な人物の移動範囲も推定して画面上に表示させることができる。更に、画面生成手段20は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。なお、画面生成に必要な各種情報は、蓄積手段13に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、生成した画面は、ディスプレイやスピーカ等を有する出力手段12により音声等と共に出力する。
通知手段21は、不審者検出手段19により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像)を画面生成手段20により生成させて、表示させる。また、通知手段21は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者等に通知を行うアラート機能を有する。
送受信手段22は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の撮像手段24からの監視映像を受信する。なお、送受信手段22は、撮像手段24から直接監視映像を受信しなくてもよく、例えば予め撮像手段24で取得した映像をどこかに一時的に保存しておき、その保存された情報を用いて本実施形態における人物同定を行ってもよい。また、送受信手段22は、人物同定装置10を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。
制御手段23は、人物同定装置10における各機能構成全体の制御を行う。具体的には、制御手段23は、入力手段11により入力された使用者等からの入力情報に基づいて、人物を検出したり、同定要素を抽出したり、同定要素を選択したり、同定処理を行ったり、追跡処理を行ったり、不審者検出処理を行ったり、画面生成を行ったり、通信制御を行ったり、送受信制御を行う等の各種制御を行う。<同定要素の蓄積> ここで、同定要素抽出手段15における同定要素の抽出内容について説明する。同定要素の蓄積では、本実施形態では、「歩容」、「体型」、「性別」の3つの同定要素を抽出する。
<歩容> 最初に、同定要素の1つである歩容について説明する。一般に人間の歩き方には、個人差があるため、撮影された映像から検出された人物領域から歩き方の特徴を抽出する。図2は、人物の歩き方の一例を示す図である。図2に示すように人物30が移動する際には、それぞれ特有の歩き方がある。そのため、その特徴量をパラメータ化して同定検出の一要素とすることができる。
<歩容特徴量について> ここで、本実施形態における特徴量については、例えば、「歩幅(Pixel/Step)」、「歩調(Step/Min)」、「歩速(Pixel/Sec)」、摺足歩行
を検出するための指標「歩速の標準偏差(Pixel)」、「歩行加速度(Pixel/Sec^2)」、飛び跳ねるように歩いているかを検出するための指標「高さの標準偏差(Pixel)」、歩行時の姿勢を表す「体の傾き(度)」、更に「脚長(Pixel)」等のうち、少なくとも1つを用いることができる。
ここで、上述した各特長量は、以下に示す数式により算出することができる。「歩幅L(Pixel/Step)」は以下に示す(1)式で算出され、「歩調C(Step/Min)」は以下に示す(2)式で算出され、「歩速S(Pixel/Sec)」は以下に示す(3)式で算出され、「歩速の標準偏差ss(Pixel)」は以下に示す(4)式で算出され、「歩行加速度A(Pixel/Sec^2)」は以下に示す(5)式で算出され、「高さの標準偏差HS(Pixel)」は以下に示す(6)式で算出され、「体の傾き(度)θ」は以下に示す(7)式で算出され、「脚長LL(Pixel)」は以下に示す(8)式で算出される。なお、(1)式〜(8)式において、Mは幅wが極大となるフレーム総数、Nは総フレーム数である。
また、図3は、歩容特徴量を算出する際の基準となる値を示す図である。
図3と上述した(1)〜(8)式との関係において、hは人物の身長(画像上の高さ)を示し、wは幅(画像上の幅)を示し、Llは左足の長さを示し、Lrは右足の長さを示し、θは地面に対して垂直な軸に対する傾きを示し、Hは人物頭部の重心位置を示し、Gは人物領域の重心位置を示し、bxは人物30の左右の足の位置の中心から人物30の進行方向に対する画像フレーム31までの距離を示し、byは地面から垂直方向の画像フレーム31までの距離を示している。
更に、mjは幅wを極大にする全てのフレームを示し、tiはフレームiが撮影された時刻を示し、xiはフレームiにおけるbx,byをそれぞれ示している。
同定要素抽出手段15は、これらの数式より算出された値を歩容特徴量とする。なお、上述した歩容特徴量のうち、特に「身長」、「脚長」、「歩速」、「歩幅」の順に同定の能力が高い。また、「体の傾き」については、分離度は低かったものの、歩行動画上で目視確認した際には、明らかに前傾姿勢で歩いている人物については、有意な差を示す。そのため、人物同定の際に、数人に絞り込んだ後に適用する等、状況によっては有効な特徴量であることがわかる。
<体型、性別について> 次に、同定要素の1つである体型について説明する。ここでは、人物を「痩せ」、「普通」、「肥満」の3種類に分類する。なお、男女によって判定基準が違うため、「性別」の判定も併せて行うのが好ましい。
ここで、事前の実験より、体型判定の際には、例えば胸部、腹部、臀部、体の厚み、体の丸み、足の細さ等に注目していることがわかった。これより、胸部・腹部のエッジ情報に着目して特徴量「肥満度」を設定する。そして、体型判定の特徴量として、「肥満度」、「縦横比」、物体の伸びている方向を表す「慣性主軸」を用いることとした。また、性別の判定については男女で最も差異があると思われる胸部の影響を考慮し、「縦横比」、「慣性主軸」と、「2次モーメント」を用いることとした。
ここで、図4は、肥満度の算出例を説明するための図である。肥満度は、例えば図4(a)〜(c)に示すように、画像上のエッジを検出すると同時にそのエッジの方向成分を算出し、その後、Kirschフィルタを適用し、各方向毎のエッジ数を算出する。
したがって、具体的には、以下に示す(9)式により肥満度を算出する。
なお、上述した(9)式において、Exはx度方向のエッジ数を示し、wは人物幅を示している。
また、上半身についての人物幅の平均値を人物上半身の長さで割ったものである縦横比率は以下に示す(10)式で算出することができ、二次モーメント・慣性主軸は画像I(x,y)についての(m+n)次のモーメンドをμmnとすると、以下に示す(11)式のようになり、二次モーメント及び慣性主軸は以下に示す(12),(13)式で算出される。
なお、上述した(10)式において、hは人物の高さを示している。また、性別については、画像中の顔画像から顔の特徴量を抽出して予め設定されている男女別の特徴パラメータと比較して判定するか、画像から体全体のライン等の特徴量を抽出して予め設定されている男女別の特徴パラメータと比較すること等により、男女判定を容易に行うことができる。
<同定手段17における同定手法> 次に、同定手段における同定手法について図を用いて説明する。これまでの同定手法は、複数の特徴量を単純に合成し、1つの特徴量として判定を行っていた。しかしながら、一部の特徴量にノイズやばらつきが存在した場合に、誤判定をしてしまう可能性が高い。また、例えば体の部分隠れによって身長が変化した場合等には、そもそも特徴量が意味を持たなくなってしまう場合がある。
また、特徴量毎に人物の分類能力が違うため、単純に合成するだけでは判定の精度が下がってしまうという問題があった。これらの問題は、今後扱う特徴量が増加すればする程その影響が大きくなると思われる。そこで、本実施形態では、上述の問題を解決すべく、「同定に用いられる特徴量」、「特徴量の取捨選択条件」、「人物判定」を以下に示す内容で行う。
<同定に用いる特徴量について> 図5は、本実施形態における人物同定に用いられる特徴量と対応する抽出要素の内容を説明するための図である。図5に示すように、特徴量名は「歩幅」、「歩速」、「脚長」、「歩行姿勢」、「髪の色」、「服の色」、「体型」、「性別」、「身長」等のうち、少なくとも1つを用いることとし、その特徴量に対応する図5に示す抽出要素を用いて人物同定を行う。例えば、図5に示すように特徴量が「歩幅」であれば、その抽出要素は人物矩形横幅のピーク値の平均値である。また、「性別」であれば、その抽出要素は人体領域の縦横比、慣性主軸、2次モーメントとなる。
<特徴量の取捨選択条件について> 次に、上述した従来の課題である一部の特徴量にノイズやばらつきが存在した場合に、誤判定をしてしまう可能性が高く、また、例えば体の部分隠れによって身長が変化した場合等には、そもそも特徴量が意味を持たなくなってしまう場合についての対応を行うために特徴量の取捨選択を行う。つまり、上述の問題に対応するために、各特徴量が有効であるかどうかの状態判定を行う。この状態判定において、人物の状態によって、ある特徴量が有効ではないと判定された場合、それ以降の同定処理に当該特徴量は使用しない。例えば、昼から夜になった場合のように、照明条件が変化したら、服の色や髪の色が変わってしまうため、正しい同定が行われない。したがって、上述のような場合には、色情報等は使用しないようにする。
ここで、図6は、本実施形態における状態判定の一例を示す図である。図6に示すように、「状態判定」とその「判定方法」、判定の結果該当する場合に「無効とする特徴量」について記載されている。なお、図6に示す判定条件は、予め蓄積手段13等に蓄積されている。
例えば、図6において、「状態判定」として、撮影されるカメラに対して縦方向、斜め方向に移動しており、「判定方法」として、そのときの予め設定されたY方向の位置情報の変化がある場合には、上述した同定要素抽出手段15で取得した特徴量のうち、歩幅・脚長・歩行姿勢・体型・性別を「無効とする特徴量」とする。
また、「状態判定」として、立ち止まっているという判断は、経時的に見た人物の位置情報の変化により確認することができ、「判定方法」として、位置情報が変化している場合には、歩速を「無効とする特徴量」とする。
また、「状態判定」として、日照変化が大きいという判断は、監視領域の平均輝度値の変化により確認することができ、輝度平均値の変化が所定量以上の場合に、色情報を「無効とする特徴量」とする。なお、本実施形態で用いられる日照変化に強いパラメータを用いた背景差分例については後述する。
更に、「状態判定」として、ノイズによって値が大きく変化という判断は、特徴量毎に閾値を決める際にその閾値に基づくノイズの結果によって確認することができ、その場合には、該当する特徴量を「無効とする特徴量」とする。
このように、本実施形態を用いることで、これまでは同定することが不可能、若しくは精度が著しく低下していた一部の特徴量がノイズによって異常値になった場合や、そもそも特徴量としての意味を持たなくなった場合にも、高精度に同定を行うことが可能となる。
<人物判定手法> 次に、本実施形態における人物判定手法について図を用いて説明する。上述した特徴量毎に人物の分類能力が異なり、単純に判定条件を合成するだけでは判定の精度が低下してしまう。そこで、この問題に対処するため、従来では登録された人物情報に記録された各人物の持つ各特徴量の平均値と、入力データの各特徴量との単純距離を用いて判定を行っていた。
しかしながら、特徴量毎に同定への寄与率が異なるため、単純に合成すると、判定の精度が下がってしまう可能性がある。そこで、距離の算出の際に同定への寄与率にしたがい、重みを付与して算出することにした。
具体的には、登録された人物の特徴量を用いて、特徴量毎に、分離度を算出して人物の分類能力の指標とし、分離度に従い重みを付与して距離を算出する。算出された距離が最も小さくなる人物を判定結果とする。また、一部の特徴量が有効でないと判断された場合は、当該特徴量の重みを0にし、重みを算出し直すことで、高精度な人物判定が可能となる。
ここで、図7は、特徴量の重みを調整した例を示す図である。図7に示すように、登録情報として身長、服の色、髪の色、歩幅が設定され、それぞれの重み付けが合計を100%として50%,5%,15%,30%であった場合、例えばAさんの判定で、昼と夜とで判断する場合、図6に示す日照変化に該当するため、身長と歩幅のみの特徴で人物判定が行われる。したがって、選択された同定要素に対するそれぞれの重み付けを、現在の重み付けの比率に対応させて再設定を行う。具体的には、今まで50%,30%であった身長と歩幅の重みを、それぞれ62.5%,37.5%に設定する。これにより、日照等の変化による影響を受けずに人物判定を行うことができ、認証の精度を向上させることができる。なお、本実施形態の人物判定で用いられる日照変化における人物抽出の具体例については後述する。
次に、上述した本実施形態における状態判定の処理も含めた距離算出例について説明する。ここで、分離度については、一般的な統計量として、クラス内分散が小さい場合に、各クラス内の要素がクラスの平均値近くに密集しており、クラス間分散が大きい場合に、各クラスの要素が全体の平均値から離れて存在する。これにより、分離度が大きければ各クラスが分離されているということができる。
そこで、全体平均をm,クラスn内平均をm,全体分散をσ ,クラスn内分散をσ ,クラスnデータ数をωとした場合に、クラス間分散σ は以下に示す(14)式のようになり、クラス内分散σ は以下に示す(15)式のようになり、分離度は以下に示す(16)式のようになる。
また、距離算出方法は、以下に示す(17)式で算出することができる。
なお、上述した(17)式において、Daは人物aまでの重み付け距離を示し、Stは特徴量tの分離度を示し、dtは特徴量tに関しての人物aまでの単純距離(但し、特徴量tに関しては状態判定部にて使用しないとされたものを除く。)を示している。
<日照変化における人物抽出> ここで、上述した日照変化における具体的な人物抽出として、日照変化に強いパラメータを用いた背景差分法について説明する。図8は、日照変化に強いパラメータを用いた背景差分法を説明するための図である。
従来手法である背景差分法は、輝度情報を用いているため、照明条件の変化が少ない環境下では有効であったが、日照変化等を伴う環境では誤検出が多発するという課題があった。また、背景か変化領域であるか否かを判定する閾値が必要となるため、検出結果が閾値設定者に依存するといった問題があった。
そこで、本実施形態では、まず背景差分に用いるパラメータの選定を行い、RGBベクトル(色ベクトル)を用いる。ここで、RGBベクトルとは、図8(a)に示すように色情報(R,G,B)をベクトルとして扱った明るさの変化に鈍感なパラメータである。つまり、以下に示す(18)式から計算される背景画像と現画像のベクトルのなす角を変化量とするため、明るさの変化に影響されにくく、背景と異なる色構成をもつ領域のみ抽出することができる。
なお、上述した(18)式においてvは背景画像の画素位置(i,j)におけるRGB成分を示し、wは現画像の画素位置(i,j)におけるRGB成分を示している。
また、背景差分法に統計的背景差分法を用いることで、確率的に変化画素の有無を判定し、閾値の設定を不必要とした。これにより、閾値設定者による検出結果の違いを排除した。なお、図8(a)は、人物領域のRGBベクトルを示し、図8(b)は背景領域のRGBベクトルを示し、図8(a),(b)により画素(i,j)におけるRGB空間上のベクトルのなす角を説明している。なお、図8(b)には、現画像について、明るさの変化によるベクトルの変化方向が示されている。
また、図8(c),(d)は、明暗の違いによる画素(i,j)におけるRGB空間上のベクトルのなす角の違いを示し、図8(c)は明るい映像の場合を示し、図7(d)は暗い映像場合を示している。
ここで、上述したRGBベクトルを用いた背景差分は、画素を構成する色要素(R,G,B)からベクトル角度を計算するという特性上、図8(c)に示すような明るい映像の場合には、画素位置(i,j)において、前画像と現画像とで背景画像とのベクトル角度が変化した変化量△θ(=α−β)は十分小さくなる。しかしながら、図8(d)に示すように小さなベクトル(輝度の低い画素)は、ノイズがのる等、些細な変化にも敏感にベクトル角度が大きく変化してしまい、その変化量△θ(=α−β)は無視できない大きさになることから、暗い映像にて誤検出が多くなる可能性がある。そのため、本実施形態では、ベクトルの大きさに応じて、ノイズによる影響の度合いを推定して差分を行う。
<人物の存在を考慮した統計的背景差分法> 次に、人物の存在を考慮した統計的背景差分法について説明する。図9は、人物の存在を考慮した統計的背景差分法について説明するための図である。なお、図9(a)は、画像中の人物位置から実空間上の位置への変換の様子を示し、図9(b)は、人物の存在を考慮した統計的背景差分法を示している。
従来の統計的背景差分法では、初期学習時に画像中の各画素において、背景となる輝度値I(0〜255)に対する出現確率を算出している。そして、学習後に入力された画像中の各画素について、求めた該当画素の出現確率を参照し、背景であるか変化画素であるかを上述した(18)式により算出し、その結果から判定している。
しかしながら、学習から長時間経過すると、輝度値が大きく変化してしまい背景と変化領域の分離が行えなくなる課題があった。したがって、随時、背景領域の輝度値(RGBベクトルのなす角度)の出現確率を更新する必要があり、例えば以下に示す(19)式を用いる。
なお、上述した(19)式における各変数の定義は、ある画素位置(i,j)において、P(background|I)は画素値がIであったときにその画素位置が背景である確率を示し、P(mobile object|I)は画素値がIであったときにその画素位置に移動体がいる確率を示し、P(background)及びP(mobile object)はその画素位置が背景若しくは移動体である確率を示している。また、この確率は不明であるため、通常0.5の固定値とする。そのため、結果的に分母と分子とで打ち消し合うことになる。
また、P(I|background)は背景であることが分かっているときにその画素値がIである確率を示し、基本的な統計的背景差分では、初期学習時間を設け、その間には背景のみを撮影するという前提により、この確率分布を生成する。また、P(I|mobile object)は移動体であることが分かっているときに、その画素値がIである確率を示す。なお、この情報も人により着ている服や肌の色が違うため通常分かり得ない、したがって、均等な確率分布を与える。つまり、256階調の画像であれば、P(I|mobile object)=1/256となる。
ここで、上述した(19)式において、A≧1の場合は背景画素とし、A<1の場合は変化画素とする。本実施形態では、上述した(19)式において前フレームにて検出された人物位置を考慮した統計的背景差分を行い、人物の追跡を行う。
ここで、具体的には、図9(a)に示すように、画像中から得られた人物領域の位置を基に、実空間上におけるカメラとの位置関係を求める。これを応用して、前フレームにおいて抽出された人物領域から、現フレームで現れる人物領域を予測する。
つまり、前フレームで得られた人物領域を実空間上の位置に変換し、現時刻までに移動可能な範囲(人間が所定時間で移動可能な範囲)を求める。更に、求めた移動範囲を画像中の人物領域に逆変換することで、現フレームに現れる人物領域を推定することが可能となる。したがって、推定された画像領域を除く、領域を更新の対象とすることで、背景領域の統計情報を逐次更新することが可能となる。
また、図9(b)に示すように、現画像(i)に対して一般的な統計的背景差分法(ii)よりも上述した本実施形態の手法(iii)を適用することで、人物領域として現れる変化画素と背景画素との差が明確になっていることが分かる。
<追跡手段18における追跡画面> 次に、追跡手段18における追跡画面について図を用いて説明する。図10は、追跡画面の一例を示す図である。図10に示すように、追跡画面40は、映像画面41と同定検出画面42と、追跡経過画面43とを有するように構成されている。
また、映像画面41や同定検出画面42には、人物30に対する領域を縦幅、横幅の矩形で表示した人物領域44、その人物領域から推定される人物推定情報45と、その撮影された実際の日時情報46が示されている。なお、人物推定情報45は、具体的には、追跡しているか否かの有無、一同定しているか否かの有無、身長、横幅、面積等が表示されている。また、追跡経過画面43には、映像画面41を撮影しているカメラ等の撮像手段24の画角47と、人物の現在位置48と、追跡ルート49と、所定時間経過後(例えば、数秒経過後)の人物30の移動範囲50が表示されている。これにより、カメラに対してどの位置からどの方向からきてどの向かっているかを正確に把握することができる。また、この内容から不審者検出手段19によって、撮影されている人物が不審者か否かの検出を行うことができる。
<ハードウェア構成例> ここで、上述した人物同定装置10は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(人物同定プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における人物同定処理を実現することができる。
本実施形態における人物同定処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図11は、本実施形態における人物同定処理が実現可能なハードウェア構成の一例を示す図である。
図11におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置51は、使用者等が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。
出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するモニタを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
なお、入力装置51と出力装置52とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者等の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。プログラムの実行中に各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果、又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における人物同定処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物同定処理を容易に実現することができる。次に、人物同定処理の具体的な内容について説明する。
<人物同定処理> 次に、本発明における実行プログラム(人物同定プログラム)で実行される人物同定処理手順についてフローチャートを用いて説明する。図12は、本実施形態における人物同定処理手順の一例を示すフローチャートである。
図11において、まずカメラ等の撮像手段により撮影された映像を入力する(S01)。次に、その映像に含まれる1又は複数の人物を検知する(S02)。ここで、人物を検知した場合に、その人物毎の予め設定された特徴量からなる同定要素を抽出する(S03)。また、その後、その人物を追跡していく過程において、その人物の状態を判定し(S04)、S03の処理で求めた同定要素のうち、使用しない要素を選定する(S05)。
その後、人物同定を行い(S06)、その結果や指示に応じてその撮影された人物に対して追跡処理を行う(S07)。ここで、追跡の一連又は一部の行動パターンが予め設定される不審者の行動パターン等に該当する場合には、不審者として検出する(S08)。S08の処理が終了後、画面を生成し(S09)、その生成した画面を出力する(S10)。
ここで、追跡を終了するか否かを判断し(S11)、追跡を終了しない場合(S11において、NO)、S04に戻り、映像に映る同一人物について、以降の処理を行う。また、追跡を終了する場合(S11において、YES)、次に人物同定処理を終了するか否かを判断し(S12)、人物同定処理を終了しない場合(S12において、NO)、S01の処理に戻り、他の人物等を検出して後述の処理を行う。また、人物同定処理を終了する場合(S12において、YES)、全体の処理を終了する。
<人物同定処理手順:S06> 次に、上述したS06の処理における人物同定処理手順についてフローチャートを用いて説明する。図13は、人物同定処理手順を示す一例のフローチャートである。なお、図13では、その人物の位置検出による追跡の概要を示している。図13示す人物同定処理では、まず、映像中に含まれる1又は複数の人物(図13では、人物X1,・・・,Xn)を検出したか同かを判断し(S21)、検出していない場合(S21において、NO)状態遷移図にしたがって状態を更新する(S22)。具体的には、S22の処理において、例えば「初期状態→初期状態」、「照合状態→初期状態」、「追跡状態→消失状態」、「消失状態→消失状態or退去状態or初期状態」、「退去状態→初期状態」等の何れの設定を行う。ここで、「初期状態」とは、追跡情報を格納する領域が、空き領域であることを示している。例えば、追跡可能な人数が3人であった場合、追跡ID1,ID2,ID3という領域が確保され、それぞれが追跡状態や人物情報を保持する。
また、「照合状態」とは、過去に検出された人物と同一人物か否か、確認中である状態を示している。なお、「照合状態」では、新規の人物若しくは追跡中の人物と同一人物であると判定されると、「追跡状態」に移行する。また、「照合状態」では、安定して検出されない領域、人っぽい動きをしない領域(誤検出と思われる領域)と判定された場合は、「初期状態」に戻る。
また、「追跡状態」とは、人物を追跡している状態を示している。なお「追跡状態」は、追跡している人物が検出できなくなると、「消失状態」に移行する。また、「消失状態」とは、追跡中の人物が検出できなくなった状態を示している。なお、「消失状態」は、一定時間続いたら、「退去状態」に移行する。また、「消失状態」は、一定時間内に追跡中の人物が再度検出されたら、「追跡状態」に戻る。また、「退去状態」とは、追跡中の人物が、いなくなったと判定された状態を示している。但し、人物が戻ってきた場合(フレームアウトした人物が、再度、フレームインしてきた場合等)には、同定し、追跡を継続できるように追跡情報を一定時間保持しておく。また、「退去状態」とは、一定時間経過すると、情報を破棄し、「初期状態」に戻る。
また、S21の処理において、1又は複数の人物を検出した場合(S21において、YES)、初期状態でない人物Aが既に存在するか否かを判断する(S23)。ここで、初期状態でない人物が存在しない場合(S23において、NO)、新規人物として登録状態を「初期状態→照合状態」に更新する(S24)。また、初期状態でない人物が存在する場合(S23において、YES)、次に人物Aの移動範囲内であるか否かを判断する(S25)。ここで、移動範囲内でない場合(S25において、NO)、上述したS24に示すように登録状態の更新を行う。
また、S25の処理において、人物Aの移動範囲内である場合(S25において、YES)、次に、移動範囲内に複数人いるか否かを判断する(S26)。ここで、複数人いる場合(S26において、YES)、人物Aに対して人物X1,・・・,Xnで人物同定処理を行う(S27)。このとき、S27の人物同定処理は、映像から選択された静止画を用いて行う。また、S27の処理において同定された人物がいるか否かを判断し(S28)、同定された人物がいない場合(S28において、NO)、上述したS24に示すように登録状態の更新を行う。
また、S26の処理において、移動範囲内に複数人いない場合(S26において、NO)、又はS28の処理において、同定された人物がいる場合(S28において、YES)、人物Aと人物Xiを同一人物として状態を更新する(S29)。これにより、映像に含まれる分物が同一人物であるか否かを正確に判定することができる。
上述したように、本発明によれば、画像に含まれる人物の状況に応じて高精度に人物の同定を行うための変化の過程から人物の姿勢を高精度に検出することができる。
具体的には本発明は、人間が人物を認定する際の処理のように、複数の曖昧な同定要素(身長、体型、歩き方、性別、歩容等)を組み合わせて、人物を同定する手法を構築する。具体的には、本発明では、同定要素と、同定手法を組み合わせる。そして、ある特徴から人物を同定する際に、不適切な特徴を使用せずに最適な特徴を選択する。具体的には、人物の状態(立ち止まっているか、歩いているか、日照変化があったかどうか等)を判定し、その結果に基づいて各種特徴量(歩幅、歩く速度、服の色情報等)を人物同定に使用するかどうかを判定する。使用すると判定された特徴量についてのみ分離度を算出し、その分離度に基づいて重み付けをし、人物同定への特徴量毎の寄与率を変化させる。これにより、状況に応じた特徴量の取捨選択を行うことができる。
なお、本発明を適用することにより、例えば画像上の人物が誰であるか、どういう特徴であるかを認識することができる。例えば、本発明を適用して「金融機関」であれば、指定手配情報自動生成を行ったり、戸建て住宅であれば、ごみ捨て等を狙った短時間の未施錠時の侵入を防止したり、商業施設における迷子防止等を行うことができる。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 人物同定装置 11 入力手段 12 出力手段 13 蓄積手段 14 人物検出手段 15 同定要素抽出手段 16 同定要素選択手段 17 同定手段 18 追跡手段 19 不審者検出手段 20 画面生成手段 21 通知手段 22 送受信手段 23 制御手段 24 撮像手段 30 人物 31 画像フレーム 40 追跡画面 41 映像画面 42 同定検出画面 43 追跡経過画面 44 人物領域 45 人物推定情報 46 日時情報 47 画角 48 現在位置 49 追跡ルート 50 移動範囲 51 入力装置 52 出力装置 53 ドライブ装置 54 補助記憶装置 55 メモリ装置 56 CPU(Central Processing Unit) 57 ネットワーク接続装置 58 記録媒体

Claims (9)

  1. 異なる時間に撮影された映像に含まれる人物を同定する人物同定装置において、
    前記人物の同定要素の特徴量を抽出する同定要素抽出手段と、
    前記同定要素抽出手段により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段と、
    前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段とを有し、
    前記同定手段は、前記同定要素選択手段により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする人物同定装置。
  2. 前記同定要素抽出手段は、
    前記同定要素として、歩容、体型、性別を特徴量として抽出し、
    前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項1に記載の人物同定装置。
  3. 前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、
    前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、
    前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする請求項1又は2に記載の人物同定装置。
  4. 異なる時間に撮影された映像に含まれる人物を同定する人物同定方法において、
    前記人物の同定要素の特徴量を抽出する同定要素抽出手順と、
    前記同定要素抽出手順により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手順と、
    前記同定要素選択手順により得られた同定要素を用いて前記人物の同定を行う同定手順とを有し、
    前記同定手順は、前記同定要素選択手順により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする人物同定方法。
  5. 前記同定要素抽出手順は、
    前記同定要素として、歩容、体型、性別を特徴量として抽出し、
    前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項4に記載の人物同定方法。
  6. 前記同定手順により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手順と、
    前記追跡手順における追跡結果から不審者を検出する不審者検出手順と、
    前記追跡結果を表示する画面を生成する画面生成手順とを有することを特徴とする請求項4又は5に記載の人物同定方法。
  7. 異なる時間に撮影された映像に含まれる人物を同定する人物同定装置における人物同定プログラムにおいて、
    コンピュータを、
    前記人物の同定要素の特徴量を抽出する同定要素抽出手段、
    前記同定要素抽出手段により得られた特徴量から前記人物の状態判定を行い、該状態判定の結果に応じて既に設定されている同定要素から使用しない同定要素を選択する同定要素選択手段、及び、
    前記同定要素選択手段により得られた同定要素を用いて前記人物の同定を行う同定手段として機能させ
    前記同定手段は、前記同定要素選択手段により選択された同定要素のそれぞれの特徴量の分離度に対応する重み付け設定し、設定された重み付けを現在の重み付けの比率に対応させて再設定することを特徴とする人物同定プログラム。
  8. 前記同定要素抽出手段は、
    前記同定要素として、歩容、体型、性別を特徴量として抽出し、
    前記歩容は、歩幅、歩調、歩速、歩速の標準偏差、歩行加速度の標準偏差、体の傾き、及び脚長のうち、少なくとも1つを有することを特徴とする請求項7に記載の人物同定プログラム。
  9. 前記同定手段により前記人物と同一人物であると同定された場合には、前記人物を追跡する追跡手段と、
    前記追跡手段における追跡結果から不審者を検出する不審者検出手段と、
    前記追跡結果を表示する画面を生成する画面生成手段とを有することを特徴とする請求項7又は8に記載の人物同定プログラム。
JP2009088562A 2009-03-31 2009-03-31 人物同定装置、人物同定方法、及び人物同定プログラム Active JP5478928B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009088562A JP5478928B2 (ja) 2009-03-31 2009-03-31 人物同定装置、人物同定方法、及び人物同定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009088562A JP5478928B2 (ja) 2009-03-31 2009-03-31 人物同定装置、人物同定方法、及び人物同定プログラム

Publications (2)

Publication Number Publication Date
JP2010239992A JP2010239992A (ja) 2010-10-28
JP5478928B2 true JP5478928B2 (ja) 2014-04-23

Family

ID=43093786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009088562A Active JP5478928B2 (ja) 2009-03-31 2009-03-31 人物同定装置、人物同定方法、及び人物同定プログラム

Country Status (1)

Country Link
JP (1) JP5478928B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5617819B2 (ja) * 2011-10-28 2014-11-05 株式会社デンソー 歩行者認識装置
WO2013069565A1 (ja) * 2011-11-09 2013-05-16 ステラグリーン株式会社 撮影記録装置
JP5794255B2 (ja) * 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
DE102013217827A1 (de) 2013-09-06 2015-03-12 Robert Bosch Gmbh Verfahren und Steuergerät zum Erkennen eines Objekts in einer Bildinformation
JP6254836B2 (ja) * 2013-11-29 2017-12-27 キヤノン株式会社 画像検索装置、画像検索装置の制御方法およびプログラム
JP6472184B2 (ja) * 2014-07-29 2019-02-20 キヤノン株式会社 オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP2017205134A (ja) * 2014-08-25 2017-11-24 ノーリツプレシジョン株式会社 体調検出装置、体調検出方法及び体調検出プログラム
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア
JP6520140B2 (ja) 2015-01-22 2019-05-29 Tdk株式会社 情報処理装置、血圧値算出方法及びプログラム
WO2016147704A1 (ja) * 2015-03-18 2016-09-22 日本電気株式会社 監視装置、監視システム、監視方法、及びコンピュータ読み取り可能な記録媒体
JP6495705B2 (ja) * 2015-03-23 2019-04-03 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
JP6629040B2 (ja) * 2015-10-27 2020-01-15 株式会社日立製作所 交通情報提供装置及びシステム及び方法
JP2017168885A (ja) * 2016-03-14 2017-09-21 株式会社 日立産業制御ソリューションズ 撮像制御装置及びカメラ
JP6705676B2 (ja) * 2016-03-28 2020-06-03 株式会社日立システムズ 取引管理装置および取引管理方法
CN107483831B (zh) * 2016-07-29 2020-01-17 Oppo广东移动通信有限公司 移动终端的拍摄方法、装置以及移动终端
WO2018023727A1 (en) 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. Methods and associated systems for communicating with/controlling moveable devices by gestures
MY197393A (en) 2016-10-07 2023-06-15 Panasonic Ip Man Co Ltd Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and program
JP6844230B2 (ja) * 2016-12-06 2021-03-17 富士通株式会社 画像処理プログラム、画像処理装置および画像処理方法
WO2019077750A1 (ja) * 2017-10-20 2019-04-25 三菱電機株式会社 データ処理装置、プログラマブル表示器およびデータ処理方法
JP7101080B2 (ja) * 2018-08-13 2022-07-14 セコム株式会社 画像処理装置
US12020510B2 (en) 2018-12-28 2024-06-25 Nec Corporation Person authentication apparatus, control method, and non-transitory storage medium
US20240304020A1 (en) * 2021-03-23 2024-09-12 Nec Corporation Image analysis apparatus, image analysis system, image analysis method, and nontransitory storage medium
JP7193104B1 (ja) 2021-11-25 2022-12-20 株式会社アジラ 行動体同定システム
WO2023181110A1 (ja) * 2022-03-22 2023-09-28 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
WO2023199562A1 (ja) * 2022-04-12 2023-10-19 コニカミノルタ株式会社 歩行解析システム、歩行解析装置、及び、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921936B2 (ja) * 1990-07-13 1999-07-19 株式会社東芝 画像監視装置
JP3490482B2 (ja) * 1993-09-20 2004-01-26 株式会社東芝 エッジ及び輪郭抽出装置
JP3797686B2 (ja) * 1995-09-07 2006-07-19 株式会社東芝 形状認識装置及びその方法
JPH1063858A (ja) * 1996-08-21 1998-03-06 Oki Electric Ind Co Ltd 個人識別方法及び個人識別装置
JPH117535A (ja) * 1997-06-18 1999-01-12 Oki Electric Ind Co Ltd 個体識別装置
JP3549725B2 (ja) * 1998-04-13 2004-08-04 シャープ株式会社 画像処理装置
JPH11306351A (ja) * 1998-04-20 1999-11-05 Ntt Data Corp データ統合方法及び装置、記録媒体
JP2000076459A (ja) * 1998-09-03 2000-03-14 Canon Inc 人物同定方法及び装置
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2006013765A (ja) * 2004-06-24 2006-01-12 Matsushita Electric Ind Co Ltd デジタル放送受信装置
JP5008269B2 (ja) * 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
JP4706535B2 (ja) * 2006-03-30 2011-06-22 株式会社日立製作所 複数カメラを用いた移動物体監視装置
JP2008113860A (ja) * 2006-11-06 2008-05-22 Kyocera Corp 生体認証装置
JP2008152328A (ja) * 2006-12-14 2008-07-03 Hitachi Information & Control Solutions Ltd 不審者監視システム

Also Published As

Publication number Publication date
JP2010239992A (ja) 2010-10-28

Similar Documents

Publication Publication Date Title
JP5478928B2 (ja) 人物同定装置、人物同定方法、及び人物同定プログラム
JP5203281B2 (ja) 人物検出装置、人物検出方法、及び人物検出プログラム
JP6013241B2 (ja) 人物認識装置、及び方法
JP5523900B2 (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
CN109461003A (zh) 基于多视角的多人脸场景刷脸支付风险防控方法和设备
JP5645646B2 (ja) 把持物体認識装置、把持物体認識方法、及び把持物体認識プログラム
JP2010237872A (ja) 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2010237873A (ja) 姿勢変化検出装置、姿勢変化検出方法、及び姿勢変化検出プログラム
JP2010140091A (ja) 犯罪防止装置およびプログラム
Poonsri et al. Improvement of fall detection using consecutive-frame voting
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
JP2016057908A (ja) 万引き予防システム及びソフトウエア
JP5718632B2 (ja) 部位認識装置、部位認識方法、及び部位認識プログラム
JP2010257449A (ja) 人物検索装置、人物検索方法、及び人物検索プログラム
JP6283008B2 (ja) 追跡装置
KR101446422B1 (ko) 영상 감시 시스템 및 방법
JP5726595B2 (ja) 画像監視装置
Merrouche et al. Fall detection using head tracking and centroid movement based on a depth camera
JP5373128B2 (ja) 人物特定装置、人物特定方法及び人物特定プログラム
JP2006110072A (ja) 非接触歩行検出方法とシステム及び該システムを用いた個人認証方法とシステム
JP7566586B2 (ja) 推定装置、推定システム、推定方法及びプログラム
JP2020187518A (ja) 情報出力装置、方法、及びプログラム
JP2017017488A (ja) 監視システム、撮影制御方法及びプログラム
JP2010244090A (ja) 人物情報抽出装置、人物情報抽出方法、及び人物情報抽出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5478928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250