JP2010237872A - 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム - Google Patents

人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム Download PDF

Info

Publication number
JP2010237872A
JP2010237872A JP2009083664A JP2009083664A JP2010237872A JP 2010237872 A JP2010237872 A JP 2010237872A JP 2009083664 A JP2009083664 A JP 2009083664A JP 2009083664 A JP2009083664 A JP 2009083664A JP 2010237872 A JP2010237872 A JP 2010237872A
Authority
JP
Japan
Prior art keywords
person
image
area
shielded
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009083664A
Other languages
English (en)
Inventor
Satoshi Futami
聡 二見
Takehiro Mabuchi
健宏 馬渕
Masaki Murakawa
正貴 村川
Takuo Moriguchi
拓雄 森口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sohgo Security Services Co Ltd
Original Assignee
Sohgo Security Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sohgo Security Services Co Ltd filed Critical Sohgo Security Services Co Ltd
Priority to JP2009083664A priority Critical patent/JP2010237872A/ja
Publication of JP2010237872A publication Critical patent/JP2010237872A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行う。
【解決手段】撮影された映像に含まれる人物の画像領域を検出する人物領域検出装置において、前記映像を撮像して時系列の画像を得る撮像手段と、前記撮像手段で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手段と、前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手段と、前記遮蔽状態判定手段により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手段により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手段とを有することにより、上記課題を解決する。
【選択図】図1

Description

本発明は、人物領域検出装置、人物領域検出方法、及び人物領域検出プログラムに係り、特に遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うための人物領域検出装置、人物領域検出方法、及び人物領域検出プログラムに関する。
従来、警備領域等に不審者がいるか否かを判断する場合には、予め設置されたカメラ等で撮影された映像を取得し、取得した映像を監視員等が見ることにより、その撮影された実空間上における不審者の有無を判断していた。
ここで、不審者か否かを判断する場合には、例えば、警備員等が画面上に映し出される映像のうち、変化領域等の移動物体が存在するか否かを判断し、移動物体があると判断された時点で警報を鳴らしたり、記録手段に録画した後、監視者が全ての移動物体について、その移動物体がどこからどのように移動したかで不審者か否かを判定する。したがって、常に表示装置の画面を見て監視者が移動物体を見つけ出すような、初期の画像監視装置と比較すると、作業の軽減になるが、後処理で監視者が判断する際にかなりの時間と労力を費やしてしまう。
そこで、従来では、単に移動物体の検出というだけでなく、画像解析によって移動物体の追跡を行って本当に不審者人物のみに対して警報を鳴らすようなシステムが存在する(例えば、特許文献1,2参照。)。
特許文献1に示されている移動物体追跡手法では、監視領域内の画像を撮像手段で撮像して入力し、この入力された監視領域内の画像を所定の時間間隔で連続的に取込んでデジタル化し、このデジタル化された複数の画像を演算することによって、デジタル化された画像の差分画像を算出し、この算出した差分画像を2値化して差分2値化画像を生成し、この生成した差分2値化画像から変化領域を検出する。
また、特許文献1では、検出した変化領域を移動物体として、その変化領域の濃淡パターンを記憶手段に記憶し、所定時間経過後に撮像手段から入力された原画画像の移動物体の存在した位置の周辺において、記憶手段内の濃淡パターンと原画画像の濃淡パターンとを比較することによって、類似度の高い領域を抽出して移動物体と判定することにより移動物体を追跡することができる。
また、特許文献2では、デジタル化された画像の差分画像を算出し、この算出した差分画像を2値化して差分2値化画像を生成し、この生成した差分2値化画像から変化領域を抽出し、この抽出した変化領域が、予め設定される移動物体の出現する可能性のある出現予測領域と接していたとき、該移動物体が目的とする対象物であると判定して追跡する監視画像の移動物体追跡方法について開示されている。
特開平6−261252号公報 特開平6−274625号公報
しかしながら、画像だけで判断する場合には、人物の全てが画面上に存在しなければならず、例えば、人物とカメラの間に遮蔽物があることにより、足又は頭等の体の一部が隠れてしまった場合には、正確に同一の人物だと認識できない場合がある。更に、胴体部分のみが遮蔽物により隠れてしまった場合には、ユーザが画面を見ないで画像処理を行う場合には、遮蔽された部分(例えば胴体)から上の部分と、下の部分で2種類の移動物体が存在すると認識されてしまうため、正確な人物認識を行うことができない。
本発明は、上記の問題点に鑑みてなされたものであって、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うための人物領域検出装置、人物領域検出方法、及び人物領域検出プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
本発明では、撮影された映像に含まれる人物の画像領域を検出する人物領域検出装置において、前記映像を撮像して時系列の画像を得る撮像手段と、前記撮像手段で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手段と、前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手段と、前記遮蔽状態判定手段により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手段により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手段とを有することを特徴する。これにより、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
また本発明では、前記人物推定手段により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手段を有することを特徴とする。
また本発明では、前記隠蔽状態判定手段は、前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする。
更に本発明は、撮影された映像に含まれる人物の画像領域を検出するための人物領域検出方法において、前記映像を撮像して時系列の画像を得る撮像手順と、前記撮像手順で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手順と、前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手順と、前記遮蔽状態判定手順により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手順により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手順とを有することを特徴する。これにより、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
また本発明は、前記人物推定手順により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手順を有することを特徴とする。
また本発明は、前記隠蔽状態判定手順は、前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする。
更に本発明は、撮影された映像に含まれる人物の画像領域を検出する人物領域検出処理をコンピュータに実行させるための人物領域検出プログラムにおいて、コンピュータを、前記映像を撮像して時系列の画像を得る撮像手段、前記撮像手段で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手段、前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手段、及び、前記遮蔽状態判定手段により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手段により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手段として機能させる。これにより、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物領域検出処理を容易に実現することができる。
また本発明では、前記人物推定手段により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手段を有することを特徴とする。
また本発明では、前記隠蔽状態判定手段は、前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする。
本発明によれば、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
本実施形態における人物領域検出装置の概略構成の一例を示す図である。 本発明における隠蔽状態判定を説明するための一例を示す図である。 画像中の人物を計測するための一例を示す図である。 追跡中の人物の足元からフレームアウトした場合を説明するための図である。 追跡中の人物の一部が遮蔽した場合における人物領域補正処理結果の一例を示す図である。 人物領域推定を説明するための図である。 身体が一部隠蔽された場合における人物領域の補正処理結果の一例を示す図である。 本実施形態における人物領域検出処理が実現可能なハードウェア構成の一例を示す図である。 本実施形態における人物領域検出処理手順の一例を示すフローチャートである。 人物判定処理手順を示す一例のフローチャートである。 隠蔽状態判定処理手順の一例を示すフローチャートである。 人物領域推定処理手順の一例を示すフローチャートである。
以下に、本発明における人物領域検出装置、人物領域検出方法、及び人物領域検出プログラムを好適に実施した形態について、図面を用いて説明する。
<人物領域検出装置の概略構成例>
図1は、本実施形態における人物領域検出装置の概略構成の一例を示す図である。図1に示す人物領域検出装置10は、入力手段11と、出力手段12と、蓄積手段13と、身長推定手段14と、隠蔽状態判定手段15と、人物領域推定手段16と、人物追跡手段17と、画面生成手段18と、通知手段19と、送受信手段20と、制御手段21とを有するよう構成されている。なお、送受信手段20には、所定の領域を撮影するカメラ等の撮像手段22が接続されており、撮像手段22により撮影された映像に含まれる時系列の各画像を取得することができる。また、撮像手段22は、人物領域検出装置10と一体に構成されていてもよい。
入力手段11は、ユーザ等からの身長推定指示や、隠蔽状態判定指示、人物領域推定指示、画面生成指示、通知指示、送受信指示等の各種指示を受け付ける。なお、入力手段11は、例えばキーボードや、マウス等のポインティングデバイス、マイク等の音声入力デバイス等からなる。
出力手段12は、入力手段11により入力された指示内容や、各指示内容に基づいて生成された制御データや身長推定手段14、隠蔽状態判定手段15、人物領域推定手段16、画面生成手段18、通知手段19等の各構成により実行された経過又は結果により得られる各種情報の内容を表示したり、その音声を出力する。なお、出力手段12は、ディスプレイ等の画面表示機能やスピーカ等の音声出力機能等を有する。
蓄積手段13は、上述した本実施形態を実現するための様々な情報を蓄積することができ、必要に応じて読み出しや書き込みが行われる。具体的には、蓄積手段13は、身長推定手段14における推定結果や、隠蔽状態判定手段15における判定結果、人物領域推定手段16における判定結果、画面生成手段18における生成した画面情報、通知手段19により通知される内容や通知された内容、送受信手段20により送受信された内容、制御手段21により制御された情報、エラー発生時のエラー情報、ログ情報、本発明を実現するためのプログラム等の各情報が蓄積される。
身長推定手段14は、画像中に含まれる1又は複数の人物を検出し、その人物がいた場合に新規の人物であるか否かを判断し、新規人物である場合、その人物領域の足の先と、その画像に対応する消失点とから実空間上の人物の位置を算出し、画像上の見かけ上の大きさを併せて、実際の人物の身長を推定する。なお、消失点は、画像中に含まれる場合もあるが、カメラのアングル等により画像中に含まれない場合もある。この場合には、仮想的な空間上に消失点を設定し、その消失点を利用する。
なお、身長推定手段14は、その人物が今まで撮影された人であるか、又は新規人物であるかを判断する方法としては、例えば、その前の映像に人物がいるか否か、人物がいた場合にその人物に予め設定された移動可能範囲に含まれているか否か、前後の顔の特徴量同士の比較による類似性の有無により判断することができる。
隠蔽状態判定手段15は、画像中に含まれる人物領域の足、頭の位置とその特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人物の一部が、建物等で隠蔽されたか否かを判断する。なお、隠蔽される人物の一部とは、例えば下半身や上半身、頭、腕、胴体等である。つまり、本実施形態では、少なくとも1度画面上で足のつま先から頭部までの人体の身長に関する情報が取得できた場合、その後、頭及び足の両方が同時に隠蔽されていなければ、隠蔽部分を推定することができる。
人物領域推定手段16は、画像中に存在する人体に関してその外領域からなり人物が存在することを画面上で認識するための人物領域を推定する。また、人物領域推定手段は、隠蔽状態判定手段15により隠蔽されている部分が存在すると判断された場合に、正しい人体の領域を推定する。また、人物領域推定手段16は、隠蔽されている人体部分の外形(シルエット)又は領域を画面上に表示させる。これにより、隠蔽物により画像上に表示されていない人物のいる位置を正確に把握することができる。
また、人物領域推定手段16は、画像中に存在する人物を経時的に追跡する場合には、次の移動範囲を人物の向き、姿勢、今までの行動から次の動作可能範囲を推測することができる。この場合、人物領域推定手段16は、その最大の範囲の外枠をフレーム化して画像に合成するための情報を生成する。
人物追跡手段17は、画像中に表示されている1又は複数の人物を経時的に追跡する。例えば、人物追跡手段17は、追跡対象人物が遮蔽物に隠れたり、カメラを所定時間以上気にしてみていたり、キョロキョロしていたり、長時間滞在している等の不審行動が少なくとも1つある場合には、その人物を不審者として検出する。更に、人物追跡手段17は、追跡対象人物がマスクをしていたり、サングラスをかけていることで、顔を隠している場合にも不審者として検出する。また、人物追跡手段17は、検出された不審者情報を、通知手段19に通知する。
画面生成手段18は、撮像手段22により撮影された映像を表示する画面を生成する。また、画面生成手段18は、人物領域推定手段16により推定された人物領域を現在撮像手段22等により取得した映像に含まれる時系列の画像中に反映させる。具体的には、画面生成手段18は、人物領域と推定された領域の外側をフレーム化し、撮影された映像に合成して、出力手段12により表示させる。また、画面生成手段18は、画面生成により得られた画像をディスプレイ等の出力手段に表示される。このとき、画面生成手段18は、例えば人物領域のフレームの位置情報を数値化したもの等を画面上に表示させることができる。
また、画面生成手段18は、人物を追跡している場合に必要である経時的なその撮影されている人物移動範囲も推定して画面上表示させることができる。更に、画面生成手段18は、予め設定される不審者の行動パターンに該当する場合には、その旨の内容を通知するための画面を生成する。
なお、画面生成に必要な各種情報は、蓄積手段13に予め蓄積されている情報等から必要な情報を適宜読み出して使用することができる。また、生成した画面は、ディスプレイやスピーカ等を有する出力手段12により音声等と共に出力する。
通知手段19は、人物追跡手段17により得られる不審者として検出された画像と、その画像に関する情報(検出日時、検出場所、その前の所定時間分の映像)を画面生成手段18により生成させて、表示させる。また、通知手段19は、そのような不審行動検出における問題発生信号に対応させて、管理者や警備会社におけるそのビルの担当警備員、監視員、代表責任者等に通知を行うアラート機能を有する。
送受信手段20は、LAN(Local Area Network)やインターネット等の通信ネットワーク等を介して1又は複数の撮像手段22からの監視映像を受信する。なお、送受信手段20は、撮像手段22から直接監視映像を受信しなくてもよく、例えば予め撮像手段22で取得した映像をどこかに一時的保存しておき、その保存された情報を用いて本実施形態における人物領域検出を行ってもよい。
また、送受信手段20は、人物領域検出装置10を構成する他の端末に送信したり、他の端末から各種データを受信するための通信インタフェースとして用いることができる。
制御手段21は、人物領域検出装置10における各機能構成全体の制御を行う。具体的には、制御手段21は、入力手段11により入力されたユーザからの入力情報に基づいて身長推定処理を行ったり、隠蔽状態判定処理を行ったり、人物領域推定処理を行ったり、人物追跡検出処理を行ったり、画面生成処理を行ったり、通信制御を行ったり、送受信制御を行う等の各種制御を行う。
また、上述した本実施形態により、例えば、画像中の人物領域の足の先と、消失点から実空間での人物位置を算出し、追跡を行うことができ、足が隠蔽された場合は、人物領域の頭の位置で追跡を補完することができる。
また、監視カメラから人物が遠くなれば遠くなる程、人物の実際の移動距離に比して、画像上での移動量が小さくなる。そのため、画面上で一律に、追跡する範囲を設定すると、監視カメラに近い人物を追跡し損ねたり、監視カメラに遠い人物では、誤って別人を追跡したりすることがあった。そこで、高精度に人物を追跡するために、上述したように、人物領域の足の先と消失点の距離から、監視カメラと人物の距離を測定し、実空間上の人物位置を算出して、移動可能範囲を計算し、追跡に用いる。また、足が隠蔽された場合は、頭の位置と、事前に算出した身長から人物の実空間上の位置を算出し、追跡を継続する。これにより、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
<身長推定手段14における身長推定処理例>
次に、本実施形態の身長推定手段14における身長推定処理例について具体的に説明する。身長推定手段14は、具体的には、本出願人により出願された特開2008−286638号公報等に示される手法等を用いることができる。
具体的には、基準物体の実際の高さを示す基準長と、所定の位置に固定されたカメラから基準物体までの実際の距離を示す基準距離と、その基準物体の下端位置を示す基準座標と、基準物体画像中における基準長に相当する第1基準長画素数と、カメラを無限遠に遠ざけた場合に基準物体が位置する基準物体画像中の位置である消失点の位置を示す消失点座標とを保持し、カメラから被写体として人物を含む人物画像を取得し、取得した人物画像中の人物の身長に相当する人物長画素数をカウントし、更に、取得した人物画像中の人物の下端から、人物画像中の消失点までの人物消失点画素数をカウントする。
次に、上述した保持手段が保持する基準座標と消失点座標とに基づいて、基準物体画像中の基準物体の下端位置から消失点の位置までの基準消失点画素数を算出し、特定された人物消失点画素数と基準消失点画素数との比と、保持手段が保持する基準距離とに基づいて、カメラから人物までの実際の人物距離を算出し、算出された人物距離と、保持手段が保持する基準距離と、第1基準長画素数とに基づいて、人物距離に基準物体が配置された場合の基準長に相当する第2基準長画素数を算出する。
更に、その第2基準長画素数と上述した人物長画素数との比と、保持手段が保持する基準長とに基づいて、人物の実際の身長を算出する。なお、画像中から人物の身長を算出する手法については、本発明においてはこれに限定されるものではない。
<隠蔽状態判定手段15における隠蔽状態判定処理例>
次に、隠蔽状態判定手段15における隠蔽状態判定処理手順について図を用いて説明する。図2は、本発明における隠蔽状態判定を説明するための一例を示す図である。また、図3は、画像中の人物を計測するための一例を示す図である。図2においては、図2(a)に示す経時的な人物30の移動された位置関係において、従来手法の結果(図2(b))と、本実施形態による結果(図2(c))の例を示す。また、図2(a)〜(c)においては、時刻tでの実際の位置にいる人物を人物30−1とし、時刻t+1での実際の位置にいる人物を人物30−2とする。また、図3(a)は、検出領域の下端位置と距離の関係示し、図3(b)は、頭、足先と消失点間の画素数と距離の関係を示している。
本実施形態では、人物領域の実空間上の位置関係に基づいて、隠蔽領域を認識することで、人物領域を正しく補正する。これにより、例えば人物領域を詳細に解析する際、何らかに隠れているか否かは有用な情報となる。具体的には、本実施形態では、人物の足元座標から位置推定すると共に、頭部座標(人物領域の矩形上端)からも位置推定を行う。これにより、どちらか一方の位置推定結果から、同一人物の移動と判定されれば、前回に検出された人物が移動した推定することができる。
また、従来の手法では、足元が隠蔽されている状態でも人物領域の下端を足位置として距離を推定し、新たな人物が遠くに現れたと誤った認識をしていた(図2(b)、図3(a))。つまり、図3(a)では、時刻tにおける人物30−1が時刻t+1における人物30−2にいる場合、ダンボール(遮蔽物)により人物30−2の足元を取得することができない。
そこで、本実施形態では、図3(b)に示すように、人物の足位置からカメラまでの距離を算出すると共に、頭の位置(人物領域の矩形上端)からも距離を算出している。これにより、どちらか一方の距離算出結果から、同一人物の移動と判定されれば、前回に検出された人物が移動したとしている(図2(c))。なお、図3(b)に示すように、カメラからの距離(5m、10m)と、消失点と、頭及び足の位置、撮影画像の画素数等を用いて人物の身長を推定する。
しかしながら、頭の位置から距離を算出する場合、人物の身長には個人差があるため、頭の位置から距離を求めることはできないことが分かる。そこで、前回に検出された人物(図2(c)の時刻tで検出された人物)と、新たに検出された人物(時刻t+1で検出された人物)とが同一人物であると仮定することで、図3(b)に示すような撮像手段22からの距離と人物頭部と消失点の画素数が反比例する関係を利用することが可能となり、距離を算出している。そして、図3(c)に示すように、仮定通りに同一人物であるという判定が得られれば、人物の足元が隠蔽されているとする。これにより、頭の位置から逆算して画像上の足元の位置を推定することが可能となり、隠蔽されている人物領域を推定することが可能できる。
更に、追跡中の人物が足元からフレームアウトした場合、及び胴体の一部が隠れた場合においても、それを認識し隠れた矩形領域を推定しつつ、追跡を継続することができる。
<人物領域推定手段16における人物領域推定処理例>
次に、人物領域推定手段16における人物領域推定処理について説明する。図4は、追跡中の人物の足元からフレームアウトした場合を説明するための図である。また、図5は、追跡中の人物の一部が遮蔽した場合における人物領域補正処理結果の一例を示す図である。更に、図6は、人物領域推定を説明するための図である。
なお、図6においては、図6(a)に示す経時的な人物30の移動された位置関係において、従来手法の結果(図6(b))と、本実施形態による結果(図6(c))の例を示す。また、図6(a)〜(c)においては、時刻tでの実際の位置にいる人物を人物30−1とし、時刻t+1での実際の位置にいる人物を人物30−2とする。
ここで、図4(a)は、足が隠蔽していることを検出した場合の例を示し、図4(b)は、胴体が隠蔽していることを検出した場合の例を示し、図4(c)は、頭が隠蔽していることを検出した場合の例を示している。更に図5(a)は、追跡中の人物の足元がフレームアウトしている例を示し、図5(b)は、追跡結果を示している。
人物領域推定手段16では、図4及び図5に示すように追跡中の人物が足元からフレームアウトした場合、及び胴体の一部が隠れた場合においても、それを認識し隠れた矩形領域を推定しつつ、追跡を継続することができる。
まず、追跡中の人物が足元からフレームアウトした場合の処理について説明する。上述したように、隠蔽状態判定手段15においては、例えば足元が隠蔽された場合には、画像上の頭部座標から実空間における人物位置を推定していた。人物領域推定手段16では、これを応用し、監視領域下端(画像下端)と人物領域下端が同一である場合に、隠蔽状態判定手段15における処理を実施することで、身体の一部がフレームアウトしている人物においても、頭部座標からの追跡が可能となる。
ここで、身体の一部がフレームアウトする場合には、人物がカメラに接近しているため、歩行動作に伴った頭部座標の上下運動が顕著に現れる。このため、頭部座標から実空間における位置推定を行った場合、前フレームの位置から推定される移動可能な範囲を超え、別人となってしまう場合がある。
そこで、本実施形態では、頭部座標からの位置推定処理に関して、カメラから近距離の場合は、その距離に応じて(近ければ近い程)移動可能な範囲を広めに設定することで、正しく追跡を行うことができる。
次に、図4(b)に示すように、胴体の一部が隠蔽された場合の処理について説明する。従来の手法では、胴体の一部が隠蔽された場合、図6(b)に示すように、上半身と下半身のそれぞれ別々の人物としてしまっていた。
そこで、本実施形態では、図6(c)に示すように、画像上の足座標と頭部座標の両方から実空間上における位置を推定することで、対象人物の一部が検出されたのか否かを判定する。これにより、例えば、図4(b)に示すように、人物の胴体の一部が隠蔽された場合においても、隠蔽されている箇所を認識し、正しく人物領域を検出することが可能となる。
なお、図4(a)〜(c)に示すように各画像には、その人物の領域を示し、実際に表示されている人物のフレームである表示人物フレーム31と、遮蔽物により隠れている人物のフレームである遮蔽人物フレーム32とがそれぞれ色分けや強調表示等により区別されて表示されている。これにより、遮蔽された人物の領域を高精度に把握することができる。なお、表示人物フレーム31及び遮蔽人物フレーム32は、例えば矩形や円形、正方形等の簡単な形状でもよく、シルエット等の外形又はその外形と相似する拡大所定の大きさで拡大した図形であってもよい。また、本実施形態では、表示人物フレーム31が遮蔽人物フレーム32の領域も兼ねて1つのフレームで表示してもよい。
<画面生成手段18>
次に、本実施形態における画面生成例について図を用いて説明する。画面生成手段では、なお、上述した図2〜図6については、画面生成手段17により生成される画面であり、ディスプレイ等の表示画面等により表示させることができる。
また、図5(a)に示されている追跡結果においては、人物30の表示人物フレーム31に対してその人物関連情報(追跡対象か否か、身長、位置同定しているか否か、矩形補正をしたか否か等)33を表示されてもよく、今まで追跡した追跡ルート(移動方向も含んでもよい)34を表示してもよい。なお、人物関連情報としては、上述の内容に限定されず、例えば撮影された時間や人物が顔特徴量等を画面から抽出して測定できる場合には、その人物の指名や性別、推定年齢(年代でもよい)を表示させることができる。
また、図5(b)に示す追跡画面では、カメラ等の撮像手段の画角35に対する上述した追跡ルート34や現在位置36、現在から予め設定された時間経過後又は所定のフレーム数後に移動している人物行動範囲37等を取得することができる。
また、図7は、身体が一部隠蔽された場合における人物領域の補正処理結果の一例を示す図である。図7(a)に示すように、画面に表示された人物30に対応する表示人物フレーム31及び人物関連情報が表示されている。この後、人物追跡手段17による追跡途中で図7(b)又は図7(c)に示すように、人物の身体の一部が隠蔽された場合には、人物領域を補正し、補正したこと人物関連情報に示す。これにより、人物の足元が隠蔽されていることを容易に把握することができる。
<ハードウェア構成例>
ここで、上述した人物領域検出装置10は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(人物領域検出プログラム)を生成し、例えば、汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における人物領域検出処理を実現することができる。
本実施形態における人物領域検出処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図8は、本実施形態における人物領域検出処理が実現可能なハードウェア構成の一例を示す図である。
図8におけるコンピュータ本体には、入力装置41と、出力装置42と、ドライブ装置43と、補助記憶装置44と、メモリ装置45と、各種制御を行うCPU(Central Processing Unit)46と、ネットワーク接続装置47とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置41は、使用者等が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者等からのプログラムの実行等、各種操作信号を入力する。
出力装置42は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するモニタを有し、CPU46が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
なお、入力装置41と出力装置42とは、例えばタッチパネル等のように一体型の入出力手段であってもよく、この場合には使用者等の指やペン型の入力装置等を用いて所定の位置をタッチして入力を行うことができる。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体48等により提供される。プログラムを記録した記録媒体48は、ドライブ装置43にセット可能であり、記録媒体48に含まれる実行プログラムが、記録媒体48からドライブ装置43を介して補助記憶装置44にインストールされる。
補助記憶装置44は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
メモリ装置45は、CPU46により補助記憶装置44から読み出された実行プログラム等を格納する。なお、メモリ装置45は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU46は、OS(Operating System)等の制御プログラム、及びメモリ装置45により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。プログラムの実行中に必要なログ情報等の各種情報等は、補助記憶装置44から取得することができ、また実行結果等を格納することもできる。
ネットワーク接続装置47は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果、又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における人物領域検出処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における人物領域検出処理を容易に実現することができる。次に、人物領域検出処理の具体的な内容について説明する。
<人物領域検出処理>
次に、本発明における実行プログラム(人物領域検出プログラム)で実行される人物領域検出処理手順についてフローチャートを用いて説明する。図9は、本実施形態における人物領域検出処理手順の一例を示すフローチャートである。
図9において、まずカメラ等の撮像手段により撮影された映像を入力する(S01)。次に、その映像に人物が1又は複数存在する場合にその人物の身長を推定する(S02)。その後、その人物を追跡していく過程において、身体の一部が遮蔽物等により遮蔽されているか否かの遮蔽状態を判定し(S03)、S03の処理の結果にかかわらず、人物領域の推定を行う(S04)。このとき、S03の判定にて遮蔽状態だと判定された場合には、上述したように、遮蔽物により遮蔽された部分も含めて人物領域の推定を行う。
また、S04の処理が終了後、画面を生成し(S05)、その生成した画面を出力する(S06)。更に、ここで、追跡終了するか否かを判断し(S07)、追跡を終了しない場合(S07において、NO)、S03に戻り、映像に映る同一人物について、以降の処理を行う。また、追跡を終了する場合(S07において、YES)、次に人物領域検出処理を終了するか否かを判断し(S08)、人物領域検出処理を終了しない場合(S08において、NO)、S01の処理に戻り、他の人物等を検出して後述の処理を行う。また、人物領域検出処理を終了する場合(S08において、YES)、全体の処理を終了する。
<身長推定における人物判定処理手順>
次に、上述した身長推定手段における人物判定処理手順についてフローチャートを用いて説明する。図10は、人物判定処理手順を示す一例のフローチャートである。なお、図10では、その人物の位置検出による追跡の概要を示している。図10示す人物判定処理では、まず、映像中に含まれる1又は複数の人物(図10では、人物X1,・・・,Xn)を検出したか同かを判断し(S11)、検出していない場合(S12において、NO)状態遷移図にしたがって状態を更新する(S12)。具体的には、S12の処理において、例えば「初期状態→初期状態」、「照合状態→初期状態」、「追跡状態→消失状態」、「消失状態→消失状態or退去状態or初期状態」、「退去状態→初期状態」等の何れの設定を行う。ここで、「初期状態」とは、追跡情報を格納する領域が、空き領域であることを示している。例えば、追跡可能な人数が3人であった場合、追跡ID1,ID2,ID3という領域が確保され、それぞれが追跡状態や人物情報を保持する。
また、「照合状態」とは、過去に検出された人物と同一人物か否か、確認中である状態を示している。なお、「照合状態」では、新規の人物若しくは追跡中の人物と同一人物であると判定されると、「追跡状態」に移行する。また、「照合状態」では、安定して検出されない領域、人っぽい動きをしない領域(誤検出と思われる領域)と判定された場合は、「初期状態」に戻る。
また、「追跡状態」とは、人物を追跡している状態を示している。なお「追跡状態」は、追跡している人物が検出できなくなると、「消失状態」に移行する。また、「消失状態」とは、追跡中の人物が検出できなくなった状態を示している。なお、「消失状態」は、一定時間続いたら、「退去状態」に移行する。また、「消失状態」は、一定時間内に追跡中の人物が再度検出されたら、「追跡状態」に戻る。また、「退去状態」とは、追跡中の人物が、いなくなったと判定された状態を示している。但し、人物が戻ってきた場合(フレームアウトした人物が、再度、フレームインしてきた場合等)には、同定し、追跡を継続できるように追跡情報を一定時間保持しておく。また、「退去状態」とは、一定時間経過すると、情報を破棄し、「初期状態」に戻る。
また、S11の処理において、1又は複数の人物を検出した場合(S11において、YES)、初期状態でない人物Aが既に存在するか否かを判断する(S13)。ここで、初期状態でない人物が存在しない場合(S13において、NO)、新規人物として登録状態を「初期状態→照合状態」に更新する(S14)。また、初期状態でない人物が存在する場合(S13において、YES)、次に人物Aの移動範囲内であるか否かを判断する(S15)。ここで、移動範囲内でない場合(S15において、NO)、上述したS14に示すように登録状態の更新を行う。
また、S15の処理において、人物Aの移動範囲内である場合(S15において、YES)、次に、移動範囲内に複数人いるか否かを判断する(S16)。ここで、複数人いる場合(S16において、YES)、人物Aに対して人物X1,・・・,Xnで人物同定処理を行う(S17)。このとき、S17の人物同定処理は、映像から選択された静止画を用いて行う。また、S17の処理において同定された人物がいるか否かを判断し(S18)、同定された人物がいない場合(S18において、NO)、上述したS14に示すように登録状態の更新を行う。
また、S16の処理において、移動範囲内に複数人いない場合(S16において、NO)、又はS18の処理において、同定された人物がいる場合(S18において、YES)、人物Aと人物Xiを同一人物として状態を更新する(S19)。これにより、映像に含まれる分物が同一人物であるか否かを正確に判定することができる。
<隠蔽状態判定処理手順:S03>
次に、上述した隠蔽状態判定処理手順の具体例についてフローチャートを用いて説明する。図11は、隠蔽状態判定処理手順の一例を示すフローチャートである。図11に示すように、隠蔽状態判定処理手順では、まず現在のフレームに検出された人物Aの足から位置を推定する(S21)。次に、人物Bの移動範囲内に人物Aが存在するか否かを判断する(S22)。ここで、人物Bの移動範囲内に人物Aが存在しない場合(S22において、NO)、以下、前回検知された人物Bと同一人物と仮定する(S23)。次に、その人物Bの身長Hbを利用し、頭から人物Aの位置を推定し(S24)、人物Bの移動範囲内に人物Aが存在するか否かを判断する(S25)。ここで、人物Bの移動範囲内に人物Aが存在する場合(S25において、YES)、又は、S22の処理において、人物Bの移動範囲内に人物Aが存在する場合(S22において、YES)、同一人物と判定する(仮定成立)(S26)。また、S25の処理において、人物Bの移動範囲内に人物Aが存在する場合(S25において、NO)、異なる人物と判定する(仮定不成立)(S27)。つまり、上述の処理では、S22の処理において、人物Aが人物Bの移動範囲内に存在すれば、同一人物と即断定し、そうでなければ、同一人物であると仮説を立てて、それが成立するか否かの判定を行う。
<人物領域推定処理手順:S04>
次に、上述した人物領域推定処理手順の具体例についてフローチャートを用いて説明する。図12は、人物領域推定処理手順の一例を示すフローチャートである。図12に示すように、人物領域推定処理手順では、まず人物Aの足から推定された位置PAf、頭から推定された位置PAhを取得する(S31)。次に、PAfとPAhの位置が一定範囲内であるか否かを判断する(S32)。ここで、PAfとPAhの位置が一定範囲内でない場合(S32において、NO)、以下、前回検知された人物Bと同一人物と仮定する(S33)。
次に、人物Aの身長Haを利用し、人物Bの位置PBahを頭から推定する(S34)。その後、またPAfとPBahの位置が一定範囲内であるか否かを判断する(S35)。ここで、PAfとPBahの位置が一定範囲内である場合(S35において、YES)、人物領域Aが足、人物領域Bが頭となる(つまり、胴体が隠蔽されている)と判断する(S36)。また、S35の処理において、PAfとPBahの位置が一定範囲内でない場合(S35において、NO)、人物領域Aの足が隠蔽していると判断する(S37)。また、S32の処理において、PAfとPAhの位置が一定範囲内である場合(S32において、YES)、人物Aは隠蔽領域なしと判断する(S38)。
つまり、上述の処理では、足から推定される位置PAfと頭から推定される位置PAhが同じような位置を示す場合、それは同一人物の足と頭であることが確定する。したがって、頭から足まできれいに領域抽出されていると判定する。また、位置が異なる場合は、何らかの影響で足か頭の領域が欠損している可能性があると判定する。
上述したように、本発明によれば、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
具体的には、追跡中の人物領域の大きさや、人物の領域の数の変化から、足や頭、胴体等の人体の一部が遮蔽物等により遮蔽された場合に、その一部が遮蔽されたことをシステム上で認識し、正確な領域に補正する。
具体的には、カメラ等の撮像手段により画像中の人物領域の足の先と、その画像の消失店から実空間上の人物の位置を算出し、画像上の見かけ上の大きさと併せて、実際の人物の身長を推定する。また、人物の足、頭の位置と特徴から人物を追跡し、同一として判断できる人物の大きさが変化した場合、人体の一部が建物等の影響等で隠蔽されたかどうかを判断する。更に、本発明では、隠蔽物により人体の一部が隠蔽された場合には、正確な人体の領域を推定して表示する。
これにより、身体の一部分が撮影された画像から欠けていたり、遮蔽物により一部が遮蔽されていても、同一の人物と認識して、人物の追跡等を行うことができ、遮蔽物等により隠蔽された人体の一部を補正して正確な人物領域の検出を行うことができる。
また、本発明によれば、監視画像内の移動物体を精度よく追跡でき、移動物体か否かの判定性能の向上が図れ、しかも、効率のよい画像監視が可能となる監視画像の移動物体追跡方法を提供することを目的とする。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 人物領域検出装置
11 入力手段
12 出力手段
13 蓄積手段
14 身長推定手段
15 隠蔽状態判定手段
16 人物領域推定手段
17 人物追跡手段
18 画面生成手段
19 通知手段
20 送受信手段
21 制御手段
22 撮像手段
30 人物
31 表示人物フレーム
32 遮蔽人物フレーム
33 人物関連情報
34 追跡ルート
35 画角
36 現在位置
37 人物行動範囲
41 入力装置
42 出力装置
43 ドライブ装置
44 補助記憶装置
45 メモリ装置
46 CPU(Central Processing Unit)
47 ネットワーク接続装置
48 記録媒体

Claims (9)

  1. 撮影された映像に含まれる人物の画像領域を検出する人物領域検出装置において、
    前記映像を撮像して時系列の画像を得る撮像手段と、
    前記撮像手段で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手段と、
    前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手段と、
    前記遮蔽状態判定手段により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手段により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手段とを有することを特徴する人物領域検出装置。
  2. 前記人物推定手段により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手段を有することを特徴とする請求項1に記載の人物領域検出装置。
  3. 前記隠蔽状態判定手段は、
    前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする請求項1又は2に記載の人物領域検出装置。
  4. 撮影された映像に含まれる人物の画像領域を検出するための人物領域検出方法において、
    前記映像を撮像して時系列の画像を得る撮像手順と、
    前記撮像手順で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手順と、
    前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手順と、
    前記遮蔽状態判定手順により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手順により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手順とを有することを特徴する人物領域検出方法。
  5. 前記人物推定手順により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手順を有することを特徴とする請求項4に記載の人物領域検出方法。
  6. 前記隠蔽状態判定手順は、
    前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする請求項4又は5に記載の人物領域検出方法。
  7. 撮影された映像に含まれる人物の画像領域を検出する人物領域検出処理をコンピュータに実行させるための人物領域検出プログラムにおいて、
    コンピュータを、
    前記映像を撮像して時系列の画像を得る撮像手段、
    前記撮像手段で得られる時系列の各画像から追跡対象となる人物の身長を推定する身長推定手段、
    前記人物の画像領域の一部が遮蔽物により遮蔽されたか否かを判断する隠蔽状態判定手段、及び、
    前記遮蔽状態判定手段により得られる判定結果から、前記人物の画像領域の一部が遮蔽物に遮蔽されていた場合、前記身長推定手段により得られる前記人物の頭又は足の端部の位置情報と、前記画像から特定される消失点とに基づいて、前記遮蔽物により遮蔽された部分も含めて前記画像中における人物領域を推定する人物領域推定手段として機能させるための人物領域検出プログラム。
  8. 前記人物推定手段により、推定された領域をフレームとして生成し、入力された画像に対して前記フレームを合成して表示する画面を生成する画面生成手段を有することを特徴とする請求項7に記載の人物領域検出プログラム。
  9. 前記隠蔽状態判定手段は、
    前記画像に表示される人物の足から推定される位置情報と、前記人物の頭から推定される位置情報とに基づいて、前記人物の画像領域の一部が遮蔽状態にあるかを判定することを特徴とする請求項7又は8に記載の人物領域検出プログラム。
JP2009083664A 2009-03-30 2009-03-30 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム Pending JP2010237872A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009083664A JP2010237872A (ja) 2009-03-30 2009-03-30 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009083664A JP2010237872A (ja) 2009-03-30 2009-03-30 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム

Publications (1)

Publication Number Publication Date
JP2010237872A true JP2010237872A (ja) 2010-10-21

Family

ID=43092135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009083664A Pending JP2010237872A (ja) 2009-03-30 2009-03-30 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム

Country Status (1)

Country Link
JP (1) JP2010237872A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108574A (ja) * 2010-11-15 2012-06-07 Secom Co Ltd 対象物画像判定装置
JP2012191354A (ja) * 2011-03-09 2012-10-04 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2012208878A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 画像監視装置
JP2016181020A (ja) * 2015-03-23 2016-10-13 日本電気株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
WO2018074330A1 (ja) * 2016-10-19 2018-04-26 株式会社デンソー 車両制御装置、車両制御方法
JP2018173799A (ja) * 2017-03-31 2018-11-08 セコム株式会社 画像解析装置
JP2020074567A (ja) * 2020-01-15 2020-05-14 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2020088840A (ja) * 2019-04-11 2020-06-04 アースアイズ株式会社 監視装置、監視システム、監視方法、監視プログラム
CN111654700A (zh) * 2020-06-19 2020-09-11 杭州海康威视数字技术股份有限公司 一种隐私遮蔽处理方法、装置、电子设备及监控系统
CN112084914A (zh) * 2020-08-31 2020-12-15 的卢技术有限公司 一种融合空间运动和表观特征学习的多目标跟踪方法
CN112464747A (zh) * 2020-11-10 2021-03-09 广州富港万嘉智能科技有限公司 基于图像采集设备的身高检测方法及装置
US20220164963A1 (en) * 2019-03-19 2022-05-26 Nec Corporation Information processing device, estimation method, and nontransitory computer readable medium
US20220198817A1 (en) * 2017-09-27 2022-06-23 Nec Corporation Information processing apparatus, control method, and program
CN112084914B (zh) * 2020-08-31 2024-04-26 的卢技术有限公司 一种融合空间运动和表观特征学习的多目标跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JP2006221610A (ja) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007280043A (ja) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp 映像監視検索システム
JP2008109552A (ja) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd 追跡機能付き撮像装置
JP2008286638A (ja) * 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd 身長推定装置および身長推定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005347905A (ja) * 2004-06-01 2005-12-15 Oki Electric Ind Co Ltd 防犯支援システム
JP2006221610A (ja) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007280043A (ja) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp 映像監視検索システム
JP2008109552A (ja) * 2006-10-27 2008-05-08 Sanyo Electric Co Ltd 追跡機能付き撮像装置
JP2008286638A (ja) * 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd 身長推定装置および身長推定方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108574A (ja) * 2010-11-15 2012-06-07 Secom Co Ltd 対象物画像判定装置
JP2012191354A (ja) * 2011-03-09 2012-10-04 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2012208878A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 画像監視装置
JP2016181020A (ja) * 2015-03-23 2016-10-13 日本電気株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
WO2018074330A1 (ja) * 2016-10-19 2018-04-26 株式会社デンソー 車両制御装置、車両制御方法
JP2018067130A (ja) * 2016-10-19 2018-04-26 株式会社デンソー 車両制御装置、車両制御方法
US11407390B2 (en) 2016-10-19 2022-08-09 Denso Corporation Vehicle control apparatus and vehicle control method
JP2018173799A (ja) * 2017-03-31 2018-11-08 セコム株式会社 画像解析装置
US11715227B2 (en) * 2017-09-27 2023-08-01 Nec Corporation Information processing apparatus, control method, and program
US20220198817A1 (en) * 2017-09-27 2022-06-23 Nec Corporation Information processing apparatus, control method, and program
US20220164963A1 (en) * 2019-03-19 2022-05-26 Nec Corporation Information processing device, estimation method, and nontransitory computer readable medium
JP2020088840A (ja) * 2019-04-11 2020-06-04 アースアイズ株式会社 監視装置、監視システム、監視方法、監視プログラム
JP2021166399A (ja) * 2020-01-15 2021-10-14 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
JP2022003529A (ja) * 2020-01-15 2022-01-11 日本電気株式会社 情報処理装置、情報処理方法、プログラム
JP2020074567A (ja) * 2020-01-15 2020-05-14 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2021254134A1 (zh) * 2020-06-19 2021-12-23 杭州海康威视数字技术股份有限公司 一种隐私遮蔽处理方法、装置、电子设备及监控系统
CN111654700A (zh) * 2020-06-19 2020-09-11 杭州海康威视数字技术股份有限公司 一种隐私遮蔽处理方法、装置、电子设备及监控系统
CN112084914A (zh) * 2020-08-31 2020-12-15 的卢技术有限公司 一种融合空间运动和表观特征学习的多目标跟踪方法
CN112084914B (zh) * 2020-08-31 2024-04-26 的卢技术有限公司 一种融合空间运动和表观特征学习的多目标跟踪方法
CN112464747A (zh) * 2020-11-10 2021-03-09 广州富港万嘉智能科技有限公司 基于图像采集设备的身高检测方法及装置

Similar Documents

Publication Publication Date Title
JP2010237872A (ja) 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP5203281B2 (ja) 人物検出装置、人物検出方法、及び人物検出プログラム
JP5478928B2 (ja) 人物同定装置、人物同定方法、及び人物同定プログラム
JP2010237873A (ja) 姿勢変化検出装置、姿勢変化検出方法、及び姿勢変化検出プログラム
JP5205187B2 (ja) 入力システム及び入力方法
US9928600B2 (en) Computer-aided diagnosis apparatus and computer-aided diagnosis method
US8320618B2 (en) Object tracker and object tracking method
CN112926423B (zh) 捏合手势检测识别方法、装置及系统
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP6959495B2 (ja) 情報処理装置、情報処理方法、プログラム
US10991124B2 (en) Determination apparatus and method for gaze angle
US10235607B2 (en) Control device, control method, and computer program product
KR100692526B1 (ko) 시스템 자동제어용 제스처 인식 장치 및 그 방법
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
JP2015511343A (ja) ユーザ認識方法及びシステム
KR20150106823A (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2018081630A (ja) 検索装置、検索方法およびプログラム
JP2020027496A (ja) 監視装置、監視システム、及びプログラム
JP2009217448A (ja) 画像情報を用いた人物追跡システム
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
JP2021196741A (ja) 画像処理装置、画像処理方法、及びプログラム
CN109447000B (zh) 活体检测方法、污渍检测方法、电子设备及记录介质
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP2002323956A (ja) マウス代替方法、マウス代替プログラム、および同プログラムを記録した記録媒体
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130305