JP2010199701A - 画像処理装置、画像処理方法、及び、画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び、画像処理プログラム Download PDF

Info

Publication number
JP2010199701A
JP2010199701A JP2009039356A JP2009039356A JP2010199701A JP 2010199701 A JP2010199701 A JP 2010199701A JP 2009039356 A JP2009039356 A JP 2009039356A JP 2009039356 A JP2009039356 A JP 2009039356A JP 2010199701 A JP2010199701 A JP 2010199701A
Authority
JP
Japan
Prior art keywords
image
camera
person
detected
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009039356A
Other languages
English (en)
Other versions
JP2010199701A5 (ja
Inventor
Myung-Sup Jung
明燮 鄭
Eigo Segawa
英吾 瀬川
Morihito Shiobara
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009039356A priority Critical patent/JP2010199701A/ja
Publication of JP2010199701A publication Critical patent/JP2010199701A/ja
Publication of JP2010199701A5 publication Critical patent/JP2010199701A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】画像の計算処理量を軽減する装置を提供する。
【解決手段】監視範囲を撮影するカメラ群中の第1カメラで撮影された第1画像と、前記第1カメラと撮影位置の異なる前記カメラ群中の第2カメラで時間差を設けて撮影された第2画像とから監視対象の物体の位置情報を検出する検出部と、前記位置情報に基づいて前記第1画像から検出された前記物体と前記第2画像から検出された前記物体とのうち同一と認められる前記物体を統合し、前記第2画像の撮影時刻に前記監視範囲に存在する前記物体の数を算出する算出部と、を含む画像処理装置である。
【選択図】図1

Description

本発明は、画像から物体を検出する画像処理装置、画像処理方法、及び、画像処理プログラムに関する。
近年、監視システムに対する関心が、高まっている。サーバルームやデータセンタにおいて人の動きを把握する監視システムは、監視範囲に存在する人を漏れなく検出し、追跡することが、望まれる。
監視システムは、人が密集している場合でも、人の重なりによる隠れによる検出漏れが生ないようにすることが望ましい。よって、監視システムにおいて、天井等にカメラを密に設置することにより、死角が少ない映像を得るようにすることができる。また、監視システムは、人の動きが速い場合でも検出漏れが生じないようにすることが望ましい。よって、監視システムにおいて、速いフレームレートで撮影した画像を処理することにより、検出漏れが生じないようにすることができる。しかし、このような監視システムの処理方法で人物を追跡すると、処理する画像が多くなり、画像の計算処理量が膨大になる。
計算処理量の多い3次元認識手段を使用して画像認識を行うか、計算処理量の少ない2次元認識手段を使用して画像認識を行うかを、所定の条件に従って選択することで、計算処理量を少なくする物体追跡方法がある。また、特徴点の3次元座標から人物をモデル化した円筒領域を設定することで、計算処理量を少なくして、人物抽出及び追跡を行う方法がある。
特開2002−344950号公報 特開2003−309843号公報 特開2003−061075号公報 特開2006−285569号公報
早坂光晴、富永英義、小宮一三、"逆投影法とカルマンフィルタを用いた複数移動物体位置認識とその追跡"、電子情報通信学会技術研究報告、社団法人電子情報通信学会、2001年11月、Vol.101、No.421、pp.133-138、PRMU2001-132
本件開示の装置は、画像の計算処理量を軽減することを目的とする。
また本件開示の装置は、多数カメラを用いて人を追跡する監視システムにおいて、処理する画像を減らして追跡性能を維持することを目的とする。
開示の一態様は、
監視範囲を撮影するカメラ群中の第1カメラで撮影された第1画像と、前記第1カメラと撮影位置の異なる前記カメラ群中の第2カメラで時間差を設けて撮影された第2画像とから監視対象の物体の位置情報を検出する検出部と、
前記位置情報に基づいて前記第1画像から検出された前記物体と前記第2画像から検出された前記物体とのうち同一と認められる前記物体を統合し、前記第2画像の撮影時刻に前記監視範囲に存在する前記物体の数を算出する算出部と、
を含む画像処理装置である。
開示の一態様によれば、画像の計算処理量を軽減することができる。
また、開示の一態様によれば、処理する画像を減らして、追跡性能を維持することができる。
図1は、監視システムの構成例を示す図である。 図2は、第1カメラセット及び第2カメラセットのカメラの配置の例の配置の例を示す図である。 図3は、カメラと監視対象の人物の例を示す図である。 図4は、画像処理装置の構成例を示す図である。 図5は、画像処理装置で使用される3次元座標の例を示す図である。 図6は、情報処理装置のハードウェア構成例を示す図である。 図7は、入力切替装置に入力される画像、および、入力切替装置が選択する画像の例を示す図である。 図8は、画像処理装置の動作フローを示す図である。 図9は、画像処理装置の前処理部の動作フローの例を示す図である。 図10は、今回の3次元位置情報テーブルの例を示す図である。 図11は、画像処理装置の人物検出統合処理部の動作フローの例を示す図である。 図12は、前回の3次元位置情報テーブルの例を示す図である。 図13は、統合処理後の3次元位置情報テーブルの例を示す図である。 図14は、人数履歴テーブルの例を示す図である。 図15は、人物追跡部の動作フローの例を示す図である。 図16は、3次元位置情報履歴テーブルの例を示す図である。 図17は、第1カメラセット及び第2カメラセットのカメラの配置の別の例を示す図である。 図18は、画像処理装置の他の構成例を示す図である。
以下、図面を参照して実施形態について説明する。実施形態の構成は例示であり、開示の実施形態の構成に限定されない。
ここでは、人物の動きを検出する監視システムについて説明するが、実施形態の監視システムは、監視対象が動物や自動車などの他の動く物体であっても適用可能である。
〔実施形態〕
図1は、本実施形態の監視システムの構成例を示す図である。本実施形態の監視システムXは、例えば、セキュリティルームなどの部屋の一部または全部の範囲を、監視範囲Mとして設定する。監視システムXの監視対象は監視範囲に存在する人物500であり、人物500の動きが監視される。
監視システムXは、第1カメラセット210、第2カメラセット220、入力切替装置300、画像処理装置400を含む。
第1カメラセット210は、監視範囲Mを撮影する。第1カメラセット210は、カメラ211乃至カメラ216を含む。ここでは、第1カメラセットが6台のカメラを含むとしたが、監視システムXは、これに限定されるものではない。第2カメラセット220は、第1カメラセット210と同様である。第2カメラセット220は、カメラ221乃至カメラ226を含む。以下、カメラセットを特定しない場合は、カメラセット200として説明する。また、カメラを特定しない場合は、カメラ201として、説明する。
カメラ201は、1/30秒毎に、監視範囲を撮影し、1/30秒毎に静止画像を取得できる。カメラ201は、静止画像を撮影するスチルカメラであっても良く、動画(ビデオ)撮影を行うビデオカメラであっても良い。カメラ201は、例えば、監視範囲Mの部屋の天井に設置される。カメラ201による撮影で得られた所定の画像形式の画像は、1/30秒毎に、入力切替装置300に入力される。
図2は、第1カメラセット210及び第2カメラセット220のカメラ201の配置の例を示す図である。図2は、監視範囲Mの部屋の天井に設置されたカメラ201の配置の例を示す図である。
図2の例では、第1カメラセット210のカメラ列と第2カメラセット220のカメラ列とが交互になる状態で、正三角形による三角格子の格子点の位置にカメラ201が設置される。正三角形による三角格子の格子点の位置にカメラが設置されることで、同一のカメラセットの隣接するカメラ同士の距離は、第1カメラセット210のカメラとこのカメラに隣接する第2カメラセット220のカメラとの距離と、等しくなる。例えば、第1カメラセット210のカメラ211とカメラ212との間の距離L1は、カメラ211と第2カメラセット220のカメラ221との間の距離L2と等しい。
第1カメラセット210のカメラ211乃至216は、監視範囲全体を撮影できるように、配置される。同様に、第2カメラセット220のカメラ221乃至226も、監視範囲全体を撮影できるように、配置される。従って、一方のカメラセット200の各カメラ201で、監視範囲全体が、撮影される。
第1カメラセット210のカメラは、1つの監視対象を、第2カメラセット220のカメラと異なる方向から撮影できるように配置される。カメラ201がこのように配置されることで、第1カメラセット210から撮影した場合に重なって撮影される2人の人物が、第2カメラセット220から撮影した場合、重ならずに撮影されるようにされる。
図3は、第1カメラセット210におけるカメラ211及びカメラ214と監視対象の人物500の例を示す図である。図3は、カメラ201が設置される部屋等の床面及び天井面と直交する面を示す図である。
カメラセット200において、1人の人物500の頭部(または、頭頂部)の位置が少なくとも2台のカメラ201で撮影されるように、カメラ201が設置される。図3の例では、少なくとも人物500の頭部は、第1カメラセットのカメラ211及びカメラ214が撮影できる画角内に存在する。少なくとも2台のカメラで1人の人物500の頭部を撮影することで、人物500の頭部の3次元位置が特定される。
第1カメラセット210及び第2カメラセット220のカメラ201は、あらかじめ、監視対象の人物500がいない状態の監視範囲全体を撮影する。監視対象の人物500がいない状態の画像は、画像処理装置400に、背景画像として、あらかじめ出力される。
入力切替装置300は、第1カメラセット210のカメラ211乃至216及び第2カメラセット220のカメラ221乃至226に、接続される。また、入力切替装置300は、画像処理装置400に接続される。
入力切替装置300には、第1カメラセット210のカメラ211乃至216で撮影された画像群、及び、第2カメラセット220のカメラ221乃至226で撮影された画像群が、入力される。入力切替装置300は、第1カメラセット210から入力された画像群、及び、第2カメラセット220から入力された画像群を、1/30秒毎に、交互に、出力する画像群として、選択する。入力切替装置300は、選択された画像群を、画像処理装置400に出力する。
画像処理装置400は、1/30秒毎に、入力切替装置300から入力される画像群から、監視範囲Mの人物の動きを検出する。
図4は、画像処理装置の構成例を示す図である。画像処理装置400は、前処理部410、人物検出統合処理部420、人物追跡部430、3次元位置格納部440、画像格納部450を含む。
前処理部410は、入力切替装置300から入力された画像群から、監視対象である人物500の3次元位置を検出する。前処理部410は、画像群から検出され得るすべての人物500の頭部の3次元位置を検出する。人物500の頭部の3次元位置が、当該人物を代表する3次元位置である。前処理部410は、検出結果を、3次元位置格納部440に格納する。
図5は、画像処理装置400で使用される3次元座標の例を示す図である。図5のように、画像処理装置400で使用される3次元の座標は、監視範囲Mの床面をx方向及びy方向とし、床面からの高さをz方向とする座標とすることができる。
人物検出統合処理部420は、今回入力された画像群における人物500の3次元位置と、前回入力された画像群における人物500の3次元位置とから、現在、監視範囲Mに存在する人物500の人数を算出する。また、人物検出統合処理部420は、現在、監視範囲Mに存在する人物の3次元位置を検出する。人物検出統合処理部420は、検出結果を、3次元位置格納部440に格納する。
人物追跡部430は、人物検出統合処理部420が検出した人物500の3次元位置情報から、同一人物の3次元位置の時系列情報を作成する。
3次元位置格納部440は、前処理部410による検出結果、人物検出統合処理部420による検出結果、人物追跡部430によって作成された3次元位置の時系列情報等を、格納する。
図6は、情報処理装置100のハードウェア構成例を示す図である。画像処理装置400は、例えば、図6に示すような情報処理装置100によって、実現される。情報処理装置100は、CPU(Central Processing Unit)10A、メモリ10B、記憶部10C
、入力部10D、出力部10E、通信部10Fを含む。
CPU10Aは、記憶部10Cに格納されるプログラムに従って処理を行う。メモリ10Bは、CPU10Aがプログラムやデータをキャッシュしたり作業領域を展開したりする。
記憶部10Cは、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。記憶部10Cとしては、ソリッドステートドライブ装置、ハードディスクドライブ装置、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disk)ドライブ装置、+R/+RWドライブ装置、HD DVD(High-Definition Digital Versatile Disk)ドライブ装置、または、BD(Blu-ray Disk)ドライブ装置がある。また、記録媒体としては、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、+R/+RW、HD DVD、または、BDがある。CDとしては、CD−R(Recordable)、CD−RW(Rewritable)、CD−ROMがある。DVDとしては、DVD−R、DVD−RAM(Random Access Memory)がある。BDとしては、BD−R、BD−RE(Rewritable)、BD−ROMがある。
入力部10Dは、ユーザ等からの操作指示等を受け付ける。入力部10Dは、キーボード、マウス、タッチパッド、ワイヤレスリモコン等の入力デバイスである。入力部10Dから入力された情報は、CPU10Aに通知される。
出力部10Eは、CPU10Aで処理されるデータやメモリ10Bに記憶されるデータを出力する。出力部10Eは、CRT(Cathode Ray Tube)ディスプレイ、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence
)パネル、プリンタ、スピーカ等の出力デバイスである。
通信部10Fは、外部装置とデータの送受信を行う。通信部10Fは、信号線を介して、入力切替装置300などの外部装置と接続される。
情報処理装置100は、記憶部10Cに、オペレーティングシステム、各種プログラム、各種テーブル、を記憶している。記憶部10Cは、今回の3次元位置情報テーブルT100、前回の3次元位置情報テーブルT200、統合処理後の3次元位置情報テーブルT300、人数履歴テーブルT350、3次元位置情報履歴テーブルT400を記憶している。
オペレーティングシステムは、ソフトウェアとハードウェアとの仲介、メモリ空間の管理、ファイル管理、プロセスやタスクの管理等を行うソフトウェアである。オペレーティングシステムは、通信インタフェースを含む。通信インタフェースは、通信部10Fを介して接続される他の外部装置等とデータのやり取りを行うプログラムである。
画像処理装置400の前処理部410、人物検出統合処理部420、人物追跡部430の機能は、例えば、CPU10A、メモリ10B、記憶部10C、通信部10F等を使用して実現される。また、画像処理装置400の前処理部410、人物検出統合処理部420、人物追跡部430の機能は、CPU10Aで実行されるプログラムによって実現される機能であってもよい。画像処理装置400の前処理部410、人物検出統合処理部420、人物追跡部430は、ソフトウェア要素とハードウェア要素とを含んでもよい。
前処理部410の機能は、例えば、次のように実現される。CPU10Aが、ユーザによる入力部10Dへの操作等を契機として、通信部10Fに、入力切替装置300から画像群21または画像群22を受信させ、当該画像群を、メモリ10B若しくは記憶部10Cに格納する。CPU10Aが、メモリ10B等に格納した画像群から、人物の3次元位置を算出する。CPU10Aが、算出した人物の3次元位置を記憶部10Cに格納する。
人物検出統合処理部420の機能は、例えば、次のように実現される。CPU10Aが、記憶部10Cに格納される人物の位置をメモリ10Bに展開し、現在、監視範囲に存在する人物の人数及び当該人物の位置を算出し、当該人物の位置と、当該人数を、記憶部1
0Cに格納する。
人物追跡部430の機能は、例えば、次のように実現される。CPU10Aが、記憶部10Cに格納される、現在、監視範囲に存在する人物の位置情報、及び、記憶部10Cに格納される監視範囲に存在する人物の位置の履歴をメモリ10Bに展開する。CPU10Aが、現在、監視範囲に存在する人物の位置情報と、監視範囲に存在する人物の位置の履歴とを比較し、当該履歴を更新し、記憶部10Cに格納する。また、CPU10Aが、記憶部10Cに格納される監視範囲に存在する人物の位置の履歴を出力部10Eに出力させる。
画像処理装置400の3次元位置格納部440は、例えば、メモリ10Bまたは記憶部10Cを使用して実現される。画像処理装置400の画像格納部450は、例えば、メモリ10Bまたは記憶部10Cを使用して実現される。
(動作例)
〈カメラ及び入力切替装置の動作例〉
図7は、入力切替装置に入力される画像、および、入力切替装置が選択する画像の例を示す図である。図7の座標平面の横軸は時間を示し、縦軸は第1カメラセット210による画像群21または第2カメラセット220による画像群22を示す。図7の座標平面の第1カメラセット210による画像群21及び第2カメラセット220による画像群22は、各時刻に入力切替装置300に入力される画像群である。
第1カメラセット210及び第2カメラセット220の各カメラは、1/30秒毎に、監視範囲M(図1)を撮影する。
入力切替装置300には、第1カメラセット210及び第2カメラセット220から、それぞれ、1/30秒毎に撮影した画像群21及び画像群22が、1/30秒毎に、入力される。ある時刻に入力切替装置300に入力される画像群21は、第1カメラセット210の各カメラが同時刻に撮影した画像を含む。同様に、ある時刻に入力切替装置300に入力される画像群22は、第2カメラセット220の各カメラが同時刻に撮影した画像を含む。入力切替装置300は、1/30秒毎に、交互に、第1カメラセット210による画像群21または第2カメラセット220による画像群22を選択する。入力切替装置300は、選択した画像群21または画像群22を、1/30秒毎に、画像処理装置400に出力する。
〈画像処理装置の動作例〉
図8は、画像処理装置の動作フローを示す図である。
画像処理装置400は、ユーザによる指示等により、監視を開始する。
画像処理装置400は、入力切替装置300から、画像群21または画像群22を、受け取る。画像処理装置400は、入力された画像群21または画像群22の画像と、あらかじめ撮影されている背景画像との差分から、差分画像を算出する。画像処理装置400は、当該差分画像から、監視範囲Mに存在する、監視対象である人物500の頭部の3次元位置を算出する。算出された各人物500の頭部の3次元位置は、個別のIDと対応付けられて、3次元位置格納部440に格納される(S12)。このステップS12は、前処理部410によって実現される。前処理部410の動作フローの例は、後に詳述する。
画像処理装置400は、今回入力された画像群(例えば画像群21)による各人物の3次元位置と、前回入力された画像群(例えば画像群22)による各人物の3次元位置とを
比較し、現在、監視範囲Mに存在する人物500を算出する。画像処理装置400は、現在、監視範囲Mに存在する人物500の3次元位置を、3次元位置格納部440に格納する(S14)。このステップS14は、人物検出統合処理部420によって実現される。人物検出統合処理部420の動作フローの例は、後に詳述する。
画像処理装置400は、現在、監視範囲Mに存在する人物500の3次元位置を、過去に監視範囲Mに存在した人物500の3次元位置と対応付けて、3次元位置格納部440に格納する(S16)。画像処理装置400は、現在、監視範囲Mに存在する人物500の3次元位置と1/30秒前(前回入力された画像群が撮影された時刻)に監視範囲Mに存在した人物500の3次元位置とが、所定の距離未満である場合、この両方の人物500を、同一の人物500であると判断する。このステップS16は、人物追跡部430によって実現される。人物追跡部430の動作フローの例は、後に詳述する。
画像処理装置400は、監視を終了しない場合(S18;NO)、次の画像群(例えば、画像群21)の入力を待機し、ステップS12以降の処理を行う。また、画像処理装置400は、ユーザによる指示等により、監視を終了する場合(S18;YES)、処理を終了する。
《前処理部の動作例》
図9は、画像処理装置の前処理部の動作フローの例を示す図である。
画像処理装置400の前処理部410は、入力切替装置300から、画像群21または画像群22を、受け取る(S102)。前処理部410は、受け取った画像群21または画像群22を、画像格納部450に格納する。画像格納部450には、あらかじめ、第1カメラセット210及び第2カメラセット220のカメラ201によって撮影された背景画像が、格納されている。前処理部410は、入力された画像群(例えば、画像群21)の画像と、入力された画像群に対応する背景画像(例えば、第1カメラセット210のカメラ211によって撮影された背景画像)との差分から、差分画像を算出する(S104)。前処理部410は、当該差分画像から、監視範囲Mに存在する、監視対象である人物500の頭部の3次元位置を算出する(S106)。監視範囲Mに存在する人物500の頭部は、少なくとも2台のカメラから撮影されている。よって、2台のカメラによる画像における人物500の頭部の方向から、その人物500の頭部の3次元位置が算出され得る。例えば、当該人物500の頭部の3次元位置は、非特許文献1等の公知の方法により、算出される。前処理部410は、算出された人物500の頭部の3次元位置毎に、IDを付与し、当該3次元位置と当該IDとを対応付けて、今回の3次元位置情報テーブルT100として、3次元位置格納部440に格納する(S108)。
図10は、今回の3次元位置情報テーブルT100の例を示す図である。今回の3次元位置情報テーブルT100では、ID(識別情報)と、前処理部410で算出された、今回入力された画像群による人物500の頭部の3次元位置と、今回入力された画像群の画像が撮影された時刻とが、対応付けられて格納される。
《人物検出統合処理部の動作例》
図11は、画像処理装置400の人物検出統合処理部420の動作フローの例を示す図である。
3次元位置格納部440には、今回入力された画像群(例えば、画像群21)による今回の3次元位置情報テーブルT100と、前回入力された画像群(例えば、画像群22)による前回の3次元位置情報テーブルT200とが、既に前処理部410によって、生成され格納されているとする。前回入力された画像群は、今回入力された画像群の1/30
秒前に撮影されて画像処理装置400に入力された画像群である。
図12は、前回の3次元位置情報テーブルT200の例を示す図である。前回の3次元位置情報テーブルT200では、IDと、前処理部410で算出された、前回入力された画像群による人物の頭部の3次元位置と、前回入力された画像群の画像が撮影された時刻とが、対応付けられて格納される。テーブルT100とテーブルT200とでは、異なるIDが付与される。
前回の3次元位置情報テーブルT200が存在しない場合、人物検出統合処理部420は、今回の3次元位置情報テーブルT300を前回の3次元位置情報テーブルT200として、以下に説明する動作フローを実行する。即ち、人物検出統合処理部420は、今回の3次元位置情報テーブルT300と前回の3次元位置情報テーブルT200とが同一であるとして、以下に説明する動作フローを実行する。
画像処理装置400の人物検出統合処理部420は、使用する変数の初期化を行う(図11:S202)。ここでは、人物検出統合処理部420は、監視範囲に存在する人数を、変数Nとして使用する。人物検出統合処理部420は、変数Nに、値0を代入する。
人物検出統合処理部420は、今回の3次元位置情報テーブルT100のIDのうち、すべてのID(図10の例では、「01」、「02」、及び、「03」)について、処理したかを確認する(S204)。人物検出統合処理部420は、まだ、すべてのIDについて処理していない場合(S204;NO)、未処理のID(例えば、「01」)を選択し、今回の3次元位置情報テーブルT100の当該IDの3次元位置を取得する(S206)。
人物検出統合処理部420は、取得した当該IDの3次元位置(例えば、「(25,45,160)」)と、前回の3次元位置情報テーブルT200のすべてのIDの3次元位置との距離
を算出する。このとき、人物検出統合処理部420は、3次元位置のzの値を0として、計算することができる。この場合、人物検出統合処理部420は、足元の位置同士の距離を計算していることになる。人物検出統合処理部420は、zの値を0とすることにより、距離算出の計算処理量を削減することができる。人物検出統合処理部420は、算出した距離のうち最小の距離を距離W1とし、距離W1に対応する前回の3次元位置情報テーブルT200のID(例えば、「aa」)を抽出する(S208)。
人物検出統合処理部420は、算出した距離W1が所定の距離W2未満であるか否かを確認する(S210)。人物検出統合処理部420は、距離W1が所定の距離W2未満である場合(S210;YES)、ステップS206で取得したIDと、ステップS208で抽出したIDとが、同一人物であると判断する。距離W2は、人物500が1/30秒間に移動し得る距離に基づいて設定される。ここで、1/30秒間は、今回入力された画像群と前回入力された画像群との撮影間隔に相当する。人物検出統合処理部420は、ステップS208で抽出したID(例えば、「aa」)を、前回の3次元位置情報テーブルT200から、削除する(S212)。
人物検出統合処理部420は、距離W1が所定の距離W2以上である場合(S210;NO)、ステップS206で取得したIDと、同一人物であるIDは、前回の3次元位置情報テーブルT200のIDには存在しないと判断する。
人物検出統合処理部420は、ステップS206で取得したID(例えば、「01」)に対応する3次元位置(例えば、「(25,45,160)」)と、今回入力された画像群の画像が撮
影された時刻(例えば、「13:32:03」)とを対応付けて、統合処理後の3次元位置情報テーブルT300に、格納する。人物検出統合処理部420は、監視範囲に存在する人数を
示す変数Nに、値1を加算する(S214)。
図13は、統合処理後の3次元位置情報テーブルT300の例を示す図である。統合処理後の3次元位置情報テーブルT300では、人物500の頭部の3次元位置と、今回入力された画像群の画像が撮影された時刻とが、対応付けられて格納される。
図11に戻って、人物検出統合処理部420は、再び、今回の3次元位置情報テーブルT100のIDのうち、すべてのIDについて、処理したかを確認する(S204)。人物検出統合処理部420は、すべてのIDについて処理した場合(S204;YES)、ステップS212で削除されていない、前回の3次元位置情報テーブルT200のIDがあるか否か確認する(S222)。
人物検出統合処理部420は、ステップS212で削除されていない前回の3次元位置情報テーブルT200のIDがある場合(S222;YES)、そのIDのうち、1つのID(例えば、「bb」)を抽出する。人物検出統合処理部420は、前回の3次元位置情報テーブルT200から、抽出したIDに対応する3次元位置(例えば、「(38,180,150)」)を取得する。ここでは、当該IDに対応する人物は、今回入力された画像群の画像からは検出されなかったが、まだ監視範囲に存在しているとみなされる。人物検出統合処理部420は、取得した3次元位置(例えば、「(38,180,150)」)と、今回入力された画像群の画像が撮影された時刻(例えば、「13:32:03」)とを対応付けて、統合処理後の3次元位置情報テーブルT300に、格納する。人物検出統合処理部420は、抽出したIDを、前回の3次元位置情報テーブルT200から、削除する(S224)。
人物検出統合処理部420は、変数Nに、値1を加算し、ステップS222に戻る(S226)。
ステップS222において、人物検出統合処理部420は、削除されていない前回の3次元位置情報テーブルT200のIDがない場合(S222;NO)、監視範囲に存在する人数(即ち、変数Nの値)を3次元位置格納部440に格納し(S230)、処理を終了する。人物検出統合処理部420は、監視範囲に存在する人数である変数Nの値を、今回入力された画像群の画像が撮影された時刻とともに、3次元位置格納部440の人数履歴テーブルT350(図14)に格納してもよい。
図14は、人数履歴テーブルT350の例を示す図である。人数履歴テーブルT350には、画像群の画像が撮影された時刻と、その時刻に監視範囲に存在する人数と、が、対応付けられて、格納される。人数履歴テーブル350は、3次元位置格納部440に格納される。
人物検出統合処理部420は、前回の画像群と今回の画像群とにおける同一の人物500、今回の画像群において新たに出現した人物500、および、今回の画像群では検出されなかった人物500を、現在、監視範囲Mに存在する人物500であるとする。現在、監視範囲Mに存在する人物500の人数が、変数Nに入れられている。ここで、前回の画像群と今回の画像群とにおける同一の人物500は、ステップS210でYESと判断されたIDに対応する人物500である。今回の画像群において新たに出現した人物500は、ステップS210でNOと判断されたIDに対応する人物500である。今回の画像群では検出されなかった人物500は、ステップS224で削除されたIDに対応する人物500である。
人物検出統合処理部420による処理により、前回の画像群と今回の画像群とにおける同一の人物500は統合される。人物検出統合処理部420は、前回の画像群と今回の画
像群とから、監視範囲に存在する人物500を漏れなく検出できる。
なお、上記処理では、検出される人数が実際の人数より多くなることがあるが、これは検出漏れを防ぐとの観点から容認される。
《人物追跡部の動作例》
図15は、人物追跡部の動作フローの例を示す図である。
人物検出統合処理部420の処理が終了すると、画像処理装置400の人物追跡部430は、3次元位置情報履歴テーブルT400(図16)が、3次元位置格納部440に存在するか否か確認する(S302)。
人物追跡部430は、3次元位置情報履歴テーブルT400が3次元位置格納部440に存在しない場合(S302;NO)、人物検出統合処理部420が生成した統合処理後の3次元位置情報テーブルT300の3次元位置情報毎に個別のIDを割り当てる。人物追跡部430は、割り当てた個別のID毎に、3次元位置情報履歴テーブルT400を生成する。人物追跡部430は、ID毎に、3次元位置情報テーブルT300の3次元位置情報と、今回入力された画像群の画像が撮影された時刻とを対応付けて、3次元位置情報履歴テーブルT400に入力する(S322)。3次元位置情報テーブルT300の3次元位置情報は、現在の3次元位置となる。人物追跡部430は、統合処理後の3次元位置情報テーブルT300を削除し、処理を終了する。
人物追跡部430は、3次元位置情報履歴テーブルT400が3次元位置格納部440に存在する場合(S302;YES)、統合処理後の3次元位置情報テーブルT300の3次元位置のうち、すべての3次元位置について、処理したかを確認する(S304)。人物追跡部430は、まだ、テーブルT300のすべての3次元位置について処理していない場合(S304;NO)、統合処理後の3次元位置情報テーブルT300から、未処理の、1つの、3次元位置の情報と時刻情報とを、抽出する(S306)。人物追跡部430は、抽出された時刻情報から1/30秒前の、3次元位置情報履歴テーブルT400に格納される、各IDの3次元位置を抽出する(S308)。テーブルT300から抽出された3次元位置と、テーブルT400から抽出された各IDの3次元位置との距離を算出する。人物追跡部430は、算出した距離のうち最小の距離を距離W3とし、距離W3に対応するテーブルT400のIDを抽出する。このとき、人物追跡部430は、各3次元位置のzの値を0として、計算することができる。この場合、人物追跡部420は、足元の位置同士の距離を計算していることになる。人物追跡部420は、zの値を0とすることにより、距離算出の計算処理量を削減することができる。人物追跡部430は、距離W3が所定の距離W4未満であるか否かを確認する(S310)。ここで、所定の距離W4は、上記の所定の距離W2と同一の値とすることができる。
人物追跡部430は、距離W3が所定の距離W4未満である場合(S310;YES)、T300から抽出した3次元位置が、距離W3に対応するテーブルT400のIDに対応する人物のものであると判断する。人物追跡部430は、距離W3に対応するIDのテーブルT400に、ステップS306で抽出した3次元位置の情報と、時刻情報とを、書き込む(S312)。人物追跡部430は、ステップS304に戻る。
人物追跡部430は、距離W3が所定の距離W4以上である場合(S310;YES)、ステップS306で抽出した3次元位置に、新たなIDを割り当て、3次元位置情報履歴テーブルT400を生成する。人物追跡部430は、当該IDの3次元位置情報履歴テーブルT400に、ステップS306で抽出した3次元位置の情報と時刻情報とを書き込む(S314)。人物追跡部430は、ステップS304に戻る。
人物追跡部430は、テーブルT300のすべての3次元位置について処理した場合(S304;YES)、統合処理後の3次元位置情報テーブルT300を削除し、処理を終了する。
図16は、3次元位置情報履歴テーブルT400の例を示す図である。図16のように、3次元位置情報履歴テーブルT400は、監視対象の人物に対応するID毎に、生成される。3次元位置情報履歴テーブルT400には、画像が撮影された時刻と、その時刻における3次元位置と、前回の位置とが対応付けられて格納される。前回の位置は、省略されてもよい。
各IDの3次元位置情報履歴テーブルT400は、各IDに対応する人物の3次元位置の履歴である。時刻毎に複数レコードが格納される。ユーザ等は、3次元位置格納部440に格納される3次元位置情報履歴テーブルT400により、各人物500がそれぞれどのように移動したかを把握することができる。
(変形例)
図17は、第1カメラセット210及び第2カメラセット220のカメラ201の配置の別の例を示す図である。図17は、監視範囲の部屋の天井に設置されたカメラの配置の例を示す図である。図17の例のように、正方格子の格子点の位置にカメラが設置されてもよい。図17の例では、第1カメラセット210のカメラ列と第2カメラセット220のカメラ列とが交互になる状態で、正方格子の格子点の位置にカメラ201が設置される。図17の例では、同一のカメラセットの隣接するカメラ同士の距離は、第1カメラセット210のカメラとこのカメラに隣接する第2カメラセット220のカメラとの距離の20.5倍になる。例えば、第1カメラセット210のカメラ211とカメラ212との間の
距離L3は、カメラ211と第2カメラセット220のカメラ221との間の距離L4の20.5倍になる。
カメラ201は、入力切替装置300によって画像処理装置400に入力される画像のみを、撮影するようにしてもよい。つまり、カメラ201は、画像処理装置400に入力される2/30秒毎に、画像を撮影してもよい。
上記では、カメラ201は、1/30秒毎に、監視範囲を撮影し、1/30秒毎に静止画像を取得できるとしたが、1/30秒より、長い時間であっても、短い時間であってもよい。
上記では、入力切替装置300は、1/30秒毎に第1カメラセット210及び第2カメラセット220から画像群(画像群21及び画像群22)を受け取り、1/30秒毎に画像群(画像群21または画像群22)を選択して、画像処理装置400に出力する。ここで、人物500の動きが遅い場合などには、入力切替装置300は、例えば、10/30秒毎に、交互に画像群(画像群21または画像群22)を選択して、画像処理装置400に出力してもよい。
図18は、画像処理装置400の他の構成例を示す図である。図18の画像処理装置400は、入力切替部405、前処理部410、人物検出統合処理部420、人物追跡部430、3次元位置格納部440、画像格納部450を有する。画像処理装置400は、第1カメラセット210及び第2カメラセット220と接続される。前処理部410、人物検出統合処理部420、人物追跡部430、3次元位置格納部440、画像格納部450は、図4の画像処理装置400の対応する部分と同様の機能を有する。
入力切替部405は、図4の入力切替装置300と同様の機能を有する。入力切替部405には、第1カメラセット210のカメラ211乃至216で撮影された画像群、及び、第2カメラセット220のカメラ221乃至226で撮影された画像群が、入力される。入力切替装置300は、第1カメラセット210から入力された画像群21、及び、第2カメラセット220から入力された画像群22を、1/30秒毎に、交互に、出力する画像群として、選択する。入力切替装置300は、選択された画像群を、前処理部410に出力する。
入力切替部405の機能は、例えば、図6に示すような情報処理装置100のCPU10A、メモリ10B、記憶部10C、通信部10F等によって、実現される。また、入力切替部405の機能は、CPU10Aで実行されるプログラムとして実現される機能であってもよい。
入力切替部405の機能は、例えば、次のように実現される。CPU10Aが、通信部10Fに、第1カメラセット210及び第2カメラセット220から画像群21及び画像群22を受信させ、当該画像群を、メモリ10B若しくは記憶部10Cに格納する。CPU10Aが、所定時間毎に、画像群21または画像群22を交互に選択し、前処理部410で利用できるようにする。CPU10Aは、選択されなかった画像群を破棄してもよい。
(本実施形態の作用効果)
本実施形態の監視システムXは、第1カメラセット210及び1つの監視対象が第1カメラセット210と異なる方向から撮影されるように設置される第2カメラセット220による画像を、交互に画像処理装置400の前処理部410に入力する。本実施形態によれば、異なる位置に設置される第1カメラセット210及び第2カメラセット220から交互に画像を取得することで同時に処理する画像の枚数を減らし、画像処理装置による画像の処理量を減少させることができる。
本実施形態の監視システムXは、第1カメラセット及び第2カメラセットをそれぞれ異なる位置に設置する。本実施形態によれば、異なる位置に設置される第1カメラセット及び第2カメラセットよる画像を利用して、監視範囲に存在する人物を漏れなく検出することができる。
本実施形態の監視システムXは、第1カメラセット210による画像群21と第2カメラセット220による画像群22との視差を利用して、監視範囲に存在する人数を確認し、人数を含む統合結果を格納する。これによって、監視システムXは、画像の処理量を減少させることができる。
《コンピュータ可読媒体に関する説明》
以上に説明した本実施形態における何れかの機能は、コード化されてコンピュータ可読媒体の記憶領域に格納されていてもよい。この場合、その機能を実現するためのプログラムが、このコンピュータ可読媒体を介して、コンピュータ、又は、機械若しくは装置に組み込まれたコンピュータに、提供され得る。コンピュータ、又は、機械若しくは装置に組み込まれたコンピュータは、コンピュータ可読媒体の記憶領域からプログラムを読み出してそのプログラムを実行することによって、その機能を実現することができる。
ここで、コンピュータ可読媒体とは、電気的、磁気的、光学的、化学的、物理的又は機械的な作用によって、プログラム及びデータ等の情報を蓄積するとともに、コンピュータに読み取られ得る状態でその情報を保持する記録媒体をいう。
また、コンピュータ可読媒体の中には、コンピュータ、又は、機械若しくは装置に組み込まれたコンピュータに着脱自在に装着できるものがある。着脱自在なコンピュータ可読媒体としては、DVD(DVD−R、DVD−RW、DVD−ROM、DVD−RAMを含む)、+R/+RW、BD(BD−R、BD−RE、BD−ROMを含む)、CD[Compact Disk](CD−R、CD−RW、CD−ROMを含む)、MO[Magneto Optical
]ディスク、その他の光ディスク媒体、フレキシブルディスク(フロッピーディスク(フロッピーは日立製作所社の商標)を含む)、その他の磁気ディスク媒体、メモリーカード(コンパクトフラッシュ(米国サンディスク社の商標)、スマートメディア(東芝社の商標)、SDカード(米国サンディスク社、松下電器産業社、東芝社の商標)、メモリースティック(ソニー社の商標)、MMC(米国ジーメンス社、米国サンディスク社の商標)など)、磁気テープ、及び、その他のテープ媒体、並びに、これらのうちの何れかを内蔵した記憶装置が、例示できる。記憶装置には、DRAM[Dynamic Random Access Memory]又はSRAM[Static Random Access Memory]がさらに内蔵されたものもある。
また、コンピュータ可読媒体の中には、コンピュータ、又は、機械若しくは装置に組み込まれたコンピュータに固定的に装着されたものがある。この種のコンピュータ可読媒体としては、ハードディスク、DRAM、SRAM、ROM、EEPROM[Electronically Erasable and Programmable Read Only Memory]、フラッシュメモリなどが、例示で
きる。
100 情報処理装置
10A CPU
10B メモリ
10C 記憶部
10D 入力部
10E 出力部
10F 通信部
200 カメラセット
201 カメラ
210 第1カメラセット
211−216 第1カメラセットのカメラ
21 第1カメラセットのカメラによる画像群
220 第2カメラセット
221−226 第2カメラセットのカメラ
22 第2カメラセットのカメラによる画像群
30 入力切替装置が選択する画像群
300 入力切替装置
400 画像処理装置
410 前処理部
420 人物検出統合処理部
430 人物追跡部
440 3次元位置格納部
450 画像格納部
500 人物(監視対象)
M 監視範囲
X 監視システム

Claims (6)

  1. 監視範囲を撮影するカメラ群中の第1カメラで撮影された第1画像と、前記第1カメラと撮影位置の異なる前記カメラ群中の第2カメラで時間差を設けて撮影された第2画像とから監視対象の物体の位置情報を検出する検出部と、
    前記位置情報に基づいて前記第1画像から検出された前記物体と前記第2画像から検出された前記物体とのうち同一と認められる前記物体を統合し、前記第2画像の撮影時刻に前記監視範囲に存在する前記物体の数を算出する算出部と、
    を含む画像処理装置。
  2. 前記算出部は、
    前記第1画像から検出される1つの物体と前記第2画像から検出される1つの物体との間の距離が、同一の物体であることを示す所定距離未満である場合、当該第1画像から検出される1つの物体と当該第2画像から検出される1つの物体とは同一の物体であると判断し、かつ、当該物体は前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出されるすべての物体と前記第2画像から検出される1つの物体との間の距離がすべて前記所定距離以上である場合、当該第2画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出される1つの物体と前記第2画像から検出されるすべての物体との間の距離がすべて前記所定距離以上である場合、当該第1画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断する、
    請求項1に記載の画像処理装置。
  3. コンピュータが、
    監視範囲を撮影するカメラ群中の第1カメラで撮影された第1画像と、前記第1カメラと撮影位置の異なる前記カメラ群中の第2カメラで時間差を設けて撮影された第2画像とから監視対象の物体の位置情報を検出し、
    前記位置情報に基づいて前記第1画像から検出された前記物体と前記第2画像から検出された前記物体とのうち同一と認められる前記物体を統合し、前記第2画像の撮影時刻に前記監視範囲に存在する前記物体の数を算出する、
    ことを実行する画像処理方法。
  4. コンピュータが、さらに、
    前記第1画像から検出される1つの物体と前記第2画像から検出される1つの物体との間の距離が、同一の物体であることを示す所定距離未満である場合、当該第1画像から検出される1つの物体と当該第2画像から検出される1つの物体とは同一の物体であると判断し、かつ、当該物体は前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出されるすべての物体と前記第2画像から検出される1つの物体との間の距離がすべて前記所定距離以上である場合、当該第2画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出される1つの物体と前記第2画像から検出されるすべての物体との間の距離がすべて前記所定距離以上である場合、当該第1画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断する、
    ことを実行する請求項3に記載の画像処理方法。
  5. コンピュータが、
    監視範囲を撮影するカメラ群中の第1カメラで撮影された第1画像と、前記第1カメラと撮影位置の異なる前記カメラ群中の第2カメラで時間差を設けて撮影された第2画像と
    から監視対象の物体の位置情報を検出し、
    前記位置情報に基づいて前記第1画像から検出された前記物体と前記第2画像から検出された前記物体とのうち同一と認められる前記物体を統合し、前記第2画像の撮影時刻に前記監視範囲に存在する前記物体の数を算出する、
    ことを実行するための画像処理プログラム。
  6. コンピュータが、さらに、
    前記第1画像から検出される1つの物体と前記第2画像から検出される1つの物体との間の距離が、同一の物体であることを示す所定距離未満である場合、当該第1画像から検出される1つの物体と当該第2画像から検出される1つの物体とは同一の物体であると判断し、かつ、当該物体は前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出されるすべての物体と前記第2画像から検出される1つの物体との間の距離がすべて前記所定距離以上である場合、当該第2画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断し、
    前記第1画像から検出される1つの物体と前記第2画像から検出されるすべての物体との間の距離がすべて前記所定距離以上である場合、当該第1画像から検出される1つの物体は、前記第2画像の撮影時刻に前記監視範囲に存在する物体であると判断する、
    ことを実行するための請求項5に記載の画像処理プログラム。
JP2009039356A 2009-02-23 2009-02-23 画像処理装置、画像処理方法、及び、画像処理プログラム Pending JP2010199701A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009039356A JP2010199701A (ja) 2009-02-23 2009-02-23 画像処理装置、画像処理方法、及び、画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009039356A JP2010199701A (ja) 2009-02-23 2009-02-23 画像処理装置、画像処理方法、及び、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2010199701A true JP2010199701A (ja) 2010-09-09
JP2010199701A5 JP2010199701A5 (ja) 2011-11-24

Family

ID=42824004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009039356A Pending JP2010199701A (ja) 2009-02-23 2009-02-23 画像処理装置、画像処理方法、及び、画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2010199701A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093787A (ja) * 2011-10-27 2013-05-16 Secom Co Ltd カメラシステム
WO2015136828A1 (ja) * 2014-03-11 2015-09-17 三菱電機株式会社 人物検出装置および人物検出方法
US10636153B2 (en) 2016-11-22 2020-04-28 Fujitsu Limited Image processing system, image processing apparatus, and image processing method for object tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005117542A (ja) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc 監視システム
JP2007233523A (ja) * 2006-02-28 2007-09-13 Hitachi Ltd 非同期カメラ映像を用いた人物位置推定方法及びそのシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP2005117542A (ja) * 2003-10-10 2005-04-28 Konica Minolta Holdings Inc 監視システム
JP2007233523A (ja) * 2006-02-28 2007-09-13 Hitachi Ltd 非同期カメラ映像を用いた人物位置推定方法及びそのシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093787A (ja) * 2011-10-27 2013-05-16 Secom Co Ltd カメラシステム
WO2015136828A1 (ja) * 2014-03-11 2015-09-17 三菱電機株式会社 人物検出装置および人物検出方法
GB2537780A (en) * 2014-03-11 2016-10-26 Mitsubishi Electric Corp Person detecting device and person detecting method
JPWO2015136828A1 (ja) * 2014-03-11 2017-04-06 三菱電機株式会社 人物検出装置および人物検出方法
US10026019B2 (en) 2014-03-11 2018-07-17 Mitsubishi Electric Corporation Person detecting device and person detecting method
GB2537780B (en) * 2014-03-11 2019-04-17 Mitsubishi Electric Corp Person detecting device and person detecting method
US10636153B2 (en) 2016-11-22 2020-04-28 Fujitsu Limited Image processing system, image processing apparatus, and image processing method for object tracking

Similar Documents

Publication Publication Date Title
JP4664432B2 (ja) ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム
JP5227911B2 (ja) 監視映像検索装置及び監視システム
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
EP3016382B1 (en) Monitoring methods and devices
JP5284599B2 (ja) 画像処理装置
WO2019225547A1 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
CN112703533A (zh) 对象跟踪
US10560632B2 (en) Moving image reproducing apparatus, control method therefor, and storage medium storing control program therefor
JP6500500B2 (ja) 画像判定装置、画像判定方法、及びプログラム
JP6292540B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6638723B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
JP2010199701A (ja) 画像処理装置、画像処理方法、及び、画像処理プログラム
JP5691764B2 (ja) 置き去り又は持ち去り検知システム
JP5356036B2 (ja) モーションキャプチャにおけるグループトラッキング
JP5738028B2 (ja) 映像処理装置
KR101982258B1 (ko) 오브젝트 검출 방법 및 오브젝트 검출 장치
JP6336935B2 (ja) 移動物体追跡装置
JP6570906B2 (ja) 監視システム及び監視方法
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
JP2018133042A (ja) 放置物検出装置
CN115424320A (zh) 一种在三维场景中显示人员移动轨迹的方法及系统
JP2006303897A (ja) 顔画像抽出装置及び顔画像抽出方法
KR102233494B1 (ko) 360도 영상 공간에서 다중 객체 추적 장치 및 방법
JP2011039584A (ja) 不審物検知装置

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130716