JP2007209008A - 監視装置 - Google Patents

監視装置 Download PDF

Info

Publication number
JP2007209008A
JP2007209008A JP2007059230A JP2007059230A JP2007209008A JP 2007209008 A JP2007209008 A JP 2007209008A JP 2007059230 A JP2007059230 A JP 2007059230A JP 2007059230 A JP2007059230 A JP 2007059230A JP 2007209008 A JP2007209008 A JP 2007209008A
Authority
JP
Japan
Prior art keywords
image
density
crowd
monitoring
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007059230A
Other languages
English (en)
Inventor
Masahiro Iwasaki
正宏 岩崎
Taro Imagawa
太郎 今川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2007059230A priority Critical patent/JP2007209008A/ja
Publication of JP2007209008A publication Critical patent/JP2007209008A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、検出ミス、追跡ミス及び照合ミスを防止し、異常事態を判断して監視者に注意を促すことができる監視装置を提供する。
【解決手段】監視装置は、カメラ101で撮影された全体画像に対してフレーム間差分処理、又は事前に用意された背景画像との背景差分処理を行う移動体画像生成部102と、全体画像から頭部に相当する楕円の検出を行うことによって頭部候補領域の面積を算出して、密集度を算出する密集度算出部103と、所定日時の密集度に基づいて移動物体又は群衆の基準密集度を算出するモデル生成部104と、現時刻における密集度が基準密集度と異なるか否かを判断して判断結果を生成して報知部107に与える状況判断部106とを備える。
【選択図】図1

Description

本発明は、移動している人物や車両等の複数の移動物体又は群衆の監視を行う監視装置に関するものである。
従来の監視装置として、図1に示す装置が知られている(例えば、特許文献1参照)。図1に示すように、この従来の監視装置10は、撮像装置11、部位位置抽出部12、形状特徴量抽出部13、部位位置追尾部14、動き特徴量計測部15、比較検索部16及び表示部17を具備している。
図1に示すように、従来の監視装置10においては、部位位置抽出部12が人物の部位位置を抽出し、形状特徴量抽出部13が形状特徴量を抽出し、部位位置追尾部14が抽出した部位位置を追尾し、動き特徴量計測部15が動き特徴量を計測している。従来の監視装置10は、監視領域内の人物の特徴量を自動的に抽出して、データベース化すると共に、特定の不審人物の特徴を有する人物候補を探索し、監視者に注意を促すことにより、不審人物の調査、追跡及び特定を行っている。
また、他の従来の監視装置として、例えば、特許文献2に記載された装置がある。この他の従来の監視装置は、撮像装置によって捉えられる被写体の皮膚色及び動きを検出することによって、最も適切な追跡対象体を自動的に選定して追跡することによって顔部分の映像を撮影し、撮影された顔画像を分析することによって個人を認識している。さらに、顔部位の情報から覆面、サングラス及び帽子などを識別することによって、危険人物と判定している。
特開平11−399139号公報 特開2000−163600号公報
しかしながら、従来の監視装置においては、人物を検出しデータベースとの照合を行う場合に、現状の技術では特に大量に蓄積されたデータベースとの照合を完全に自動化することが難しい。また、従来の監視装置においては、全体の画像中に複数人の画像が存在する場合又はオクルージョンが生じている場合において、正確に部位位置を特定すること、及び、顔画像を抽出することは難しい。このため、人物を検出及び追跡して大量のデータベースとの照合を完全に自動で行うと、検出ミス、追跡ミス及び照合ミスが起こることの2つの点が懸念されるため、異常事態の判断にも支障をきたす危険性がある。
本発明は、かかる点に鑑みてなされたものであり、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、検出ミス、追跡ミス及び照合ミスを防止し、異常事態を判断して監視者に注意を促すことができる監視装置を提供することを目的とする。
上記目的を達成するため、本発明に係る監視装置は、監視領域内の監視を行う監視装置であって、監視領域内の画像を撮像して全体画像を生成する撮像手段と、前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、前記全体画像から頭部候補領域を検出し、検出した前記頭部候補領域が前記全体画像に対して占める面積に基づいて、前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段とを備えることを特徴とする。
また、本発明に係る監視装置は、監視領域内の監視を行う監視装置であって、監視領域内の画像を撮像して全体画像を生成する撮像手段と、前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、前記移動体画像の面積に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段とを備えることを特徴とする。
本発明に係る監視装置によれば、画像に存在する移動物体又は群衆の部分的な画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の密集度又は移動方向が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。
本発明の実施の形態に係る監視装置は、監視領域内の監視を行う監視装置であって、監視領域内の画像を撮像して全体画像を生成する撮像手段と、前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、前記移動体画像生成手段により生成される前記移動体画像に基づいて前記移動物体または前記群衆の密集の度合いを関数近似もしくは周波数変換によりパラメータ化した密集度として算出する密集度算出手段とを備えることを特徴とする。
この構成によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の密集度を算出することができる。
また、前記監視装置は、さらに、前記密集度算出手段により算出される現時刻の前記密集度と、状況判断の基準とする密集度である基準密集度とに基づいて、現時刻の状況を判断する状況判断手段とを備えることが好ましい。
この構成によれば、移動物体又は群衆の密集度が通常時と大きく異なる時に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止することができる。
また、前記監視装置は、さらに、前記密集度算出手段により算出される所定日時の前記密集度に基づいて前記基準密集度を算出する基準密集度算出手段と、前記基準密集度算出手段により算出される前記基準密集度を保持するデータベースとを備えることが好ましい。
この構成によれば、通常時の移動物体又は群衆の密集度を算出することが可能である。
また、前記基準密集度算出手段は、前記密集度算出手段により算出される前記密集度に基づいて所定時間ごとに新しい基準密集度を算出し、算出した新しい前記基準密集度で前記データベースの前記基準密集度を更新してもよい。
この構成によれば、所定時間ごとにデータベースの基準密集度を更新するので、異常事態の判断がより正確になる。
また、前記基準密集度算出手段は、季節ごと、時刻ごと、天候ごとまたは曜日ごとの少なくとも1つごとに前記基準密集度を算出して前記データベースに保持させてもよい。
この構成によれば、季節ごと、時刻ごと、天候ごと又は曜日ごとの基準密集度を算出してデータベースに保持させるため、異常事態の判断がより正確になる。
また、前記密集度算出手段および前記基準密集度算出手段は、前記密集度および前記基準密集度を関数近似によりパラメータ化してもよい。
また、前記密集度算出手段および前記基準密集度算出手段は、前記密集度および前記基準密集度を、ガウス分布の分布数とそれぞれのガウス分布の平均値および分散値とをパラメータとしてパラメータ化してもよい。
この構成によれば、パラメータによって表現することで、ノイズや検出ミスにロバストに異常事態の判定を行うことができる。
また、前記監視装置は、さらに、あらかじめ設定される前記基準密集度を保持するデータベースを備えてもよい。
この構成によれば、基準密集度をあらかじめ設定して保持することで、構成を簡略化することができる。
また、前記状況判断手段は、現時刻の前記密集度と前記基準密集度とを比較し、現時刻の前記密集度と前記基準密集度とが所定の閾値以上異なる場合に、現時刻の前記状況を異常事態であると判断してもよい。
この構成によれば、移動物体又は群衆の密集度が通常時と大きく異なる時に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止することができる。
また、前記監視装置は、さらに、前記状況判断手段により判断された現時刻の前記状況を報知する報知手段を備えてもよい。
この構成によれば、移動物体又は群衆の密集度が通常時と大きく異なる時に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。
また、前記移動体画像生成手段は、前記全体画像に対してフレーム間差分処理または背景差分処理を行って前記移動体画像を生成してもよい。
この構成によれば、簡単に移動体画像を生成することができる。
また、前記密集度算出手段は、前記全体画像から頭部候補領域を検出し、検出した前記頭部候補領域が前記全体画像に対して占める面積に基づいて前記密集度を算出してもよい。
この構成によれば、移動物体又は群衆の密集度の算出が容易となる。
また、前記密集度算出手段は、前記移動体画像の面積に基づいて前記密集度を算出してもよい。
この構成によれば、移動物体又は群衆の密集度の算出が容易となる。
また、前記密集度算出手段は、前記移動体画像を1次元情報に変換し、変換した前記1次元情報に基づいて前記密集度を算出してもよい。
この構成によれば、移動物体又は群衆の密集度の算出が容易となる。
また、前記密集度算出手段は、前記1次元情報の周波数分析を行うことによって前記密集度を算出してもよい。
この構成によれば、移動物体又は群衆の密集度の算出がより容易となる。
また、前記撮像手段は、赤外線カメラであり、前記密集度算出手段は、前記赤外線カメラの反応領域に基づいて前記密集度を算出してもよい。
この構成によれば、移動物体又は群衆の密集度の算出が容易となる。
また、本発明の実施の形態に係る監視装置は、監視領域内の監視を行う監視装置であって、監視領域内の画像を撮像して全体画像を生成する撮像手段と、前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、前記移動体画像生成手段により生成される前記移動体画像に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段と、前記密集度算出手段により算出される現時刻の前記密集度と、状況判断の基準とする密集度である基準密集度とを比較し、現時刻の前記密集度と前記基準密集度とが所定の閾値以上異なる場合に、現時刻の状況を異常事態であると判断する状況判断手段と、パン、チルトおよびズーム機能の少なくともいずれかを有する他の撮像手段と、前記状況判断手段により異常事態であると判断された場合に、現時刻の前記密集度が前記基準密集度と異なる領域を撮像するように前記他の撮像手段を制御する撮像制御手段とを備えることを特徴とする。
この構成によれば、異常事態の判定結果に基づいて異常事態の発生領域を他の撮像手段が撮像することにより詳細な画像を得ることができる。
また、本発明の実施の形態に係る監視装置は、監視領域内の監視を行う監視装置であって、監視領域内の画像を撮像して全体画像を生成する撮像手段と、前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、前記移動体画像生成手段により生成される前記移動体画像に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段と、前記撮影手段により生成される前記全体画像と前記密集度算出手段により算出される前記密集度とに基づいて前記移動物体または前記群衆の移動方向を算出する移動方向算出手段とを備えることを特徴とする。
この構成によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の移動方向を算出可能である。
また、前記監視装置は、さらに、前記移動方向算出手段により算出される現時刻の前記移動方向と、状況判断の基準とする移動方向である基準移動方向とに基づいて、現時刻の状況を判断する状況判断手段とを備えてもよい。
この構成によれば、移動物体又は群衆の移動方向が通常時と大きく異なる時に異常事態と判断することが可能である。
また、前記監視装置は、さらに、前記移動方向算出手段により算出される所定日時の前記移動方向に基づいて前記基準移動方向を算出する基準移動方向算出手段と、前記基準移動方向算出手段により算出される前記基準移動方向を保持するデータベースとを備えてもよい。
この構成によれば、通常時の移動方向を算出することが可能である。
また、前記基準移動方向算出手段は、前記移動方向算出手段により算出される前記移動方向に基づいて所定時間ごとに新しい基準移動方向を算出し、算出した新しい前記基準移動方向で前記データベースの前記基準移動方向を更新してもよい。
この構成によれば、所定時間ごとにデータベースの基準移動方向を更新するから、異常事態の判断がより正確になる。
また、前記基準移動方向算出手段は、季節ごと、時刻ごと、天候ごとまたは曜日ごとの少なくとも1つごとに前記基準移動方向を算出して前記データベースに保持させてもよい。
この構成によれば、季節ごと、時刻ごと、天候ごと又は曜日ごとの基準移動方向を演算してデータベースに与えてデータベースに保持させるため、異常事態の判断がより正確になる。
また、前記移動方向算出手段および前記基準移動方向算出手段は、前記移動方向および前記基準移動方向を関数近似によりパラメータ化してもよい。
また、前記移動方向算出手段および前記基準移動方向算出手段は、前記移動方向および前記基準移動方向を、ガウス分布の分布数とそれぞれのガウス分布の平均値および分散値とをパラメータとしてパラメータ化してもよい。
この構成によれば、パラメータによって表現することで、ノイズや検出ミスにロバストに異常事態の判定を行うことができる。
また、前記監視装置は、さらに、あらかじめ設定される前記基準移動方向を保持するデータベースを備えてもよい。
この構成によれば、基準移動方向をあらかじめ設定して保持することで、構成を簡略化することができる。
また、前記状況判断手段は、現時刻の前記移動方向と前記基準移動方向とを比較し、現時刻の前記移動方向と前記基準移動方向とが所定の閾値以上異なる場合に、現時刻の前記状況を異常事態であると判断してもよい。
この構成によれば、移動物体又は群衆の移動方向が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止することができる。
また、前記監視装置は、さらに、パン、チルトおよびズーム機能の少なくともいずれかを有する他の撮像手段と、前記状況判断手段により異常事態であると判断された場合に、現時刻の前記移動方向が前記基準移動方向と異なる領域を撮像するように前記他の撮像手段を制御する撮像制御手段とを備えてもよい。
この構成によれば、異常事態の判定結果に基づいて異常事態の発生領域を他の撮像手段が撮像することにより詳細な画像を得ることができる。
また、前記撮像制御手段は、前記状況判断手段により異常事態であると判断された場合に、現時刻の前記移動方向が前記基準移動方向と異なる領域、かつ、前記密集度がピーク値を持つ領域を撮像するように前記他の撮像手段を制御してもよい。
この構成によれば、他の撮像手段で異常事態の発生領域をより正確に撮像することができる。
さらに、本発明は、このような監視装置として実現することができるだけでなく、このような監視装置が含む特徴的な手段をステップとして含む監視方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以下、本発明の実施の形態について、図面を参照して説明する。
(実施の形態1)
図2は、本発明の実施の形態1に係る監視装置の構成を示すブロック図である。図2に示すように、本発明の実施の形態1に係る監視装置100は、移動している人物や車両等の複数の移動物体又は群衆の監視を行う装置であり、カメラ(撮像手段)101、移動体画像生成部102、密集度算出部103、モデル生成部104、データベース105、状況判断部106及び報知部107を具備している。報知部107は、画像表示部1071及び警報発生部1072を具備している。
カメラ101は、監視領域内の移動している複数の移動物体又は群衆を含む対象物の画像を撮像して全体画像を生成する。移動体画像生成部102は、カメラ101で撮影された全体画像をフレーム毎に受けて全体画像に対してフレーム間差分処理、又は事前に用意された背景画像との背景差分処理を行う。ここで、移動体画像生成部102により差分処理された画像は、移動している車両等の移動物体又は群集の動いている領域が特定された移動体画像となる。この時に、移動体画像生成部102は、画像のエッジの抽出が確実に行える場合に、差分処理を行わず入力画像毎にエッジ抽出処理を行ってもよい。以下においては、移動体画像生成部102が、フレーム間差分処理又は背景差分処理を行った場合について述べる。
密集度算出部103は、移動体画像生成部102により差分処理された画像(移動体画像)を1次元情報に変換し、周波数分析を行って、移動物体または群衆の密集の度合いを示す密集度を算出する。
次に、密集度算出部103について、図3を用いて詳しく説明する。
密集度算出部103は、1次元情報変換部210及び周波数処理部211を具備している。1次元情報変換部210は、移動体画像生成部102から出力された2次元画像を1次元情報に変換する。1次元情報変換部210の画像変換動作としては、以下の2つの画像変換動作例が挙げられる。
一つの画像変換動作例は、図4に示すように、移動体画像生成部102により入力画像(全体画像)301が差分処理され、密集度算出部103へ入力された差分画像302における差分値に基づいて横軸に射影し、ヒストグラム303を算出する。これにより、横軸の各値に対する1次元情報であるヒストグラム303を得ることができる。この場合、差分領域の面積情報を用いて1次元情報を算出することになる。
他の画像変換動作例は、図5に示すように、入力される差分画像302における差分値を「0」又は「1」の値に2値化した2値化画像401を生成し、2値化画像401に対して画像の最上部から縦軸方向にスキャンを行って最初に検出したオンピクセルの縦軸の最大値である検出縦軸値402を残すことによって1次元情報を得る。ここで、オンピクセルとは、2値化した画素で「1」の値を持つピクセルである。例えば、2値化画像401がXY軸で示され、左下を原点とした場合に、X軸の特定の値において、縦軸であるY軸に、複数のオンピクセルが存在し、Y軸の値が、「200」、「100」、「50」である場合は、検出縦軸値402として検出されるY軸の値は、画像最上部からスキャンして最初に検出したオンピクセルのY軸値であるため、「200」となる。
なお、これらの1次元情報を得るための方法は、上記に限定されるものではなく、群集の密集度を算出可能な1次元情報を得る方法であれば、何でも良い。
ここで、群集の密集度として、ヒストグラム303およびオンピクセルの縦軸検出値402を用いてもよい。この場合、周波数処理部211は不要であるが、本実施の形態では、さらに、ノイズに対するロバスト性を向上させる例として、周波数処理部211によって、これらの1次元情報であるヒストグラム303と検出縦軸値402に対して、周波数処理を行った例について説明する。
1次元情報変換部210によって生成された1次元情報であるヒストグラム303又は検出縦軸値402は、周波数処理部211に送られる。周波数処理部211は、1次元情報であるヒストグラム303又は検出縦軸値402に対して1次元フーリエ変換を行う。これによって、1次元情報であるヒストグラム303又は検出縦軸値402の周波数スペクトラム501を図6に示すように算出することが可能である。ここで、1次元情報変換部210で処理された1次元情報であるヒストグラム303は、図6に示す周波数スペクトラム501のハッチング部に示すように高周波成分を含んでいる場合がある。
監視装置100は、移動物体又は群衆をマクロ的に捉えることが目的であるために、高周波成分はノイズであると判断して、1次元情報であるヒストグラム303に対してフーリエ変換を行い、周波数成分を算出し、その中で高周波成分をカットして、逆フーリエ変換を行って逆変換結果503を得る。本実施の形態では、逆変換結果503を周波数分析処理後1次元情報と呼ぶ。すなわち、監視装置100は、ローパス処理を行うことによって、マクロ的に移動物体又はその群集を捉えることが可能である。ここでは、必ずしも逆フーリエ変換を行って、画像空間に戻す必要は無く、監視装置100は、周波数スペクトラム501や、音声認識等で用いられるケプストラム502を用いることで、周波数分析処理後1次元情報を算出することも可能である。なお、ケプストラム502の算出は、監視装置100は、1次元フーリエ変換を行った後に、対数スペクトルを算出し、再度フーリエ変換を行うことでケプストラム係数を算出し、低次項の成分のみを用いることにより周波数分析処理後1次元情報を算出することも可能である。
ここでは、1次元情報変換部210により算出された1次元情報に対し、周波数処理部211によりケプストラム係数算出処理などの周波数分析処理を行った周波数分析処理後1次元情報は、移動している複数の移動物体又は群集の密集度として定義される。
もちろん、ヒストグラム303およびオンピクセルの縦軸検出値も周波数分析処理後1次元情報と同様な1次元情報であり、移動している複数の移動物体又は群集の密集度として定義することも可能である。
次に、モデル生成部104の基準密集度(モデル値)を生成する動作について、説明する。ここで、基準密集度は、通常時の全体画像から作成された移動物体又は群衆の密集度であり、異常事態発生の判断の基準となる1次元情報である。
基準密集度であるモデルを生成する方法としては、ヒストグラム303およびオンピクセルの縦軸検出値402を用いることができる。さらに、周波数処理部211において、図6に示すように1次元情報であるヒストグラム303をローパス処理した逆変換結果503を用いる方法と、フーリエスペクトラム又はケプストラム係数を用いる方法とがある。以下、1次元情報をローパスフィルタで処理した逆変換結果503を用いる方法について述べる。なお、フーリエスペクトラム又はケプストラム係数を用いたモデルを生成する方法についても、逆変換結果503と同じ手法を用いて生成することが可能である。
モデル生成部104は、周波数処理部211により算出される所定日時の周波数分析処理後1次元情報(密集度)に基づいて移動物体又は群衆の基準密集度(モデル値)を算出する基準密集度算出手段を構成している。モデル生成部104は、演算した基準密集度をデータベース105に与えて保持させる。
モデル生成部104は、季節、時刻、天候又は曜日ごとに基準密集度を演算することが可能であり、また、季節及び現時刻の時刻を勘案して複数の基準密集度を用意することもできる。
また、天候によっては、人物等の数は変化すると考えられるために、天候によってそれぞれ基準密集度を用意することが望ましい。さらに、雨天時の屋外であれば、傘をさした人物が存在するために、前記周波数分析処理後1次元情報(密集度)も晴天、曇天時とは異なる。また、同様に、平日と週末といったように、曜日によって、人物等の数は変化すると考えられるために、それぞれ複数の基準密集度を用意することが望ましい。また、これらの基準密集度は、季節、時刻、天候又は曜日に関する情報と対応づけるように複数のものを生成し、監視時には現在の季節、時刻、天候又は曜日に応じてどの基準密集度を用いるかを決定することが可能である。
図7(a)、(b)、(c)は、季節、時刻、天候、および曜日を基にモデル化した例を示す図である。図7(a)、(b)、(c)に示すように、例えば、現在の季節、時刻、天候、および曜日に応じて、モデル1、モデル2、モデル3…の中からどの基準密集度(モデル値)を用いるかが予め決定される。これにより、より詳細に移動物体又は群集に関するモデル化を行うことが可能となる。なお、季節、時刻、天候、および曜日すべてを基にモデル化する必要はなく、例えば時刻だけを基にモデル化しても構わない。これらの基準密集度(モデル値)は、データベース105に保持される。
ここで、周波数分析後1次元情報(密集度)として、逆変換結果503を用いた場合の、モデル生成部104の基準密集度演算例について説明する。逆変換結果503の代わりに、ヒストグラム303およびオンピクセルの縦軸検出値402を用いても同様の処理が可能である。
逆変換結果503は、x軸における各点xiごとに値y(xi)を持つ。ここで各点xiにおけ
る逆変換結果であるy(xi)の時間変化をモデル化することによって、基準密集度(モデル
値)を算出する。具体的には、図7(d)のように、y(xi)の時間変化である値に関して
、平均値と分散値を求めることによって、x軸における各点xiごとのy(xi)の時間変動を
モデル化することが可能である。すなわち、基準密集度(モデル値)は、点xiごとにf(xi)の平均値と分散値を持つことになる。
モデル化により、曜日や日時によって、密集度の変動が大きい場合は、前記分散値が大きな値となる。また、密集度の変動が小さく、人通りが少ない場合においては、前記平均値、前記分散値共に低い値となり、通常時の密集度を時間変動分も考慮してモデル化することが可能である。さらに、逐次的に前記基準密集度として、前記分散値や平均値を更新することも可能である。
また、フーリエスペクトラムやケプストラム係数を用いた場合は、各周波数もしくは各ケプストラム次数におけるスペクトラム値およびケプストラム値の時間変動を用いて、モデル化することが可能である。
例えば、フーリエスペクトラムを用いた場合は、ある周波数fiごとのパワースペクトラム値g(fi)を持つため、g(fi)の時間変動を前述のように平均値と分散値を用いてモデル化することが可能である。
ここで、データベース105には、基準密集度(モデル値)として、x軸における各点もしくは、各周波数、各ケプストラム次数の、y(xi)およびg(fi)の時間変動を表現する平均値と分散値を保持する。
なお、モデル生成部104は、環境変化によって人通りなどの移動物体の分布が変化した場合にも対応するために、基準密集度(モデル値)を所定時間毎に演算して新しい基準密集度(モデル値)を求めてデータベース105に与えて基準密集度(モデル値)を更新してもよい。
次に、状況判断部106について述べる。状況判断部106は、現在の季節、時刻、天候又は曜日などの情報を基に、データベース105に保持している基準密集度(モデル値)を選択し、選択された基準密集度と密集度算出部103から入力された現時刻における密集度(1次元情報)との比較を行って、現時刻における密集度が基準密集度と異なるか否かを判断して判断結果を生成して報知部107に与える。
状況判断部106において、現時刻における密集度と基準密集度との比較は、基準密集度(モデル値)の平均値および分散値σからの外れ具合を計算する。
ここでは、異常事態発生の判断は、入力された画像から1次元情報であるヒストグラム等を生成し、更に、周波数分析処理を行った周波数分析処理後1次元情報を現時刻における密集度として、x軸における各点もしくは、各周波数、各ケプストラム次数におけるy(xi)およびg(fi)を算出する。次に、y(xi)およびg(fi)が、基準密集度(モデル値)の分散値σから決定したNσ(N:定数)以上である点xiの数を計算し、その点数が閾値以上であれば、異常事態であると判断することができる。なお、比較方法については、点xiごとに重み係数を乗算しても良い。
次に、報知部107について述べる。報知部107は、画像表示部1071及び警報発生部1072を具備している。
画像表示部1071は、状況判断部106からの判断結果を受けて表示して監視者に報知する。警報発生部1072は、状況判断部106からの判断結果を受けて判断結果が異常事態の発生を示している時に警報音又は警報光を発生して監視者に報知する。
次に、上記のように構成された監視装置100の動作について説明する。図8は、監視装置100の動作の流れを示すフローチャートである。ここでは、データベース105には、モデル生成部104により例えば季節、時刻、天候、および曜日に応じて算出された複数の基準密集度がすでに保持されているとする。
カメラ101は、監視領域内の移動している複数の移動物体又は群衆を含む対象物の画像を撮像して全体画像を生成する(ステップS101)。移動体画像生成部102は、カメラ101で撮影された全体画像をフレーム毎に受けて全体画像に対してフレーム間差分処理、又は事前に用意された背景画像との背景差分処理を行う(ステップS102)。次に、密集度算出部103は、移動体画像生成部102により差分処理された画像(移動体画像)を1次元情報に変換し、周波数分析を行って現時刻の密集度を算出する(ステップS103)。状況判断部106は、データベース105に保持されている複数の基準密集度の中から、現在の季節、時刻、天候、および曜日に対応する基準密集度を選択する(ステップS104)。次に、状況判断部106は、選択した基準密集度と、密集度算出部103により算出された現時刻の密集度とに基づいて、現時刻の状況を判断する。すなわち、状況判断部106は、現時刻の密集度が基準密集度の平均値および分散値σから所定値以上外れているか否かを判断する(ステップS105)。この判断の結果、所定値以上外れている場合(ステップS105でYES)には、現時刻の状況を異常事態と判断する(ステップS106)。そして、警報発生部1072は、状況判断部106からの異常事態との判断結果を受けて警報音又は警報光を発生して監視者に報知する(ステップS107)。一方、上記判断の結果、所定値以上外れていない場合(ステップS105でNO)には、現時刻の状況を通常状態と判断する(ステップS108)。
このように、本発明の実施の形態1によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の密集度が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。また、本発明の実施の形態1によれば、移動物体又は群衆の密集度の算出が容易となる。
(実施の形態2)
次に、本発明の実施の形態2について、図面を参照して説明する。図9は、本発明の実施の形態2に係る監視装置の構成を示すブロック図である。なお、本発明の実施の形態2においては、本発明の実施の形態1と同じ構成要素には同じ参照符号を付し、その説明を省略する。
図9に示すように、本発明の実施の形態2に係る監視装置700は、本発明の実施の形態1の構成に加えて、カメラ701及びカメラ制御部702を備えている。
カメラ701は、パン、チルト及びズームの少なくとも一つの機能を備えている。密集度算出部103は、周波数分析処理後1次元情報(密集度)をカメラ制御部702に与える。また、状況判断部106は、判断結果をカメラ制御部702に与える。カメラ制御部702について、図10を用いて説明する。図10は、(a)通常時の画像例1201、(b)異常事態発生時の画像例1202、(c)基準密集度の平均値をプロットした例1203、(d)異常事態発生時の密集度1204を示す図である。なお、実際には、図10(c)に示す基準密集度は各f(xi)が分散値を持っている。ここで、状況判断部106が、異常事態が発生していることを判断した場合、カメラ制御部702は、密集度算出部103からの1次元情報(密集度)が基準密集度と最も異なる領域にカメラ701が向くようにカメラ701を制御する。この時に、カメラ701が撮像する画像は、画像表示部1071に与えられ表示される。
例えば、図10(a)に示すような通常の状態から人が倒れて図10(b)に示すように異常事態が発生し、状況判断部106が、異常事態が発生していると判断した場合、カメラ制御部702は、図10(d)に示すような現時刻の密集度1204が図10(c)に示すような基準密集度と最も異なる領域にカメラ701が向くようにカメラ701を制御する。これにより、図10(b)に示す人が倒れている領域をカメラ701で撮像することができる。
また、カメラ制御部702では、周波数分析処理後1次元情報(密集度)がピーク値を持つ領域にカメラを制御することも可能である。
このように、本発明の実施の形態2によれば、本発明の実施の形態1の効果に加えて、異常事態の判定結果に基づいて異常事態の発生領域をカメラ701が撮像することにより詳細な画像を得ることができる。
(実施の形態3)
次に、本発明の実施の形態3について、図面を参照して説明する。図11は、本発明の実施の形態3に係る監視装置の構成を示すブロック図である。なお、本発明の実施の形態3においては、本発明の実施の形態1と同じ構成要素には同じ参照符号を付し、その説明を省略する。
図11に示すように、本発明の実施の形態3に係る監視装置800は、本発明の実施の形態1の構成に、移動方向算出部801を追加し、モデル生成部104及び状況判断部106の代わりにモデル生成部802及び状況判断部803を有する。
移動方向算出部801は、移動体画像生成部102で差分処理を行った画像を受け、かつ、密集度算出部103の周波数処理部211によりフレーム毎に周波数分析処理を行った周波数分析処理後1次元情報を受ける。
以下、移動方向算出部801が、図6に示した周波数処理部211でフレーム毎にローパス処理を行った逆変換結果503を入力として用いた場合について述べる。
図12に示すように、移動方向算出部801は、画像領域選択部901及び画像照合部902を有している。画像領域選択部901は、図13に示すように、周波数分析処理後1次元情報(密集度)である逆変換結果503に基づいて、その時刻に撮像された入力画像301の領域にローパス処理を行った逆変換結果503によって区切ることにより領域選択画像1001を得る。次に、画像照合部902は、領域選択画像1001を用いて現在の入力画像との照合を行う。この時に、画像照合部902は、領域選択画像1001と現在の入力画像とが最も良く照合するように、領域選択画像1001を拡大、縮小又は平行移動する。これにより、画像照合部902は、領域選択画像1001と現在の入力画像とが最も良く照合した時の拡大又は縮小に関するパラメータと縦軸方向及び横軸方向における平行移動パラメータの情報を得る。このパラメータを1次元に並べたものを移動方向と呼ぶ。
次に、画像照合部902は、得られた拡大又は縮小及び平行移動に関するパラメータ値をモデル生成部802及び状況判断部803に与える。モデル生成部802は、領域選択画像1001と現在の入力画像とが最も良く照合した時の拡大又は縮小に関するパラメータと縦軸方向及び横軸方向における平行移動パラメータを並べた1次元データをデータベース105に保持させることも可能である。
また、実施の形態1で説明したように、時間変動を考慮しても良い。具体的には、画像照合部902で得た、2枚の領域選択画像1001が最も良く照合した時の拡大又は縮小に関するパラメータと縦軸方向及び横軸方向における平行移動パラメータを並べた1次元情報から、さらに、この1次元情報の各要素の時間変動を加味することによって、各要素の平均値と分散値を算出して保持する。ここで、基準移動方向として、データベース105に保持する情報は、拡大、縮小、平行移動などに関するパラメータ値を並べた1次元情報か、もしくは、各パラメータ値の平均値と分散値を並べた1次元情報である。
なお、画像照合部902は、拡大、縮小及び平行移動を用いた照合方法以外により画像を照合するようにしてもよい。
状況判断部803は、画像照合部902で算出した現時刻のパラメータ値とデータベース105により保持された通常時の画像より算出されたパラメータ値(基準移動方向)との照合を行う。ここで、状況判断部803は、現時刻における季節、時刻、天候又は曜日などの情報をもとに、データベース105に保持しているモデル(基準移動方向)を選択し、密集度算出部103から入力された現時刻における入力情報との比較を行う。
この時、状況判断部803は、入力された画像から生成する1次元情報として、通常時の画像から算出するパラメータ値の生成方法と同様に、画像照合のために用いた拡大、縮小及び平行移動に関するパラメータ値を用いる。そして、状況判断部803は、現時刻の画像照合のために用いたパラメータ値を表す1次元情報と通常時の画像から算出した1次元情報との内積を計算して内積値を生成し、その内積値が閾値以上であるか否かを判断し判断結果を生成して報知部107に与える。この判断結果は、画像照合のために用いたパラメータ値を表す1次元情報と通常時の画像から算出した1次元情報との内積値が閾値以上である場合に異常事態の発生であることを示すものである。例えば、この監視装置800は、通常時には移動物体及び群集が移動するにも拘わらず、グループ同士の抗争などで移動物体及び群集が移動しないような場合に異常事態と判定することが可能である。
ここでは、異常事態発生の判断は、1次元情報の内積値に基づいて行われたが、通常時の画像から算出される1次元情報と入力される現時刻の画像から1次元情報との類似度に基づくものでもよい。この時、各要素に重み係数を乗算することも有効である。また、状況判断部803は、現時刻の移動方向とデータベース105に保持された基準移動方向とを比較して現時刻の移動方向が基準移動方向より所定の閾値以上大きい場合に異常事態であると判断するものである。
なお、本発明の実施の形態1及び本発明の実施の形態3と組み合わせることも可能である。
このように、本発明の実施の形態3によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の移動方向が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。また、本発明の実施の形態3によれば、移動物体又は群衆の移動方向の算出が容易となる。
(実施の形態4)
次に、本発明の実施の形態4について、図面を参照して説明する。図14は、本発明の実施の形態4に係る監視装置の構成を示すブロック図である。なお、本発明の実施の形態4においては、本発明の実施の形態3と同じ構成要素には同じ参照符号を付し、その説明を省略する。
図14に示すように、本発明の実施の形態4に係る監視装置1100は、本発明の実施の形態3の構成に加えて、カメラ1101及びカメラ制御部1102を備えている。
ここでは、画像を複数の小領域に分割して、その小領域ごとに基準移動方向を算出する例について述べる。それぞれの処理は、小領域ごとに行う。カメラ1101は、パン、チルト及びズームの少なくとも一つの機能を備えている。密集度算出部103は、周波数分析処理後1次元情報をカメラ制御部1102に与える。また、状況判断部803は、判断結果をカメラ制御部1102に与える。カメラ制御部1102について、図15を用いて説明する。図15(a)は、通常時の画像例1301を示す図であり、入力画像を9個の小領域に分割した例を示している。図15(b)は、通常時の小領域ごとの移動方向例1302を示す図である。図15(c)は、異常事態発生時の画像例1303を示す図である。図15(d)は、異常事態発生時の移動方向例1304を示す図である。ここで、状況判断部106が、異常事態が発生していることを判断した場合、カメラ制御部1102は、異常事態発生時の移動方向例1304に示したように移動方向算出部801で算出された移動方向が、通常の移動方向(基準移動方向)と最も異なる領域(図15(d)の例では左下の領域)にカメラ1101が向くようにカメラ1101を制御する。この時に、カメラ1101が撮像する画像は、画像表示部1071に与えられ表示される。
このように、本発明の実施の形態4によれば、本発明の実施の形態3の効果に加えて、異常事態の判定結果に基づいて異常事態の発生領域をカメラ1101が撮像することにより詳細な画像を得ることができる。
なお、本実施の形態では、カメラ制御部1102は、移動方向算出部801で算出された移動方向が基準移動方向と最も異なる領域にカメラ1101が向くようにカメラ1101を制御しているが、これに限られるものではない。例えば、カメラ制御部1102は、移動方向算出部801で算出された移動方向が基準移動方向と所定の閾値以上異なる領域、かつ、1次元情報がピーク値を持つ領域にカメラ1101が向くようにカメラ1101を制御しても構わない。また、カメラ制御部1102は、例えば、移動方向算出部801で算出された移動方向が基準移動方向と所定値以上異なる複数の領域に順にカメラ1101が向くようにカメラ1101を制御しても構わない。
(実施の形態5)
本実施の形態では、入力された画像から人物の頭部候補領域の面積、人物の占める面積を用いて密集度を算出する形態について述べる。本発明の実施の形態5に係る監視装置の構成は、図2と同様である。
カメラ101は、移動している複数の移動物体又は群衆を含む対象物の画像を撮像して全体画像を生成する。ここでは、カラー画像もしくは赤外画像を用いることが望ましい。移動体画像生成部102は、背景差分処理を行っても良い。
次に、密集度算出部103で、頭部の検出を行う場合について述べる。カメラ101で撮影された例えば図16(a)に示すような全体画像1601から、黒領域(もしくは肌色領域)を抽出して、例えば図16(b)に示すような検出結果1602を得る。次に、頭部に相当する楕円の検出を行うことによって、例えば図16(c)に示すような楕円検出結果1603を得て、画像中に含まれる頭部候補領域の面積を算出する。なお、ここでは、マクロ的に密集度を算出するため、図16に示す例のように、人物が重なっていた場合等、頭部に相当する楕円の検出が正常に動作しなかった場合においても、動作が破綻しない。また、頭部の数が正確に検出できないような場合においても、正常に動作することが期待できる。
次に、密集度算出部103で、人物の画像中に占める面積を算出する場合について述べる。カメラ101は、赤外画像を用いることが望ましい。この場合、密集度算出部103で、赤外画像で検出された人物領域が占める画素数を算出する。もちろん、カラー画像で肌色検出等を行った後、人物領域を切り出しても良い。なお、ここでは、頭部候補領域の面積を検出する場合と同様に、人物領域は必ずしも正確に抽出される必要はない。
ここで、密集度は、頭部候補領域の面積、もしくは人物領域が画像中に占める画素数、割合等で定義することが可能である。
次に、モデル生成部104の基準密集度(モデル値)を生成する動作について、説明する。ここで、基準密集度は、通常時の全体画像から作成された移動物体又は群衆の密集度であり、異常事態発生の判断の基準となる頭部候補領域の面積もしくは、人物領域が画像中に占める画素数、割合である。
なお、密集度の一時的な変動に対応するために、基準密集度は、一定時刻分の平均値と分散値を用いても良い。モデル生成部104は、演算した基準密集度をデータベース105に与えて保持させる。また、天候によっては、人物等の数は変化すると考えられるために、天候によってそれぞれ基準密集度を用意することが望ましい。さらに、雨天時の屋外であれば、傘をさした人物が存在するために、前記周波数分析処理後1次元情報(密集度)も晴天、曇天時とは異なる。また、同様に、平日と週末といったように、曜日によって、人物等の数は変化すると考えられるために、それぞれ複数の基準密集度を用意することが望ましい。また、これらの基準密集度は、季節、時刻、天候又は曜日に関する情報と対応づけるように複数のものを生成し、監視時には現在の季節、時刻、天候又は曜日に応じてどの基準密集度を用いるかを決定することが可能である。
次に、状況判断部106について述べる。状況判断部106は、現在の季節、時刻、天候又は曜日などの情報を基に、データベース105に保持している基準密集度(モデル値)を選択し、選択された基準密集度と密集度算出部103から入力された現時刻における密集度(1次元情報)との比較を行って、現時刻における密集度が基準密集度と異なるか否かを判断して判断結果を生成して報知部107に与える。
状況判断部106において、現時刻における密集度と基準密集度との比較は、基準密集度(モデル値)の平均値および分散値σからの外れ具合を計算する。一例としては、密集度の値が、基準密集度(モデル値)の分散値σから決定したNσ(N:定数)以上外れている場合に異常事態と判定することができる。
次に、報知部107について述べる。報知部107は、画像表示部1071及び警報発生部1072を具備している。
画像表示部1071は、状況判断部106からの判断結果を受けて表示して監視者に報知する。警報発生部1072は、状況判断部106からの判断結果を受けて判断結果が異常事態の発生を示している時に警報音又は警報光を発生して監視者に報知する。
このように、本発明の実施の形態5によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、移動物体又は群衆の密集度が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。また、本発明の実施の形態5によれば、実施の形態1と比較して計算量が少なく、移動物体又は群衆の密集度の算出が容易となる。
(実施の形態6)
次に、本発明の実施の形態6について説明する。本発明の実施の形態6に係る監視装置の構成は、図2と同様である。
本実施の形態では、カメラ(撮像手段)101、移動体画像生成部102、密集度算出部103は、実施の形態1と同様であるため、説明は省略する。
モデル生成部104は、基準密集度(モデル値)を生成する場合に単純に算術平均と分散を用いて演算することも可能であるが、ここでは、関数近似を用いて、基準密集度を算出、応用する例について説明する。
この背景画像作成手法は、画素ごとに複数のガウス分布を用いて確率的に背景画像をモデル化し、逐次に入力される画像を学習する手法である。例えば、木々の揺れ等、常に変動している画素は、変動分を含めて背景とすることができるなどの利点がある。本発明の監視装置100におけるモデル生成部104においては、通常時に入力される1次元情報を、背景と同様に基準となる情報と考えることによって、環境変化にも対応可能なモデルを生成することができる。
ここで、基準密集度は、通常時の全体画像から作成された移動物体又は群衆の密集度であり、異常事態発生の判断の基準となる1次元情報である。
基準密集度であるモデルを生成する方法としては、ヒストグラム303およびオンピクセルの縦軸検出値402を用いることができる。さらに、周波数処理部211において、図6に示すように1次元情報であるヒストグラム303をローパス処理した逆変換結果503を用いる方法と、フーリエスペクトラム又はケプストラム係数を用いる方法とがある。以下、1次元情報をローパスフィルタで処理した逆変換結果503を用いる方法について述べる。なお、フーリエスペクトラム又はケプストラム係数を用いたモデルを生成する方法についても、逆変換結果503と同じ手法を用いて生成することが可能である。
モデル生成部104は、周波数処理部211により算出される所定日時の周波数分析処理後1次元情報(密集度)に基づいて移動物体又は群衆の基準密集度(モデル値)を算出演算する基準密集度算出手段を構成している。モデル生成部104は、演算した基準密集度をデータベース105に与えて保持させる。
モデル生成部104は、季節、時刻、天候又は曜日ごとに基準密集度を演算することが可能であり、また、季節及び現時刻の時刻を勘案して複数の基準密集度を用意することもできる。
また、天候によっては、人物等の数は変化すると考えられるために、天候によってそれぞれ基準密集度を用意することが望ましい。さらに、雨天時の屋外であれば、傘をさした人物が存在するために、前記周波数分析処理後1次元情報(密集度)も晴天、曇天時とは異なる。また、同様に、平日と週末といったように、曜日によって、人物等の数は変化すると考えられるために、それぞれ複数の基準密集度を用意することが望ましい。また、これらの基準密集度は、季節、時刻、天候又は曜日に関する情報と対応づけるように複数のものを生成し、監視時には現在の季節、時刻、天候又は曜日に応じてどの基準密集度を用いるかを決定することが可能である。
ここで、周波数分析後1次元情報(密集度)として、逆変換結果503を用いた場合の、モデル生成部104の基準密集度演算例について説明する。逆変換結果503の代わりに、ヒストグラム303およびオンピクセルの縦軸検出値402を用いても同様の処理が可能である。
逆変換結果503は、x軸における各点xiごとに値y(xi)を持つ。ここで各点xiにおける逆変換結果であるy(xi)の時間変化をモデル化することによって、基準密集度(モデル値)を算出する。ここでは、C. Stauffer,W.E.L.Grimson:“Adaptive background mixture models for real−time tracking,”CVPR'99,Vol.2,pp.246−252における背景画像作成手法を用いた例について説明する。ここで、y(xi)の時間変化に対して、例えば図17に点線で示すような複数のガウス分布を用いてフィッティングする。これにより、y(xi)の時間変化は、ガウス分布の分布数とそれぞれのガウス分布の平均値、分散値を示すパラメータとして表現することができる。
本実施の形態では、このパラメータセットを基準密集度(モデル値)と呼び、データベース105に保持する。
モデル化により、曜日や日時によって、密集度の変動が大きい場合は、前記分散値が大きな値となる。また、密集度の変動が小さく、人通りが少ない場合においては、前記平均値、前記分散値共に低い値となり、通常時の密集度を時間変動分も考慮してモデル化することが可能である。さらに、複数のガウス分布でモデル化することによって、信号機付近を監視する場合に、信号機の変化によって周期的に変動する密集度をモデル化することも可能である。
また、フーリエスペクトラムやケプストラム係数を用いた場合は、各周波数もしくは各ケプストラム次数におけるスペクトラム値およびケプストラム値の時間変動を用いて、モデル化することが可能である。
例えば、フーリエスペクトラムを用いた場合は、ある周波数fiごとのパワースペクトラム値g(fi)を持つため、g(fi)の時間変動をガウス分布の分布数とそれぞれのガウス分布の平均値、分散値を示すパラメータをセットとして表現することができる。
ここで、データベース105には、基準密集度(モデル値)として、前記パラメータセットを保持する。もちろん、時間ごとに前記パラメータセットを更新することも可能である。
次に、状況判断部106について述べる。状況判断部106は、現在の季節、時刻、天候又は曜日などの情報を基に、データベース105に保持している基準密集度(モデル値)を選択し、選択された基準密集度と密集度算出部103から入力された現時刻における密集度(1次元情報)との比較を行って、現時刻における密集度が基準密集度と異なるか否かを判断して判断結果を生成して報知部107に与える。
状況判断部106において、現時刻における密集度と基準密集度との比較は、基準密集度(モデル値)の平均値および分散値σからの外れ具合を計算する。
ここでは、異常事態発生の判断は、入力された画像から1次元情報であるヒストグラム等を生成し、更に、周波数分析処理を行った周波数分析処理後1次元情報から現時刻における密集度として、x軸における各点もしくは、各周波数、各ケプストラム次数におけるy(xi)およびg(fi)を算出する。次に、y(xi)およびg(fi)が、ガウス分布でモデル化された基準密集度(モデル値)から、閾値およびその範囲を設定することによって、異常事態か否かを判定する。
次に、報知部107について述べる。報知部107は、画像表示部1071及び警報発生部1072を具備している。
画像表示部1071は、状況判断部106からの判断結果を受けて表示して監視者に報知する。警報発生部1072は、状況判断部106からの判断結果を受けて判断結果が異常事態の発生を示している時に警報音又は警報光を発生して監視者に報知する。
なお、モデル生成部104は、環境変化によって人通りなどの移動物体の分布が変化した場合にも対応するために、基準密集度(モデル値)を所定時間毎に演算して新しい基準密集度(モデル値)を求めてデータベース105に与えて基準密集度(モデル値)を更新してもよい。
このように、本発明の実施の形態6によれば、全体画像に存在する移動物体又は群衆の画像を個々に検出及び追跡するのではなくマクロ的に捉えることによって、人物の顔などの部位を正確に検出できない場合においても、移動物体又は群衆の密集度が通常時と大きく異なる場合に異常事態と判断することによって検出ミス、追跡ミス及び照合ミスを防止し監視者に注意を促すことができる。また、本発明の実施の形態6によれば、移動物体又は群衆の密集度の算出が容易となり、実施の形態1の効果に加えて、時間変動をより正確にモデル化することができる。
本発明に係る監視装置は、例えば駅、商店街、道路等において、移動物体又は群衆の異常事態を判断するのに有用である。
従来の監視装置の構成を示すブロック図である。 本発明の実施の形態1に係る監視装置の構成を示すブロック図である。 本発明の実施の形態1に係る監視装置の密集度算出部の構成を示すブロック図である。 本発明の実施の形態1に係る監視装置における1次元情報変換を説明するための図である。 本発明の実施の形態1に係る監視装置における1次元情報変換を説明するための他の図である。 本発明の実施の形態1に係る監視装置におけるローパス処理を説明するための図である。 本発明の実施の形態1に係る監視装置におけるモデルの生成を説明するための図である。 本発明の実施の形態1に係る監視装置の動作の流れを示すフローチャートである。 本発明の実施の形態2に係る監視装置の構成を示すブロック図である。 本発明の実施の形態2に係る監視装置のカメラ制御部の動作を説明するための図である。 本発明の実施の形態3に係る監視装置の構成を示すブロック図である。 本発明の実施の形態3に係る監視装置の移動方向算出部の構成を示すブロック図である。 本発明の実施の形態3に係る監視装置の動作を説明するための図である。 本発明の実施の形態4に係る監視装置の構成を示すブロック図である。 本発明の実施の形態4に係る監視装置のカメラ制御部の動作を説明するための図である。 本発明の実施の形態5に係る監視装置における頭部候補領域検出の動作を説明するための図である。 本発明の実施の形態6に係る監視装置におけるガウス分布によるモデル化を説明するための図である。
符号の説明
100、700、800、1100 監視装置
101 カメラ
102 移動体画像生成部
103 密集度算出部
104 モデル生成部
105 データベース
106 状況判断部
107 報知部
1071 画像表示部
1072 警報発生部
701 カメラ
702 カメラ制御部

Claims (6)

  1. 監視領域内の監視を行う監視装置であって、
    監視領域内の画像を撮像して全体画像を生成する撮像手段と、
    前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、
    前記全体画像から頭部候補領域を検出し、検出した前記頭部候補領域が前記全体画像に対して占める面積に基づいて、前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段と
    を備えることを特徴とする監視装置。
  2. 監視領域内の監視を行う監視装置であって、
    監視領域内の画像を撮像して全体画像を生成する撮像手段と、
    前記撮像手段により生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成手段と、
    前記移動体画像の面積に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出手段と
    を備えることを特徴とする監視装置。
  3. 監視領域内の監視を行う監視方法であって、
    監視領域内の画像を撮像して全体画像を生成する撮像ステップと、
    前記撮像ステップにより生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成ステップと、
    前記全体画像から頭部候補領域を検出し、検出した前記頭部候補領域が前記全体画像に対して占める面積に基づいて、前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出ステップと
    を含むことを特徴とする監視方法。
  4. 監視領域内の監視を行う監視方法であって、
    監視領域内の画像を撮像して全体画像を生成する撮像ステップと、
    前記撮像ステップにより生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成ステップと、
    前記移動体画像の面積に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出ステップと
    を含むことを特徴とする監視方法。
  5. 監視領域内の監視を行うためのプログラムであって、
    監視領域内の画像を撮像して全体画像を生成する撮像ステップと、
    前記撮像ステップにより生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成ステップと、
    前記全体画像から頭部候補領域を検出し、検出した前記頭部候補領域が前記全体画像に対して占める面積に基づいて、前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  6. 監視領域内の監視を行うためのプログラムであって、
    監視領域内の画像を撮像して全体画像を生成する撮像ステップと、
    前記撮像ステップにより生成される前記全体画像から複数の移動物体または群衆の画像である移動体画像を生成する移動体画像生成ステップと、
    前記移動体画像の面積に基づいて前記移動物体または前記群衆の密集の度合いを示す密集度を算出する密集度算出ステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2007059230A 2003-10-21 2007-03-08 監視装置 Pending JP2007209008A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007059230A JP2007209008A (ja) 2003-10-21 2007-03-08 監視装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003361060 2003-10-21
JP2007059230A JP2007209008A (ja) 2003-10-21 2007-03-08 監視装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005514758A Division JP3981391B2 (ja) 2003-10-21 2004-10-06 監視装置

Publications (1)

Publication Number Publication Date
JP2007209008A true JP2007209008A (ja) 2007-08-16

Family

ID=38487977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007059230A Pending JP2007209008A (ja) 2003-10-21 2007-03-08 監視装置

Country Status (1)

Country Link
JP (1) JP2007209008A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009192A (ja) * 2008-06-25 2010-01-14 Olympus Corp 情報表示システム及びそれを用いた携帯情報端末
JP2010140371A (ja) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 映像監視システム、映像監視方法および映像監視プログラム
JP2011076316A (ja) * 2009-09-30 2011-04-14 Fujifilm Corp 群衆監視装置および方法ならびにプログラム
JP2011130203A (ja) * 2009-12-17 2011-06-30 Canon Inc 映像情報処理方法及びその装置
CN103021181A (zh) * 2012-12-30 2013-04-03 西安费斯达自动化工程有限公司 基于宏观离散交通流模型的交通拥堵监控预报方法
JP2013257630A (ja) * 2012-06-11 2013-12-26 Mitsubishi Electric Corp 画像処理装置
JP2014534786A (ja) * 2011-11-22 2014-12-18 ペルコ インコーポレーテッドPelco, Inc. 地図に基づいた制御
JP2017021718A (ja) * 2015-07-14 2017-01-26 コニカミノルタ株式会社 頭部検出装置および頭部検出方法ならびに被監視者監視装置
JPWO2016002408A1 (ja) * 2014-06-30 2017-05-25 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
JP2019115052A (ja) * 2019-02-12 2019-07-11 コニカミノルタ株式会社 頭部検出装置および頭部検出方法ならびに被監視者監視装置
US10635908B2 (en) 2013-09-19 2020-04-28 Nec Corporation Image processing system and image processing method
WO2021124435A1 (ja) * 2019-12-17 2021-06-24 日本電気株式会社 画像処理方法
US11189048B2 (en) 2018-07-24 2021-11-30 Toyota Jidosha Kabushiki Kaisha Information processing system, storing medium storing program, and information processing device controlling method for performing image processing on target region
US11210335B2 (en) 2018-09-27 2021-12-28 Optim Corporation System and method for judging situation of object

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009192A (ja) * 2008-06-25 2010-01-14 Olympus Corp 情報表示システム及びそれを用いた携帯情報端末
JP2010140371A (ja) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> 映像監視システム、映像監視方法および映像監視プログラム
JP2011076316A (ja) * 2009-09-30 2011-04-14 Fujifilm Corp 群衆監視装置および方法ならびにプログラム
JP2011130203A (ja) * 2009-12-17 2011-06-30 Canon Inc 映像情報処理方法及びその装置
JP2014534786A (ja) * 2011-11-22 2014-12-18 ペルコ インコーポレーテッドPelco, Inc. 地図に基づいた制御
JP2013257630A (ja) * 2012-06-11 2013-12-26 Mitsubishi Electric Corp 画像処理装置
CN103021181A (zh) * 2012-12-30 2013-04-03 西安费斯达自动化工程有限公司 基于宏观离散交通流模型的交通拥堵监控预报方法
CN103021181B (zh) * 2012-12-30 2014-10-08 西安费斯达自动化工程有限公司 基于宏观离散交通流模型的交通拥堵监控预报方法
US10956753B2 (en) 2013-09-19 2021-03-23 Nec Corporation Image processing system and image processing method
US10635908B2 (en) 2013-09-19 2020-04-28 Nec Corporation Image processing system and image processing method
US10909697B2 (en) 2014-06-30 2021-02-02 Nec Corporation Image processing apparatus, monitoring system, image processing method,and program
JPWO2016002408A1 (ja) * 2014-06-30 2017-05-25 日本電気株式会社 画像処理装置、監視システム、画像処理方法、及びプログラム
US11403771B2 (en) 2014-06-30 2022-08-02 Nec Corporation Image processing apparatus, monitoring system, image processing method, and program
JP2017021718A (ja) * 2015-07-14 2017-01-26 コニカミノルタ株式会社 頭部検出装置および頭部検出方法ならびに被監視者監視装置
US11189048B2 (en) 2018-07-24 2021-11-30 Toyota Jidosha Kabushiki Kaisha Information processing system, storing medium storing program, and information processing device controlling method for performing image processing on target region
US11210335B2 (en) 2018-09-27 2021-12-28 Optim Corporation System and method for judging situation of object
JP2019115052A (ja) * 2019-02-12 2019-07-11 コニカミノルタ株式会社 頭部検出装置および頭部検出方法ならびに被監視者監視装置
JPWO2021124435A1 (ja) * 2019-12-17 2021-06-24
WO2021124435A1 (ja) * 2019-12-17 2021-06-24 日本電気株式会社 画像処理方法
JP7414077B2 (ja) 2019-12-17 2024-01-16 日本電気株式会社 画像処理方法

Similar Documents

Publication Publication Date Title
JP3981391B2 (ja) 監視装置
JP2007209008A (ja) 監視装置
US10346688B2 (en) Congestion-state-monitoring system
CN108053427B (zh) 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置
JP3910626B2 (ja) 監視装置
KR102553883B1 (ko) 비디오 감시 시스템에서 경보들을 발생시키는 방법
CN104378582B (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
US7436887B2 (en) Method and apparatus for video frame sequence-based object tracking
US7660439B1 (en) Method and system for flow detection and motion analysis
US20060045354A1 (en) Method and apparatus for improved video surveillance through classification of detected objects
WO2016114134A1 (ja) 移動状況推定装置、移動状況推定方法およびプログラム記録媒体
Nam et al. Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata
US20090033745A1 (en) Method and apparatus for video frame sequence-based object tracking
WO2010030814A2 (en) Pixel-level based micro-feature extraction
JP5290227B2 (ja) 対象物検知装置及びその学習装置
JP5047382B2 (ja) ビデオ監視時に移動物体を分類するシステムおよび方法
JP5271227B2 (ja) 群衆監視装置および方法ならびにプログラム
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
EP2000998B1 (en) Flame detecting method and device
KR20150034398A (ko) 객체인식 기반의 주차장 이벤트 검지 시스템
KR101979375B1 (ko) 감시 영상의 객체 행동 예측 방법
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
KR101154350B1 (ko) 고해상도 영상의 객체 검지 및 분할 인식을 이용한 다중 영상처리시스템 및 방법
KR20130047131A (ko) 이동형 단말기를 이용한 영상감시 방법 및 시스템