JP2010206475A - 監視支援装置、その方法、及びプログラム - Google Patents

監視支援装置、その方法、及びプログラム Download PDF

Info

Publication number
JP2010206475A
JP2010206475A JP2009049229A JP2009049229A JP2010206475A JP 2010206475 A JP2010206475 A JP 2010206475A JP 2009049229 A JP2009049229 A JP 2009049229A JP 2009049229 A JP2009049229 A JP 2009049229A JP 2010206475 A JP2010206475 A JP 2010206475A
Authority
JP
Japan
Prior art keywords
frame
difference
imaging information
monitoring support
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009049229A
Other languages
English (en)
Inventor
Shogo Kadokawa
章吾 門川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009049229A priority Critical patent/JP2010206475A/ja
Priority to US12/713,697 priority patent/US20100225765A1/en
Publication of JP2010206475A publication Critical patent/JP2010206475A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】複数の監視カメラ映像のうち変化があった複数の映像の差分領域を重畳し、1つのフレームとして生成する監視支援装置等を提供する。
【解決手段】複数の防犯カメラ120で撮像された連続するフレームからなる映像情報305を取得する映像取得部310と、取得した各映像情報において、任意の一のフレームと当該任意の一のフレームから所定時間前のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、当該検出した画素領域を差分領域として前記各映像情報ごとに抽出する差分抽出部320と、各撮像情報ごとに抽出した同時刻における差分領域を重畳して一のフレームを生成する重畳部330と重畳したフレームをモニタ130に表示する表示制御部340とを備える。
【選択図】図3

Description

本発明は、防犯カメラによる監視システムを支援する監視支援装置に関する。
建物や施設等の監視は、カメラで撮像された映像をモニタで表示して行われている。カメラの台数がモニタ台数より多い場合、モニタで表示するカメラを切り替えたり、画面を4、9、16等に縦横分割し複数台のカメラ映像を表示している。
しかし、カメラの切り替えが行われると、モニタ表示しているカメラの映像以外の映像はリアルタイムで見ることができず、監視の抜けが生じてしまう。また、多くのカメラ映像を表示するために、モニタを縦横分割して表示すると、1カメラ当たりの映像表示領域が小さくなり、見難くなってしまう。さらに、分割領域毎に視線を移動させないといけないため、監視者の負担が大きく、見逃し等も発生しやすい。さらにまた、カメラの映像が変化していない場合(侵入者や作業者がおらず監視の必要が少ない場合)であっても常にカメラ映像が表示されているため、映像の変化の有無に関わらず、監視員がモニタを注視せざるを得ず、監視者の負担が大きくなってしまう。
上記問題に関連する技術として、背景画像と入力映像とを比較して、その差分画像から監視対象の状態を検出する技術や複数のフレームを同一画面に重ね合わせて表示する技術が開示されている(特許文献1、及び2を参照)。
特開2008−54243号公報 特開平9−98343号公報
しかしながら、特許文献1に示す技術は、交通状態の異常が検知された場合に、該当するカメラの映像を画面上に表示するため、複数のカメラで異常が検知された場合には、マルチ画面に各映像が表示され、監視者の負担が大きくなってしまうという課題を有する。また、マルチ画面に表示する場合には、上述したように1カメラ当たりの映像表示領域が小さくなり、見難くなってしまうため、異常の見落としを生じてしまう可能性がある。
特許文献2に示す技術は、ベースとなるフレームに変化部分を上書きするため、画像が複雑になり監視対象を視認し難いという課題を有する。また、同一のカメラで時系列に画像を合成する技術であり、複数の異なるカメラからの映像を合成する技術ではない。
そこで、本発明は上記課題を解決するためになされたものであり、複数の防犯カメラ映像のうち変化があった複数の映像の差分領域を重畳し、1つのフレームとして生成する監視支援装置等を提供することを目的とする。
本願に開示する監視支援装置は、複数のカメラで撮像された連続するフレームからなる撮像情報を取得する撮像情報取得手段を備える。また、取得した各撮像情報において、任意の一のフレームと以前撮像されたフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出された画素領域を差分領域として前記撮像情報ごとに抽出する差分領域抽出手段を備える。さらに、当該差分領域抽出手段が抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳手段を備える。
このように、本願に開示する監視支援装置は、複数のカメラで撮像された差分画像を重畳して一のフレームを生成するため、監視者は1画面のみを監視するだけで、全てのカメラの映像を確認でき、監視者の負担を軽減することができるという効果を奏する。
第1の実施形態に係る監視システムのシステム構成図である。 第1の実施形態に係る監視支援装置のハードウェア構成図である。 第1の実施形態に係る監視支援装置の機能ブロック図である。 第1の実施形態に係る監視支援装置の映像取得情報、及び差分領域情報を示す第1の図である。 第1の実施形態に係る監視支援装置の映像取得情報、及び差分領域情報を示す第2の図である。 第1の実施形態に係る監視支援装置の重畳画像情報を示す図である。 第1の実施形態に係る監視支援装置の動作を示すフローチャートである。 第1の実施形態に係る監視支援装置で生成された重畳画像における一部の拡大図である。 第1の実施形態に係る監視支援装置で生成された重畳画像と防犯カメラを関連付けた場合における一部の拡大図である。 第1の実施形態に係る監視支援装置において重畳画像が選択された場合の処理を示す図である。
以下、本発明の実施の形態を説明する。本発明は多くの異なる形態で実施可能である。従って、本実施形態の記載内容のみで本発明を解釈すべきではない。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。
以下の実施の形態では、主に装置について説明するが、所謂当業者であれば明らかな通り、本発明は方法、及び、コンピュータを動作させるためのプログラムとしても実施できる。また、本発明はハードウェア、ソフトウェア、または、ハードウェア及びソフトウェアの実施形態で実施可能である。プログラムは、ハードディスク、CD−ROM、DVD−ROM、光記憶装置、または、磁気記憶装置等の任意のコンピュータ可読媒体に記録できる。さらに、プログラムはネットワークを介した他のコンピュータに記録することができる。
(本発明の第1の実施形態)
本実施系形態に係る監視支援装置について図1ないし図10を用いて説明する。
(1.構成)
図1は、本実施形態に係る監視システムのシステム構成図である。図1において、監視システム100は、複数の防犯カメラ120a〜120z、システム全体を管理する監視支援装置110、監視映像を表示するモニタ130、及び監視支援装置110に対する入力操作を行う入力機器140を備える。なお、システム全体を管理する専用の装置として管理サーバを備えるようにしてもよい。
防犯カメラ120は、監視対象地点に固定して設置され、監視対象領域を常時撮像している。撮像された映像は、監視支援装置110に送信されてモニタ130に表示される。監視者150は、モニタ130に表示された映像を監視して、異常がないかを確認すると共に、必要に応じて入力機器140から指示情報を入力し、映像の詳細な確認等を行う。
本実施形態に係る監視支援装置110は、防犯カメラ120から受信した映像を編集して表示することで、監視者150の監視の見落としを防止すると共に、監視者150の負担を軽減して監視の支援を行う。
図2は、本実施形態に係る監視支援装置110のハードウェア構成図である。監視支援装置110は、CPU210、RAM220、ROM230、ハードディスク(HDとする)240、通信I/F250、及び入出力I/F260を備える。ROM230やHD240には、オペレーティングシステム(OSとする)や各種プログラム等が格納されており、必要に応じてRAM220に読み出され、CPU210により各プログラムが実行される。通信I/F250は、他の装置(ここでは、防犯カメラ120)と通信を行うためのインタフェースである。入出力I/F260は、キーボードやマウス等の入力機器140からの入力を受け付けたり、プリンタやモニタ130等にデータを出力するためのインタフェースである。この入出力I/F260としてUSBやRS232C等が用いられる。また、必要に応じて、光磁気ディスク、フロッピーディスク(登録商標)、CD−R、DVD−R等のリムーバブルディスクに対応したドライブを接続することができる。
図3は、本実施形態に係る監視支援装置110の機能ブロック図である。監視支援装置110は、映像取得部310と差分抽出部320と重畳部330と表示制御部340とを備える。
映像取得部310は、防犯カメラ120が撮像した映像情報305を取得する処理を行う。取得した映像情報305は映像取得情報315として各防犯カメラごとに監視支援装置110内のデータベースに格納される。映像取得部310が映像情報を取得すると、取得された映像取得情報315に基づいて、差分抽出部320が背景画像との差分領域を抽出し、差分領域情報325を生成する。
なお、差分領域の抽出は、背景画像との差分領域(以下、背景差分とする)を抽出してもよいし、所定時間前(例えば、1秒前等)の画像との差分領域(以下、隣接差分とする)を抽出してもよい。また、所定時間前(例えば、1秒前等)の画像との移動量の差を検出して差分領域(以下、オプティカルフローとする)を抽出してもよい。
差分抽出部320が差分領域情報325を生成すると、生成された各防犯カメラごとの差分領域情報325を、重畳部330が重ね合わせて重畳画像情報335を生成する。重畳部330が重畳画像情報335を生成すると、生成された重畳画像情報335を、表示制御部340がモニタ130に表示する。
ここで、映像取得情報315、差分領域情報325、及び重畳画像情報335について説明する。図4は、本実施形態に係る監視支援装置の映像取得情報、及び差分領域情報の一例を示す第1の図である。ここでは、防犯カメラXにより撮像された映像情報305を映像情報取得部310が取得したものとする。図4(X)は、防犯カメラXにより予め撮像された背景画像であり、映像取得情報315に含まれる。図4(a)〜図4(d)は、防犯カメラXで撮像された映像取得情報315であり、図4(a)から図4(d)にかけて時系列順(例えば、1秒ごと)になっている。図からわかる通り、ここでは、門から人物が進入している様子が撮像されている。
図4(a)〜図4(d)の各画像と図4(X)の背景画像とを比較し、相違する画素領域を抽出したものが、図4(a')〜図4(d')である。図4(a)〜図4(d)において、背景には変化がなく、人物のみが移動しているため、人物の画素領域のみが差分領域として抽出され、差分領域情報325(差分画像410〜440)が生成される。
図5は、本実施形態に係る監視支援装置の映像取得情報、及び差分領域情報の一例を示す第2の図である。図5において、図4の場合と同様に、他の箇所に設置された防犯カメラYの映像情報305に基づいて、映像取得情報315(図5(a)〜図5(d))と背景画像(図5(Y))とで相違する画素領域が抽出される。ここでも、図5(a)〜図5(d)において、背景には変化がなく、人物のみが移動しているため、人物の画素領域のみが差分領域として抽出され、差分領域情報325(図5(a')〜図5(d')すなわち差分画像510〜540)が生成される。
図6は、本実施形態に係る監視支援装置の重畳画像情報の一例を示す図である。図6において、防犯カメラXで撮像された映像情報に基づいて生成された差分領域情報325(差分画像410〜440)と防犯カメラYで撮像された映像情報に基づいて生成された差分領域情報325(差分画像510〜540)とを重ね合わせる。各画像を重ね合わせることで重畳画像情報335(重畳画像610〜640)が生成される。つまり、差分画像410と差分画像510を重畳したものが重畳画像610である。差分画像420と差分画像520を重畳したものが重畳画像620である。差分画像430と差分画像530を重畳したものが重畳画像630である。差分画像440と差分画像540を重畳したものが重畳画像640である。
なお、重畳画像情報335については、差分領域を明確にするために、コントラストを強調して生成してもよい。
また、背景画像については、天気、季節、時間帯ごとに使い分けを行ってもよい。つまり、晴天時、夏季、昼間等の明るい時間帯と雨天時、冬季、夜等の暗い時間帯では、相違する画素領域が背景にも及んでしまう可能性があるが、使い分けを行うことで、それらの問題を防止することができる。
また、背景画像については、事前に作成する以外に、動的に作成してもよい。つまり、背景画像は状況変化がない画像であるが、状況変化が少ない、又は、短時間であれば、一定間隔(例えば、1分間隔)で映像から画像を取得し、平均化し、動的に背景画像を作成することもできる。
図6において生成された重畳画像情報335を、表示制御部340がモニタ130に表示し、表示された画面を監視者150が監視することで、確実に異常を検知することができる。
(2.動作)
図7は、本実施形態に係る監視支援装置の動作を示すフローチャートである。まず、映像取得部310が、防犯カメラ120で撮像された映像情報305を取得する(ステップS701)。取得した映像情報305をキャプチャし、画像情報を生成する(ステップS702)。差分抽出部325が、キャプチャした画像情報と予め撮像されていた背景画像との差分領域を抽出して、差分画像を生成する(ステップS703)。
なお、差分領域の有無を判定し、差分領域がないと判定された場合には、差分画像の生成を行わず、ステップS701の処理に戻るようにしてもよい。差分領域の有無の判定については、相違があった画素数に基づいて判定してもよい。つまり、予め設定された基準値以下の画素数の相違しかなかった場合には、差分領域がないと判定する。
ここで、差分領域の抽出について説明する。上述したように、差分領域の抽出は、背景差分、隣接差分、又はオプティカルフローにより抽出することができる。本実施形態においては、背景差分により差分領域を抽出する(図4、図5を参照)。
また、抽出した差分領域の表現方法としては、(1)背景画像に対して変化があった領域を差分領域とする方法、(2)前画像に対して変化があった領域を差分領域とする方法、(3)変化があった領域の輪郭のみを差分領域とする方法等が考えられる。
例えば、(1)の場合は、背景画像に対しての変化であるため、一人の人物の移動が検出された場合は、その人物の現在の状態が差分領域として抽出される。(2)の場合は、前画像に対しての変化であるため、前画像(例えば、1秒前の画像)に人物が撮像されている場合には、その人物の現在の状態と1秒前の状態が差分領域として抽出される。(3)の場合は、領域における輪郭線のみが差分領域として抽出される。輪郭のみが差分領域として抽出された場合については、詳細を後述する。
なお、いずれの方法においても、差分領域として抽出されない部分は単一色(例えば、黒)で抽出されるものとする。
ステップS703で差分画像が生成されると、差分領域を強調するために、差分画像のコントラストを調整する(ステップS704)。各防犯カメラごとに生成された差分画像を重ね合わせて重畳画像を生成する(ステップS705)。
ここで、重畳画像について説明する。各防犯カメラごとの差分画像を重畳することで、1つの重畳画像で複数の防犯カメラの動きを監視することができる。しかし、差分画像を単純に重ね合わせるだけでは、差分領域が重なった場合に、視認が困難になる可能性がある。そこで、本実施形態においては、差分領域の輪郭のみを重畳、半透化して重畳、及び/又は防犯カメラごとに色分けして重畳する。
図8は、本実施形態に係る監視支援装置で生成された重畳画像における一部の拡大図である。図8(a)は、差分領域を単純に重ね合わせた場合の重畳画像の一例を示す。この状態では、人物が2人いることはなんとなく視認できるが、2人の人物を明確に区別して監視することが難しくなってしまう。また、さらに小さい差分領域(3人目の人物)が隠れて視認できない可能性もある。
図8(a)の条件から、輪郭のみを差分領域として抽出した場合の重畳画像が図8(b)である。図8(b)においては、2人の人物の輪郭のみが抽出されているため、明確に区別することができ、図8(a)に比べて視認性が向上している。また、他の人物の存在の有無も視認することができる。
図8(a)の条件から、一方の人物を半透化した場合の重畳画像が図8(c)である。このように、差分領域を半透化することで、図8(b)の場合と同様に2人の人物を明確に区別することができ、視認性を向上させることができる。
図8(a)の条件から、それぞれの人物を防犯カメラごとに色分けした場合の重畳画像が図8(d)である。ここでは、図面の都合上、色の違いを塗りつぶしのパターンの違いで表現している。つまり、実際は、例えばチェックパターンが赤、斜線パターンが青等の色である。重なっている領域については、それぞれの色調を加算(図で言えばチェックと斜線の加算)等した色となる。このように、防犯カメラごとに差分領域を色分けすることで、図8(b)、及び(c)の場合と同様に2人の人物を明確に区別することができ、視認性を向上させることができる。
なお、差分領域として抽出されない部分は単一色(例えば、黒)が重畳されるため、重畳画像においても同じく単一色となる。
また、差分領域の輪郭のみの重畳方法、半透化しての重畳方法、防犯カメラごとに色分けしての重畳方法は、任意に組み合わせることができるものとする。例えば、図8(b)の輪郭線の色を防犯カメラごとに異なる色としてもよい。また、図8(d)の一方の人物を半透化にしてもよい。
図7に戻って、ステップS705で重畳画像が生成されると、表示制御部340が、生成された重畳画像をモニタ130に表示する(ステップS706)。
ここで、重畳画像の表示形態について説明する。重畳画像には複数の防犯カメラごとの差分領域が含まれているため、防犯カメラと差分領域との関連付けを行う。図9は、本実施形態に係る監視支援装置で生成された重畳画像と防犯カメラを関連付けた場合における一部の拡大図である。図9(a)ないし図9(c)においては、それぞれの差分領域ごとに防犯カメラの識別情報(カメラ番号)が対応付けられ、近接して表示されている。このとき、図9(b)のように輪郭のみを差分領域として抽出している場合は、カメラ番号を領域内部に表示することもできる。図9(d)においては、差分領域に近接して表示されてはいないが、同一画面内にカメラ番号と色を対応付けた対応情報が表示されている。そのため、差分領域と防犯カメラの対応付けを容易に行うことができる。
なお、差分領域の表示態様と、防犯カメラの識別情報の表示態様との組み合わせは任意の行うことができるものとする。
図7に戻って、ステップS706で重畳画像が表示されると、監視者150によりマウス等の入力機器140を用いて重畳画像が選択(クリック)されたかどうかを判定する(ステップS707)。選択されていない場合は、ステップS701に戻って、防犯カメラの新たな映像を取得する。選択された場合は、選択された位置を取得し(ステップS708)、取得した位置から差分領域を特定し、対応する防犯カメラの映像を表示する(ステップS709)。
ここで、重畳画像がクリックされた場合の処理について説明する。図10は、本実施形態に係る監視支援装置において重畳画像が選択された場合の処理を示す図である。図10において、矢印A、Bはマウスポイントを示している。また、矢印Aで選択されている人物は、防犯カメラY(図5を参照)に撮像されている人物で、矢印Bで選択されている人物は、防犯カメラX(図4を参照)に撮像されている人物であるとする。
矢印Aのマウスポイントがクリックされた場合は、選択された差分領域に対応する防犯カメラYの現在の映像が表示される。矢印Bのマウスポイントがクリックされた場合は、選択された差分領域に対応する防犯カメラXの現在の映像が表示される。
なお、防犯カメラX、又はYの映像は、重畳画像と同一の画面に表示してもよいし、別画面で表示してもよい。
また、マウス等による選択を行わなくても、抽出した差分領域に基づいて変化が生じていると判断される防犯カメラの映像を特定し、分割表示してもよい。
図7に戻って、監視を終了するかどうかを判定し(ステップS710)、監視を継続する場合は、ステップS701に戻って、防犯カメラの新たな映像を取得する。監視を終了する場合は、監視システムをシャットダウンして(ステップS711)、処理を終了する。
このように、本実施形態に係る監視支援装置によれば、複数のカメラで撮像された差分画像を重畳して一のフレームを生成するため、監視者は1画面のみを監視するだけで、全てのカメラの映像を確認でき、監視者の負担を軽減することができる。
また、複数の映像を縦横に分割せずに重畳することで、映像表示領域が小さくなり異常の見落としが発生することを防止することができる。
さらに、映像全てではなく、差分領域についてのみ重畳するため、監視対象を視認しやすく、異常の見落としを防止することができると共に、監視者の負担を軽減することができる。
さらにまた、差分領域の輪郭のみを抽出するため、差分領域を重畳したときに、複数の差分領域が同じ位置に重なった場合であっても、それぞれの差分領域を明確に区別して監視することができる。
さらにまた、差分領域を半透化、及び/又は対応するカメラごとに異なる色で重畳するため、差分領域を明確に区別して監視することができる。
さらにまた、重畳して生成したフレームを表示すると共に、選択された差分情報ごとに対応するカメラの映像を表示するため、差分情報に異常を発見した場合に、カメラの映像を即座に確認することができる。
さらにまた、差分領域に近接して対応するカメラの識別情報を表示するため、差分領域とカメラとの対応付けを容易に行うことができ、監視者が複数箇所の監視状態を負担なく確認することができるという効果を奏する。
以上の前記実施形態は、所謂当業者であれば明らかであるように、方法、及び、プログラムとして捉えることもできる。また、本願に開示する監視支援装置の構成要素または構成要素の任意の組合せを、方法、装置、回路、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも、他の態様として有効である。
以上の前記実施形態により本発明を説明したが、本発明の技術的範囲は実施形態に記載の範囲には限定されず、上記実施形態に多様な変更又は改良を加えることが可能である。そして、かような変更又は改良を加えた実施の形態も本発明の技術的範囲に含まれる。このことは、特許請求の範囲及び課題を解決する手段からも明らかなことである。
前記各実施形態に関して次の付記を示す。
(付記1)複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得手段と、当該撮像情報取得手段が取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出手段と、当該差分領域抽出手段が抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳手段とを備える監視支援装置。
(付記2)付記1に記載の監視支援装置において、前記差分領域抽出手段が、前記差分領域の輪郭のみを抽出する監視支援装置。
(付記3)付記1又は2に記載の監視支援装置において、前記撮像情報取得手段が、前記カメラごとに前記撮像情報を取得し、前記重畳手段が、対応するカメラごとに異なる画像処理を施して生成した画像を重畳して一のフレームを生成する監視支援装置。
(付記4)付記1ないし3のいずれかに記載の監視支援装置において、前記重畳手段が生成したフレームを表示する表示手段を備え、当該表示手段が表示する任意の一の差分領域が選択された場合に、当該選択された任意の一の差分領域に対応する前記撮像情報取得手段にて取得された撮像情報を表示する監視支援装置。
(付記5)付記1ないし4のいずれかに記載の監視支援装置において、前記重畳手段が生成したフレームを表示する表示手段を備え、当該表示手段が、前記表示されたフレーム上の差分領域が撮像されたカメラを識別する識別情報を、前記対応する差分領域に近接して表示する監視支援装置。
(付記6)コンピュータが、複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得ステップと、当該撮像情報取得ステップが取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出ステップと、当該差分領域抽出ステップが抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳ステップとを実行する監視支援方法。
(付記7)付記6に記載の監視支援方法において、前記差分領域抽出ステップが、前記差分領域の輪郭のみを抽出する監視支援方法。
(付記8)付記6又は7に記載の監視支援方法において、前記撮像情報取得ステップが、前記カメラごとに前記撮像情報を取得し、前記重畳ステップが、対応するカメラごとに異なる画像処理を施して生成した画像を重畳して一のフレームを生成する監視支援方法。
(付記9)付記6ないし8のいずれかに記載の監視支援方法において、前記重畳ステップが生成したフレームを表示する表示ステップを含み、当該表示ステップが表示する任意の一の差分領域が選択された場合に、当該選択された任意の一の差分領域に対応する前記撮像情報取得ステップにて取得された撮像情報を表示する監視支援方法。
(付記10)付記6ないし9のいずれかに記載の監視支援方法において、前記重畳ステップが生成したフレームを表示する表示ステップを含み、当該表示ステップが、前記表示されたフレーム上の差分領域が撮像されたカメラを識別する識別情報を、前記対応する差分領域に近接して表示する監視支援方法。
(付記11)複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得手段、当該撮像情報取得手段が取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出手段、当該差分領域抽出手段が抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳手段としてコンピュータを機能させる監視支援プログラム。
(付記12)付記11に記載の監視支援プログラムにおいて、前記差分領域抽出手段が、前記差分領域の輪郭のみを抽出する監視支援プログラム。
(付記13)付記11又は12に記載の監視支援プログラムにおいて、前記撮像情報取得手段が、前記カメラごとに前記撮像情報を取得し、前記重畳手段が、対応するカメラごとに異なる画像処理を施して生成した画像を重畳して一のフレームを生成する監視支援プログラム。
(付記14)付記11ないし13のいずれかに記載の監視支援プログラムにおいて、前記重畳手段が生成したフレームを表示する表示手段としてコンピュータを機能させ、当該表示手段が表示する任意の一の差分領域が選択された場合に、当該選択された任意の一の差分領域に対応する前記撮像情報取得手段にて取得された撮像情報を表示する監視支援プログラム。
(付記15)付記11ないし14のいずれかに記載の監視支援プログラムにおいて、前記重畳手段が生成したフレームを表示する表示手段としてコンピュータを機能させ、当該表示手段が、前記表示されたフレーム上の差分領域が撮像されたカメラを識別する識別情報を、前記対応する差分領域に近接して表示する監視支援プログラム。
100 監視システム
110 監視支援装置
120 防犯カメラ
130 モニタ
140 入力機器
150 監視者
210 CPU
220 RAM
230 ROM
240 HD
250 通信I/F
260 入出力I/F
305 映像情報
310 映像取得部
315 映像取得情報
320 差分抽出部
325 差分領域情報
330 重畳部
335 重畳画像情報
340 表示制御部
410〜440 差分画像
510〜540 差分画像
610〜640 重畳画像

Claims (7)

  1. 複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得手段と、
    当該撮像情報取得手段が取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出手段と、
    当該差分領域抽出手段が抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳手段とを備える監視支援装置。
  2. 請求項1に記載の監視支援装置において、
    前記差分領域抽出手段が、前記差分領域の輪郭のみを抽出する監視支援装置。
  3. 請求項1又は2に記載の監視支援装置において、
    前記撮像情報取得手段が、前記カメラごとに前記撮像情報を取得し、
    前記重畳手段が、対応するカメラごとに異なる画像処理を施して生成した画像を重畳して一のフレームを生成する監視支援装置。
  4. 請求項1ないし3のいずれかに記載の監視支援装置において、
    前記重畳手段が生成したフレームを表示する表示手段を備え、
    当該表示手段が表示する任意の一の差分領域が選択された場合に、当該選択された任意の一の差分領域に対応する前記撮像情報取得手段にて取得された撮像情報を表示する監視支援装置。
  5. 請求項1ないし4のいずれかに記載の監視支援装置において、
    前記重畳手段が生成したフレームを表示する表示手段を備え、
    当該表示手段が、前記表示されたフレーム上の差分領域が撮像されたカメラを識別する識別情報を、前記対応する差分領域に近接して表示する監視支援装置。
  6. コンピュータが、
    複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得ステップと、
    当該撮像情報取得ステップが取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出ステップと、
    当該差分領域抽出ステップが抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳ステップとを実行する監視支援方法。
  7. 複数のカメラで撮像された撮影時刻の異なる複数のフレームを有する撮像情報を取得する撮像情報取得手段、
    当該撮像情報取得手段が取得した各撮像情報において、任意の一のフレームと当該任意の一のフレームとは異なる撮影時刻のフレーム、又は予め撮像された背景フレームとを比較して画素値に相違がある領域を検出し、検出した画素領域を差分領域として前記各撮像情報ごとに抽出する差分領域抽出手段、
    当該差分領域抽出手段が抽出した同時刻における前記各撮像情報ごとの差分領域を重畳して一のフレームを生成する重畳手段としてコンピュータを機能させる監視支援プログラム。
JP2009049229A 2009-03-03 2009-03-03 監視支援装置、その方法、及びプログラム Pending JP2010206475A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009049229A JP2010206475A (ja) 2009-03-03 2009-03-03 監視支援装置、その方法、及びプログラム
US12/713,697 US20100225765A1 (en) 2009-03-03 2010-02-26 Monitoring support apparatus, monitoring support method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009049229A JP2010206475A (ja) 2009-03-03 2009-03-03 監視支援装置、その方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2010206475A true JP2010206475A (ja) 2010-09-16

Family

ID=42677906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009049229A Pending JP2010206475A (ja) 2009-03-03 2009-03-03 監視支援装置、その方法、及びプログラム

Country Status (2)

Country Link
US (1) US20100225765A1 (ja)
JP (1) JP2010206475A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104426588A (zh) * 2013-08-21 2015-03-18 北京千橡网景科技发展有限公司 用于移动终端协同拍摄的方法和装置
JP2018098778A (ja) * 2016-12-09 2018-06-21 キヤノン オイローパ エヌ.ヴェー. 動きの検知を示す監視装置及び監視方法
WO2019087577A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9154739B1 (en) * 2011-11-30 2015-10-06 Google Inc. Physical training assistant system
JP6160290B2 (ja) * 2013-06-21 2017-07-12 富士通株式会社 情報処理装置、判定方法および判定プログラム
US20150161540A1 (en) * 2013-12-06 2015-06-11 International Business Machines Corporation Automatic Road Condition Detection
US9852595B2 (en) * 2014-09-22 2017-12-26 Dann M Allen Photo comparison and security process called the flicker process
JP5915960B1 (ja) 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
TW201639357A (zh) * 2015-04-21 2016-11-01 Nat Applied Res Laboratories 一種分散式的遠端巨量監視器異常自動通報方法
US10497130B2 (en) * 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
CN113115000B (zh) * 2021-04-12 2022-06-17 浙江商汤科技开发有限公司 地图生成方法及装置、电子设备和存储介质
CN113496537B (zh) * 2021-07-07 2023-06-30 网易(杭州)网络有限公司 动画播放方法、装置及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322239A (ja) * 1994-05-23 1995-12-08 Hitachi Ltd 監視映像の表示方法および監視装置
JP2000092483A (ja) * 1998-09-17 2000-03-31 Toshiba Corp 監視画像表示装置および監視画像表示方法と監視画像表示装置を動作させるための記録媒体
JP2000295600A (ja) * 1999-04-08 2000-10-20 Toshiba Corp 監視装置
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2002248188A (ja) * 2000-11-29 2002-09-03 Acushnet Co マルチメディア分析システム及びその使用方法
JP2005252831A (ja) * 2004-03-05 2005-09-15 Mitsubishi Electric Corp 設備監視支援装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141433A (en) * 1997-06-19 2000-10-31 Ncr Corporation System and method for segmenting image regions from a scene likely to represent particular objects in the scene
JP3880759B2 (ja) * 1999-12-20 2007-02-14 富士通株式会社 移動物体検出方法
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US7113616B2 (en) * 2001-12-05 2006-09-26 Hitachi Kokusai Electric Inc. Object tracking method and apparatus using template matching
JP4010444B2 (ja) * 2002-02-28 2007-11-21 シャープ株式会社 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
EP1901822A2 (en) * 2005-05-19 2008-03-26 Image Fidelity Llc. Remote gaming with live table games
EP1907076B1 (en) * 2005-07-12 2008-11-05 Dartfish SA A method for analyzing the motion of a person during an activity
US8275449B2 (en) * 2005-11-11 2012-09-25 Visualsonics Inc. Overlay image contrast enhancement
US7834886B2 (en) * 2007-07-18 2010-11-16 Ross Video Limited Methods and apparatus for dynamic correction of data for non-uniformity
BRPI0817039A2 (pt) * 2007-08-24 2015-07-21 Stratech Systems Ltd Sistema e método de vigilância de pista de pouso e decolagem
TWI353778B (en) * 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07322239A (ja) * 1994-05-23 1995-12-08 Hitachi Ltd 監視映像の表示方法および監視装置
JP2000092483A (ja) * 1998-09-17 2000-03-31 Toshiba Corp 監視画像表示装置および監視画像表示方法と監視画像表示装置を動作させるための記録媒体
JP2000295600A (ja) * 1999-04-08 2000-10-20 Toshiba Corp 監視装置
JP2001094968A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
JP2002248188A (ja) * 2000-11-29 2002-09-03 Acushnet Co マルチメディア分析システム及びその使用方法
JP2005252831A (ja) * 2004-03-05 2005-09-15 Mitsubishi Electric Corp 設備監視支援装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104426588A (zh) * 2013-08-21 2015-03-18 北京千橡网景科技发展有限公司 用于移动终端协同拍摄的方法和装置
JP2018098778A (ja) * 2016-12-09 2018-06-21 キヤノン オイローパ エヌ.ヴェー. 動きの検知を示す監視装置及び監視方法
US11310469B2 (en) 2016-12-09 2022-04-19 Canon Kabushiki Kaisha Surveillance apparatus and a surveillance method for indicating the detection of motion
JP7090415B2 (ja) 2016-12-09 2022-06-24 キヤノン株式会社 装置、システム、方法およびプログラム
WO2019087577A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JPWO2019087577A1 (ja) * 2017-10-31 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11403057B2 (en) 2017-10-31 2022-08-02 Sony Corporation Information processing device, information processing method, and information processing program
JP7302477B2 (ja) 2017-10-31 2023-07-04 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
US20100225765A1 (en) 2010-09-09

Similar Documents

Publication Publication Date Title
JP2010206475A (ja) 監視支援装置、その方法、及びプログラム
JP6887132B2 (ja) 映像処理装置、映像処理システム及び映像処理方法
CN102348128B (zh) 具有摄像机异常检测装置的监视用摄像机系统
JP5251646B2 (ja) 映像確認装置、その方法、及びプログラム
JP6403687B2 (ja) 監視システム
JP2017098879A (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5128547B2 (ja) 監視システム用の画像処理プログラム、画像処理装置、及び画像処理方法
DE112016002373T5 (de) Tracking-support-vorrichtung, tracking-support-system und tracking-support-verfahren
WO2018056355A1 (ja) 監視装置
JP4811653B2 (ja) 物体検出装置
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
KR20140039927A (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
JP2006311025A (ja) 表示装置及び表示方法及びプログラム
US20200311438A1 (en) Representative image generation device and representative image generation method
JP2023015138A (ja) 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム
JP2014036415A (ja) パノラマ画像生成装置
JP6191160B2 (ja) 画像処理プログラムおよび画像処理装置
JP2010113693A (ja) 顔画像抽出装置・方法及び電子広告装置並びにプログラム
JP2007312271A (ja) 監視システム
JP5142416B2 (ja) 物体検出装置
JPH08123658A (ja) アイコンパターンまたはアイコンの登録方法及び登録装置並びにアイコンの表示方法及び表示装置
JP2020123280A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6987902B2 (ja) 制御装置、制御方法及びプログラム
JP2012169826A (ja) 画像処理装置、画像表示システム及び画像処理方法
JP7247310B2 (ja) 制御装置、制御方法、プログラム、及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318