JP2005218014A - 監視システム - Google Patents

監視システム Download PDF

Info

Publication number
JP2005218014A
JP2005218014A JP2004025298A JP2004025298A JP2005218014A JP 2005218014 A JP2005218014 A JP 2005218014A JP 2004025298 A JP2004025298 A JP 2004025298A JP 2004025298 A JP2004025298 A JP 2004025298A JP 2005218014 A JP2005218014 A JP 2005218014A
Authority
JP
Japan
Prior art keywords
camera
moving object
image
information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004025298A
Other languages
English (en)
Inventor
Hiroyuki Osawa
弘幸 大澤
Hiroshi Okazaki
洋 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004025298A priority Critical patent/JP2005218014A/ja
Publication of JP2005218014A publication Critical patent/JP2005218014A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 監視システムにおいて撮影画像から動物体情報を検出して、映像と共に蓄積をする。過去映像の検索の際に、その情報を元にマップ上から動物体座標などを元に過去映像の閲覧をしやすくするGUIを提供する。
【解決手段】 従来のネットワークカメラを用いた監視システムに加え映像を蓄積する手段と動画像から動物体を検出する検出手段を追加し、その映像蓄積をする手段を操作するクライアント手段を追加する。そのクライアント手段に動物体を基本とする過去映像の検索方法を追加しGUIを提供する。
【選択図】 図1

Description

発明は監視システムにおけるカメラの動き検知情報を利用した蓄積画像の検索の方法とそのユーザーインターフェイスに関するものである。
従来、アナログ線を前提とした監視カメラシステムが、銀行やコンビニエンスストア、スーパー、宝石店、消費者金融等のあらゆる業種の店内などに強盗や窃盗、万引き防止のために設置されている。そして、これらの映像はテープなどで逐次記録されて来た。しかし、近年、このようなアナログ線を前提とした監視カメラシステムと違い画像情報の伝播にTCP/IPなどデジタル信号を前提とした遠隔カメラシステムが実用化されてきている。このようなカメラシステムは、TCP/IPというグローバルなプロトコルを使用する為、遠隔地からの閲覧が可能であると同時に、デジタル画像データを扱う為、データの蓄積にハードディスクやMOなどのデジタル情報記憶機器に記録出来るというメリットがある。更に、上記のデジタル監視カメラシステムのカメラに、Pan,Tilt,Zoom可能なカメラを用いる事によって、広範囲に映像を取得する事が可能になると同時に、映像の情報以外に、そのときのカメラのパラメータ情報やセンサーの異常警報情報なども合わせて記録が可能である。
特開2000−224457号公報
このような監視カメラシステムによって蓄積された画像データを閲覧する際には、非常に大きな労力を使う必要がある場合が多い。
アナログ画像システムに関しては、テープ媒体に残っている情報は、映像と時間情報のみである場合が多く、目的の映像を検索する場合には、閲覧者がテープの早送りや巻き戻しを行う事が前提となる。その為、目的画像の検索はほとんど人間の手と人間の目を用いる必要があるし、時間と労力を必要とする。
デジタル画像システムに関しては、記憶装置がランダムアクセスが可能である事が多い為、目的の時間を瞬時に映し出す事が可能である。また、センサー連動データを残している場合は、センサー系の出力を蓄積画像の時間と関連付ける事で、監視的に意味の高い映像の検索が非常に高速化に行う事が可能となった。
しかし、これらの検索の基本は、記録された時刻に対しての付加情報であり、基本は時刻での検索となる。本来、蓄積映像を閲覧する第一目的は、映像内に写っている監視対象物の変化を見ることである。
少なくとも、時刻による検索というのは、監視の対象となる映像内の動物体を基準とした検索方法ではないと言う事が出来る。
本発明では、蓄積された画像の検索を、その映像内に写った移動物体の位置座標表と時刻を基準に、検索を行う事で、従来の時刻のみに頼る検索方法ではなく、実際に監視対象内部の動物体の状態を指定する事で、膨大な蓄積された画像データの検索を効率良く行う事が可能にする。
このようなシステムを実現するために、本システムには、Pan,Tilt,Zoom可能なカメラを用いて監視対象となる場所全域を映像に捕らえ、取得するデジタル画像データを処理し、画像内のどの位置に動物体をいるかを認識する。この動物体の情報を元に、全カメラをPan,Tilt,Zoomを行い、映像に捕らえカメラの位置情報と画像の映っている場所等から、最終的に動物体の座標を計算し、記録を行う。
そして、このような検索を行う場合の効率の良いGUIを提供する事で、従来よりも、簡単かつ高速に監視画像の検索を可能とする事が可能になる。
この発明は下記の構成を備えることにより上記課題を解決できるものである。
(1)カメラによって撮影された画像を蓄積する蓄積手段と、その撮影した動画像から動物体を検出する検出手段と、検出された動物体を示すアイコンをマップ上に表示する表示手段と、前記表示手段によって表示されたアイコンの指示に応じて、前記動物体が検出された映像を再生する再生手段とを有することを特徴とする監視システム。
(2)前記(1)において、マップ上である範囲を指定にともなって、動物体を監視空間内の座標によって検索を行う検索手段を有し、前記表示手段は、検索された動物体をアイコンとして表示することを特徴とする監視システム。
第一の請求項によって、監視空間内で撮影している動画像によって動物体を認識し、それを監視空間を示すマップ情報に表示を行い、それをクリックする事で、過去の蓄積された動画像を表示する事が可能になる。
また、第二の請求項によって、マウスでドラッグして範囲を指定する事で、監視動物体の座標によって過去の映像の検索を行う事が可能になり、過去の蓄積映像を検出された動物体の座標によって、簡単に検索を行う事が可能になる。
以下本発明を実施するための最良の形態を、実施例により詳しく説明する。
(第一の実施例)
第一の発明は、蓄積映像の検索に動物体画像検出を用いて蓄積映像の簡易かつ高速な検索をする方法である。
特に検出した動物体の表示等のGUIを提供する事を特徴とする。
本実施例は、図面を基に説明を行う。
図1は、システム構成を示したものである。
001−008はネットワークを示している。このネットワークは、本発明ではTCP/IPネットワークを用いている。その為、インターネットやイントラネットなど何れも用いる事が可能である。また、プロトコルはTCP/IPに依存する必要はなく、IPX/ISXやAppleTalkと言った同様の機能を果たすプロトコルを用いても良い。回線に関しても、これらのプロトコルを使用出来るのであれば、どのような回線や無線を用いても構わない。
001−001,001−003はネットワークカメラサーバを示し、001−006は、映像サーバ及びカメラ制御サーバを示している。これらのサーバは構成要素に若干の違い(カメラ部分が一体化しているかどうかなど)はあるが、ほぼ同一構成と目的を持っている。これらのカメラサーバの目的は、撮影する画像をデジタル化を行い、デジタル化した画像データを映像蓄積サーバに対して送信する役目を持っている。
001−006は映像撮影用のカメラを外部に持っており001−005に示されるように別筐体として持っている。しかし機能的にはほぼ同等である。
これらのカメラサーバには、それぞれ001−002,001−004,001−007に示されるようにセンサーを接続する事が可能である。
センサーは補助的な役割をするもので、撮影範囲外の動物体などの検知に用いられる。これらのセンサー情報も映像蓄積サーバ(検知サーバ)に対してセンサーの検出情報を送信する。
このような機能によって、撮影している映像外の場所での変化や、いち早い反応を行う場合に効果を発揮する。しかし、必須構成要素ではない。
001−009は、映像蓄積サーバ(動き検知サーバ)を示している。
映像蓄積サーバでは、これらのカメラサーバから送られてくる動画像を蓄積すると同時に、動物体検出を行っている。動物体検出機能によって、映像蓄積サーバは、蓄積している画像のどの部分でどのくらいの範囲で、画像の変化があるかどうかを判定する事が可能である。
この動き検出処理部分は、映像蓄積サーバと同じ部分にある必要はなく、それぞれのネットワークカメラサーバにあっても良い。
動物体部分のアルゴリズムは、図5、図6、図7で触れるが、基本的に公知例を用いる事が可能である。本発明では特に、特開2000−228766号公報(監視システム及びその制御方法及びその動作処理プログラムを記憶した記憶媒体)に示されるアルゴリズムを用いている。この提案書では、位置が移動可能なPan,Tilt,Zoomカメラを複数用いる事で、動物体検出を行っている。しかし、本発明では、カメラ位置が移動可能である事は必須ではない。
動物体の位置検出自体は、位置固定Pan,Tilt,Zoomカメラとして計算する事で本発明の目的を果たす事が可能である。
図2は、各サーバ装置内部構成図を示している。
002−001,002−002,002−003,002−004,002−005はそれぞれカメラサーバ装置に接続される外部装置を示している。(ただし、ネットワークカメラサーバに関しては、カメラ装置及び雲台装置に関しては一体化をしている)これらの外部装置は、002−001は、サーバ情報の表示用装置として画像等が出力される。002−002は、監視対象となる画像情報を取り込むカメラ装置である。002−003は、カメラ装置を様々なPan,Tilt方向に向けるための装置である。002−004は、センサー装置であり、赤外線センサーや圧力センサーなど様々なセンサー装置を接続する事が出来る。このセンサーは、カメラ装置で撮影される範囲外で、動物体が存在する場合などに、いち早くカメラを監視対象物体の方向に向けるために、映像監視の為の補助的な役割を果たしている。その為、このセンサーで動物体が検出された場合にネットワークカメラサーバは、自動的にセンサーの示す方向にPan,Tilt,Zoomを行ったりする事が出来る。002−005は、ネットワーク網を示しており、図1で説明されているように、デジタル信号を交換する事が可能ならば、どのようなネットワーク及びプロトコル用いても良い(本提案ではTCP/IPネットワーク網を使用している)。
002−006〜002−014は、サーバ構成要素を示している。この構成に関しては一般的なコンピュータシステムとほぼ同等であり、映像蓄積サーバや動き検知サーバ、映像蓄積クライアントなどもほぼ同じ構成によって動作をしている。
構成要素は、それぞれ、画像出力装置002−006、入力装置002−008、中央演算処理装置002−009、主記憶装置002−010、外部記憶装置002−011、画像入力装置002−012、外部機器信号送信受信装置002−013、ネットワークインターフェース002−014で接続がなされている。更にこれらの装置は全てバスライン002−007で接続がされており、連帯している。
本発明のシステムは、このような構成要素によって動作をしている。
図3は、ネットワークカメラサーバの設置状態を示している。
ネットワークカメラサーバ003−002,003−003,003−004は、ネットワークカメラサーバの設置状態とネットワークカメラの概要詳細を示している。
ネットワークカメラサーバは、カメラ部003−002と雲台部003−003の2つの部分に分かれている。カメラ部は、映像の撮影とズーム機能を搭載しており、これらをTCP/IPで画像の取得とズームの制御が可能である。カメラサーバ機能がなくても、映像はNTSC信号を用いて外部機器で映像を受け取る事が出来、シリアルケーブル経由で、ズームのコントロールが可能である。
実際には、ズーム以外に、利得補正や絞り制御、シャッタースピード制御など様々なカメラパラメータの制御可能である。
このカメラ部003−002は、雲台003−003に接続されており、雲台によって、カメラのパン、チルトの動作を行う事が可能である。この雲台の制御に関しても、ネットワークカメラサーバであれば、TCP/IP経由で制御を行う事が可能であるし、シリアルケーブル経由で制御する事も可能である。
これらのカメラは、壁003−001に示されるように固定される。この設置された座標は、動き検出サーバに登録をされ、実際の動き検知及び、動物体座標の決定の際に用いられるパラメータの一つとして使われる。
図4は、映像蓄積サーバで保持されるデータを示している。
004−001〜004−005は、映像蓄積サーバのストレージ内に記録されるものである。映像蓄積サーバは、動き検知サーバと連帯し、撮影画像のどの部分に動物体が撮影され、それが監視している場所全体のどの部分にあたるのかを計算し記録する。
画像蓄積情報004−002は、画像データ(実際の映像のデジタル画像データ)、時刻(撮影時刻)、カメラ番号(設置されているカメラにユニークに割り当てられた番号)、Pan,Tilt,Zoom情報(どの方向を撮影しているかという情報)、フォーカス情報(フォーカスを用いて被写体との距離を測定する事が可能な場合があるので記録)、センサー情報(連動センサーの情報)などが記録される。
動き検知情報004−003は、動物体の動き検知情報が記録される。この情報は、動き検知サーバによって画像データの解析がされ、その撮影している画像のどの範囲に動物体があるかどうかを判定した結果が蓄積される。動物体の検知には、公知の様々な方法が取る事が可能である(例:輪郭検知、動きベクトル検知、画像の変化量検知など)。
動き範囲情報は、実際に画像のどの範囲で動物体が検出されたかを示す。時刻は、その情報の発生時刻を示す。カメラ番号は、どのカメラの映像であるかを示す。このカメラ番号は、画像蓄積情報004−002のカメラ番号と一致する。そして、その画像を撮影した方向(Pan,Tilt,Zoom)を示す情報で構成されている。
カメラ情報004−004は、監視対象となっている空間内におけるカメラの設置位置を記録したテーブルである。カメラ情報004−004は、グローバル座標(監視対象空間内のある地点を基点とした場合の横と縦と高さの座標を示した座標)と、視野角−ズーム相対表(視野角が実際のものの長さとの対応をズーム倍率に応じて測定したテーブル)と、設置方向ベクトル(カメラのPan,Tiltがそれぞれ0のときのカメラの向いている方向の基準ベクトル)で構成されている。
これらの情報は、動き検知サーバ及び映像蓄積サーバが、監視対象空間内の動物体の座標を計算する場合に必要になるパラメータである。
センサー情報004−005は、センサーの稼動情報を記録したデータである。
センサー情報004−005は、発生センサー(どのセンサーで発生したか)と発生時刻で構成される。
検出物体情報004−001は、映像蓄積サーバ及び動き検出サーバが、実際の監視対象空間内における動物体の座標及びその範囲と、時刻を記録したデータである。
検出物体情報004−001は、グローバル座標(監視対象空間内のある地点を基点にした場合の座標であり、カメラ情報004−004のグローバル座標と一致する)と、範囲(動き検知情報が発生した座標からどの範囲内であるかが記録される。本件では、グローバル座標を中心にどの半径の範囲内であるかが記録される。)とその時点での時刻が記録される。
このように、映像蓄積サーバには、映像及びその撮影をされたカメラのパラメータ情報と動き検知情報と、その動き検知物体の座標と大きさが記録される。
図5は、カメラ装置撮影図を示している。
実際に取得された画像を示しているものである。動き検知サーバによって、過去の画像との対比から動く範囲を判定する。このアルゴリズムに関しては上述の通り、輪郭検知、動きベクトル検知、画像の変化量検知などの何れの方法を用いる事が可能である。
動き検出サーバは、動物体の範囲を特定し、その中心となる動き検出部中心(tx,ty)を計算する。
この点と範囲を画像上における動物体の座標と大きさとして映像蓄積サーバに蓄積される。
また、実際に写っている画像上の座標から、監視対象空間の座標上に変換するために、カメラの向向いている方向(Pan,Tilt)やカメラの設置している方向である設置方向ベクトル(vx,vy,vz)を用いて、監視対象空間のグローバル座標上での、視線方向線であるy=a1*x+b1,z=a2*x+b2のそれぞれ、a1,b1,a2,b2のパラメータが決定される。(この計算方法に関しては、特開2000−228766号公報に詳細が記載されている)この2つの式を用いる事で、監視対象空間であるグローバル座標上における監視用カメラからの方向ベクトルが決定する事が可能になる。
図6は、基本的な物体位置決定方法に関してものである。
同様に、図7も、基本的な物体位置決定方法に関してのものである。
図6は、監視対象空間であるグローバル座標をx−y空間(監視対象空間を上から見た図)で見た場合の図であり、図7は、監視対象空間であるフローバル座標をx−z空間(監視対象空間を横から見た図)でみた場合の図である。
監視対象物は、それぞれ、最低2つのカメラの視線方向線で監視対象物が特定される。
図5によって、撮影映像から、監視対象空間であるグローバル座標上における監視用カメラからの方向ベクトルが決定し、2台分のカメラの視線方向線を解く事で、実際の監視対象物のグローバル座標である(x,y)(x,z)が決定出来る。つまり、グローバル座標上での動物体の座標(x,y,z)が決定出来る。
この際範囲も同様に導かれ、最終的には、グローバル座標上での動物体の座標(x,y,z)と範囲rが決定される(この計算方法などの詳細に関しては、特開2000−228766に詳細が記載されている)。
このように図5、図6、図7で示されるように、映像蓄積サーバ及び動き検出サーバによって、監視対象空間内の動物体の座標と範囲大きさを決定し、データとして蓄積される。
図8は、蓄積サーバクライアントのソフトのGUI概観を示している。
008−009は、監視対象空間を示している。この部分はマップが表示されており、監視対象空間を上から見た図として表示されている。この部分は完全に正確なマップを表示する必要はなく、図に示されるように比較的分かりやすいイラストマップを用いている。しかし、ほぼ実際の対象物と座標上は重なっている。座標としては、図6で示されるx−y図を表示しているのに等しい。
008−010,008−002,008−001は、ネットワークカメラサーバ及びカメラ装置の位置を示している。これらのアイコンには、その時点でカメラの方向と視野範囲と視線方向線が表示される。008−003は、映像蓄積サーバの過去の映像を表示しており、時間の経過に合わせて動画が表示される。この画像には、その時点での時刻とどのカメラ装置の映像であるかを示す情報等が表示される。008−004は、時刻ゲージを示している。蓄積された映像データの長さを示している。また、このゲージには、矢印がチェックされている。この矢印は、指定した動物体が動き検知サーバによって捕らえられているという情報を示す。この情報によって、具体的に指定した動物体がどの時間に監視空間内にいたのかが、一目で分かる。008−005は、動画の再生、停止、一時停止を制御する。008−006は、今現在参照している時刻の動物体で、その前後どの程度の時間の動物体をマップ008−009上に表示するか範囲を指定するGUIである。008−007は、監視空間内に設置されているカメラのリストを示している。
008−008は、動き検出され、その場所が特定された動物体を示しているGUIである、このような表示は、008−009のマップ上に検出された座標上に検出された大きさで表示される。それぞれの円は、動物体の位置と大きさと検出時間を示している。008−006で時間を範囲を指定する事で、その動物体の前後の動きを表示する事も可能である。また、008−004を操作する事で、その時刻に検出された動物体をマップ008−009上に表示する事が可能になる。
図9は、本件の特徴の1つとなるGUI操作に関する図である。
図8のGUI上では、図に示すように、マップ上にある動物体をマウスカーソルでクリックすると、その動物体が検出されたときの動画像が、009−003に表示される。
このような操作は、従来の時刻指定型のGUIでは実現出来なかったものであり、本件による発明のポイントとなるGUI操作である。
図10は、更に図9の操作を拡張する操作方法である。
マップ上で、マウスのボタンをクリックし、そのままドラッグをする事で、010−011に示されるように範囲を示すレクタングルが表示される。この操作は、マップ情報のある一定区域内での動物体検出されたものを検索する場合に用いる検索方法の実例である。この操作は、本件の特徴の1つとなっている。
こうして、選ばれたマップ上の領域010−011が、表示され、ドラッグが終わった時点で、その範囲が選択され、その範囲内に過去に動物体検出されたものがないかサーチが行われる。
その結果、図11の状態になる。指定されたレクタングル011−011内に、011−008で示されるように検出された動物体が表示される。また、このときに時刻ゲージである011−003上には、011−004で示されるように、どの時刻で、動物体が検出されたのかを、一目見て判断出来るようになっている。
こうして検索された動物体を図9で示す操作と同等の操作を行う事で、動物体げ検出されたときの動画像を即座に表示する事が可能になる。
このように、図8〜図10に示すように従来、時刻の指定が中心となる監視映像の閲覧作業が、検出された動物体の監視空間内の座標によって、簡単に検索を行い、その動画像を閲覧する事が可能となる。
図12、図13、図14は、蓄積サーバクライアントのフローチャートを示した図である。図8〜図10に示されるGUIは、このフローチャートによって実現されている。
蓄積サーバクライアントは、012−001から処理が開始される。
012−002によって初期化が行われる。変数の初期化や通信経路の初期化が行われ、この時点で、映像蓄積サーバとの通信経路の確保が終了する。012−003にて、画像の初期化を経てGUIの表示が行われる。このGUIの表示が行われる事で映像蓄積サーバクライアントの画像表示装置上に、GUIを始めとする各種情報が表示される。次に、012−004にて、動画表示スレッドが開始される。
動画表示スレッドは、図14の示されるスレッドである。このスレッドは動画像の表示の為に、指定された時刻からの蓄積映像を映像蓄積サーバからダウンロードしながら、GUI上に表示をし、参照時間を進め、動画像再生を実現するものである。
012−005にてイベント待ち&イベント処理に入る。このクライアントソフトウェアは基本的に、イベントドリブン型の設計がされている。
012−008のイベント処理で、映像蓄積サーバクライアントが終了が選択されると、まず、映像表示スレッドを停止させ(012−006)、終了処理を012−007で行い、映像蓄積サーバクライアント自体の終了となる。終了処理012−007では、映像蓄積サーバとの通信経路を切断するなどの後処理が行われる。
012−005でイベントの処理が行われるが、その詳細は、012−008から実施される。
012−008からイベント処理フローに入ると、012−009にてイベント待ち状態になる。ここでイベントが発生すると、それぞれのイベント処理に入る。
イベントの中心は、クライアントGUIソフトであるため、ユーザの処理の終了、マウスの移動、マウスのドラッグ、マウスのクリックなどが中心になる。
ユーザの処理の終了イベントが発生した場合h、012−010からの処理の流れのように、イベント処理は終了し、呼び出し元に処理を返す。
マウスの移動イベントに関しては、012−012からの処理が行われる。まずマウスの座標の更新が行われ(012−015)、それに合わせてマウスカーソルを表示する事になる(012−016)。この処理の後、GUI全体の再作画が行われ、再び、イベント待ち(012−00)になる。
マウスのドラッグイベントに関しては、012−013からの処理となる。
マウスの移動と同様に、012−017で、まず、マウスカーソルの座標の更新が行われ、その座標に合わせてレクタングルの表示を行う(012−018)。このレクタングルは図10の010−011に示されるものである。ドラッグによってGUI上にマップ上の座標の範囲を指定する事が可能になる。そして、012−019によってドラッグの終了判定が行われる。正常にドラッグが終了した場合は、範囲指定がされたと判定し、012−030の動物体検索の呼び出しが行われる。そして、その結果を012−021によってGUIの再作画が実行される。
マウスのクリックに関しては、012−014からの処理となる。
ここでは、GUIで提供する様々なGUIオブジェクトのどれをクリックされたのかを判定する処理を行う。
カメラアイコンであれば、012−022で判定され、クリックされたのであれば、カメラアイコン処理部(012−024)が呼ばれる。
マップ上の動物体であれば、012−023で判定され、クリックされたのであれば、動物体処理部(012−025)が呼ばれる。
タイムゲージ上であれば、012−011で判定され、クリックされたのであれば、タイムゲージ呼び出し処理(012−026)が呼ばれる。
カメラリスト上であれば、012−031で判定され、クリックされたのであれば、カメラリスト呼び出し処理(012−027)が呼び出される。
時間間隔設定GUI上であれば、012−032で判定され、クリックされたのであれば、カメラリスト処理(123−027)が呼び出される。
再生・停止・一時停止ボタン上であれば、012−033で判定され、クリックされたのであれば、再生・停止・一時停止呼び出し処理(012−029)が呼び出される。
このように、イベントドリブン型処理であるため、マウスの挙動とどのオブジェクトに対してのイベントであるのかが判定され、それぞれのイベントの処理に応じて処理が振り分けられる。
次に図13では、主にそのイベントを処理する為にフローが示されている。
013−001〜013−013は、GUIの作画ルーチンを示している。
013−002によって、画像のクリアを行う。013−004にて、マップ表示を行う。そして013−005で、映像蓄積サーバと通信を行いカメラ情報を読み込み、013−014にて、カメラリストの表示を行う。そして、013−007にて、現在ポイントしている時刻の画像蓄積情報を読み込みを行う。これは、以降の作画時の表示情報の基準となる。013−008にてカメラアイコンの表示を行う。013−009にて、そのカメラアイコンそれぞれのカメラのポイントしている時刻におけるカメラの状態や視野範囲の表示を行う。013−010にて、ポイントしている時刻の指定された時間範囲内の検出物体情報を映像蓄積サーバから読み込み表示を行う。そして、013−011にてその検出物体をマップ上に作画を行う。
更に、013−012にてカメラの向いている方向の作画、013−013にて、タイムゲージ上に周辺時刻内で検知されている動物体があることをタイムゲージにチェックを作画して、ユーザに動物体の時間的な分布を示す。
このように、この処理によって、GUIで示される様々なオブジェクトの作画処理が行われる。この処理は、全てのイベント処理の後に、行われる事によって、常に最新の状態が画面上に表示されるようになっている。
013−014〜013−020は、カメラアイコンがクリックされた場合の処理のフローが示されている。
013−015にて、現在ポイントしている時刻の取得を行い、選択されたカメラ及び現在ポイントしている時刻の画像データを映像蓄積サーバから読み込みを行う。013−014にて、読んだデータの作画がされる。これ以降の動画再生に関しては、動画表示スレッドによって行われる。013−017にてタイムゲージの表示の更新が行われる。013−018にて、現在ポイントされている時刻の設定された前後の検知物体情報を映像蓄積サーバから検索し(013−018)、013−019にてタイムゲージにその検出された動物体の検出時刻に対してチェックを表示する(013−019)。そして、マップ上に、動物体検出された検出情報をマップ情報、その座標とその範囲を示すアイコンとして表示を行う(013−020)。
013−021〜013−023は、動物体検出されたものをクリックされた場合の処理のフローが示されている。
013−022によってその選択された動物体の時刻を取得し、その時刻の選択されたカメラの動画像を映像蓄積サーバから取得(013−022)し、動画像の表示(013−023)をする。
この後の動画表示に関しては、動画表示スレッドによって行われる。
このようにして、本願の特徴である、検出された動物体をマップ上に示し、そのマップ上の動物体を示すアイコンをクリックする事で、その動物体の過去の映像を簡単に見ることが出来る。
013−024〜013−031は、タイムゲージをクリックされた場合の処理を示している。013−025にてクリックされた時刻の取得を行う。ここで取得した時間を013−026にて、現在ポイントしている時刻として設定をする。そして、013−027にて、ポイントしている時刻の動画情報を映像蓄積サーバから読み取り、013−028でその動画の表示を行う。更に、013−0429にてポイントしている時間の周辺動物体情報を映像蓄積サーバから読み込み(013−029)、タイムゲージに時間的な動物体の分布を表示(013−030)し、座標的な分布をマップ上に表示を行う(013−031)。このようにして、時刻を自由に選んで、その周辺の監視対象内の動物体の分布の様子などを閲覧する事も可能である。
013−032〜013−038は、カメラリストがクリックされた場合の処理を示している。013−033では、現在ポイントしている時刻の動画情報を動画蓄積サーバから読み取る。そして、その動画の表示を行う(013−034)。013−034にて動画像の表示を行う。更に、013−035にてタイムゲージ情報の更新を行う。013−034にてポイントしている時間の周辺動物体情報を映像蓄積サーバから読み込み(013−034)、タイムゲージに時間的な動物体の分布を表示(013−037)し、座標的な分布をマップ上に表示を行う(013−038)。
013−039〜013−044は、時間間隔GUIが変更された場合のフロー処理を示している。
014−040にて、ユーザが指定した時間間隔を読み取る。
この時間間隔は、現在ポイントしている時刻前後、どの程度までの動物体をマップ上に表示させるかといった事を決定する為に、設定を行う。そして、013−042にてポイントしている時間の周辺動物体情報を映像蓄積サーバから読み込み(013−042)、タイムゲージに時間的な動物体の分布を表示(013−043)し、座標的な分布をマップ上に表示を行う(013−044)。
013−045〜013−047は、再生・停止・一時停止ボタンイベントに関して処理をするフローである。
013−046にて、押されているボタンの種類を判別し、013−047にて、押されているボタンに応じて、動画表示スレッドの起動、停止を制御する。
このような処理によって、動画の再生と停止を自由にユーザが変更する事が可能になる。
013−048〜013−053は、動物体の検索範囲指定が行われた場合のフローを示している。
013−049にて、マウスのドラッグエリアを読み取り、013−050にて、マップ上の座標範囲を、蓄積映像サーバに対して検索と読み取りを行う。こうして、013−051にて映像蓄積サーバクライアントは、ドラッグされた座標範囲内にある動物体の情報を得ることが可能である。そして、タイムゲージに時間的な動物体の分布を表示(013−053)し、座標的な分布をマップ上に表示を行う(013−052)。
図14は、蓄積サーバクライアントの動画表示スレッドのフローを示している。
この動画表示スレッドは、メインのスレッドと平行して処理が行われる。
フローは、014−001〜014−006までである。
まず最初に、現在ポイントされている時間の取得を行う(014−002)。その後、そのポイントされている時刻の動画情報を映像蓄積サーバから読み取り(014−003)、014−004にて動画表示を行う。更に、014−005にてタイムゲージの更新を行い、014−006で少し時間を進行させる。以降、この処理を繰り返す。
このようにして、動画の表示を行う。
このスレッドは、その後、ずっとループを行う。スレッドの起動、停止、一時停止などは、メインスレッド側から制御される。これによって動画の再生、停止、一時停止などが可能になる。
以上、説明したように実施する事によって、蓄積画像の検出動物体の座標を基本とした検索機能を実行する事が出来る。
システム構成図 各サーバ装置内部構成図 ネットワークカメラサーバ設置状態を示す図 映像蓄積サーバ保持情報を示す図 カメラ装置撮影図 基本的な物体位置決定方法1を示す図 基本的な物体位置決定方法2を示す図 蓄積サーバクライアントGUI概観を示す図 操作1を示す図 操作2−aを示す図 操作2−bを示す図 蓄積サーバクライアントのフローチャート1 蓄積サーバクライアントのフローチャート2 蓄積サーバクライアントのフローチャート3
符号の説明
001−001,001−003 ネットワークカメラサーバ
001−002,001−004,001−007 センサー
001−008 ネットワーク
001−009 映像蓄積サーバ
002−001 表示装置
002−002 カメラ装置
002−003 雲台装置
002−004 センサー装置
002−005 ネットワーク網
002−006 画像出力装置
002−007 バスライン
002−008 入力装置
002−009 中央演算処理装置
002−010 主記憶装置
002−011 外部記憶装置
002−012 画像入力装置
002−013 外部機器信号送信受信装置
002−014 ネットワークインターフェース
003−001 壁
003−002 カメラ部
003−003 雲台
004−001 検出物体情報
004−002 画像蓄積情報
004−003 動き検知情報
004−004 カメラ情報
004−005 センサー情報

Claims (2)

  1. カメラによって撮影された画像を蓄積する蓄積手段と、
    その撮影した動画像から動物体を検出する検出手段と、
    検出された動物体を示すアイコンをマップ上に表示する表示手段と、
    前記表示手段によって表示されたアイコンの指示に応じて、
    前記動物体が検出された映像を再生する再生手段と
    を有することを特徴とする監視システム。
  2. 請求項1において
    マップ上である範囲を指定にともなって、
    動物体を監視空間内の座標によって検索を行う検索手段を有し、
    前記表示手段は、検索された動物体をアイコンとして表示する
    ことを特徴とする監視システム。
JP2004025298A 2004-02-02 2004-02-02 監視システム Withdrawn JP2005218014A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004025298A JP2005218014A (ja) 2004-02-02 2004-02-02 監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004025298A JP2005218014A (ja) 2004-02-02 2004-02-02 監視システム

Publications (1)

Publication Number Publication Date
JP2005218014A true JP2005218014A (ja) 2005-08-11

Family

ID=34907721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004025298A Withdrawn JP2005218014A (ja) 2004-02-02 2004-02-02 監視システム

Country Status (1)

Country Link
JP (1) JP2005218014A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8437508B2 (en) 2007-06-08 2013-05-07 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2017228074A (ja) * 2016-06-22 2017-12-28 株式会社日立国際電気 映像記録システムおよび映像表示方法
JP2019149641A (ja) * 2018-02-26 2019-09-05 グローリー株式会社 監視システム、監視方法及び監視プログラム。

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8437508B2 (en) 2007-06-08 2013-05-07 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2017228074A (ja) * 2016-06-22 2017-12-28 株式会社日立国際電気 映像記録システムおよび映像表示方法
JP2019149641A (ja) * 2018-02-26 2019-09-05 グローリー株式会社 監視システム、監視方法及び監視プログラム。

Similar Documents

Publication Publication Date Title
JP6399356B2 (ja) 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6171374B2 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
EP2196967B1 (en) Methods and apparatus for adaptively streaming video data based on a triggering event
JP4201025B2 (ja) 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム
CA2997034A1 (en) Method and apparatus for playing video content from any location and any time
WO2022095543A1 (zh) 图像帧拼接方法和装置、可读存储介质及电子设备
CN105100596B (zh) 相机设备和使用相机设备跟踪对象的方法
JP2014153813A5 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2006229322A (ja) 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JPWO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
US11172259B2 (en) Video surveillance method and system
KR20110093040A (ko) 피사체 감시 장치 및 방법
KR102474729B1 (ko) 모니터링 장치
KR20180020043A (ko) 다시점 영상 제어 방법 및 이를 지원하는 전자 장치
KR20150130901A (ko) 카메라 장치 및 이를 이용한 객체 추적 방법
JP4325541B2 (ja) 画像処理装置、再生画像処理装置、画像処理方法及び再生画像処理装置
JP5195156B2 (ja) 監視装置、監視システム及びフィルタ設定方法
JP2006093955A (ja) 映像処理装置
JP5677055B2 (ja) 監視映像表示装置
JP2015228564A (ja) 監視カメラシステム
JP2010233185A (ja) 画像処理装置、画像処理システム及びプログラム
JP2002341755A (ja) 映像表示装置
JP2005218014A (ja) 監視システム
KR20210108691A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
JP2006319526A (ja) ネットワークカメラシステム及びその制御方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403