JP2023039508A - 映像監視装置、表示制御方法及び映像監視システム - Google Patents
映像監視装置、表示制御方法及び映像監視システム Download PDFInfo
- Publication number
- JP2023039508A JP2023039508A JP2021146646A JP2021146646A JP2023039508A JP 2023039508 A JP2023039508 A JP 2023039508A JP 2021146646 A JP2021146646 A JP 2021146646A JP 2021146646 A JP2021146646 A JP 2021146646A JP 2023039508 A JP2023039508 A JP 2023039508A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- unit
- video
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims description 18
- 238000001514 detection method Methods 0.000 claims description 33
- 238000012544 monitoring process Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 14
- 238000009434 installation Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 24
- 230000005856 abnormality Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】利用者端末の小さな画面に表示される映像から利用者が追跡対象を確認可能とする映像監視装置を提供する。【解決手段】映像監視装置3は、複数のカメラ50から複数の映像を取得する映像取得部33と、映像取得部33が取得した複数の映像から、追跡対象を特定する追跡対象特定部34と、追跡対象が映る映像を選択するカメラ選択部35と、カメラ選択部35が選択した映像を利用者端末1に表示する制御を行う表示制御部31と、を備える。【選択図】図1
Description
本発明は、映像監視装置、表示制御方法及び映像監視システムに関する。
従来、建物の管理サーバから作業員が所持する携帯端末に建物の状況を報知する情報を送信し、監視活動を行う映像監視システムが一般的に設置されている。従来のシステムでは、監視対象となっている建物の異常発生を検知した場合、異常が発生した箇所の状況を作業員が所持する端末にメールで送信し、文字情報と画像情報の両方で表示させて建物の異常を把握することが出来る。しかし、作業員が建物に設置されたカメラを任意に指定し、指定されたカメラが撮影した日時を指定して画像情報を表示させることが出来ず、異常が発生した箇所の周囲の状況や異常発生の前後における状況が把握できないという課題がある。
そこで、管理者が素早く異常が発生した箇所を確認することを目的とした技術が特許文献1には開示されている。この特許文献1では、複数のカメラから特定のカメラを指定する操作を受け付ける携帯端末操作部と、ネットワークを介して映像配信サーバから受信した映像データを映像表示部に表示する携帯端末表示制御部と、を備える携帯端末を作業員が操作することにより、携帯端末の映像表示部に特定のカメラが指定された撮影日時に撮影した映像データを表示させる映像監視システムが開示されている。
特許文献1に開示された携帯端末は小型であり、一般的に携帯端末の画面は小さい。このため、特許文献1に開示された技術を用いて、複数のカメラから特定のカメラを指定する操作は利用者にとって難しい。また、携帯端末の画面に複数の映像が縮小して表示されると、利用者は、小さな映像に映った人物を確認することが難しかった。
本発明はこのような状況に鑑みて成されたものであり、利用者が利用者端末を通じて追跡対象を容易に確認できるようにすることを目的とする。
本発明に係る映像監視装置は、複数のカメラから複数の映像を取得する映像取得部と、映像取得部が取得した複数の映像から、追跡対象を特定する追跡対象特定部と、追跡対象が映る映像を選択するカメラ選択部と、カメラ選択部が選択した映像を利用者端末に表示する制御を行う表示制御部と、を備える。
本発明によれば、追跡対象が映る映像が利用者端末に表示されるため、利用者は、利用者端末を通じて追跡対象を容易に確認することができる。
上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
上記した以外の課題、構成及び効果は、以下の実施の形態の説明により明らかにされる。
以下、本発明を実施するための形態について、添付図面を参照して説明する。本明細書及び図面において、実質的に同一の機能又は構成を有する構成要素については、同一の符号を付することにより重複する説明を省略する。
[一実施の形態]
図1は、一実施の形態に係る映像監視システム10の全体構成例を示すシステム構成図である。
映像監視システム10は、利用者端末1、映像監視装置3、カメラ群5を備える。
利用者端末1は、利用者が所持し、操作することが可能な利用者端末の一例として用いられる。利用者としては、例えば、映像を監視するエリアが設けられた建物の管理者が想定される。管理者は、複数の建物を管理する場合があり、移動を最小限にして各建物の様子を確認するために、利用者端末1に表示される映像を見て不審者の様子を確認する。以下の説明では、不審者を「追跡対象」とも呼ぶ。
図1は、一実施の形態に係る映像監視システム10の全体構成例を示すシステム構成図である。
映像監視システム10は、利用者端末1、映像監視装置3、カメラ群5を備える。
利用者端末1は、利用者が所持し、操作することが可能な利用者端末の一例として用いられる。利用者としては、例えば、映像を監視するエリアが設けられた建物の管理者が想定される。管理者は、複数の建物を管理する場合があり、移動を最小限にして各建物の様子を確認するために、利用者端末1に表示される映像を見て不審者の様子を確認する。以下の説明では、不審者を「追跡対象」とも呼ぶ。
利用者端末1として、例えば、スマートフォン、タブレット端末等のスマートデバイスが挙げられる。利用者は、利用者端末1のタッチパネルディスプレイに表示された情報を確認し、各種の指示を入力することが可能である。利用者は、例えば、夜間におけるビルの状況、サーバ室等の入室が限定されるエリアに続く通路等の状況を、利用者端末1に表示された映像を見て監視する。
利用者端末1と、映像監視装置3とは、インターネット回線2により接続され、相互にデータを送受信可能である。
また、映像監視装置3と、カメラ群5とは、インターネット回線4により接続され、相互にデータを送受信可能である。
また、映像監視装置3と、カメラ群5とは、インターネット回線4により接続され、相互にデータを送受信可能である。
カメラ群5には、6台のカメラ51~56が含まれる。以下の説明では、カメラ51のカメラ名を「カメラA」とし、カメラ52のカメラ名を「カメラB」とし、カメラ53のカメラ名を「カメラC」とする。同様に、カメラ54のカメラ名を「カメラD」とし、カメラ55のカメラ名を「カメラE」とし、カメラ56のカメラ名を「カメラF」とする。なお、カメラ51~56を区別しない場合、カメラ50と呼ぶ。カメラ群5に含まれる各カメラ50は、監視対象とされる建物内、通路の他、建物外の敷地等に設置される。
映像監視装置3は、映像監視システム10の管理者によってクラウドサーバに構築される装置である。この映像監視装置3は、表示制御部31、カメラ管理部32、映像取得部33、追跡対象特定部34、カメラ選択部35、及び移動方向検出部36を備える。
表示制御部31は、カメラ選択部35が選択した映像を利用者端末1に表示する制御を行う。そこで、表示制御部31は、映像取得部33から出力される映像に基づいて、利用者端末1に表示させる画面を生成し、インターネット回線2を通じて、利用者端末1に画面データを送信する。このため、利用者端末1は、受信した画面データに基づいて、例えば、後述する図7に示す画面を表示する。表示制御部31により生成された画面が利用者端末1に表示されるので、画面を見る利用者は、利用者端末1から指示された追跡対象の様子を確認することができる。
なお、表示制御部31自体は画面を生成せず、後述する図10に示す監視対象の移動ルートに設置されるカメラ50の映像を利用者端末1に送信すると共に、追跡対象特定部34が追跡する人物を含む映像を示す付加情報を利用者端末1に送信してもよい。この場合、利用者端末1は、受信した付加情報に基づいて、追跡対象特定部34が特定する人物を含む映像をメイン表示部401に表示し、移動ルートに設置されるカメラ50の映像をサブ表示部403に表示する画面(後述する図7を参照)を生成する。
また、表示制御部31は、利用者端末1に人物の追跡指令が入力されると、この追跡指令のデータを利用者端末1から受信する。そして、表示制御部31は、追跡対象特定部34に対して、追跡指令された人物が含まれる映像から追跡対象の人物を特定し、追跡するよう指示する。
カメラ管理部32は、複数のカメラ50の設置位置が関係づけられる位置関係情報321と、カメラ50ごとの設置位置が重み付けされた重み付け情報322とを記録する。なお、後述する図6に示すように、位置関係情報321及び重み付け情報322は組み合わせて使用される。
位置関係情報321は、各カメラ50の位置関係を規定した情報である。各カメラ50の設置位置は、予め位置関係情報321に登録されている。各カメラ50の設置位置に基づいて、隣接するカメラ50間の相対的な位置関係が規定される。なお、カメラ50の設置位置が変更された場合、利用者が利用者端末1を通じて、変更された設置位置を入力することで、位置関係情報321が更新される。
重み付け情報322は、カメラ50の位置に応じた重み付けが設定される。カメラ選択部35は、移動方向検出部36により推測された移動ルートに複数のカメラ50が設置されている場合に、カメラ管理部32に記録された重み付け情報322に基づいて、重み付けが大きいカメラ50が撮影する映像を選択する。ここで、セキュリティエリアやサーバ室等の特定の人物だけが利用可能なエリアであれば、このエリアに設置されるカメラ50には高い重み付けが設定される。カメラ50の重み付けは利用者が任意に設定可能である。
追跡対象特定部34は、映像取得部33が取得した複数の映像から、追跡対象を特定する。本実施の形態に係る追跡対象特定部34は、利用者端末1により指示された追跡対象を複数の映像から特定する。そして、追跡対象とされる人物は、利用者端末1から追跡指令が入力された映像に映っている人物である。そして、追跡対象特定部34は、複数のカメラ50から取得された複数の映像から特定した人物を追跡し、追跡した人物が映っている映像を識別する情報を表示制御部31に出力する。
カメラ選択部35は、追跡対象が映る映像を選択する。ここで、移動方向検出部36により追跡対象の移動方向が検出されると、カメラ選択部35は、移動方向に設置されたカメラ50が撮影する映像を選択する。例えば、1本の通路を追跡対象の人物が移動する場合、移動方向検出部36は、人物の移動方向が左右のいずれであるかを検出するだけで、人物の移動先に設置されているカメラ50を判断できる。そして、カメラ選択部35は、人物の移動先に設置されているカメラ50の映像を追跡対象が映る映像として選択することが可能である。
映像取得部33は、インターネット回線4を介してカメラ群5(複数のカメラ50)から各カメラ50で撮影された複数の映像を取得する。取得した複数の映像は、表示制御部31、映像取得部33、追跡対象特定部34、カメラ選択部35、及び移動方向検出部36に出力される。映像取得部33は、各カメラ50が撮影した映像(動画像)をリアルタイムで取得する。ただし、各カメラ50が数秒おきに撮影した映像(静止画像)を撮影したタイミングごとに取得してもよい。
<利用者端末1のハードウェア構成例>
次に、利用者端末1のハードウェア構成例を説明する。
図2は、利用者端末1のハードウェア構成例を示すブロック図である。
次に、利用者端末1のハードウェア構成例を説明する。
図2は、利用者端末1のハードウェア構成例を示すブロック図である。
利用者端末1は、バス14にそれぞれ接続されたCPU(Central Processing Unit)11、ROM(Read Only Memory)12、及びRAM(Random Access Memory)13を備える。さらに、利用者端末1は、表示装置15、入力装置16、不揮発性ストレージ17及びネットワークインターフェイス18を備える。
CPU11は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM12から読み出してRAM13にロードし、実行する。RAM13には、CPU11の演算処理の途中で発生した変数やパラメーター等が一時的に書き込まれ、これらの変数やパラメーター等がCPU11によって適宜読み出される。ただし、CPU11に代えてMPU(Micro Processing Unit)を用いてもよい。
表示装置15は、例えば、液晶ディスプレイモニターであり、利用者端末1で行われる処理の結果等を利用者に表示する。入力装置16には、例えば、キーボード、マウス等が用いられ、利用者が所定の操作入力、指示を行うことが可能である。利用者端末1では、表示装置15と入力装置16を重ねて構成したタッチパネルディスプレイ装置が用いられる。
不揮発性ストレージ17としては、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ17には、OS(Operating System)、各種のパラメーターの他に、利用者端末1を機能させるためのプログラムが記録されている。ROM12及び不揮発性ストレージ17は、CPU11が動作するために必要なプログラムやデータ等を記録しており、利用者端末1によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。
ネットワークインターフェイス18には、例えば、NIC(Network Interface Card)等が用いられ、NICの端子に接続されたLAN(Local Area Network)、専用線等を介して各種のデータを装置間で送受信することが可能である。
<映像監視装置のハードウェア構成例>
次に、映像監視装置3のハードウェア構成を説明する。
図3は、映像監視装置3のハードウェア構成例を示すブロック図である。本実施の形態に係る映像監視装置3は、映像監視装置3を構成するコンピューターがプログラムを実行することにより、図1に示した各機能ブロックが連携して行う表示制御方法を実現する。
次に、映像監視装置3のハードウェア構成を説明する。
図3は、映像監視装置3のハードウェア構成例を示すブロック図である。本実施の形態に係る映像監視装置3は、映像監視装置3を構成するコンピューターがプログラムを実行することにより、図1に示した各機能ブロックが連携して行う表示制御方法を実現する。
映像監視装置3は、バス64にそれぞれ接続されたCPU61、ROM62、及びRAM63を備える。さらに、映像監視装置3は、不揮発性ストレージ65及びネットワークインターフェイス66を備える。
CPU61は、本実施の形態に係る各機能を実現するソフトウェアのプログラムコードをROM62から読み出してRAM63にロードし、実行する。RAM63には、CPU61の演算処理の途中で発生した変数やパラメーター等が一時的に書き込まれ、これらの変数やパラメーター等がCPU61によって適宜読み出される。ただし、CPU61に代えてMPUを用いてもよい。
不揮発性ストレージ65としては、例えば、HDD、SSD、フレキシブルディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ又は不揮発性のメモリ等が用いられる。この不揮発性ストレージ65には、OS、各種のパラメーターの他に、映像監視装置3を機能させるためのプログラムが記録されている。ROM62及び不揮発性ストレージ65は、CPU61が動作するために必要なプログラムやデータ等を記録しており、映像監視装置3によって実行されるプログラムを格納したコンピューター読取可能な非一過性の記憶媒体の一例として用いられる。
ネットワークインターフェイス66には、例えば、NIC等が用いられ、NICの端子に接続されたLAN、専用線等を介して各種のデータを装置間で送受信することが可能である。
<カメラが設置される位置に関する情報>
次に、位置関係情報321及び重み付け情報322の内容について、図4~図6を参照して説明する。
図4は、各カメラ50の設置位置を示す図である。
図4では、各カメラ50として、カメラA~Fの位置関係が示されている。図中では、カメラAに対して、カメラ51(A)のように2種類の符号を併記して表す。
次に、位置関係情報321及び重み付け情報322の内容について、図4~図6を参照して説明する。
図4は、各カメラ50の設置位置を示す図である。
図4では、各カメラ50として、カメラA~Fの位置関係が示されている。図中では、カメラAに対して、カメラ51(A)のように2種類の符号を併記して表す。
上述したように隣り合う複数のカメラ50ごとに位置関係情報321が規定される。カメラA~カメラFは、建物内外に設置され、予め決められた撮影方向に向けて、所定の撮影範囲(円弧で示す範囲)を撮影している。カメラA~カメラFは、建物や通路の壁に取り付けられている。また、カメラA~カメラFの撮影方向及び撮影画角は、任意に変更可能である。
図4に示すようにカメラAは、エレベーターの乗りかごの天井付近の壁に設置され、乗りかご内を撮影する。
カメラBは、通路の壁に設置され、通路内を撮影する。
カメラCは、カメラBの向かい付近の壁に設置され、通路内を撮影する。
カメラDは、カメラBの隣に設置され、通路内を撮影する。
カメラEは、他のエリアより警戒が必要なエリアに設置され、このエリアを撮影する。
カメラFは、建物外に設置され、駐車場を撮影する。
カメラBは、通路の壁に設置され、通路内を撮影する。
カメラCは、カメラBの向かい付近の壁に設置され、通路内を撮影する。
カメラDは、カメラBの隣に設置され、通路内を撮影する。
カメラEは、他のエリアより警戒が必要なエリアに設置され、このエリアを撮影する。
カメラFは、建物外に設置され、駐車場を撮影する。
図5は、各カメラ50の位置関係を示す図である。図5では、建物の構造等の記載を省略し、各カメラ50の位置関係だけを表している。
各カメラ50には、隣接するカメラ50がある方向に、R(右側)、L(左側)、U(正面側)とした位置関係情報を付している。また、各カメラ50を結ぶ線は、人物が移動可能なルートの一部を表している。例えば、カメラAからカメラBの間、カメラBからカメラCの間は、人物が移動可能である。一方、カメラEとカメラFの間は線で結ばれていない。このことは、人物が移動する際に、カメラEからカメラFに直接行くことはできず、カメラEからカメラD、カメラFの順(又は逆順)でしか人物が移動できないことを表している。
なお、カメラ50が通路や部屋等の天井に付けて用いられる場合、図5におけるカメラ50の位置関係として、正面方向とは逆方向の背面方向にも位置関係情報が付されることがある。
図6は、位置関係情報321及び重み付け情報322の例を示すテーブル構成図である。
図6に示すテーブルは、カメラ、左側(L)、正面(U)、右側(R)、重み付けの項目で構成される。なお、テーブルの左側にあるNo.の項目はテーブルのレコードを識別するために付したものであり、実際のテーブルには構成されなくてもよい。
図6に示すテーブルは、カメラ、左側(L)、正面(U)、右側(R)、重み付けの項目で構成される。なお、テーブルの左側にあるNo.の項目はテーブルのレコードを識別するために付したものであり、実際のテーブルには構成されなくてもよい。
カメラの項目には、カメラ50の識別情報として、「カメラA」、「カメラB」といったカメラ名が格納される。
左側(L)、正面(U)、右側(R)の項目には、各カメラ50を起点として、左側(L)、正面(U)、右側(R)の位置に配置しているカメラ50の識別情報(A~Fのいずれかの符号)が格納される。
重み付けの項目には、各カメラ50に割り当てられた重み付けが格納される。
左側(L)、正面(U)、右側(R)の項目には、各カメラ50を起点として、左側(L)、正面(U)、右側(R)の位置に配置しているカメラ50の識別情報(A~Fのいずれかの符号)が格納される。
重み付けの項目には、各カメラ50に割り当てられた重み付けが格納される。
図6に示すテーブルに格納されるカメラ50毎の情報は、映像監視装置3を構築する際に、建物に設置されたカメラ50の配置状況に従って管理者が登録するものである。また、カメラ50が追加されたり、取り外されたりしてカメラ50の配置状況が変われば、管理者は、変更後の配置状況に合わせてカメラ50毎の情報を再登録する。
図4に示したように、カメラAの右側にはカメラBが設置されるので、No.1の行にあるカメラAのレコードのうち、右側(R)の列に、カメラBを表す符号「B」が格納される。また、カメラAの左側と正面には、他のカメラ50が設置されていないため、左側(L)と正面(U)の列には「-」が格納される。
また、カメラBの左側にはカメラAが設置されるので、No.2の行にあるカメラBのレコードのうち、左側(L)の列に、カメラAを表す符号「A」が格納される。また、カメラBの正面にはカメラCが設置されるので、正面(U)の列に、カメラCを表す符号「C」が格納される。また、カメラBの右側にはカメラD,Eが設置されるので、右側(R)の列に、カメラD,Eを表す符号「D,E」が格納される。
他のカメラ50についても、図4に示した位置関係情報321に合わせて、テーブルに各カメラ50の位置関係が格納される。
他のカメラ50についても、図4に示した位置関係情報321に合わせて、テーブルに各カメラ50の位置関係が格納される。
各カメラ50に割り当てられた重み付けは、重み付け情報322によって管理される。図6に示すテーブルでは、カメラA~D,Fの重み付けが「1」とされ、カメラEの重み付けが「2」とされる。この例では、カメラEが、他のカメラ50を設置するエリアより重要なエリア(例えば貴重品を保管する倉庫)に設置される。このため、カメラEは他のカメラより重み付けが高くなる。
なお、重み付けは、カメラ50が設置される現場の運用により変わる情報である。例えば、同じエリアを撮影する複数のカメラ50が存在する場合、特定の方向から撮影するカメラ50の映像が重要であれば、このカメラ50の重み付けが高く設定される。また、時間帯によって重要なエリアが変わるのであれば、重要なエリアが変わる時間帯に合わせて重み付けを変化させてもよい。このような重み付けは、利用者端末1を通じて設定可能である。
また、建物に多数のカメラ50が設置されている場合、全てのカメラ50が撮影する映像をサブ表示部403に表示しきれない。このため、例えば、特定のエリアに設置されるカメラ50の重み付けを、他のエリアに設置されるカメラ50より高く設定することで、特定のエリアに設置されるカメラ50をデフォルト表示画面に優先的に表示することも可能である。
<利用者端末の表示画面>
次に、利用者端末1の表示画面の例について説明する。
図7は、利用者端末1のデフォルト表示画面の一例を示す図である。
次に、利用者端末1の表示画面の例について説明する。
図7は、利用者端末1のデフォルト表示画面の一例を示す図である。
利用者端末1の表示画面は、利用者が利用者端末1を操作した結果、利用者端末1がインターネット回線2を経由して映像監視装置3にアクセスして、映像監視装置3から取得する画面である。このデフォルト表示画面には、メイン表示部401、人物追跡機能切り替えボタン402、及びサブ表示部403を備える。そして、表示制御部31は、カメラ選択部35が選択した映像を表示するメイン表示部401と、移動方向検出部36により検出された追跡対象の移動方向に合わせて並べ替えた複数の映像を順に表示するサブ表示部403と、人物追跡機能切り替えボタン402とを利用者端末1に表示する。
メイン表示部401には、現在、利用者が注目する人物(追跡対象)が撮影された映像が表示される。利用者は、追跡対象が映るメイン表示部401に表示される拡大された映像を確認できる。メイン表示部401に表示される映像を撮影するカメラ50は、利用者が任意に変更可能である。ただし、表示制御部31の制御により、自動的に映像が切り替えられてもよい。
人物追跡機能切り替えボタン402は、利用者が人物追跡機能のON又はOFFを切り替えるために用いられる。図7に示すデフォルト状態では、人物追跡機能がOFFされている。このため、メイン表示部401には、人物が映り込まない映像が表示されることがある。利用者が人物追跡機能切り替えボタン402をタッチすると、人物追跡機能がONされる。この場合、メイン表示部401には、人物が映り込んだ映像が表示される。そこで、利用者が人物追跡機能切り替えボタン402をタッチする操作を、追跡対象の追跡開始の指示とする。そして、追跡対象特定部34は、利用者端末1から受信する追跡開始の指示に基づいて、追跡対象の追跡を開始する。追跡開始の指示を受けて追跡対象特定部34が追跡対象の追跡を開始するので、利用者が注目したい追跡対象の映像だけがメイン表示部401に表示されるようになる。人物が移動して、メイン表示部401に表示される映像から人物が外れると、人物が映り込んだ別の映像がメイン表示部401に表示される。
サブ表示部403には、建物に設置されたカメラ50のカメラ名(例えば、カメラA、カメラB)と、各カメラ50が撮影する複数の映像とが縦に並んだリスト形式で表示される。このため、利用者は、リスト形式で表示され、各カメラ50が撮影する複数の映像を確認しやすくなる。ここで、メイン表示部401は、サブ表示部403よりも大きく映像を表示する。このため、利用者は、サブ表示部403から選択され、メイン表示部401に表示された映像に映る追跡対象を確認しやすくなる。
サブ表示部403に表示される映像は、カメラA~カメラFの6台のカメラ50が撮影する映像を全て含むものとする。サブ表示部403に表示される全ての映像は、映像取得部33がインターネット回線4を経由し、カメラ群5の各カメラ50から取得したものである。また、デフォルト表示画面では、サブ表示部403にリスト表示される映像は、カメラ50を識別するための識別子の順としてよい。
そして、移動方向検出部36は、カメラ管理部32に記録された位置関係情報321に基づいて追跡対象の移動ルートを推測する。表示制御部31は、移動ルートに沿って設置されたカメラ50の順に、映像取得部33が取得した複数の映像をサブ表示部403に表示する。このため、利用者は、サブ表示部403に表示された映像から、推測された移動ルートを把握することができる。そして、サブ表示部403に表示される複数の映像から、追跡対象が映る映像が選択されることで追跡対象が指示される。このため、追跡対象特定部34が追跡対象とする人物の特定が容易となる。
また、サブ表示部403に表示されるカメラ名の横にはラジオボタンが表示される。利用者がサブ表示部403から映像を選択すると、メイン表示部401に表示される映像を撮影するカメラ50に対応して設けられたラジオボタンがONされる。
メイン表示部401に表示される映像と、サブ表示部403に表示される各カメラ50の映像とは連動している。利用者がサブ表示部403から任意の映像を選択すると、利用者が選択した映像がメイン表示部401に表示される。このとき、メイン表示部401に表示される映像を撮影しているカメラ50のカメラ名に対応するラジオボタンがONされる。そして、利用者は、追跡対象の移動ルートに設置されるカメラ50が撮影する映像をサブ表示部403から確認できる。
<追跡機能ON時の移動ルートの推測処理の例>
次に、追跡機能ON時の移動ルートの推測処理の例について、図8と図9に示すフローチャートと、図10~図15に示す利用者端末1の表示画面の例を参照して説明する。
次に、追跡機能ON時の移動ルートの推測処理の例について、図8と図9に示すフローチャートと、図10~図15に示す利用者端末1の表示画面の例を参照して説明する。
図8は、人物の移動ルートの推測処理の例を示す図である。
本処理の開始前に、利用者端末1にて利用者が人物追跡機能の切り替えボタン402を押下したとする。人物追跡機能がOFFされている状態の切り替えボタン402が押下されると、人物追跡機能がONされる。そして、人物追跡機能がONされたことを示す人物追跡指令のデータが、インターネット回線2を経由し、図1に示した映像監視装置3の表示制御部31に入力される。
そこで、映像監視装置3は、移動ルートの推測処理を開始する(S1)。始めに、表示制御部31は、利用者端末1から人物追跡指令のデータが入力されると、追跡対象特定部34及び移動方向検出部36に人物追跡指令を出力する。追跡対象特定部34及び移動方向検出部36は、メイン表示部401に表示されている映像に映る人物、又はサブ表示部403に表示される映像のうち、利用者端末1で選択入力された人物を追跡対象として追跡を開始する。
次に、移動方向検出部36は、メイン表示部401に表示される映像に映る人物の移動方向を検出する。そして、移動方向検出部36は、検出した移動方向(移動先とも呼ぶ)に、メイン表示部401に表示される映像を撮影するカメラ50とは異なるカメラ50が設置されているか否かを判定する(S2)。
ステップS2にて、移動方向検出部36が、人物の移動先にカメラ50が設置されていないと判定した場合(S2のNO)、後述するステップS8に処理を移す。一方、移動方向検出部36が、ステップS2にて、人物の移動先にカメラ50が設置してあると判定した場合(S2のYES)、移動先のカメラ50の設置数が2以上であるか否かを判断する(S3)。
移動先のカメラ50の設置数が2以上でなければ(S3のNO)、移動方向検出部36は、移動先のカメラ50を移動ルートに追加する(S4)。一方、移動先のカメラ50の設置数が2以上であれば(S3のYES)、移動方向検出部36は、2以上の移動先のカメラ50のうち、重み付けが最も高いカメラ50を移動ルートに追加する(S5)。
ステップS4又はS5の後、移動方向検出部36は、移動先のカメラ50を起点として、さらに次のカメラ50が移動先に設置されているか否かを判定する(S6)。次のカメラ50が移動先に設置されていなければ(S6のNO)、後述するステップS8に処理を移す。
一方、移動方向検出部36が、ステップS6にて、次のカメラ50が移動先に設置されていると判定した場合(S6のYES)、このカメラ50は、既に移動ルートに登録済みのカメラ50を表し、人物の戻り路となる。そこで、移動方向検出部36は、ステップS6で判定した移動先に設置されている次のカメラ50を、移動ルートから除外する(S7)。その後、移動方向検出部36は、ステップS3に戻り、ステップS3~S7の処理を繰り返す。
ステップS2のNO、又はステップS6のNOの後、移動方向検出部36は、移動ルートにある全てのカメラ50の追加を完了する。そこで、カメラ選択部35は、移動ルートに従って選択したカメラ50が撮影する映像を表示制御部31に送信する。表示制御部31は、カメラ選択部35から受信したカメラ50の情報に基づいて、各カメラ50が撮影した映像を利用者端末1のサブ表示部403に表示するための処理を行う(S8)。その後、追跡対象特定部34は、人物追跡処理を開始する(S9)。
図9は、人物追跡処理の例を示すフローチャートである。
始めに、追跡対象特定部34は、メイン表示部401に表示されているカメラ50で撮影される人物が、カメラ50の撮影範囲、すなわちカメラ50が撮影する映像から消失したか否かを判定する(S11)。
始めに、追跡対象特定部34は、メイン表示部401に表示されているカメラ50で撮影される人物が、カメラ50の撮影範囲、すなわちカメラ50が撮影する映像から消失したか否かを判定する(S11)。
カメラ50の撮影範囲から人物が消失していないと判定した場合(S11のNO)、追跡対象特定部34は、再びステップS11の処理を続ける。一方、カメラ50の撮影範囲から人物が消失したと判定した場合(S11のYES)、追跡対象特定部34は、映像から人物が消失したカメラ50、すなわちメイン表示部401に表示されているカメラ50が撮影する映像と、このカメラ50の移動方向先に設置されているカメラ50が撮影する映像とに、追跡対象の人物が出現するかを監視し続ける(S12)。
そして、追跡対象特定部34は、ステップS12にて監視しているカメラ50の映像のうち、移動方向先に設置されているカメラ50が撮影する撮影範囲の映像に、追跡対象の人物が出現したか否かを判定する(S13)。映像に追跡対象の人物が出現していなければ(S13のNO)、追跡対象特定部34は、ステップS12の処理を続ける。
一方、映像に追跡対象の人物が出現していれば(S13のYES)、カメラ選択部35は、追跡対象の人物が出現した映像を撮影するカメラ50の情報を表示制御部31に出力する。そして、表示制御部31は、カメラ選択部35から入力したカメラ50の情報に基づいて映像取得部33から取得した、人物が出現した映像を撮影するカメラ50の映像を、利用者端末1のメイン表示部401に表示する(S14)。
次に、カメラ選択部35は、追跡対象の人物が出現した映像を撮影するカメラ50が、図8のステップS4又はS5にて移動ルートに追加されたカメラ50であるか否かを判定する(S15)。移動ルートに追加されたカメラ50である場合(S15のYES)、追跡対象特定部34は、ステップS11に処理を戻す。
一方、移動ルートに追加されたカメラ50ではない場合(S15のNO)、移動ルートの推測誤りとなる。このため、移動方向検出部36は、移動ルートを推測し直し(S16)、ステップS11に処理を戻す。
このように移動方向検出部36は、移動ルートに設置されていないカメラ50によって撮影された映像に、メイン表示部401の映像から消失した追跡対象が映った場合に、追跡対象が映った映像を撮影するカメラ50を起点として再び移動ルートを推測する。そして、表示制御部31は、再び推測された移動ルートに沿って設置されるカメラ50の順に、複数の映像をサブ表示部403に表示する。このため、利用者は、特別な操作を行わなくても、再び推測された移動ルートに設置されるカメラ50の映像を確認することができる。
次に、図8と図9のフローチャートを踏まえ、追跡対象の人物が移動する時に利用者端末1に表示される画面の表示例について、図10~図15を参照して説明する。
図10は、移動ルートの例を示す図である。図10の各図で移動ルートは、太線の矢印で表される。
図10Aは、エレベーターの乗りかごを出て建物内を移動する人物の移動ルートの例である。図10Aに対応する画面の表示例は、後述する図11、図12に示される。
図10Bは、建物外から建物内に移動する人物の移動ルートの例である。図10Bに対応する画面の表示例は、後述する図13、図14に示される。
図10Cは、推測し直された移動ルートの例である。図10Cに対応する画面の表示例は、後述する図15に示される。
図10Aは、エレベーターの乗りかごを出て建物内を移動する人物の移動ルートの例である。図10Aに対応する画面の表示例は、後述する図11、図12に示される。
図10Bは、建物外から建物内に移動する人物の移動ルートの例である。図10Bに対応する画面の表示例は、後述する図13、図14に示される。
図10Cは、推測し直された移動ルートの例である。図10Cに対応する画面の表示例は、後述する図15に示される。
以下の説明では、利用者端末1に表示される各カメラ50の表示名に合わせて、カメラ50を「カメラA」~「カメラF」と呼ぶ。また、各カメラ50が撮影する映像として、例えば、カメラAが撮影する映像を「カメラAの映像」と呼ぶ。
<乗りかごを出て建物内を移動する人物の移動ルート>
図11Aは、メイン表示部401にカメラAの映像が表示される例を示す図である。
図11Aは、メイン表示部401にカメラAの映像が表示される例を示す図である。
(カメラAの映像)
利用者端末1の表示画面が上述した図7に示した表示状態である時、カメラAで撮影された、乗りかごに乗車している人物が表示される映像が、メイン表示部401に表示されている。そこで、利用者端末1の利用者が人物追跡機能切り替えボタン402を押下すると、図11Aに示すように、人物追跡機能切り替えボタン402が「人物追跡ON」と表示される。
利用者端末1の表示画面が上述した図7に示した表示状態である時、カメラAで撮影された、乗りかごに乗車している人物が表示される映像が、メイン表示部401に表示されている。そこで、利用者端末1の利用者が人物追跡機能切り替えボタン402を押下すると、図11Aに示すように、人物追跡機能切り替えボタン402が「人物追跡ON」と表示される。
そして、移動方向検出部36は、図8に示したフローチャートに従って、カメラAの右側に設置されているカメラBと、その先に最も重み付けが高いカメラEと、移動先のカメラDと、移動先のカメラFを移動ルートに追加する。図11Aに示すように、メイン表示部401はカメラAの映像を表示している。そして、サブ表示部403には、移動ルートに追加されたカメラA、カメラB、カメラE、カメラD、カメラFの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラAの映像が選択されたことが、ラジオボタンの色の反転で表される。
(カメラBの映像)
次に、カメラAの映像から追跡対象の人物が消失した後、カメラBの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラBの映像に人物が出現したことを判定し、表示制御部31は、カメラBの映像をメイン表示部401に表示する。
次に、カメラAの映像から追跡対象の人物が消失した後、カメラBの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラBの映像に人物が出現したことを判定し、表示制御部31は、カメラBの映像をメイン表示部401に表示する。
図11Bに示すように、メイン表示部401はカメラBの映像を表示している。そして、サブ表示部403には、カメラA、カメラB、カメラE、カメラD、カメラFの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラBの映像が選択されたことが、ラジオボタンの色の反転で表される。
(カメラEの映像)
次に、カメラBの映像から追跡対象の人物が消失した後、カメラEの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラEの映像に人物が出現したことを判定し、表示制御部31は、カメラEの映像をメイン表示部401に表示する。
次に、カメラBの映像から追跡対象の人物が消失した後、カメラEの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラEの映像に人物が出現したことを判定し、表示制御部31は、カメラEの映像をメイン表示部401に表示する。
図12Cに示すように、メイン表示部401はカメラEの映像を表示している。そして、サブ表示部403には、カメラA、カメラB、カメラE、カメラD、カメラFの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラEの映像が選択されたことが、ラジオボタンの色の反転で表される。
(カメラDの映像)
仮に、カメラBの映像から追跡対象の人物が消失した後、カメラDの映像に、この人物が出現したとする。カメラDは、カメラBの次に移動ルートに設定されていない。このため、追跡対象特定部34は、図9に示したフローチャートに従い、カメラDの映像に人物が出現したことを判定し、表示制御部31は、カメラDの映像をメイン表示部401に表示する。また、移動方向検出部36は、図9に示したフローチャートに従い、移動ルートを推測し直す。この際、移動方向検出部36は、カメラDの次のカメラE,Fのうち、図6に示したように最も重み付けが高いカメラEを移動ルートに追加する。
仮に、カメラBの映像から追跡対象の人物が消失した後、カメラDの映像に、この人物が出現したとする。カメラDは、カメラBの次に移動ルートに設定されていない。このため、追跡対象特定部34は、図9に示したフローチャートに従い、カメラDの映像に人物が出現したことを判定し、表示制御部31は、カメラDの映像をメイン表示部401に表示する。また、移動方向検出部36は、図9に示したフローチャートに従い、移動ルートを推測し直す。この際、移動方向検出部36は、カメラDの次のカメラE,Fのうち、図6に示したように最も重み付けが高いカメラEを移動ルートに追加する。
図12Dに示すように、メイン表示部401はカメラDの映像を表示している。そして、サブ表示部403には、新たに推測された移動ルートにあるカメラA、カメラB、カメラD、カメラEの映像が移動ルートの順に表示される。
また、メイン表示部401に表示する映像として、カメラDの映像が選択されたことが、ラジオボタンの色の反転で表される。その後、図示しないが、追加対象の人物が建物外に移動したとする。なお、図5に示したようにカメラEとカメラFは、隣接する位置ではないのでカメラFは移動ルートから外れる。このため、図12Dのサブ表示部403には、カメラFの映像が含まれない。
また、メイン表示部401に表示する映像として、カメラDの映像が選択されたことが、ラジオボタンの色の反転で表される。その後、図示しないが、追加対象の人物が建物外に移動したとする。なお、図5に示したようにカメラEとカメラFは、隣接する位置ではないのでカメラFは移動ルートから外れる。このため、図12Dのサブ表示部403には、カメラFの映像が含まれない。
<建物外から建物内に移動する人物の移動ルート>
次に、図10Bに示した移動ルートで建物外から建物内に人物が移動する時に、利用者端末1に表示される映像の例について、図13と図14を参照して説明する。
次に、図10Bに示した移動ルートで建物外から建物内に人物が移動する時に、利用者端末1に表示される映像の例について、図13と図14を参照して説明する。
(カメラFの映像)
図13Aに示すように、追跡対象の人物が建物外にいる時、カメラFの映像に人物が映り込む。ここで、人物追跡機能切り替えボタン402が「OFF」で表示されているので、人物追跡機能がOFFされている。また、図13Aでは、移動ルートの推測前であるため、サブ表示部403には、カメラA、カメラB、カメラC、カメラD、カメラE、カメラFの映像が順に表示されている。また、メイン表示部401に表示する映像として、カメラFの映像が選択されたことが、ラジオボタンの色の反転で表される。
図13Aに示すように、追跡対象の人物が建物外にいる時、カメラFの映像に人物が映り込む。ここで、人物追跡機能切り替えボタン402が「OFF」で表示されているので、人物追跡機能がOFFされている。また、図13Aでは、移動ルートの推測前であるため、サブ表示部403には、カメラA、カメラB、カメラC、カメラD、カメラE、カメラFの映像が順に表示されている。また、メイン表示部401に表示する映像として、カメラFの映像が選択されたことが、ラジオボタンの色の反転で表される。
次に、利用者端末1の利用者が人物追跡機能切り替えボタン402を押下すると、図13Bに示すように、人物追跡機能切り替えボタン402が「人物追跡ON」と表示される。そして、移動方向検出部36は、図8に示したフローチャートに従って、カメラFの左側に設置されているカメラBと、その先の最も重み付けが高いカメラEと、移動先のカメラDと、移動先のカメラBと、カメラCと、カメラAとを移動ルートに追加する。
なお、図10Bに示したようにカメラBからの移動先には、カメラBとカメラCが設置されている。ただし、図6に示したようにカメラBとカメラCの重み付けは同じ「1」である。このため、移動方向検出部36は、カメラBとカメラCを共に移動ルートに追加する。このため、2系統の移動ルートが推測される。
図13Bに示すように、メイン表示部401はカメラFの映像を表示している。そして、サブ表示部403には、新たに推測された移動ルートにあるカメラF、カメラD、カメラE、カメラB、カメラC、カメラAの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラFの映像が選択されたことが、ラジオボタンの色の反転で表される。
(カメラDの映像)
次に、カメラFの映像から追跡対象の人物が消失した後、カメラDの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラDの映像に人物が出現したことを判定し、表示制御部31は、カメラDの映像をメイン表示部401に表示する。
次に、カメラFの映像から追跡対象の人物が消失した後、カメラDの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、カメラDの映像に人物が出現したことを判定し、表示制御部31は、カメラDの映像をメイン表示部401に表示する。
図14Cに示すように、メイン表示部401はカメラDの映像を表示している。そして、サブ表示部403には、カメラF、カメラD、カメラE、カメラB、カメラC、カメラAの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラDの映像が選択されたことが、ラジオボタンの色の反転で表される。
(カメラEの映像)
次に、カメラDの映像から追跡対象の人物が消失した後、カメラEの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、最も重み付けが高いカメラEの映像に人物が出現したことを判定し、表示制御部31は、カメラEの映像をメイン表示部401に表示する。
次に、カメラDの映像から追跡対象の人物が消失した後、カメラEの映像に、この人物が出現したとする。この場合、追跡対象特定部34は、図9に示したフローチャートに従い、最も重み付けが高いカメラEの映像に人物が出現したことを判定し、表示制御部31は、カメラEの映像をメイン表示部401に表示する。
図14Dに示すように、メイン表示部401はカメラEの映像を表示している。そして、サブ表示部403には、カメラF、カメラD、カメラE、カメラB、カメラC、カメラAの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラEの映像が選択されたことが、ラジオボタンの色の反転で表される。
<推測し直された移動ルート>
次に、図10Bに示した移動ルートが推測し直され、図10Cに示した移動ルートが推測された時に、利用者端末1に表示される映像の例について、図15を参照して説明する。
次に、図10Bに示した移動ルートが推測し直され、図10Cに示した移動ルートが推測された時に、利用者端末1に表示される映像の例について、図15を参照して説明する。
(カメラBの映像)
仮に、カメラDの映像から追跡対象の人物が消失した後、カメラBの映像に、この人物が出現したとする。カメラBは、カメラDの次に移動ルートに設定されたカメラではない。このため、追跡対象特定部34は、図9に示したフローチャートに従い、カメラBの映像に人物が出現したことを判定し、移動ルートを推測し直す。そして、表示制御部31は、カメラBの映像をメイン表示部401に表示する。この際、移動方向検出部36は、カメラBの次のカメラE,Fのうち、図6に示した最も重み付けが高いカメラEを移動ルートに追加する。
仮に、カメラDの映像から追跡対象の人物が消失した後、カメラBの映像に、この人物が出現したとする。カメラBは、カメラDの次に移動ルートに設定されたカメラではない。このため、追跡対象特定部34は、図9に示したフローチャートに従い、カメラBの映像に人物が出現したことを判定し、移動ルートを推測し直す。そして、表示制御部31は、カメラBの映像をメイン表示部401に表示する。この際、移動方向検出部36は、カメラBの次のカメラE,Fのうち、図6に示した最も重み付けが高いカメラEを移動ルートに追加する。
図15に示すように、メイン表示部401はカメラBの映像を表示している。そして、サブ表示部403には、新たに推測された移動ルートにあるカメラF、カメラD、カメラB、カメラEの映像が移動ルートの順に表示される。また、メイン表示部401に表示する映像として、カメラBの映像が選択されたことが、ラジオボタンの色の反転で表される。
以上説明した一実施の形態に係る映像監視システム10では、映像監視装置3が複数のカメラ50で撮影された映像から追跡対象が映り込んだ映像を選択し、この映像を利用者端末1に表示する。ここで、映像監視装置3は、自動的に不審者(追跡対象)を追跡し、追跡対象特定部34により特定された追跡対象が映るカメラ50の映像が利用者端末1に大きく表示する。このため、利用者は利用者端末1においてもカメラ50の映像から追跡対象を容易に確認することができる。
また、不審者の移動に伴い、不審者の移動ルートが推測される。そして、移動ルートに設置された複数のカメラ50が撮影する映像がサブ表示部403にリスト表示される。このため、利用者は、利用者端末1に表示される複数の映像を同時に確認できる。そして、利用者は、ある映像に映る不審者の動きに注目したい場合には、この映像を選択することで、この映像に映る不審者の追跡開始を指示できる。このため、利用者は、容易な操作でメイン表示部401に拡大表示された不審者が映る映像を確認できる。
また、追跡開始の指示がされた後、メイン表示部401には、不審者が映り込んだ映像が表示されるように、映像が自動的に切り替わる。このため、利用者は、メイン表示部401に表示された映像から不審者の様子を確認しやすくなる。また、メイン表示部401に表示される映像は、サブ表示部403に表示される映像より大きい。このため、利用者は、利用者端末1の表示画面が小さくても、メイン表示部401に表示される不審者が映り込んだ映像を確認しやすくなる。
また、カメラ管理部32には、位置関係情報321が記録される。移動方向検出部36が、利用者によって追跡開始の指示を受けた不審者が映る映像から不審者の移動ルートを推測する際には、位置関係情報321を利用して、不審者の移動方向を自動的に推測する。このため、移動方向検出部36は、カメラ50の位置関係に合わせた移動ルートが推測可能となる。
また、カメラ管理部32には、重み付け情報322が記録される。利用者が特に注意して状況を確認したい重要なエリアを撮影するカメラ50には、他のエリアを撮影するカメラ50より高い重み付けが設定される。移動方向検出部36が推測する移動ルートには、重み付けが高いエリアを撮影するカメラ50の設置位置が優先的に含まれる。このため、利用者は、重要なエリアに不審者が侵入していないか、侵入していた場合、どのような行動をしているかを監視できる。
また、移動方向検出部36は、利用者端末1から不審者の追跡開始の指示が入力された後、推測した移動ルートを外れて不審者が移動した場合、新たに不審者が映り込んだ映像を撮影するカメラ50を起点として、再度移動ルートを推測し直す。そして、表示制御部31は、再度推測された移動ルートに基づいて、この移動ルートに設置されているカメラ50が撮影する映像をリスト表示するように、サブ表示部403で表示する映像を更新する。このため、利用者は、一旦、不審者が映像から消失しても、再び不審者が映り込んだ映像を引き続き監視することが容易となる。
また、移動ルートから外れた位置に設置されるカメラ50の映像は、サブ表示部403に表示されない。このため、利用者は、移動ルートに沿った位置に設置されるカメラ50の映像が表示されたサブ表示部403を確認すればよく、映像確認時の負担が軽減される。
[変形例]
図16は、利用者端末1に表示される画面の変形例を示す図である。
利用者端末1は、メイン表示部401、人物追跡機能切り替えボタン402、及びサブ表示部403に加えて、移動ルート表示部404を備える。
移動ルート表示部404には、構内図と共に、移動方向検出部36により推測された移動ルートと、各カメラのカメラ名を表す符号(A~F)が表示される。利用者は、移動ルート表示部404に表示される移動ルートを確認することで、追跡開始を指示した不審者が構内にいる場所を具体的に把握することができる。また、利用者は、どのような移動ルートが推測されているかを把握しやすくなる。
図16は、利用者端末1に表示される画面の変形例を示す図である。
利用者端末1は、メイン表示部401、人物追跡機能切り替えボタン402、及びサブ表示部403に加えて、移動ルート表示部404を備える。
移動ルート表示部404には、構内図と共に、移動方向検出部36により推測された移動ルートと、各カメラのカメラ名を表す符号(A~F)が表示される。利用者は、移動ルート表示部404に表示される移動ルートを確認することで、追跡開始を指示した不審者が構内にいる場所を具体的に把握することができる。また、利用者は、どのような移動ルートが推測されているかを把握しやすくなる。
なお、カメラ50が監視するエリアとしては、建物内の廊下、室内に限らず、建物外の駐車場、敷地の内外も含めるものとする。
また、映像監視装置3が行動を監視する追跡対象としては、不審者等の人物に限らない。例えば、ドローン、ロボット、車のような移動物体を追跡対象としてもよい。このように人物及びドローンのうち、少なくとも一つを含む移動物体が追跡対象とされるため、利用者は、監視したいエリアに応じて様々な種類の追跡対象の様子を確認できる。
また、メイン表示部401の大きさは、サブ表示部403と同じ程度の大きさとしてもよい。利用者端末1が、画面の大きなタブレット端末である場合、メイン表示部401の位置を画面内の特定の位置(例えば、左上)に固定し、サブ表示部403の位置をメイン表示部401の下として、サブ表示部403が各カメラ50の映像をタイル状に配置した形態としてもよい。この形態であっても、利用者はメイン表示部401の映像から不審者の行動を正しく確認できる。
また、上述した実施の形態では、追跡対象が映るカメラ50の映像を利用者が選択したが、追跡対象特定部34が自動的に追跡対象を特定してもよい。追跡対象特定部34は、例えば、異常行動を特定し、異常行動をする人物を追跡対象としてもよい。また、追跡対象特定部34は、人がいないはずの時間帯に侵入している人等を追跡対象としてもよい。このように追跡対象特定部34が自動的に追跡対象を特定することで、利用者が利用者端末1に表示される映像を常に見続ける必要がなく、利用者の監視負担が軽減される。
なお、本発明は上述した実施の形態に限られるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りその他種々の応用例、変形例を取り得ることは勿論である。
例えば、上述した実施の形態は本発明を分かりやすく説明するためにシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、本実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
例えば、上述した実施の形態は本発明を分かりやすく説明するためにシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、本実施の形態の構成の一部について、他の構成の追加、削除、置換をすることも可能である。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1…利用者端末、3…映像監視装置、5…カメラ群、10…映像監視システム、31…表示制御部、32…カメラ管理部、33…映像取得部、34…追跡対象特定部、35…カメラ選択部、36…移動方向検出部、50~56…カメラ、321…位置関係情報、322…重み付け情報、401…メイン表示部、402…人物追跡機能切り替えボタン、403…サブ表示部
Claims (13)
- 複数のカメラから複数の映像を取得する映像取得部と、
前記映像取得部が取得した複数の前記映像から、追跡対象を特定する追跡対象特定部と、
前記追跡対象が映る前記映像を選択するカメラ選択部と、
前記カメラ選択部が選択した前記映像を利用者端末に表示する制御を行う表示制御部と、を備える
映像監視装置。 - 前記追跡対象の移動方向を検出する移動方向検出部をさらに備え
前記カメラ選択部は、前記移動方向に設置された前記カメラが撮影する前記映像を選択する
請求項1に記載の映像監視装置。 - 前記表示制御部は、前記カメラ選択部が選択した前記映像を表示するメイン表示部と、前記移動方向検出部により検出された前記移動方向に合わせて並べ替えた複数の前記映像を順に表示するサブ表示部とを前記利用者端末に表示する
請求項2に記載の映像監視装置。 - 複数の前記カメラの設置位置が関係づけられる位置関係情報を記録するカメラ管理部を備え、
前記移動方向検出部は、前記カメラ管理部に記録された前記位置関係情報に基づいて前記追跡対象の移動ルートを推測し、
前記表示制御部は、前記移動ルートに沿って設置された前記カメラの順に、前記映像取得部が取得した複数の前記映像を前記サブ表示部に表示する
請求項3に記載の映像監視装置。 - 前記カメラ管理部は、前記カメラごとの前記設置位置が重み付けされた重み付け情報を管理し、
前記カメラ選択部は、前記移動ルートに複数の前記カメラが設置されている場合に、前記カメラ管理部に記録された前記重み付け情報に基づいて、重み付けが大きい前記カメラが撮影する前記映像を選択する
請求項4に記載の映像監視装置。 - 前記移動方向検出部は、前記移動ルートに設置されていない前記カメラによって撮影された前記映像に、前記メイン表示部の前記映像から消失した前記追跡対象が映った場合に、前記追跡対象が映った映像を撮影する前記カメラを起点として再び移動ルートを推測し、
前記表示制御部は、再び推測された前記移動ルートに沿って設置される前記カメラの順に、複数の前記映像を前記サブ表示部に表示する
請求項5に記載の映像監視装置。 - 前記追跡対象特定部は、前記利用者端末から受信する追跡開始の指示に基づいて、前記追跡対象の追跡を開始する
請求項6に記載の映像監視装置。 - 前記サブ表示部に表示される複数の前記映像から、前記追跡対象が映る前記映像が選択されることで前記追跡対象が指示される
請求項7に記載の映像監視装置。 - 前記メイン表示部は、前記サブ表示部よりも大きく前記映像を表示し、前記サブ表示部は、複数の前記映像をリスト形式で表示する
請求項3に記載の映像監視装置。 - 前記表示制御部は、前記移動ルートを表示する移動ルート表示部を前記利用者端末に表示する
請求項4に記載の映像監視装置。 - 前記追跡対象は、人物及びドローンのうち、少なくとも一つを含む移動物体である
請求項1~10のいずれか一項に記載の映像監視装置。 - 複数のカメラから複数の映像を取得する処理と、
複数の前記映像から、利用者端末により指示された追跡対象を検出し、前記追跡対象が映る前記映像を選択する処理と、
選択された前記映像を前記利用者端末に表示する制御を行う処理と、を含む
表示制御方法。 - 利用者端末と、映像監視装置とを備える映像監視システムであって、
前記利用者端末は、
前記映像監視装置から受信する複数の映像を表示する表示部を有し、
前記映像監視装置は、
複数のカメラから複数の前記映像を取得する映像取得部と、
前記映像取得部が取得した複数の前記映像から、追跡対象を特定する追跡対象特定部と、
前記追跡対象が映る前記映像を選択するカメラ選択部と、
前記カメラ選択部が選択した前記映像を前記利用者端末に表示する制御を行う表示制御部と、を備える
映像監視システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146646A JP2023039508A (ja) | 2021-09-09 | 2021-09-09 | 映像監視装置、表示制御方法及び映像監視システム |
CN202210821452.0A CN115801999A (zh) | 2021-09-09 | 2022-07-12 | 影像监视装置、显示控制方法以及影像监视系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146646A JP2023039508A (ja) | 2021-09-09 | 2021-09-09 | 映像監視装置、表示制御方法及び映像監視システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023039508A true JP2023039508A (ja) | 2023-03-22 |
Family
ID=85431358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021146646A Pending JP2023039508A (ja) | 2021-09-09 | 2021-09-09 | 映像監視装置、表示制御方法及び映像監視システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023039508A (ja) |
CN (1) | CN115801999A (ja) |
-
2021
- 2021-09-09 JP JP2021146646A patent/JP2023039508A/ja active Pending
-
2022
- 2022-07-12 CN CN202210821452.0A patent/CN115801999A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115801999A (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875665B2 (en) | Augmented reality of a building | |
JP6399356B2 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
RU2551128C1 (ru) | Устройство содействия в отслеживании, система содействия в отслеживании и способ содействия в отслеживании | |
US10019877B2 (en) | Apparatus and methods for the semi-automatic tracking and examining of an object or an event in a monitored site | |
KR102164863B1 (ko) | 정보 처리장치 및 그 방법과, 컴퓨터 판독가능한 기억매체 | |
US8502868B2 (en) | Intelligent camera selection and object tracking | |
US9298987B2 (en) | Information processing apparatus, information processing method, program, and information processing system | |
JP4140567B2 (ja) | 物体追跡装置および物体追跡方法 | |
JP4808139B2 (ja) | 監視システム | |
JP4722537B2 (ja) | 監視装置 | |
JP2008085874A (ja) | 人物監視システムおよび人物監視方法 | |
JP5555044B2 (ja) | カメラ制御装置及びカメラシステム | |
JP4786447B2 (ja) | 監視用画像記録装置 | |
JP2015186114A (ja) | 映像監視システム | |
JP2023039508A (ja) | 映像監視装置、表示制御方法及び映像監視システム | |
JP6322304B2 (ja) | 火災報知設備の支援システム | |
JP2005136774A (ja) | カメラ監視システムおよびプログラム | |
KR101445361B1 (ko) | 현장 모니터링 장치 | |
JP2017228852A (ja) | モニタリングシステム、映像表示方法及びコンピュータプログラム | |
WO2024127596A1 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
JP3120290U (ja) | 境界監視システム及びその監視卓 | |
JP2020102676A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20120111250A (ko) | 협업 감시 시스템 및 협업 감시 방법 | |
JP2002252879A (ja) | 旋回カメラを用いたイベント連動型駅務監視システム | |
JP6699801B2 (ja) | 監視システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240805 |