JP6750998B2 - 監視システム及び監視方法 - Google Patents

監視システム及び監視方法 Download PDF

Info

Publication number
JP6750998B2
JP6750998B2 JP2016199562A JP2016199562A JP6750998B2 JP 6750998 B2 JP6750998 B2 JP 6750998B2 JP 2016199562 A JP2016199562 A JP 2016199562A JP 2016199562 A JP2016199562 A JP 2016199562A JP 6750998 B2 JP6750998 B2 JP 6750998B2
Authority
JP
Japan
Prior art keywords
case
information
video
incident
crime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016199562A
Other languages
English (en)
Other versions
JP2018061215A (ja
Inventor
和哉 鰐口
和哉 鰐口
正洋 久山
正洋 久山
健介 小沢
健介 小沢
陽平 小出
陽平 小出
Original Assignee
パナソニックi−PROセンシングソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックi−PROセンシングソリューションズ株式会社 filed Critical パナソニックi−PROセンシングソリューションズ株式会社
Priority to JP2016199562A priority Critical patent/JP6750998B2/ja
Priority to US15/414,267 priority patent/US10027940B2/en
Publication of JP2018061215A publication Critical patent/JP2018061215A/ja
Priority to US16/000,503 priority patent/US10271032B2/en
Application granted granted Critical
Publication of JP6750998B2 publication Critical patent/JP6750998B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound
    • G08B13/19693Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound using multiple video sources viewed on a single or compound screen
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over

Description

本発明は、撮像装置により撮像された複数の撮像映像を用いて、事件に関連する撮像映像を表示する監視システム及び監視方法に関する。
近年、各種施設、ビル、工場、住宅、道路などの各所において、屋内外の所定の監視領域を撮像して防犯等に活用する監視カメラが普及している。また、警察官や警備員の業務支援のために、職務中の警察官や警備員がウェアラブルカメラを装着又は所持する、或いはパトカーや警備車両に車載カメラを搭載することにより、現場の映像を撮像する運用の検討が進められている。例えば、警察署では、これらの監視カメラ、ウェアラブルカメラ、車載カメラなどの撮像装置により撮像された映像から、事件に関連する撮像映像を事件映像として抽出し、捜査等に利用することが検討されている。また、監視カメラ等により撮像した撮像映像を用いて、警察官や警備員の配備を支援することも検討されている。
例えば特許文献1には、顔認証を用いた防犯システムが開示されている。特許文献1の防犯システムは、捜査管理サーバにおいて、固定カメラ装置で撮影した画像情報を捜査対象者リストデータベースの顔情報と照合して捜査対象者の顔認証を行い、捜査対象者を特定できた場合、位置情報及び時間情報により特定される無線基地局へ、捜査対象者の所在情報を送信し、携帯電話端末から送られてくる顔情報を認証した顔情報と照合して一致した場合、携帯電話端末の位置情報に基づき警備所端末を特定し、警備所端末に捜査対象者が付近にいることを報知するものである。
また、特許文献2には、地図連携映像監視方法及び装置が開示されている。特許文献2の地図連携映像監視方法及び装置は、事件発生後における犯人の一定時間毎の逃走可能範囲を算出し、複数地点に設置された監視カメラからの映像データを格納し、逃走可能範囲に対応した複数地点の映像データから犯人が通過する通過予想時間帯を算出し、通過予想時間帯にある映像データを地図データと共に画面表示するものである。
特開2009−206617号公報 特開2007−158496号公報
ここで、警察署や警備会社の署内システムにおいて、撮像映像を利用して事件の捜査、解析等を行うことを想定する。この場合、例えば異なるカメラアングル(撮像地点)、場所、時間など、異なるソースから取得した複数の事件映像を比較検討することができると、事件の原因究明等のために有効である。
特許文献1の従来例では、複数の固定カメラ装置及び携帯電話端末から画像情報を取得して顔認証に利用することは可能である。しかし、異なるソースから取得した複数の映像を表示する等の技術は開示がなく、例えば、異なる複数のソースの事件映像を同時に確認する、同一現場の異なるカメラアングルの撮像映像を同期させて確認するなど、事件に関連する複数の撮像映像を互いに関連付けて容易に視認することはできない。
また、特許文献2の従来例では、複数の監視カメラで撮影した映像を地図に連携させて表示することは可能である。しかし、複数の映像を互いに関連付けて表示する等の技術は開示がなく、例えば、同一人物が撮影された異なるソースの事件映像を統合して確認するなど、事件に関連する複数の撮像映像を地図上に網羅的に表示して容易に視認することはできない。
本発明は、上述した従来の課題を解決するために、同一人物又は同一事件に関連する事件映像を地図上に網羅的に表示し、ユーザが複数の事件映像を統合して視認することができる監視システム及び監視方法を提供することを目的とする。
また、本発明は、事件発生時の同一現場における異なるソースの複数の撮像映像を同時に表示し、ユーザが複数の事件映像を容易に対比させて視認することができる監視システム及び監視方法を提供することを目的とする。
本発明は、事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムであって、前記サーバ装置は、前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、前記クライアント装置は、前記サーバ装置から送信された事件映像及び事件情報を受信し、前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、前記事件映像表示画面において、前記事件情報に含まれる事件映像の撮像地点の位置情報に基づき、前記事件映像に関する映像属性情報を地図情報に重畳して、前記地図情報の地図上の撮像地点において前記映像属性情報を表示し、ユーザによる映像再生指示があった場合に、前記映像属性情報に対応する事件映像を再生表示する、監視システムを提供する。
また、本発明は、事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムであって、前記サーバ装置は、前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、前記クライアント装置は、前記サーバ装置から送信された事件映像及び事件情報を受信し、前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、前記事件映像表示画面において、同一の場所を撮像した異なる入力ソースによる複数の事件映像を同時表示し、ユーザによる映像再生指示があった場合に、前記複数の事件映像を同期させて再生表示する、監視システムを提供する。
また、本発明は、事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムにおける監視方法であって、前記サーバ装置は、前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、前記クライアント装置は、前記サーバ装置から送信された事件映像及び事件情報を受信し、前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、前記事件映像表示画面において、前記事件情報に含まれる事件映像の撮像地点の位置情報に基づき、前記事件映像に関する映像属性情報を地図情報に重畳して、前記地図情報の地図上の撮像地点において前記映像属性情報を表示し、ユーザによる映像再生指示があった場合に、前記映像属性情報に対応する事件映像を再生表示する、監視方法を提供する。
また、本発明は、事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムにおける監視方法であって、前記サーバ装置は、前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、前記クライアント装置は、前記サーバ装置から送信された事件映像及び事件情報を受信し、前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、前記事件映像表示画面において、同一の場所を撮像した異なる入力ソースによる複数の事件映像を同時表示し、ユーザによる映像再生指示があった場合に、前記複数の事件映像を同期させて再生表示する、監視方法を提供する。
本発明によれば、同一人物又は同一事件に関連する事件映像を地図上に網羅的に表示し、ユーザが複数の事件映像を統合して視認することができる。また、本発明によれば、事件発生時の同一現場における異なるソースの複数の撮像映像を同時に表示し、ユーザが複数の事件映像を容易に対比させて視認することができる。
本実施形態の警察業務支援システムの構成の一例を示す図 本実施形態のサーバ装置のハードウェア構成の一例を示すブロック図 本実施形態のセンター装置のハードウェア構成の一例を示すブロック図 本実施形態の現場端末のハードウェア構成の一例を示すブロック図 第1の実施形態の事件映像表示処理の動作手順の一例を説明するシーケンス図 事件映像表示画面の第1例を示す図 事件映像表示画面の第2例を示す図 事件映像表示画面の第3例を示す図 第2の実施形態の警察官配備支援処理の動作手順の一例を説明するシーケンス図 対象位置登録時の警官配備画面の一例を示す図 警官配置情報表示時の警官配備画面の一例を示す図 現場端末に表示される問合せ画面の一例を示す図 受領メッセージ受信時の警官配備画面の一例を示す図 現場端末に表示されるナビゲーション画面の一例を示す図 第3の実施形態の事件情報表示処理の動作手順の一例を説明するシーケンス図 犯罪関連情報の統計データの一例を示す図 犯罪関連情報表示画面の第1例を示す図 犯罪関連情報表示画面の第2例を示す図 犯罪関連情報表示画面の第3例を示す図 統計情報表示画面の一例を示す図
以下、適宜図面を参照しながら、本発明に係る監視システム及び監視方法を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
以下の実施形態では、警察組織において、管轄内の各所の監視映像の管理、事件に関する録画映像の管理、警察官のパトロール、警察官及びパトロールカーの配備、事件の捜査又は分析等、各種業務を支援する警察業務支援システムを例示して、システムの構成及び機能、並びに処理手順を説明する。但し、本発明に係るシステム及び方法の実施形態は、後述する本実施形態の内容に限定されない。本発明は、例えば、警備会社における監視システム、警備業務支援システム等、防犯のための各種業務に関連するシステムに適用可能である。
図1は、本実施形態の警察業務支援システムの構成の一例を示す図である。警察業務支援システムは、警察署内に設置された署内システム100と、管轄内の各所の現場において配備される機器として、携帯端末110、現場PC(Personal Computer)120、監視カメラ130、車載カメラシステム(ICV:In Car Videoシステム)140、ウェアラブルカメラ(BWC:Body-Worn Camera)150のうちの少なくとも一つと、を含む構成である。これらの携帯端末110、現場PC120、監視カメラ130、車載カメラシステム140、ウェアラブルカメラ150等の機器をまとめて現場端末と称することとする。現場端末は、無線通信又は有線通信によるネットワーク161を介して署内システム100と接続され、データの送受を行う。
携帯端末110又は現場PC120は、現場の警察官がパトロール時に所持して各種情報の閲覧及び入力、指令の受信等に使用するものである。携帯端末110は、タブレット端末、スマートフォン等の情報通信端末により構成される。現場PC120は、ノートパソコン等の可搬コンピュータにより構成され、パトロールカーに搭載された状態で使用されることもある。車載カメラシステム140は、パトロールカーに搭載され、車載カメラ149及び車載レコーダ148を有し、車載カメラ149にて撮像した現場周辺の撮像映像を車載レコーダ148に録画するものである。監視カメラ130は、管轄内の各所における建物の内外、道路上などに設置され、それぞれの場所の監視対象領域を撮像して撮像映像を取得するものである。ウェアラブルカメラ150は、警察官の衣服に装着されるか又は警察官が所持して使用するもので、警察官の周囲の状況を撮像して録画するものである。
署内システム100は、サーバ装置として、コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40のうちの少なくとも一つを含み、クライアント装置として、指令センター101に配備される指令室のセンターコンソール60、クライアントPC70のうちの少なくとも一つを含む構成である。センターコンソール60は、大画面ディスプレイ、コンピュータ、通信装置を有して構成される。クライアントPC70は、ユーザである署内の警察官が使用するコンピュータである。これら指令センター101のセンターコンソール60、クライアントPC70をまとめてセンター装置と称することとする。センター装置は、サーバ装置に接続されるクライアント装置として機能するもので、管轄内において収集された各種情報を表示し、現場状況の確認、撮像映像のモニタリング、通報の受信、指令の送信等を行う。なお、現場端末をクライアント装置として機能させることも可能である。署内システム100の各サーバとセンター装置とは、有線通信又は無線通信によるネットワーク165を介して接続される。
署内システム100と現場端末とを接続するネットワーク161、及び署内システム100内部のネットワーク165は、無線ネットワーク又は有線ネットワークである。無線ネットワークは、例えば無線LAN(Local Area Network)、無線WAN(Wide Area Network)、3G、LTE(Long Term Evolution)又はWiGig(Wireless Gigabit)である。有線ネットワークは、例えばイントラネット又はインターネットである。
コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40をまとめてサーバ装置と称することとする。サーバ装置は、例えばコンピュータ及びストレージを用いて構成され、クライアント装置としてのセンター装置からの指示に従って各種処理を実行する。各サーバ装置は、署内システム100の内部ではなく、少なくとも一つが外部のクラウドネットワークに設けられるサーバ(物理的なサーバ装置、論理的な仮想サーバを含む)において所定機能を実行する構成としてもよい。また、複数のサーバの機能を一つのサーバ装置によって実現する構成としてもよい。つまり、コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40を別々に記載しているが、まとめて一つ又は複数のサーバ装置によって構成してもよい。
署内システム100は、外部ネットワークに設けられたSNS(Social Networking Service)サーバ50と接続することも可能になっている。署内システム100とSNSサーバ50とは、外部ネットワークとの通信を中継するゲートウェイを含むネットワーク162を介して接続される。SNSサーバ50は、例えば、Twitter(登録商標)、Facebook(登録商標)、Instagram(登録商標)などのSNSを運用するサーバ装置である。SNSサーバ50は、ネットワーク163、アクセスポイント171、172を介して一般市民が使用する携帯端末210、220と接続され、多数の一般市民からのテキスト及び/又は画像による投稿情報の収集、配信を行う。ネットワーク163は、インターネット、モバイル通信ネットワーク等の広域での通信が可能なネットワークである。アクセスポイント171、172は、無線LAN、無線WAN、3G、LTE等の無線通信を行うための携帯端末210、220との間で無線接続を行う無線局である。以下では、一般市民が使用する携帯端末210、220を市民端末と称することとする。
携帯端末110及び現場PC120は、警察官が所持し、現場において、犯罪や事故、交通違反等の容疑者となる捜査対象者の名前や住所等の属性情報の入力、事件に関連する事件情報の入力、捜査対象者の署名の登録などを行い、署内システム100に送信する。本実施形態では、犯罪、事故、交通違反等の警察業務の対象となる事象を事件と総称し、容疑者、逮捕者、過去の犯罪者等の警察業務の対象となる人物を捜査対象者と総称する。また、携帯端末110及び現場PC120は、指令センター101の指令を受信し、表示部への表示又は音声出力によって警察官に通知する。また、携帯端末110及び現場PC120は、署内システム100から事件映像の映像データ、地図情報、人物情報等の各種情報を受信し、表示部に表示する。
監視カメラ130は、設置位置における監視対象領域を撮像し、撮像映像の映像データを署内システム100に送信する。監視カメラ130は、常時撮像、センサ検知等による所定事象発生時の撮像、所定時刻や所定時間帯の撮像などの種々の映像撮像形態が考えられ、また、録画についても、常時録画、所定事象発生時のみ録画、所定時刻や所定時間帯のみ録画など、種々の映像記録形態が考えられる。
ウェアラブルカメラ150は、警察官の前方の雰囲気を被写体として撮像し、撮像された映像データ及び収音された音声データを車載カメラシステム140に送信する。なお、ウェアラブルカメラ150から署内システム100に撮像画像の映像データを直接送信してもよい。車載カメラシステム140は、車載カメラ149にて撮像した映像データ、及びウェアラブルカメラ150から伝送された映像データを車載レコーダ148に撮像映像として記録する。また、車載カメラシステム140は、撮像映像の映像データを署内システム100に送信する。ウェアラブルカメラ150や車載カメラ149の撮像対象となる被写体には、単に人物だけではなく、事件の現場の情景、現場の近くに群がる群衆(いわゆる、野次馬)、更に、撮像位置の周囲の雰囲気も含まれるとする。
署内システム100において、コンテンツ管理サーバ10は、監視カメラ130、車載カメラシステム140、ウェアラブルカメラ150等の現場端末から取得した撮像映像の映像データを入力し、撮像映像と事件情報とを関連付けて、事件映像として登録する。また、コンテンツ管理サーバ10は、事件映像の映像データの蓄積、抽出、検索、配信を行う。なお、コンテンツ管理サーバ10は、事件の捜査対象者を照合するための人物情報、車両情報など、事件に関連する各種の属性情報を記録してもよい。
警官配備サーバ20は、派遣者の一例としての警察官の事件発生場所への派遣、パトロールのスケジューリングなど、警察官の配備の指示、配備計画の作成、配備業務の支援を行う。警官配備サーバ20は、警察官の属性情報、パトロールカーの属性情報、管轄内の地図情報を登録し、警察官及びパトロールカーの位置情報を取得して、警察官の配備のための処理を実行する。
犯罪予測サーバ30は、SNSサーバ50に蓄積された多数の投稿情報を利用して、犯罪に関連するとみなされる犯罪関連情報を収集し、犯罪発生に関する予測データ、統計情報を生成する。この際、犯罪予測サーバ30は、犯罪関連情報と位置情報及び時間情報とを関連付けて、犯罪の種別、犯罪が発生した位置情報及び時間情報を含む犯罪発生情報のデータベースを構築する。犯罪予測サーバ30は、管轄内の地図情報を有し、犯罪発生の予測データとして、犯罪の発生頻度の高い地図上の位置、時間帯を算出し、この予測データを集計した統計情報を生成する。
デバイス管理サーバ40は、現場端末として使用する携帯端末110、現場PC120、監視カメラ130、車載カメラシステム140、ウェアラブルカメラ150等の機器を管理する。デバイス管理サーバ40は、各現場端末の端末ID、警察官ID、パトロールカーの車両IDを保持し、警察官とパトロールカー及び現場端末との照合、各現場端末の使用状態の登録、更新を行う。また、デバイス管理サーバ40は、各現場端末の位置情報を取得し、現場端末が移動した場合は位置情報を更新する。なお、現場端末の位置情報は、それぞれの現場端末において保持しておき、必要に応じてデバイス管理サーバ40又は他の装置に通知してもよいし、デバイス管理サーバ40で各現場端末の位置情報を管理してもよい。
図2は、本実施形態のサーバ装置のハードウェア構成の一例を示すブロック図である。ここでは、コンテンツ管理サーバ10の構成例を説明するが、他の警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40、SNSサーバ50についても主要な構成は同様である。以下、コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40、SNSサーバ50をまとめてサーバ装置と称することもある。サーバ装置の一例としてのコンテンツ管理サーバ10は、CPU11と、I/O制御部12と、通信部13と、メモリ14と、ストレージ制御部17と、ストレージ18と、を備える。
CPU11は、例えばコンテンツ管理サーバ10の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU11は、メモリ14に記憶されたプログラム及びデータに従って動作する。
I/O制御部12は、CPU11とコンテンツ管理サーバ10の各部(例えば通信部13、ストレージ制御部17)との間でデータの入出力に関する制御を行い、CPU11からのデータ及びCPU11へのデータの中継を行う。なお、I/O制御部12は、CPU11と一体的に構成されてもよい。
通信部13は、携帯端末110、現場PC120、監視カメラ130、車載カメラシステム140、ウェアラブルカメラ150等の現場端末180との間、又は、センターコンソール60、クライアントPC70等のセンター装置80との間で、有線又は無線による通信を行う。
メモリ14は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU11の動作時のワークメモリとして機能し、CPU11を動作させるための所定のプログラム及びデータを保存している。
ストレージ制御部17は、CPU11が現場端末180に対し、撮像された映像データの送信を要求した場合に、この要求に応じて受信した映像データをストレージ18に入力して書き込む映像記録動作を制御する。また、ストレージ制御部17は、CPU11がセンター装置80から撮像映像の映像データの配信の要求を受けた場合に、この要求に応じてストレージ18から映像データを読み出して出力する映像出力動作を制御する。ストレージ18は、ストレージ制御部17によって制御される、SSDやHDD等の記憶装置であり、CPU11からの指示に従い、I/O制御部12を介して入力された撮像映像の映像データを蓄積する。
図3は、本実施形態のセンター装置のハードウェア構成の一例を示すブロック図である。ここでは、クライアントPC70の構成例を説明するが、他のセンターコンソール60についても主要な構成は同様である。センター装置の一例としてのクライアントPC70は、CPU71と、I/O制御部72と、通信部73と、メモリ74と、入力部75と、表示部76と、スピーカ77と、マイク78と、を備える。
CPU71は、例えばクライアントPC70の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU71は、メモリ74に記憶されたプログラム及びデータに従って動作する。
I/O制御部72は、CPU71とクライアントPC70の各部(例えば通信部73、入力部75、表示部76)との間でデータの入出力に関する制御を行い、CPU71からのデータ及びCPU71へのデータの中継を行う。なお、I/O制御部72は、CPU71と一体的に構成されてもよい。
通信部73は、コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40等のサーバ装置90との間で、有線による通信を行う。また、通信部73は、携帯端末110、現場PC120、監視カメラ130、車載カメラシステム140、ウェアラブルカメラ150等の現場端末180との間で、有線又は無線による通信を行ってもよい。
メモリ74は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU71の動作時のワークメモリとして機能し、CPU71を動作させるための所定のプログラム及びデータを保存している。
入力部75は、指令センター101の警察官又は担当者、或いは警察署内の警察官又は担当者の入力操作を受け付け、I/O制御部72を介してCPU71に通知するためのUI(User Interface)であり、例えばマウス、キーボード等の入力デバイスである。入力部75は、例えば表示部76の画面に対応して配置され、警察官や担当者の指又はスタイラスペンによって操作が可能なタッチパネル又はタッチパッドを用いて構成されてもよい。
表示部76は、例えばLCD(Liquid Crystal Display)又は有機EL(Electroluminescence)を用いて構成され、各種情報を表示する。表示部76は、例えば警察官又は担当者の入力操作により事件情報表示の指示がなされた場合、CPU71の指示の下で、特定の事件に関する事件情報を表示する。また、表示部76は、例えば警察官又は担当者の入力操作により事件映像表示の指示がなされた場合、CPU71の指示の下で、事件情報に対応する事件映像を表示する。また、表示部76は、例えば警察官又は担当者の入力操作により警官配備の指示がなされた場合、CPU71の指示の下で、警察官の配備に関する配備支援情報を表示する。
スピーカ77は、各種の音声を出力する。スピーカ77は、例えば警察官又は担当者の入力操作により事件映像表示の指示がなされた場合、CPU71の指示の下で、事件映像の音声データを再生出力する。また、管轄内の各所、或いは現場端末180から通報を受信した場合、CPU71からI/O制御部72を介して受信した音声データを入力し、通報者の音声を出力する。
マイク78は、指令センター101の警察官又は担当者、或いは警察署内の警察官又は担当者が発声する音声を入力する。マイク78は、例えば警察官又は担当者が音声にて指令を行う場合、警察官又は担当者の音声を収音して入力し、音声データをI/O制御部72を介してCPU71に出力する。CPU71は、入力した音声データを通信部73によって現場端末又は他のセンター装置に送信する。
図4は、本実施形態の現場端末のハードウェア構成の一例を示すブロック図である。ここでは、携帯端末110の構成例を説明するが、他の現場PC120、車載カメラシステム140についても主要な構成は同様である。また、監視カメラ130、ウェアラブルカメラ150は、少なくとも撮像部及び通信部を備えるものであるので、主要な構成は同様である。現場端末の一例としての携帯端末110は、CPU111と、I/O制御部112と、通信部113と、メモリ114と、入力部115と、表示部116と、スピーカ117と、マイク118と、撮像部158と、GPS(Global Positioning System)受信部119と、を備える。
CPU111は、例えば携帯端末110の各部の動作を全体的に統括するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。CPU111は、メモリ114に記憶されたプログラム及びデータに従って動作する。
I/O制御部112は、CPU111と携帯端末110の各部(例えば通信部113、入力部115、表示部116、撮像部158)との間でデータの入出力に関する制御を行い、CPU111からのデータ及びCPU111へのデータの中継を行う。なお、I/O制御部112は、CPU111と一体的に構成されてもよい。
通信部113は、コンテンツ管理サーバ10、警官配備サーバ20、犯罪予測サーバ30、デバイス管理サーバ40等のサーバ装置90との間で、無線又は有線による通信を行う。また、通信部113は、センターコンソール60、クライアントPC70等のセンター装置80との間で、無線又は有線による通信を行ってもよい。
メモリ114は、例えばRAM、ROM、不揮発性又は揮発性の半導体メモリを用いて構成され、CPU111の動作時のワークメモリとして機能し、CPU111を動作させるための所定のプログラム及びデータを保存している。
入力部115は、現場の警察官又は担当者の入力操作を受け付け、I/O制御部112を介してCPU111に通知するためのUIであり、例えば表示部116の画面に対応して配置され、警察官や担当者の指又はスタイラスペンによって操作が可能なタッチパネル又はタッチパッド等の入力デバイスである。なお、入力部115は、現場端末が現場PC120、車載レコーダ148、ウェアラブルカメラ150等の場合は、押しボタン、スイッチ、キーボード等の入力デバイスを用いてもよい。
表示部116は、例えばLCD又は有機ELを用いて構成され、各種情報を表示する。表示部116は、例えば警察官の入力操作により事件情報表示の指示がなされた場合、CPU111の指示の下で、特定の事件に関する事件情報を表示する。また、表示部116は、例えば警察官の入力操作により事件映像表示の指示がなされた場合、CPU111の指示の下で、事件情報に対応する事件映像を表示する。また、表示部116は、例えばセンター装置80又はサーバ装置90からの指令、通知等を受信した場合、CPU111の指示の下で、指令や通知等の受信情報を表示する。
スピーカ117は、各種の音声を出力する。スピーカ117は、例えば警察官の入力操作により事件映像表示の指示がなされた場合、CPU111の指示の下で、事件映像の音声データを再生出力する。また、センター装置80からの音声による指令、通知等を受信した場合、CPU111からI/O制御部112を介して受信した音声データを入力し、指令や通知等の音声を出力する。また、他の警察官又は担当者の現場端末又はセンター装置との通話を行う場合、CPU111からI/O制御部112を介して受話音声の音声データを入力し、受話音声を出力する。
マイク118は、現場の警察官又は担当者が発声する音声、或いは現場周辺の雰囲気の音を入力する。マイク118は、例えば警察官又は担当者が音声にて指令センター101への通報、或いは他の警察官又は担当者の端末との通話を行う場合、警察官又は担当者の音声を収音して入力し、音声データをI/O制御部112を介してCPU111に出力する。また、マイク118は、撮像部158により動画の撮像を行う場合、周囲の音を収音して入力し、音声データをI/O制御部112を介してCPU111に出力する。CPU111は、入力した音声データを通信部113によってセンター装置、サーバ、又は他の現場端末に送信する。
撮像部158は、撮像レンズと、CCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等による固体撮像素子と、を有する。撮像部158は、現場の被写体を撮像し、得られた被写体の画像データをI/O制御部112を介してCPU111に出力する。撮像部158は、例えば携帯端末110又はウェアラブルカメラ150によって現場の警察官周辺の雰囲気を撮像する場合、又は、監視カメラ130によって現場の所定の監視領域を撮像する場合、撮像した動画又は静止画の映像データを取得してCPU111に出力する。CPU111は、入力した映像データを通信部113によってセンター装置、サーバ装置、又は他の現場端末に送信する。
GPS受信部119は、複数のGPS発信機(例えば4個の航法衛星)から送信される、各自の信号送信時刻及び位置座標を含む衛星信号を受信してI/O制御部112を介してCPU111に出力する。CPU111は、複数の衛星信号を用いて、現在の携帯端末110又はウェアラブルカメラ150、或いは車載カメラシステム140等の位置座標及び衛星信号の受信時刻を算出する。なお、この算出は、CPU111ではなく、GPS受信部119により実行されてもよい。CPU111は、取得した携帯端末110等の現場端末の位置情報を、通信部113によってセンター装置、サーバ装置、又は他の現場端末に送信する。なお、衛星信号の受信時刻の情報は、現場端末のシステム時刻の補正のために使用されてもよい。システム時刻は、撮像された画像(静止画、動画を含む)の撮像時刻の記録等に利用される。
(第1の実施形態)
第1の実施形態として、警察業務支援システムにおける事件映像表示処理について説明する。本実施形態の事件映像表示処理を実行するシステムを本発明に係る監視システムとして構成してもよい。また、この監視システムにおける処理手順を本発明に係る監視方法として規定することも可能である。第1の実施形態は、複数の事件映像を表示する処理の手順を示すものである。
図5は、第1の実施形態の事件映像表示処理の動作手順の一例を説明するシーケンス図である。本実施形態では、警察管轄内で発生した事件に関して、監視カメラ130、ウェアラブルカメラ150、携帯端末110、車載カメラシステム140等の現場端末180によって撮像した事件映像を、コンテンツ管理サーバ10に蓄積し、クライアントPC70等のセンター装置80において表示する際の手順を示す。
図5において、事件が発生した場合、現場端末180は、現場周辺の被写体を撮像し、撮像した映像データを録画する(S11)。そして、ユーザである警察官等が映像登録操作を行うと(S12)、現場端末180は、ネットワーク161を介してコンテンツ管理サーバ10に撮像映像の映像データを送信し、撮像映像の登録を行う(S13)。ユーザによる映像登録操作は、ウェアラブルカメラ150により撮像する場合は録画終了の操作入力であり、携帯端末110又は車載カメラシステム140により撮像する場合は、録画終了、録画映像の送信等の操作入力である。また、監視カメラ130により撮像する場合は、指令センター101のユーザによるセンターコンソール60又はクライアントPC70を用いた録画映像のダウンロード等の操作入力が映像登録操作となる。なお、現場端末180をUSB(Universal Serial Bus)によって署内のネットワーク165に接続してコンテンツ管理サーバ10に撮像映像を登録することも可能である。
コンテンツ管理サーバ10は、現場端末180から登録すべき映像データを受信すると、撮像映像の映像データをストレージ18に保存する(S14)。そして、コンテンツ管理サーバ10は、撮像映像に関連する事件情報を保存する(S15)。事件情報は、例えば事件に関係する人物の名前、事件発生の地点、時間、事件管理番号、事件種別などが含まれる。コンテンツ管理サーバ10は、撮像映像の映像データと事件情報とを関連付けて事件映像としてストレージ18に保存することにより、事件映像のデータベースを構築する。
センター装置80は、事件映像表示用のインタフェースを実現する事件映像表示画面を表示部76に表示し、ユーザ操作に応じて事件映像を表示可能である。センター装置80は、ユーザである指令センター101の警察官又は担当者による検索語の入力、或いは、現場端末又は署内端末からの特定の事件に対応する情報入力に基づき、事件映像を抽出するための所定のキー情報をコンテンツ管理サーバ10に入力する(S16)。コンテンツ管理サーバ10は、センター装置80からのキー情報を受信すると、ストレージ18に保存された事件映像の検索処理を実行し、所定のキー情報に対応する事件映像を動画候補として抽出する(S17)。すなわち、キー情報を共通項目として関連する事件映像を抽出する。そして、コンテンツ管理サーバ10は、抽出した動画候補の映像属性情報をセンター装置80に出力する(S18)。センター装置80は、動画候補の映像属性情報を受信すると、表示部76に事件映像の動画候補を表示する(S19)。次に、ユーザによる動画候補の選択操作及び表示モードの選択操作に基づき、センター装置80は、事件映像の動画選択指示(S20)と、表示モード選択指示(S21)とをコンテンツ管理サーバ10に送信する。コンテンツ管理サーバ10は、センター装置80からの動画選択指示及び表示モード選択指示を受信すると、選択された事件映像の映像データ及び事件情報を出力し(S22)、選択された表示モードに対応する表示画面をセンター装置80に出力する(S23)。センター装置80は、コンテンツ管理サーバ10から出力された事件映像表示画面を表示部76に表示する(S24)。
図6は、事件映像表示画面の第1例を示す図である。第1例は、人物のキー情報の検索結果に応じて、管轄内の所定地域の地図上に、複数の事件映像を並べて表示可能とした表示モードの例である。
第1例の事件映像表示画面300は、地図情報301と、画面の左端部に配置された映像関連情報302と、を含む。地図情報301の地図上には、複数の事件映像が記録されていることが示されている。それぞれの事件映像について、撮像地点を示す映像マーク303と、撮像日及び撮像時刻、撮像したカメラ(Camera01等)、及び撮像地点の場所(Place1等)を含む映像属性情報304と、が表示される。映像属性情報304の下部には、事件映像の再生表示を指示する映像再生ボタン(View Video)306が設けられる。映像マーク303には、事件映像中に含まれる捜査対象者の顔画像がサムネイル表示される。この捜査対象者は、人物のキー情報のユーザ指定によって人物検索を実行した結果、抽出された人物に相当する。図示例は、人物のキー情報の一例として「JAMES SMITH」を検索し、この人物が撮像されている事件映像の映像属性情報を地図上に並べて表示した場合を示している。また、事件情報として、警察官が携帯端末110又はウェアラブルカメラ150を所持して捜査対象者を追跡したときの現場端末の位置情報を基に、捜査対象者の移動軌跡の経路情報がある場合、センター装置80は移動軌跡の経路情報を取得し、移動軌跡305を地図情報301の地図上に表示することも可能である。
映像関連情報302には、それぞれの事件映像について、撮像日及び撮像時刻、撮像したカメラ(Camera01等)、撮像地点の場所(Place1等)、撮影されている人物の名前及び顔画像がリスト表示される。一つの事件映像に複数の人物が撮影されている場合、代表的な人物の名前及び顔画像が一つ又は複数表示される。
図5において、ユーザが複数の事件映像の中から特定の映像を選択し、映像再生ボタン306を押下操作することにより、映像再生指示のための再生ボタン操作がなされると(S25)、センター装置80は、映像データ要求をコンテンツ管理サーバ10に送信する(S26)。コンテンツ管理サーバ10は、映像データ要求を受信すると、選択された事件映像の映像データをストレージ18から読み出して出力し(S27)、センター装置80に映像データを配信する(S28)。センター装置80は、配信された映像データを再生表示することにより、ユーザが選択した事件映像の動画再生を実行する(S29)。
このように、捜査対象者の人物をキー情報として検索した場合、共通の特定の人物に関する事件映像を抽出して地図上に網羅的に表示し、ユーザが選択した事件映像を再生表示できる。これにより、関連性の高い異なるソースの事件映像を集約して表示し、複数の事件映像の関連を確認でき、ユーザが事件の状況を効率良く的確に把握できる。
図7は、事件映像表示画面の第2例を示す図である。第2例は、事件のキー情報の検索結果に応じて、管轄内の所定地域の地図上に、複数の事件映像を並べて表示可能とした表示モードの例である。ここでは、図6に示した第1例と異なる点を中心に説明する。
第2例の事件映像表示画面310は、第1例と同様、地図情報311と、画面の左端部に配置された映像関連情報312と、を含む。地図情報311の地図上には、複数の事件映像について、それぞれ、撮像地点を示す映像マーク313、映像属性情報(撮像日及び撮像時刻、撮像したカメラ、撮像地点の場所等)314、映像再生ボタン316が表示される。映像関連情報312には、それぞれの事件映像について、撮像日及び撮像時刻、撮像したカメラ(Camera01等)、撮像地点の場所(Place1等)、事件番号(ACCIDENT#1等)、映像番号(Video1−1等)がリスト表示される。なお、各事件映像の代表画像をサムネイルとして表示してもよい。また、映像再生ボタン316の操作により、各撮像地点に表示した複数の事件映像を一斉に動作再生するようにしてもよい。図示例は、事件番号のキー情報の一例として「ACCIDENT#1」を検索し、この事件が撮像されている事件映像の映像属性情報を地図上に並べて表示した場合を示している。
このように、捜査対象の事件番号をキー情報として検索した場合も、人物の場合と同様に、共通の特定の事件に関する事件映像を抽出して地図上に網羅的に表示し、ユーザが選択した事件映像を再生表示できる。これにより、関連性の高い異なるソースの事件映像を集約して表示し、複数の事件映像の関連を確認でき、ユーザが事件の状況を効率良く的確に把握できる。
図8は、事件映像表示画面の第3例を示す図である。第3例は、複数の事件映像を並べて同時表示し、同時刻の動画を同期再生可能とした表示モードの例である。
第3例の事件映像表示画面330は、第1の事件映像331と、第2の事件映像332とが並べて配置されて表示される。ここでは2つの映像を同時表示した例を示している。第1の事件映像331と第2の事件映像332は、所定のキー情報に対応した同じ事件や人物等に関する映像であり、例えば、同一の場所(同一地点)を異なる撮像位置のカメラ(入力ソース)から撮像した異なるアングル(画角、方向)の映像である。同じ地点の同一時刻の場面を異なる角度から撮像した映像を並べて同時表示することにより、より詳細に現場の様子を確認できる。同時表示する複数の事件映像は、同一地点の別アングルの映像、或いは異なる地点の同時刻の映像などを抽出して表示する。
第1の事件映像331及び第2の事件映像332には、それぞれ、子画面表示が設けられ、映像内の一部を拡大した拡大表示映像351、352を表示可能となっている。同時表示された事件映像331、332において、例えばユーザが特定の人物を指定することにより、指定された人物を含む部分の映像が拡大表示映像351、352として拡大表示される。なお、複数の人物を指定して拡大表示することも可能である。第1の事件映像331及び第2の事件映像332の下部には、それぞれの事件映像331、332の録画時間(録画開始時刻、録画終了時刻)を示す時間表示バー341、342と、現在の再生位置(再生時点)を示す再生インジケータ343とが表示される。また、事件映像の再生開始、一時停止、再生終了を指示する映像再生ボタン345が設けられる。図示例では、同時表示した複数の事件映像において、録画時間に共通する時間帯が存在する同時刻の動画を同期再生する例を示している。
このように、関連性の高い異なるソースの事件映像を集約して表示することで、ユーザが事件の状況を容易かつ的確に把握できる。特に、共通の事件又は人物に関する異なるソースの事件映像を複数並べて同期させて表示することにより、事件現場の状況をより詳細に確認でき、事件の原因を効率良く究明できる。したがって、事件の検証又は捜査の精度を向上させることができる。
本実施形態において、所定のキー情報に対応して抽出された複数の事件映像について、撮像地点の位置情報に基づき、事件映像に関する映像属性情報を地図情報に重畳して、地図情報の地図上の撮像地点において映像属性情報を表示し、対応する事件映像を再生表示することにより、関連性の高い異なるソースの事件映像をまとめて視認して、複数の事件映像の関連を確認でき、ユーザが事件の状況を効率良く的確に把握できる。
また、本実施形態において、複数の映像属性情報を地図上に並べて表示することにより、関連性の高い複数の事件映像を対比させて効率良く比較、確認することができる。
また、本実施形態において、事件映像表示画面の地図上に、所定のキー情報に対応する人物の移動軌跡を表示することにより、事件への関連性の高い捜査対象者の行動履歴と事件映像との関係を効率的に確認できる。
また、本実施形態において、事件映像表示画面に表示する映像属性情報として地図上に事件映像に関するサムネイル表示を行うことにより、事件映像に撮像された人物の特徴や事件映像の概要を一目で認識できる。
また、本実施形態において、同一の場所を撮像した異なる入力ソースによる複数の事件映像を同時表示し、これらの事件映像を同期させて再生表示することにより、事件現場の状況をより詳細に確認でき、ユーザが事件の原因を効率良く究明できる。
また、本実施形態において、事件映像を表示する際に、事件映像の一部を拡大した拡大表示映像を表示することにより、ユーザが注目したい特定の人物や部分を詳細に視認できる。
(第2の実施形態)
第2の実施形態として、警察業務支援システムにおける警察官配備支援処理について説明する。本実施形態の警察官配備支援処理を実行するシステムを誘導システムとして構成してもよい。また、この配備業務支援システムにおける処理手順を誘導方法として規定することも可能である。第2の実施形態は、事件発生時の警察官の派遣を支援する処理の手順を示すものである。
図9は、第2の実施形態の警察官配備支援処理の動作手順の一例を説明するシーケンス図である。本実施形態では、警察管轄内で事件が発生した場合に、警官配備サーバ20及びデバイス管理サーバ40を用い、クライアントPC70等のセンター装置80から携帯端末110等の現場端末180に指示を送信し、派遣者となる警察官の配備を支援する際の手順を示す。
図9において、事件が発生した場合、指令センター101において目撃者の市民からの通報や証言、又は警察官からの報告などの事件の通知を受けると(S41)、センター装置80は、警官配備サーバ20に事件発生場所の位置情報を送信し、警官配備サーバ20に対して、事件発生場所の位置に基づく警官配備の対象地点の登録を行う(S42)。このとき、センター装置80は、管轄内の地図情報を含む警官配備画面を表示部76に表示する。センター装置80のユーザである指令センター101の警察官又は担当者は、表示部76に表示された警官配備画面を参照し、地図上で事件発生場所を指定することにより、対象地点を設定する。対象地点の位置情報は、事件の通知内容に基づき、例えば、署内システムに設けたRMS(Record Management System)を用いて、証言者情報から取得する、通報内容を音声認識して取得する、或いはセンター装置80のユーザが手動入力するなどによって入力でき、警官配備画面に対象地点の場所名又は住所を表示する。警官配備サーバ20は、対象地点の登録とともに、事件種別、危険度などの事件内容に関する事件情報も合わせて記録する。そして、警官配備サーバ20は、デバイス管理サーバ40に対象地点の情報を送信し、現場端末の端末情報の問合せを行い、情報収集を指示する(S43)。
デバイス管理サーバ40は、現場端末の端末IDと位置情報を保持し、それぞれの現場端末の現在位置を把握している。なお、デバイス管理サーバ40は、現場端末に都度位置情報を問い合わせて取得してもよい。デバイス管理サーバ40は、対象地点の位置情報によって対象地点に近い現場端末の絞り込みを行い(S44)、絞り込んだいくつかの現場端末に対して、それぞれの端末の位置情報を要求する(S45)。位置情報の要求を受けた現場端末180は、GPS受信部119にて受信した衛星信号によって現在の位置情報を取得し(S46)、それぞれ自端末の位置情報を返信する(S47)。デバイス管理サーバ40は、各現場端末180から取得した位置情報を含む端末情報を警官配備サーバ20に通知する(S48)。端末情報は、現場端末の端末ID、位置情報、端末IDに紐付いた警察官ID(当該端末の使用者である警官情報)が含まれる。派遣者情報の一例としての警官情報は、現場端末自体に保持していてもよいし、デバイス管理サーバ40において保持して管理してもよい。なお、デバイス管理サーバ40又は警官配備サーバ20は、警察官の勤務予定、担当割り当て区域等の配備予定を含む当日のシフト情報を予め保持しておき、現場端末の端末IDと警官情報とを紐付けて管理してもよい。
警官配備サーバ20は、デバイス管理サーバ40から取得した端末情報に基づき、センター装置80に対して、事件発生場所の近くにいる警察官の警官位置情報と地図情報とを配信する(S49)。センター装置80は、警官位置情報及び地図情報を受信すると、警官配備画面において、地図上に警察官の位置を重畳して表示する(S50)。
図10は、対象位置登録時の警官配備画面の一例を示す図である。事件発生時に対象位置を登録した際の警官配備画面400は、地図情報401と、事件関連情報402とを含む。地図情報401の地図上には、事件が発生した対象地点の位置を示す対象地点マーク415と、警察官の位置を示す警官マーク421、422、423とが示されている。図示例は、事件としてAddress#1の場所で交通事故が発生し、この対象地点の近傍に警官1、警官2、警官3の3人の警察官がいることを示している。警官マーク421、422、423には、各警察官の顔画像がサムネイル表示される。交通事故の場合、事件関連情報402には、証言者(事故の当事者)の名前、車両のナンバーと種別(車種名)などが表示される。
図9において、センター装置80は、ユーザである指令センター101の警察官又は担当者から警察官を指定する操作入力を受けると、警官配備サーバ20に警察官の選択入力を送信する(S51)。警官配備サーバ20は、警察官の選択入力に対して、指定された警察官の現在位置を元に、対象地点に至る経路を算出し、対象地点に到着するまでの所要距離、所要時間を算出する(S52)。そして、警官配備サーバ20は、指定された警察官に関して、警察官の名前、現在位置情報、対象地点までの所要距離、所要時間を含む派遣者配置情報としての警官配置情報をセンター装置80に配信する(S53)。センター装置80は、警官配備サーバ20から受信した警官配置情報を警官配備画面に表示する(S54)。
図11は、警官配置情報表示時の警官配備画面の一例を示す図である。警官配置情報を受信した際の警官配備画面420は、指定した警察官(図示例では警官4)の警官マーク424に対応して警官配置情報431が表示される。警官配置情報431には、警察官名(MIKE)、警察官の現在位置(Place#5)、所要距離(Distance)、所要時間(Time)が表示される。また、警官配置情報431の下部には、事件現場の対象地点への直行の可否を問い合わせるための問合せボタン(REQUEST FOR MISSION)432が設けられる。また、地図情報401の地図上には、警察官の現在位置から対象地点までの経路情報437が表示される。また、警官配備画面420の右上部には、監視カメラ130又はウェアラブルカメラ150等により事件発生場所を撮像した事件映像435のストリーミング映像が表示され、事件映像435の上部には映像記録を指示する記録ボタン(RECORD CASE)436が設けられる。なお、事件映像435は、警官配備サーバ20がコンテンツ管理サーバ10と連携して、対象地点の撮像画像を検索し、検索条件に合致した事件発生場所の撮像映像を取得して表示してもよい。
図9において、ユーザが指定した警察官への問合せボタン432を押下操作することにより、派遣問合せ入力のための問合せボタン操作がなされると(S55)、センター装置80は、警官配備サーバ20に警察官への直行依頼確認の指示を送信する(S56)。警官配備サーバ20は、センター装置80から直行依頼確認の指示を受けると、デバイス管理サーバ40を介して、指定された警察官が所持する(使用している)現場端末180に対して直行依頼確認を送信する(S57、S58)。このとき、警官配備サーバ20は、現場端末180に対して対象地点で発生した事件に関する事件関連情報を送信する。現場端末180は、直行依頼確認を受信すると、事件の発生と対象地点への直行依頼確認があったことを通知する問合せ画面を表示する(S59)。
図12は、現場端末に表示される問合せ画面の一例を示す図である。問合せ画面450には、対象地点で発生した事件に関する事件関連情報451と、対象地点への直行依頼確認に対して問合せを受領する受領ボタン(ACCEPT)453とが表示される。事件関連情報451には、事件種別(TYPE)、危険度(DANGEROUS)、場所(LOCATION)、所要距離(DISTANCE)などが表示される。また、事件関連情報451として、事件発生場所に関する撮像映像(平常時の静止画像、或いは現在の撮像映像の静止画像又は動画像)を表示してもよい。警察官は、現場端末180の表示部116に表示される問合せ画面450を見て、直行依頼確認に対する受領又は拒否を選択し、受領する場合は受領ボタン453を押下操作する。
図9において、現場端末180を所持する警察官が受領ボタン453を押下操作することにより、受領操作がなされると(S60)、現場端末180は、受領メッセージをデバイス管理サーバ40を介して警官配備サーバ20に送信する(S61、S62)。警官配備サーバ20は、現場端末180から受領メッセージを受けると、指定された警察官からの受領メッセージをセンター装置80に転送する(S63)。センター装置80は、受信した受領メッセージを警官配備画面に表示する(S64)。なお、警官配備サーバ20と現場端末180との間の通信は、直接通信可能な構成であれば、デバイス管理サーバ40を介さずに、直接問合せ及び応答を送受信してもよい。セキュリティを考慮した場合、現場端末180はデバイス管理サーバ40のみと通信可能とした方が、より秘匿性を高められる。また、センター装置80は、表示部76に表示した警官配備画面のユーザ操作による現場端末180への指示に代えて、ユーザの音声による指令をマイク78により入力し、現場端末180に指示を送信してもよい。
図13は、受領メッセージ受信時の警官配備画面の一例を示す図である。受領メッセージを受信した際の警官配備画面440には、警官配置情報431の下部に受領メッセージ(MIKE accepted mission)441が表示される。そして、警官配備サーバ20は、定期的にデバイス管理サーバ40に各現場端末180の位置情報を問い合わせて取得し、所定時間毎に現在の警官位置情報を更新するとともに、センター装置80に表示する警官配備画面440の地図上の各警官マークの位置を更新する。図示例では、警官マーク424で示される警官4が、経路情報437に沿って対象地点マーク415で示される対象地点に向かって移動している様子が示されている。これにより、指令センター101のユーザは、対象地点に警察官が急行できたかどうかを確認できる。
図14は、現場端末に表示されるナビゲーション画面の一例を示す図である。警官配備サーバ20は、現場端末180から受領メッセージを受信すると、現場端末180に対して、対象地点に到着するまでの経路情報を含むナビゲーション情報を送信する。現場端末180は、問合せ画面450の受領ボタン453の押下操作がなされた場合、警官配備サーバ20から送られてくるナビゲーション情報を用いて、ナビゲーション画面460を表示する。ナビゲーション画面460は、地図情報461と、ルート案内表示462とを含む。地図情報461の地図上には、事件が発生した対象地点の位置を示す対象地点マーク465と、自端末の位置を示す現在位置マーク474とが表示され、自端末の現在位置から対象地点までの経路情報477が表示される。ルート案内表示462は、例えば「直線5km直進、右折9km」などの文字情報によって対象地点までの経路が示される。
このように、事件が発生した対象地点の近傍にある現場端末の位置情報を取得して警察官の位置を地図上に表示し、定期的に警察官の位置表示を更新することにより、警察官の配備状況を的確に把握できる。この際、デバイス管理サーバを有効活用して、現場端末及び警察官の位置情報を取得し、警察官の位置を確認できる。また、現場端末の位置情報又は警察官のシフト情報を用いることにより、対象地点に近い現場端末及び警察官を的確に絞り込むことができる。また、指定した警察官が所持している現場端末に対して直行依頼確認を行って現場急行の可否の問合せを行うことにより、警察官の状況を把握できる。また、警察官が直行依頼を受領した場合に現場端末へナビゲーション情報を送信することにより、早く的確に警察官を事件発生場所に急行させることができる。これらの処理により、より確実かつ早急に警察官を事件現場に配備できる。
本実施形態において、事件発生場所の対象地点の近傍に位置する現場端末の位置情報と、現場端末に紐付いた警察官情報とを含む端末情報を取得し、事件発生場所の近くにいる警察官の位置情報を地図情報に重畳して、地図上に対象地点及び警察官の位置を表示することにより、対象地点の位置と近傍にいる警察官の位置を容易に把握でき、事件現場に警察官を的確かつ早急に派遣することができる。
また、本実施形態において、指定された警察官の現在位置から対象地点までの所要距離又は所要時間を含む警察官配置情報を表示することにより、指定した警察官が対象地点到着まで要する距離又は時間を確認でき、事件現場に警察官を的確かつ早急に派遣することができる。
また、本実施形態において、警察官が使用している現場端末に対して、直行依頼確認を送信し、現場端末から受領メッセージを受信した場合に、受領メッセージを受領メッセージを表示することにより、指定した警察官が対象地点に急行できるかどうかを確認でき、事件現場に警察官を的確かつ早急に派遣することができる。
また、本実施形態において、現場端末に直行依頼確認を送信する際、事件に関連する事件関連情報を送信し、現場端末から受領メッセージを受信した場合に、現場端末に対して対象地点に到着するまでの経路情報を含むナビゲーション情報を送信することにより、現場端末を持つ警察官に事件の情報と対象地点までの案内表示とを通知して支援でき、より確実かつ早急に警察官を到着させることができる。
また、本実施形態において、警察官配置情報を表示する際に、警察官の位置から対象地点までの経路情報を表示し、所定時間毎に現在の警察官の位置情報を更新して表示することにより、警察官が対象地点に急行しているときの現況を的確に把握できる。
また、本実施形態において、対象地点及び警察官の位置を表示する際に、事件発生場所に関する撮像映像を表示することにより、警察官を派遣する対象地点である事件発生場所の状況を詳しく把握できる。
(第3の実施形態)
第3の実施形態として、警察業務支援システムにおける事件情報表示処理について説明する。本実施形態の事件情報表示処理を実行するシステムを事件情報表示システムとして構成してもよい。また、この事件情報表示システムにおける処理手順を事件情報表示方法として規定することも可能である。第3の実施形態は、一般市民から収集した多数の犯罪関連情報を用いて、犯罪データを統計的に表示する処理の手順を示すものである。
図15は、第3の実施形態の事件情報表示処理の動作手順の一例を説明するシーケンス図である。本実施形態では、警察管轄内で発生した事件に関して、犯罪予測サーバ30によってSNSサーバ50から事件関連情報を収集し、クライアントPC70等のセンター装置80において統計的な犯罪データを表示する際の手順を示す。
図15において、管轄署内の一般市民は、事件発生に際して、任意に事件関連の情報又はその他の情報をSNSに投稿し、事件について報告する。この際、携帯端末210等の市民端末230は、一般市民の情報入力操作に従ってSNS情報の投稿を入力し(S71)、SNS情報をSNSサーバ50に送信する(S72)。SNSサーバ50は、市民端末230からの投稿情報としてのSNS情報を受け付け、SNS情報をストレージに登録する(S73)。
犯罪予測サーバ30は、定期的又は随時に、SNSサーバ50にアクセスし、犯罪関連情報の要求を送信する(S74)。犯罪予測サーバ30は、犯罪関連情報として、犯罪種別(殺人、強盗など)、犯罪ツール(ナイフ、銃など)等を表す犯罪関連語を含むSNS情報を要求する。SNSサーバ50は、犯罪関連情報の要求に応じて、蓄積したSNS情報の中から犯罪関連語を含むSNS情報を抽出して出力し(S75)、犯罪予測サーバ30に返信する(S76)。これにより、犯罪予測サーバ30による犯罪関連情報の収集が実行される。犯罪予測サーバ30は、収集した犯罪関連情報をストレージに登録し(S77)、犯罪の発生地点、発生時刻、犯罪種別、犯罪ツールなどの各種属性毎に、犯罪関連情報の統計データを算出し、更新する(S78)。犯罪関連情報は、犯罪種別のサブカテゴリとして犯罪ツールの情報を持つものとし、各属性を項目分けして統計データを算出してもよい。
センター装置80は、事件情報表示用のインタフェースを実現する犯罪関連情報表示画面を表示部76に表示し、ユーザ操作に応じて犯罪データ及びその統計情報を表示可能である。センター装置80は、ユーザである指令センター101の警察官又は担当者が危険予測を行う地域を指定する地域指定操作がなされると(S79)、地図データ及び犯罪データの配信要求を犯罪予測サーバ30に送信する(S80)。犯罪予測サーバ30は、蓄積した犯罪関連情報の統計データについて、犯罪発生地点の位置情報を参照し、指定された地域に紐付けられた犯罪データを抽出して出力する(S81)。そして、犯罪予測サーバ30は、抽出した犯罪データを地図データに重畳してセンター装置80に配信する(S82)。センター装置80は、地図上の犯罪発生地点に対応する位置に犯罪データをプロットした犯罪関連情報表示画面を表示部76に表示する(S83)。なお、クライアント装置として、センター装置80の代わりに現場端末180を用いて、犯罪関連情報表示画面を表示してもよい。すなわち、犯罪予測サーバ30は、クライアント装置としてセンター装置80と現場端末180のどちらにも接続することが可能であり、犯罪関連情報表示画面をセンター装置80、現場端末180の双方、又は一方に配信して表示することもできる。
図16は、犯罪関連情報の統計データの一例を示す図である。犯罪予測サーバ30は、SNS情報を元に収集した犯罪関連情報について、犯罪発生地点毎に、発生した犯罪の犯罪種別、発生時刻等の各種属性毎に集計する。図示例は、A地点、B地点のそれぞれについて、犯罪種別(殺人、強盗など)及び発生時刻(午前、午後、深夜)によって分類してそれぞれ集計した統計データの例を示している。このような統計データによって、どの地点に、どのような種別の犯罪が、どの時間帯に発生しているか、統計的な犯罪の発生状況の情報を取得できる。
図17は、犯罪関連情報表示画面の第1例を示す図である。第1例は、所定地域における犯罪データを複数の属性毎に表示した例である。第1例の犯罪関連情報表示画面500は、地図情報501と、画面の左端部に配置された犯罪属性情報502と、を含む。犯罪属性情報502には、犯罪種別リスト(殺人、強盗、性犯罪、ひったくり、薬物犯罪など)511、犯罪ツールリスト(ナイフ、銃、その他)512がリスト表示され、犯罪データとして表示する属性をユーザが選択可能になっている。地図情報501の地図上には、犯罪の発生地点に、属性毎に色分けされた犯罪発生マーク521、522、523がプロットされて表示される。ユーザによる属性指定入力として、犯罪属性情報502の犯罪種別リストや犯罪ツールリストの横に設けたラジオボタンやチェックマークを指定すると、地図上の該当する属性の犯罪発生マークの表示がオンし、指定を外すと該当する属性の犯罪発生マークの表示がオフになる。地図情報501の下端部には、表示する犯罪発生時刻の時間帯を指定する時間帯指定バー531が表示される。図示例では、時間帯指定バー531の指定により、犯罪発生時刻が0:00〜13:00の犯罪データが示されている。
図15において、ユーザによる属性指定入力として、画面表示したい犯罪種別又は時間帯を指定することにより、犯罪種別リスト511又は時間帯指定バー531の選択操作がなされると(S84)、センター装置80は、犯罪種別又は時間帯の選択指示を犯罪予測サーバ30に送信する(S85)。犯罪予測サーバ30は、犯罪種別又は時間帯の選択指示に従って、犯罪関連情報の統計データの属性による絞り込みを行い(S86)、絞り込んだ犯罪データをセンター装置80に配信する(S87)。センター装置80は、指定した選択条件により絞り込んだ犯罪データを地図上にプロットした犯罪関連情報表示画面を表示部76に表示する(S88)。
図18は、犯罪関連情報表示画面の第2例を示す図である。第2例は、所定地域における犯罪データについて、特定の犯罪種別に絞り込んで表示した例である。第2例の犯罪関連情報表示画面520では、選択指示されたひったくりの犯罪種別リスト541に対応する犯罪発生マーク545のみが地図上に表示されている。ユーザが表示したい犯罪種別や犯罪ツールを選択することにより、プロット表示する犯罪データを絞り込むことができ、特定の犯罪種別(図示例ではひったくり)の発生状況を確認できる。
図19は、犯罪関連情報表示画面の第3例を示す図である。第3例は、所定地域における犯罪データについて、犯罪発生時刻を特定の時間帯に絞り込んで表示した例である。第3例の犯罪関連情報表示画面540では、選択時間帯が絞り込まれた2:00〜4:00の時間帯指定バー532に対応して、犯罪発生時刻が2:00〜4:00の犯罪発生マーク546のみが地図上に表示されている。ユーザが表示したい時間帯を選択することにより、プロット表示する犯罪データを絞り込むことができ、特定の時間帯(図示例では深夜)の犯罪発生状況を確認できる。図18及び図19の表示例のように、ユーザによる表示属性の選択によって、該当する犯罪発生条件に合致した犯罪データのみを表示し、犯罪発生予測に必要な統計データの表示を行うことができる。
図15において、ユーザが統計情報を画面表示したい特定の犯罪データの犯罪発生マークを指定することにより、統計表示指示のための指定地点の統計表示操作がなされると(S89)、センター装置80は、統計情報を表示するための統計表示要求を犯罪予測サーバ30に送信する(S90)。犯罪予測サーバ30は、統計表示要求を受けると、センター装置80に統計表示するための時間軸又は種別軸のグラフ軸の問合せを行い、選択された表示態様のグラフ軸に合わせて抽出した犯罪データの統計情報の統計表示データを出力し(S91)、統計表示データをセンター装置80に配信する(S92)。センター装置80は、グラフの統計表示データを地図上に重畳した統計情報表示画面を表示部76に表示する(S93)。
図20は、統計情報表示画面の一例を示す図である。統計情報表示画面560には、地図上にプロットされた犯罪発生マーク551、552に対して、それぞれの地点の犯罪関連情報(犯罪データ)の統計表示データによりグラフ化された統計情報561、562が表示される。統計情報表示画面560においても、時間帯指定バー533の指定によって表示する犯罪発生時刻の時間帯を絞り込むことが可能となっている。図示例の統計情報561、562は、特定地点の犯罪関連情報を種別軸によりグラフ化したもので、犯罪発生時刻が18:00〜23:00の時間帯における2つの地点(Place#A、Place#B)の犯罪データについて、犯罪種別毎の発生頻度の割合を円グラフにて示したものである。なお、統計情報として表示するグラフのグラフ軸を時間軸とし、全犯罪種別、或いは特定の犯罪種別について、時間帯別の発生状況をグラフ化して表示することも可能である。
このように、不特定多数の市民が投稿したSNS情報を取得し、このSNS情報を元に犯罪関連情報を収集し、発生した犯罪の各種属性毎に犯罪関連情報の統計データを生成することによって、属性毎の犯罪発生状況を統計的に示すデータを取得できる。この際、一般市民が発する確度の低い情報を含む大量の情報の中から、随時、犯罪関連語を含む犯罪関連情報を取り込んで統計データを蓄積でき、簡易な方法で犯罪関連情報を集計した統計データを生成できる。また、地図上にカテゴリ分けした犯罪データを重畳して表示することによって、直感的に犯罪発生状況を判断でき、犯罪発生地点、犯罪種別、発生時刻等の属性別の犯罪発生傾向などを予測可能となる。また、犯罪関連情報の統計情報を表示することによって、各地点の犯罪発生状況をグラフにより直感的に認識でき、犯罪発生傾向を容易に把握できる。
上記の事件情報表示処理により、警察官等による犯罪発生の予測を支援でき、犯罪発生の予測精度を向上でき、犯罪の減少、地域の安全向上に寄与できる。また、犯罪発生状況を示す地図上のプロット表示や統計情報を利用して、警察官がパトロールを行う時間帯、場所を適切に設定でき、パトロールの効率化を図れる。なお、犯罪予測サーバ30と警官配備サーバ20とを連携させて、犯罪発生予測結果に応じて警察官のパトロール地域や時間帯を決定するなど、警察官の配備計画の作成支援を行うことも可能である。
本実施形態において、SNSサーバにアクセスして一般市民の投稿情報の中から犯罪関連語を含む投稿情報を犯罪関連情報として収集し、犯罪関連情報について、犯罪の発生地点、発生時刻、犯罪種別を含む属性毎に統計データを算出し、属性毎の犯罪データを地図データに重畳して、地図上の犯罪発生地点に対応する位置に犯罪データをプロットして表示することにより、所定地域における犯罪発生状況を直感的に判断でき、多数の事件関連情報を利用して、属性別の犯罪発生傾向などを的確かつ容易に予測可能となる。
また、本実施形態において、犯罪データを表示する際に、ユーザによる属性指定入力に応じて、指定された属性に絞り込んだ犯罪データを表示することにより、指定属性に応じた特定の条件下での犯罪発生状況を確認でき、犯罪発生予測をより緻密に実行可能となる。
また、本実施形態において、統計表示要求に応じた表示態様による犯罪データの統計表示データを出力し、犯罪データの統計情報を表示することにより、各地点の犯罪発生状況をグラフ等により直感的に認識でき、犯罪発生傾向を容易に把握することができ、犯罪発生予測の利便性を向上できる。
以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施形態における各構成要素を任意に組み合わせてもよい。
本発明は、同一人物又は同一事件に関連する事件映像を地図上に網羅的に表示し、ユーザが複数の事件映像を統合して視認することが可能な監視システム及び監視方法、或いは、事件発生時の同一現場における異なるソースの複数の撮像映像を同時に表示し、ユーザが複数の事件映像を容易に対比させて視認することが可能な監視システム及び監視方法として有用である。
10 コンテンツ管理サーバ
20 警官配備サーバ
30 犯罪予測サーバ
40 デバイス管理サーバ
50 SNSサーバ
60 センターコンソール
70 クライアントPC
80 センター装置
90 サーバ装置
100 署内システム
101 指令センター
110 携帯端末
120 現場PC
130 監視カメラ
140 車載カメラシステム
150 ウェアラブルカメラ
161、162、163、165 ネットワーク
180 現場端末
210、220 携帯端末
230 市民端末

Claims (8)

  1. 事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムであって、
    前記サーバ装置は、
    前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、
    前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、
    前記クライアント装置は、
    前記サーバ装置から送信された事件映像及び事件情報を受信し、
    前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、
    前記事件映像表示画面において、前記事件情報に含まれる事件映像の撮像地点の位置情報に基づき、前記事件映像に関する映像属性情報を地図情報に重畳して、前記地図情報の地図上の撮像地点において前記映像属性情報を表示し、ユーザによる映像再生指示があった場合に、前記映像属性情報に対応する事件映像を再生表示する、
    監視システム。
  2. 請求項1に記載の監視システムであって、
    前記クライアント装置は、
    前記事件映像表示画面において、複数の前記映像属性情報を前記地図上に並べて表示する、
    監視システム。
  3. 請求項1又は2に記載の監視システムであって、
    前記クライアント装置は、
    前記所定のキー情報に対応する人物の移動軌跡の経路情報を取得し、
    前記事件映像表示画面において、前記地図上に前記移動軌跡を表示する、
    監視システム。
  4. 請求項1から3のいずれか一項に記載の監視システムであって、
    前記クライアント装置は、
    前記事件映像表示画面において、前記映像属性情報として前記地図上に前記事件映像に関するサムネイル表示を行う、
    監視システム。
  5. 事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムであって、
    前記サーバ装置は、
    前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、
    前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、
    前記クライアント装置は、
    前記サーバ装置から送信された事件映像及び事件情報を受信し、
    前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、
    前記事件映像表示画面において、同一の場所を撮像した異なる入力ソースによる複数の事件映像を同時表示し、ユーザによる映像再生指示があった場合に、前記複数の事件映像を同期させて再生表示する、
    監視システム。
  6. 請求項5に記載の監視システムであって、
    前記クライアント装置は、
    前記事件映像表示画面において、前記事件映像の一部を拡大した拡大表示映像を表示する、
    監視システム。
  7. 事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムにおける監視方法であって、
    前記サーバ装置は、
    前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、
    前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、
    前記クライアント装置は、
    前記サーバ装置から送信された事件映像及び事件情報を受信し、
    前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、
    前記事件映像表示画面において、前記事件情報に含まれる事件映像の撮像地点の位置情報に基づき、前記事件映像に関する映像属性情報を地図情報に重畳して、前記地図情報の地図上の撮像地点において前記映像属性情報を表示し、ユーザによる映像再生指示があった場合に、前記映像属性情報に対応する事件映像を再生表示する、
    監視方法。
  8. 事件に関連する撮像映像を記録するサーバ装置と、前記撮像映像を表示する表示部を有するクライアント装置とが接続された監視システムにおける監視方法であって、
    前記サーバ装置は、
    前記撮像映像と事件情報とを関連付けて事件映像としてストレージに記録し、
    前記クライアント装置からの要求に応じて、前記事件情報に関する所定のキー情報に対応する事件映像及び事件情報を抽出して前記クライアント装置に送信し、
    前記クライアント装置は、
    前記サーバ装置から送信された事件映像及び事件情報を受信し、
    前記所定のキー情報に対応する複数の事件映像を表示するための事件映像表示画面を前記表示部に表示し、
    前記事件映像表示画面において、同一の場所を撮像した異なる入力ソースによる複数の事件映像を同時表示し、ユーザによる映像再生指示があった場合に、前記複数の事件映像を同期させて再生表示する、
    監視方法。
JP2016199562A 2016-10-07 2016-10-07 監視システム及び監視方法 Active JP6750998B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016199562A JP6750998B2 (ja) 2016-10-07 2016-10-07 監視システム及び監視方法
US15/414,267 US10027940B2 (en) 2016-10-07 2017-01-24 Monitoring system and monitoring method
US16/000,503 US10271032B2 (en) 2016-10-07 2018-06-05 Monitoring system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016199562A JP6750998B2 (ja) 2016-10-07 2016-10-07 監視システム及び監視方法

Publications (2)

Publication Number Publication Date
JP2018061215A JP2018061215A (ja) 2018-04-12
JP6750998B2 true JP6750998B2 (ja) 2020-09-02

Family

ID=61829376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016199562A Active JP6750998B2 (ja) 2016-10-07 2016-10-07 監視システム及び監視方法

Country Status (2)

Country Link
US (2) US10027940B2 (ja)
JP (1) JP6750998B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6791082B2 (ja) * 2017-09-27 2020-11-25 株式会社ダイフク 監視システム
DE102018118233B4 (de) * 2018-07-27 2020-03-26 Daniel Biju Winter Computerimplementiertes verfahren, softwareprogramm und vorrichtung zur aufforderung einer bildung einer einsatzgasse
JP6573346B1 (ja) * 2018-09-20 2019-09-11 パナソニック株式会社 人物検索システムおよび人物検索方法
US11721187B2 (en) 2018-11-06 2023-08-08 Motorola Solutions, Inc. Method and system for displaying video streams
JP2020086659A (ja) * 2018-11-19 2020-06-04 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US10909403B2 (en) 2018-12-05 2021-02-02 Microsoft Technology Licensing, Llc Video frame brightness filter
USD955402S1 (en) * 2018-12-28 2022-06-21 Gis Planning, Inc. Display screen or portion thereof with map user interface
USD944817S1 (en) 2018-12-28 2022-03-01 Gis Planning, Inc. Display screen or portion thereof with map user interface
JP6802864B2 (ja) * 2019-01-30 2020-12-23 パナソニックi−PROセンシングソリューションズ株式会社 監視装置、監視方法、及び、コンピュータプログラム
US20210117835A1 (en) * 2019-10-16 2021-04-22 Motorola Solutions, Inc. System and method for enhancing strategic patrol planning and dispatch decision making based on gone on arrival prediction
CN111857493B (zh) * 2020-06-16 2022-03-25 佛山市华全电气照明有限公司 一种基于智慧城市管理系统的视频管理方法及系统
US20220084152A1 (en) * 2020-09-11 2022-03-17 Thin Blue Defend, LLC Systems, methods and apparatus for obtaining and preserving evidence data corresponding to an incident
USD988359S1 (en) * 2020-09-29 2023-06-06 Ninebot (Beijing) Tech Co., Ltd. Display screen with animated graphical user interface
WO2023008540A1 (ja) * 2021-07-28 2023-02-02 晶 鈴木 ウエアラブル情報処理装置及びプログラム
CN113807588A (zh) * 2021-09-19 2021-12-17 广州丹雅科技有限公司 基于交通事故的行车路径规划方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3078215B2 (ja) * 1995-01-06 2000-08-21 ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・アメリカ・インコーポレイテッド ディスプレイ装置
JP2001184397A (ja) * 1999-12-24 2001-07-06 Ntt Data Corp 情報整理システム及び方法
US9027121B2 (en) * 2000-10-10 2015-05-05 International Business Machines Corporation Method and system for creating a record for one or more computer security incidents
JP2002366565A (ja) * 2001-06-06 2002-12-20 Olympus Optical Co Ltd 画像記憶システム
JP2006067139A (ja) * 2004-08-25 2006-03-09 Matsushita Electric Ind Co Ltd 複数カメラ映像検索装置、複数カメラ映像検索方法、及び複数カメラ映像検索プログラム
CN102063512B (zh) * 2005-04-21 2013-06-19 微软公司 虚拟地球
JP2007158496A (ja) 2005-12-01 2007-06-21 Hitachi Eng Co Ltd 地図連携映像監視方法及びその装置
JP2008011446A (ja) * 2006-06-30 2008-01-17 Toshiba Corp 半導体集積回路
FR2904036B1 (fr) * 2006-07-19 2008-08-29 Snecma Sa Systeme de ventilation d'une cavite aval de rouet de compresseur centrifuge
US20090027495A1 (en) * 2007-07-25 2009-01-29 Stas Oskin Internet visual surveillance and management technology for telecommunications, Internet, cellular and other communications companies
JP2009206617A (ja) 2008-02-26 2009-09-10 Nec Corp 顔認証を用いた防犯システム
US8555169B2 (en) * 2009-04-30 2013-10-08 Apple Inc. Media clip auditioning used to evaluate uncommitted media content
DK2617186T3 (da) * 2010-09-13 2022-02-07 Contour Ip Holding Llc Bærbart, digitalt videokamera til styring og visning af fjernbilledoptagelser
JP2012253421A (ja) * 2011-05-31 2012-12-20 Nikon Corp 画像表示装置、撮像装置および画像表示プログラム
CN102734312A (zh) * 2012-06-27 2012-10-17 鸿富锦精密工业(深圳)有限公司 伸缩型万向连接器
JP2014044641A (ja) * 2012-08-28 2014-03-13 Nec Commun Syst Ltd 犯罪情報管理装置および犯罪情報管理システム
JP6210650B2 (ja) * 2014-01-23 2017-10-11 株式会社日立国際電気 画像検索システム及び画像検索方法
US9883370B2 (en) * 2014-07-28 2018-01-30 Dan Kerning Security and public safety application for a mobile device with enhanced incident reporting capabilities

Also Published As

Publication number Publication date
US10027940B2 (en) 2018-07-17
US10271032B2 (en) 2019-04-23
JP2018061215A (ja) 2018-04-12
US20180103241A1 (en) 2018-04-12
US20180288383A1 (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP6750998B2 (ja) 監視システム及び監視方法
US11455761B2 (en) Information display system and information display method
JP2018060481A (ja) 誘導システム及び誘導方法
US10475337B2 (en) Investigation assist device, investigation assist method and investigation assist system
US11579759B1 (en) Systems and methods for security data analysis and display
US9760573B2 (en) Situational awareness
JP5715775B2 (ja) 画像監視システムおよび画像監視方法
KR101417930B1 (ko) Cctv 감시장치 지능형 관제시스템
JP4665814B2 (ja) マナー違反管理システム
KR20160080159A (ko) 통합경비 원격 모니터링 시스템 및 그 방법
JP2013140418A (ja) 電力設備機器の巡視点検システムおよび管理サーバ
JP2019192025A (ja) 駐車監視システム、駐車監視方法および記録媒体
JP2011215767A (ja) サーバ装置、防犯カメラ映像利用方法、防犯カメラ映像利用プログラムおよび防犯カメラシステム
JP2020202000A (ja) 映像収集システム、映像収集方法及びプログラム
CN113643520A (zh) 一种交通事故智能处理系统及方法
KR101005568B1 (ko) 지능형 방범 시스템
KR100868257B1 (ko) 위치 기반의 범죄 지리정보 시스템
JP2009206617A (ja) 顔認証を用いた防犯システム
JP2014044641A (ja) 犯罪情報管理装置および犯罪情報管理システム
CN111163288A (zh) 一种智能移动警务系统及警务办公方法
KR20140021097A (ko) 분산처리 기반 카메라 영상 서비스 시스템 및 방법
KR102093650B1 (ko) 클라우드 기반 보안 서비스 시스템 및 방법
KR101686851B1 (ko) Cctv 카메라를 이용한 통합 관제 시스템
JP2007328490A (ja) 不審者通知システム
KR20060119078A (ko) 불법주차 모니터링 시스템 및 방법

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191003

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200813

R150 Certificate of patent or registration of utility model

Ref document number: 6750998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250