JP6807247B2 - Monitoring system and monitoring method - Google Patents

Monitoring system and monitoring method Download PDF

Info

Publication number
JP6807247B2
JP6807247B2 JP2017032499A JP2017032499A JP6807247B2 JP 6807247 B2 JP6807247 B2 JP 6807247B2 JP 2017032499 A JP2017032499 A JP 2017032499A JP 2017032499 A JP2017032499 A JP 2017032499A JP 6807247 B2 JP6807247 B2 JP 6807247B2
Authority
JP
Japan
Prior art keywords
image
unit
current
past
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032499A
Other languages
Japanese (ja)
Other versions
JP2018136872A (en
Inventor
秀行 青木
秀行 青木
俊則 中村
俊則 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2017032499A priority Critical patent/JP6807247B2/en
Publication of JP2018136872A publication Critical patent/JP2018136872A/en
Application granted granted Critical
Publication of JP6807247B2 publication Critical patent/JP6807247B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Alarm Systems (AREA)

Description

本発明は、カメラを用いて監視エリアを監視する技術に関する。 The present invention relates to a technique for monitoring a monitoring area using a camera.

カメラを用いて所定の場所を監視するシステムにおいて、カメラの画像に含まれる監視対象を分かりやすくする加工をしてから表示する技術が、特許文献1に記載されている。具体的には、特許文献1の技術では、監視対象者が監視領域に存在する場合に、当該監視領域を出発する移動体の数を監視対象者に対応付けて計数し、計数した数が閾値を超える場合に、監視対象者を識別するためのマークを表示する。 Patent Document 1 describes a technique for displaying a monitoring target included in an image of a camera after processing it so that it is easy to understand in a system for monitoring a predetermined place using a camera. Specifically, in the technique of Patent Document 1, when the monitored person exists in the monitored area, the number of moving objects departing from the monitored area is counted in association with the monitored person, and the counted number is the threshold value. When the number exceeds, a mark for identifying the monitored person is displayed.

特開2015−095695号公報JP-A-2015-09695

監視カメラは通常、人の目線より高い位置に設置される。監視カメラの撮像範囲や撮像方向は監視員の視野と異なるため、監視カメラの画像を監視員等が目視した場合に、実空間のどこを撮像した画像か容易に認識できないことがある。このため、異常に対処する監視員は、監視カメラの撮像範囲と自分の位置との関係を把握することが難しい場合がある。
そこで、本発明は、異常に対処する人員が監視エリアを撮像した画像を確認する際、画像上における自分の位置を容易に把握可能にすることを目的とする。
Surveillance cameras are usually installed higher than the human eye. Since the imaging range and imaging direction of the surveillance camera are different from the field of view of the observer, when the observer or the like visually observes the image of the surveillance camera, it may not be possible to easily recognize where in the real space the image was captured. For this reason, it may be difficult for the observer who deals with the abnormality to grasp the relationship between the imaging range of the surveillance camera and his / her position.
Therefore, an object of the present invention is to enable a person who deals with an abnormality to easily grasp his / her position on the image when confirming the image of the monitoring area.

上述した課題を解決するため、本発明の監視システムは、監視エリアに設置されたカメラ装置により撮像された画像を取得する取得部と、前記カメラ装置により過去に撮像された画像である過去画像を記憶する記憶部と、前記監視エリアで発生した異常に対処する人員の現在位置を特定する第1位置特定部と、前記特定した現在位置に基づいて、前記記憶された過去画像上に前記人員の現在位置を明示した第1画像を生成する第1生成部と、前記第1画像を出力する第1出力部とを備える。 In order to solve the above-mentioned problems, the monitoring system of the present invention captures an image captured by a camera device installed in a monitoring area and a past image which is an image previously captured by the camera device. Based on the storage unit to be stored, the first position specifying unit for specifying the current position of the person to deal with the abnormality generated in the monitoring area, and the specified current position, the person is placed on the stored past image. It includes a first generation unit that generates a first image in which the current position is clearly specified, and a first output unit that outputs the first image.

本発明の監視システムにおいて、前記第1生成部は、少なくとも前記異常の発生時に撮像された異常時画像を含む前記過去画像上に、前記人員の現在位置を明示した前記第1画像を生成してもよい。
本発明の監視システムにおいて、前記第1位置特定部は、前記対処する人員が所持する携帯端末の位置情報を取得し、当該位置情報に基づき前記画像上における人員の現在位置を特定してもよい。
本発明の監視システムにおいて、前記第1位置特定部は、前記取得された画像に対する画像解析に基づき前記対処する人員を識別し、当該人員の前記画像上の現在位置を特定してもよい。
In the monitoring system of the present invention, the first generation unit generates the first image in which the current position of the personnel is clearly shown on the past image including at least the image at the time of abnormality captured when the abnormality occurs. May be good.
In the monitoring system of the present invention, the first position specifying unit may acquire the position information of the mobile terminal possessed by the corresponding person and specify the current position of the person on the image based on the position information. ..
In the monitoring system of the present invention, the first position specifying unit may identify the person to be dealt with based on the image analysis of the acquired image, and may specify the current position of the person on the image.

本発明の監視システムにおいて、前記監視エリア内の前記異常が発生した位置である異常位置を特定する第2位置特定部と、前記特定した異常位置に基づいて、前記取得された現在の監視エリアが撮像された現画像上に前記異常位置を明示した第2画像を生成する第2生成部と、前記第2画像を出力する第2出力部とを備えてもよい。 In the monitoring system of the present invention, the second position specifying unit that specifies the abnormal position, which is the position where the abnormality occurs in the monitoring area, and the acquired current monitoring area based on the specified abnormal position A second generation unit that generates a second image in which the abnormal position is clearly shown on the captured current image and a second output unit that outputs the second image may be provided.

本発明の監視システムにおいて、前記第1生成部は、前記カメラ装置の撮像範囲における現在の混雑度合いが所定の条件を満たす場合に前記第1画像を生成してもよい。 In the monitoring system of the present invention, the first generation unit may generate the first image when the current degree of congestion in the imaging range of the camera device satisfies a predetermined condition.

本発明の監視方法は、監視エリアに設置されたカメラ装置により撮像された画像を取得するステップと、前記カメラ装置により過去に撮像された画像である過去画像を記憶するステップと、前記監視エリアで発生した異常に対処する人員の現在位置を特定するステップと、前記特定した現在位置に基づいて、前記記憶された過去画像上に前記人員の現在位置を明示した第1画像を生成するステップと、前記第1画像を出力するステップとを備える。 The monitoring method of the present invention includes a step of acquiring an image captured by a camera device installed in the monitoring area, a step of storing a past image which is an image captured in the past by the camera device, and a step of storing the past image in the monitoring area. A step of specifying the current position of a person to deal with an abnormality that has occurred, and a step of generating a first image in which the current position of the person is clearly shown on the stored past image based on the specified current position. It includes a step of outputting the first image.

本発明によれば、異常に対処する人員が監視エリアを撮像した画像を確認する際、画像上における自分の位置を容易に把握可能にすることができる。 According to the present invention, when a person dealing with an abnormality confirms an image obtained by capturing an image of a monitoring area, he / she can easily grasp his / her position on the image.

本発明の一実施形態に係る監視システムの全体構成を示す図。The figure which shows the whole structure of the monitoring system which concerns on one Embodiment of this invention. 同実施形態に係るサーバ装置の構成の一例を示す図。The figure which shows an example of the structure of the server apparatus which concerns on the same embodiment. 同実施形態に係るカメラ装置の構成の一例を示す図。The figure which shows an example of the structure of the camera apparatus which concerns on the same embodiment. 同実施形態に係る携帯端末の構成の一例を示す図。The figure which shows an example of the structure of the mobile terminal which concerns on the same embodiment. 同実施形態に係る監視システムで実行される異常発生時の処理を示すシーケンスチャート。A sequence chart showing processing when an abnormality occurs, which is executed by the monitoring system according to the same embodiment. 同実施形態に係る監視システムで実行される過去画像の表示に係る処理を示すシーケンスチャート。A sequence chart showing processing related to display of past images executed by the monitoring system according to the same embodiment. 同実施形態に係る過去画像の表示に係る処理の説明図。The explanatory view of the process which concerns on the display of the past image which concerns on the same embodiment. 同実施形態に係る監視システムで実行される現画像の表示に係る処理を示すシーケンスチャート。A sequence chart showing processing related to display of the current image executed by the monitoring system according to the same embodiment. 同実施形態に係る現画像の表示に係る処理の説明図。The explanatory view of the process which concerns on the display of the present image which concerns on the same embodiment.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る監視システム1の全体構成を示す図である。監視システム1は、マラソン競技等のイベントの開催場所を監視するシステムである。監視システム1は、サーバ装置10と、複数のカメラ装置20と、複数の携帯端末30と、オペレーション端末40とを備える。サーバ装置10は、複数のカメラ装置20、及び複数の携帯端末30の各々と通信回線NW2経由で通信を行う情報処理装置である。通信回線NW2は、例えば、インターネット、及び無線通信網を含む公衆の通信回線である。サーバ装置10は、オペレーション端末40と通信回線NW1経由で通信を行う。通信回線NW1は、LAN(Local Area Network)を含む通信回線である。サーバ装置10、及びオペレーション端末40は、イベントの開催場所を監視するための監視センタに配置される。
なお、通信回線NW1,NW2は、有線及び無線のいずれの通信回線であってもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an overall configuration of a monitoring system 1 according to an embodiment of the present invention. The monitoring system 1 is a system for monitoring the venue of an event such as a marathon competition. The monitoring system 1 includes a server device 10, a plurality of camera devices 20, a plurality of mobile terminals 30, and an operation terminal 40. The server device 10 is an information processing device that communicates with each of the plurality of camera devices 20 and the plurality of mobile terminals 30 via the communication line NW2. The communication line NW2 is, for example, a public communication line including the Internet and a wireless communication network. The server device 10 communicates with the operation terminal 40 via the communication line NW1. The communication line NW1 is a communication line including a LAN (Local Area Network). The server device 10 and the operation terminal 40 are arranged in a monitoring center for monitoring the venue of the event.
The communication lines NW1 and NW2 may be either wired or wireless communication lines.

サーバ装置10は、複数のカメラ装置20の各々により撮像された画像を、携帯端末30に送信するための処理を行う。複数のカメラ装置20は、予め決められた場所に設置(固定)されている。カメラ装置20は、自装置に割り当てられた監視エリアTを撮像し、撮像した画像を、サーバ装置10へ送信する。カメラ装置20は、例えば、街灯や電柱等の高所に設置され、例えば斜め下方向を撮像する。ただし、カメラ装置20の設置場所はいかなる場所でもよいし、撮像方向もいかなる方向でもよい。 The server device 10 performs a process for transmitting an image captured by each of the plurality of camera devices 20 to the mobile terminal 30. The plurality of camera devices 20 are installed (fixed) at predetermined locations. The camera device 20 images the monitoring area T assigned to the own device, and transmits the captured image to the server device 10. The camera device 20 is installed in a high place such as a street light or a utility pole, and takes an image in an obliquely downward direction, for example. However, the camera device 20 may be installed in any location, and the imaging direction may be any direction.

携帯端末30は、監視員Uによって携帯される端末装置である。携帯端末30は、例えば、スマートフォンである。ただし、携帯端末30は、タブレット型コンピュータ等の、通信機能及び表示機能を有する携帯端末であればよい。携帯端末30は、監視員Uの身体の部位に装着されるウェアラブル型端末(例えば、腕時計型端末)であってもよい。携帯端末30は、カメラ装置20が撮像した現画像、及び過去画像に基づいて画像の表示を行う。現画像は、カメラ装置20が撮像した現在の画像であって監視エリアTの現在の様子を撮像した画像である。過去画像は、カメラ装置20が過去に撮像した画像であって監視エリアTの過去の様子の画像である。 The mobile terminal 30 is a terminal device carried by the observer U. The mobile terminal 30 is, for example, a smartphone. However, the mobile terminal 30 may be a mobile terminal having a communication function and a display function, such as a tablet computer. The mobile terminal 30 may be a wearable terminal (for example, a wristwatch type terminal) worn on a body part of the observer U. The mobile terminal 30 displays an image based on the current image captured by the camera device 20 and the past image. The current image is a current image captured by the camera device 20 and is an image of the current state of the monitoring area T. The past image is an image captured by the camera device 20 in the past and is an image of the past state of the monitoring area T.

監視員Uは、イベントの開催場所で異常が発生した場合には、その異常への対処を行う人員である。「異常」とは、本実施形態では、不審者、不審物(例えば、危険物)、及び負傷者のような、開催者又は参加者にとってイベントの進行を妨げられ得る事象のことをいう。どのような事象を異常と認めるかについては、予め決められていてもよい。監視員Uは、イベントの開催場所に配置され、自身が担当する場所を監視する。監視員Uには、例えば、警備を担当する人員、医療救護を担当する人員、又はイベントの運営に関わる人員等の、様々な役割の人員がいる。 Observer U is a person who deals with an abnormality when an abnormality occurs at the venue of the event. "Abnormal" means, in the present embodiment, an event such as a suspicious person, a suspicious object (for example, a dangerous object), and an injured person, which may hinder the progress of the event for the organizer or participants. What kind of event is recognized as abnormal may be decided in advance. Observer U is assigned to the venue of the event and monitors the location he is in charge of. The observer U has personnel in various roles, such as personnel in charge of security, personnel in charge of medical relief, and personnel involved in the operation of an event.

オペレーション端末40は、イベントの開催場所を監視センタから監視するオペレータにより使用されるコンピュータ装置である。オペレーション端末40は、複数のカメラ装置20から取得した画像に基づいて、イベントの開催場所の画像を表示する。また、オペレーション端末40は、サーバ装置10に対する情報の入出力に用いられる。 The operation terminal 40 is a computer device used by an operator who monitors the venue of an event from a monitoring center. The operation terminal 40 displays an image of the event venue based on the images acquired from the plurality of camera devices 20. Further, the operation terminal 40 is used for input / output of information to the server device 10.

図2は、サーバ装置10の構成の一例を示す図である。図2に示すように、サーバ装置10は、制御部11と、第1通信部12と、第2通信部13と、記憶部14とを備える。制御部11は、サーバ装置10の各部を制御する。制御部11は、演算処理装置としてのCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を含むプロセッサを有する。CPUは、ROM又は記憶部14に記憶されたプログラムをRAMに読み出して実行することにより、サーバ装置10の各部を制御する。第1通信部12は、通信回線NW2経由で、カメラ装置20、及び携帯端末30と通信する。第2通信部13は、通信回線NW1経由で、オペレーション端末40と通信する。第1通信部12、及び第2通信部13は、例えばモデムを備える。 FIG. 2 is a diagram showing an example of the configuration of the server device 10. As shown in FIG. 2, the server device 10 includes a control unit 11, a first communication unit 12, a second communication unit 13, and a storage unit 14. The control unit 11 controls each unit of the server device 10. The control unit 11 includes a processor including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) as arithmetic processing units. The CPU controls each unit of the server device 10 by reading the program stored in the ROM or the storage unit 14 into the RAM and executing the program. The first communication unit 12 communicates with the camera device 20 and the mobile terminal 30 via the communication line NW2. The second communication unit 13 communicates with the operation terminal 40 via the communication line NW1. The first communication unit 12 and the second communication unit 13 include, for example, a modem.

記憶部14は、制御部11により実行されるプログラム、過去画像を記憶する。また、記憶部14は、カメラ装置20に関する情報として、カメラ装置20毎に、装置を識別するID情報、設置位置を示す情報、撮像範囲を示す領域情報を記憶する。設置位置を示す情報、撮像範囲を示す領域情報は、緯度及び経度で表される座標情報であり、記憶部14には、撮像された画像上の各位置と実空間における座標情報との対応関係が記憶される。この他、記憶部14は、携帯端末30を識別する情報等、サーバ装置10で実行される処理に必要な各種の情報を記憶する。記憶部14は、例えばハードディスクを備える。 The storage unit 14 stores a program executed by the control unit 11 and a past image. Further, the storage unit 14 stores ID information for identifying the device, information indicating the installation position, and area information indicating the imaging range for each camera device 20 as information regarding the camera device 20. The information indicating the installation position and the area information indicating the imaging range are coordinate information represented by latitude and longitude, and the storage unit 14 stores the correspondence between each position on the captured image and the coordinate information in the real space. Is memorized. In addition, the storage unit 14 stores various information necessary for processing executed by the server device 10, such as information for identifying the mobile terminal 30. The storage unit 14 includes, for example, a hard disk.

制御部11は、取得部111と、記録部112と、異常検知部113と、選定部114と、第1位置特定部115と、第1生成部116と、第1出力部117と、第2位置特定部118と、第2生成部119と、第2出力部120とを有する。制御部11の各機能は、プロセッサ、及びプロセッサにより実行されるプログラムの協働により実現される。 The control unit 11 includes an acquisition unit 111, a recording unit 112, an abnormality detection unit 113, a selection unit 114, a first position identification unit 115, a first generation unit 116, a first output unit 117, and a second. It has a position specifying unit 118, a second generation unit 119, and a second output unit 120. Each function of the control unit 11 is realized by the cooperation of the processor and the program executed by the processor.

取得部111は、第1通信部12を用いて、カメラ装置20により撮像された画像を取得する。記録部112は、取得部111が取得した画像に基づいて過去画像を記憶部14に記録する。異常検知部113は、監視エリアT内で発生し得る異常を検知する処理である「異常検知処理」を実行する。異常検知部113は、例えば、取得部111が取得した画像(過去画像又は現画像)を解析することにより、異常を検知する。この解析には、公知の画像解析を用いることができる。異常検知部113は、画像上に異常対象(不審者や不審物体)を検出した場合、その画像上(つまり、その画像を撮像したカメラ装置20の撮像範囲)における異常対象の位置(異常位置)を特定し、異常情報として記憶部14に記憶する。また、異常検知部113は、オペレータにより入力された情報を、第2通信部13を用いてオペレーション端末40から取得し、この情報に基づいて異常を検知することもできる。異常の検知方法は、特に問わない。選定部114は、異常検知部113により異常が検知されたと判定した場合に、その異常に対する対処指示を行う監視員Uの選定を行う。選定部114は、第1通信部12を用いて、選定した監視員Uの携帯端末30宛てに対処指示を行う。 The acquisition unit 111 acquires an image captured by the camera device 20 by using the first communication unit 12. The recording unit 112 records the past image in the storage unit 14 based on the image acquired by the acquisition unit 111. The abnormality detection unit 113 executes "abnormality detection processing", which is a processing for detecting an abnormality that may occur in the monitoring area T. The abnormality detection unit 113 detects an abnormality by, for example, analyzing an image (past image or current image) acquired by the acquisition unit 111. A known image analysis can be used for this analysis. When the abnormality detection unit 113 detects an abnormal object (suspicious person or suspicious object) on the image, the position (abnormal position) of the abnormal object on the image (that is, the imaging range of the camera device 20 that captured the image). Is specified and stored in the storage unit 14 as abnormal information. Further, the abnormality detection unit 113 can also acquire the information input by the operator from the operation terminal 40 using the second communication unit 13 and detect the abnormality based on this information. The method of detecting the abnormality is not particularly limited. When the selection unit 114 determines that the abnormality has been detected by the abnormality detection unit 113, the selection unit 114 selects the observer U who gives an instruction to deal with the abnormality. The selection unit 114 uses the first communication unit 12 to give a coping instruction to the mobile terminal 30 of the selected observer U.

第1位置特定部115は、監視エリアTで発生した異常に対処する監視員Uの位置を特定する。第1位置特定部115は、例えば、監視員Uが所持する携帯端末30から、第1通信部12を用いて携帯端末30の位置情報を取得する。位置情報は、GPS(Global Positioning System)等を用いて求められ、緯度及び経度で表される座標情報である。そして、第1位置特定部115は、表示対象として指定されたカメラ装置20の撮像範囲と監視員Uの位置とを対比し、画像上における監視員Uの位置を特定する。 The first position specifying unit 115 specifies the position of the observer U who deals with the abnormality generated in the monitoring area T. For example, the first position specifying unit 115 acquires the position information of the mobile terminal 30 from the mobile terminal 30 possessed by the observer U by using the first communication unit 12. The position information is coordinate information obtained by using GPS (Global Positioning System) or the like and represented by latitude and longitude. Then, the first position specifying unit 115 compares the imaging range of the camera device 20 designated as the display target with the position of the observer U, and specifies the position of the observer U on the image.

第1生成部116は、記憶部14に記憶された過去画像を読み出し、読み出した過去画像上に特定した監視員Uの位置を明示した画像を生成する。第1生成部116が生成した画像は、出力用の画像で、本発明の「第1画像」に対応する。第1出力部117は、この出力用の画像を、第1通信部12を用いて、監視員Uの携帯端末30へ送信する。なお、「送信」は、「出力」の一態様である。 The first generation unit 116 reads out the past image stored in the storage unit 14, and generates an image in which the position of the specified observer U is clearly shown on the read past image. The image generated by the first generation unit 116 is an image for output and corresponds to the "first image" of the present invention. The first output unit 117 transmits the image for this output to the mobile terminal 30 of the observer U by using the first communication unit 12. Note that "transmission" is an aspect of "output".

第2位置特定部118は、監視エリアT内の異常が発生した位置を特定する。第2位置特定部118は、記憶部14に記憶された異常情報に基づき、表示対象として指定されたカメラ装置20から取得した現画像における異常対象の位置を特定する。第2生成部119は、取得部111が取得した画像に基づいて、現画像上に異常の発生位置を明示した画像を生成する。第2生成部119が生成した画像は、出力用の画像で、本発明の「第2画像」に対応する。第2出力部120は、この出力用の画像を、第1通信部12を用いて、監視員Uの携帯端末30へ送信する。 The second position specifying unit 118 identifies the position in the monitoring area T where the abnormality has occurred. The second position specifying unit 118 identifies the position of the abnormal target in the current image acquired from the camera device 20 designated as the display target based on the abnormal information stored in the storage unit 14. The second generation unit 119 generates an image in which the position where the abnormality occurs is clearly shown on the current image based on the image acquired by the acquisition unit 111. The image generated by the second generation unit 119 is an image for output and corresponds to the "second image" of the present invention. The second output unit 120 transmits the image for this output to the mobile terminal 30 of the observer U by using the first communication unit 12.

図3は、カメラ装置20の構成の一例を示す図である。図3に示すように、カメラ装置20は、制御部21と、撮像部22と、記憶部23と、通信部24とを備える。
制御部21は、カメラ装置20の各部を制御する。制御部21は、演算処理装置としてのCPU、ROM、及びRAMを含むプロセッサを有する。CPUは、ROM又は記憶部23に記憶されたプログラムをRAMに読み出して実行することにより、カメラ装置20の各部を制御する。撮像部22は、監視エリアTを撮像する。撮像部22は、CCD(Charge Coupled Device)で例示される撮像素子及びレンズを含む。記憶部23は、制御部21により実行されるプログラムを記憶する。記憶部23は、例えばハードディスク装置を備える。通信部24は、通信回線NW2経由で、サーバ装置10と通信する。通信部24は、例えばモデムを備える。
FIG. 3 is a diagram showing an example of the configuration of the camera device 20. As shown in FIG. 3, the camera device 20 includes a control unit 21, an imaging unit 22, a storage unit 23, and a communication unit 24.
The control unit 21 controls each unit of the camera device 20. The control unit 21 has a processor including a CPU, a ROM, and a RAM as an arithmetic processing device. The CPU controls each unit of the camera device 20 by reading the program stored in the ROM or the storage unit 23 into the RAM and executing the program. The imaging unit 22 images the monitoring area T. The image pickup unit 22 includes an image pickup device and a lens exemplified by a CCD (Charge Coupled Device). The storage unit 23 stores a program executed by the control unit 21. The storage unit 23 includes, for example, a hard disk device. The communication unit 24 communicates with the server device 10 via the communication line NW2. The communication unit 24 includes, for example, a modem.

図4は、携帯端末30の構成の一例を示す図である。図4に示すように、携帯端末30は、制御部31と、表示部32と、入力部33と、記憶部34と、通信部35と、測位部36とを備える。
制御部31は、携帯端末30の各部を制御する。制御部31は、演算処理装置としてのCPU、ROM、及びRAMを含むプロセッサを有する。CPUは、ROM又は記憶部34に記憶されたプログラムをRAMに読み出して実行することにより、携帯端末30の各部を制御する。表示部32は、取得した画像や操作画面、受信した対処指示に関する情報等を表示面に表示する。表示部32は、例えば液晶ディスプレイを備える。入力部33は、監視員Uからの情報の入力を受け付ける。入力部33は、例えば、表示部32の表示面に重ねて設けられたタッチパネル、及び物理ボタンを備える。記憶部34は、制御部31により実行されるプログラムを記憶する。記憶部34は、例えばフラッシュメモリを備える。通信部35は、通信回線NW2経由で通信を行う。通信部35は、例えば無線通信回路及びアンテナを備える。測位部36は、携帯端末30の位置を測定し、測定した位置を示す位置情報を生成する。測位部36は、例えばGPSで測位するための回路及びアンテナを備える。
以上が、監視システム1の構成である。次に、監視システム1の動作を説明する。
FIG. 4 is a diagram showing an example of the configuration of the mobile terminal 30. As shown in FIG. 4, the mobile terminal 30 includes a control unit 31, a display unit 32, an input unit 33, a storage unit 34, a communication unit 35, and a positioning unit 36.
The control unit 31 controls each unit of the mobile terminal 30. The control unit 31 has a processor including a CPU, a ROM, and a RAM as an arithmetic processing device. The CPU controls each unit of the mobile terminal 30 by reading the program stored in the ROM or the storage unit 34 into the RAM and executing the program. The display unit 32 displays the acquired image, the operation screen, the received information on the coping instruction, and the like on the display surface. The display unit 32 includes, for example, a liquid crystal display. The input unit 33 receives the input of information from the observer U. The input unit 33 includes, for example, a touch panel provided on the display surface of the display unit 32 and physical buttons. The storage unit 34 stores the program executed by the control unit 31. The storage unit 34 includes, for example, a flash memory. The communication unit 35 communicates via the communication line NW2. The communication unit 35 includes, for example, a wireless communication circuit and an antenna. The positioning unit 36 measures the position of the mobile terminal 30 and generates position information indicating the measured position. The positioning unit 36 includes, for example, a circuit and an antenna for positioning by GPS.
The above is the configuration of the monitoring system 1. Next, the operation of the monitoring system 1 will be described.

<対処指示>
図5は、監視システム1で実行される対処指示に係る処理を示すシーケンスチャートである。
カメラ装置20において制御部21は、撮像部22を用いて監視エリアTを撮像し(ステップS1)、現画像を、通信部24を用いてサーバ装置10へ送信する(ステップS2)。カメラ装置20は、ステップS1,S2の処理を繰り返し行う。
<Countermeasure instructions>
FIG. 5 is a sequence chart showing processing related to a coping instruction executed by the monitoring system 1.
In the camera device 20, the control unit 21 uses the image pickup unit 22 to image the monitoring area T (step S1), and transmits the current image to the server device 10 using the communication unit 24 (step S2). The camera device 20 repeats the processes of steps S1 and S2.

サーバ装置10において取得部111は、第1通信部12を用いて、現画像を取得する(ステップS3)。記録部112は、取得部111が取得した現画像に基づいて、過去画像を記憶部14に記録する(ステップS4)。次に、異常検知部113は、異常検知処理を実行する(ステップS5)。次に、異常検知部113は、この検知結果に基づいて異常が発生したどうかを判定する(ステップS6)。ステップS6で「NO」と判定した場合、異常検知部113は、ステップS3〜S6の処理を繰り返し行う。 In the server device 10, the acquisition unit 111 acquires the current image by using the first communication unit 12 (step S3). The recording unit 112 records the past image in the storage unit 14 based on the current image acquired by the acquisition unit 111 (step S4). Next, the abnormality detection unit 113 executes the abnormality detection process (step S5). Next, the abnormality detection unit 113 determines whether or not an abnormality has occurred based on the detection result (step S6). If it is determined as "NO" in step S6, the abnormality detection unit 113 repeats the processes of steps S3 to S6.

異常検知部113により異常が発生したと判定された場合(ステップS6;YES)、選定部114は、その異常に対する対処指示を行う監視員Uを選定する(ステップS7)。選定部114は、例えば、異常発生位置に最も近い位置の監視員Uを選定する。選定部114は、発生した異常の種類、又は監視員Uの役割に基づいて、監視員Uの選定を行ってもよい。 When the abnormality detection unit 113 determines that an abnormality has occurred (step S6; YES), the selection unit 114 selects an observer U who gives an instruction to deal with the abnormality (step S7). The selection unit 114 selects, for example, the observer U at the position closest to the position where the abnormality occurs. The selection unit 114 may select the observer U based on the type of abnormality that has occurred or the role of the observer U.

監視員Uを選定すると、選定部114は、第1通信部12を用いて、選定された監視員Uの携帯端末30へ対処指示を行う(ステップS8)。対処指示は、画像取得に用いる対処キーや、異常の発生位置、異常の内容等、監視員Uが異常への対処にあたり必要な情報を含む。携帯端末30において制御部31は、対処指示を取得すると、監視員Uへの通知を行う(ステップS9)。通知の方法としては、表示部32を用いた対処指示の内容の表示があるが、音の出力、又はバイブレーション機能の振動等が用いられてもよい。この対処指示に従って、監視員Uは発生した異常への対処を行う。
以上により、監視員Uへの対処指示が完了する。
When the observer U is selected, the selection unit 114 uses the first communication unit 12 to give a coping instruction to the mobile terminal 30 of the selected observer U (step S8). The coping instruction includes the coping key used for image acquisition, the position where the abnormality occurs, the content of the abnormality, and other information necessary for the observer U to deal with the abnormality. When the control unit 31 acquires the coping instruction in the mobile terminal 30, the control unit 31 notifies the observer U (step S9). As a method of notification, there is a display of the content of the coping instruction using the display unit 32, but sound output, vibration of the vibration function, or the like may be used. According to this coping instruction, the observer U deals with the abnormality that has occurred.
With the above, the coping instruction to the observer U is completed.

監視員Uは携帯端末30からの対処指示に通知を受けると、携帯端末30は、カメラ装置20の撮像した画像として、過去画像、及び現画像を表示することができる。以下、それぞれの画像の表示に係る処理を説明する。 When the observer U is notified of the coping instruction from the mobile terminal 30, the mobile terminal 30 can display the past image and the current image as the image captured by the camera device 20. Hereinafter, the processing related to the display of each image will be described.

<過去画像の表示>
図6は、監視システム1で実行される過去画像の表示に係る処理を示すシーケンスチャートである。
携帯端末30において制御部31は、監視員Uによる過去画像の取得要求の操作に応じて、通信部35を用いて、過去画像の送信をサーバ装置10に要求する(ステップS11)。この要求の際、制御部31は、測位部36により生成された位置情報、及び過去画像を特定する情報を送信する。過去画像を特定する情報は、例えば、どのカメラ装置20の過去画像を表示するかを特定する情報、及びいつ撮像された画像を表示するかを特定する情報を含む。特に、監視員Uが確認したい画像は異常発生時に撮像された画像である異常時画像であるため、異常時画像を指定する操作が可能であり、一方、異常時画像以外の画像については表示を開始する撮像日時や期間を指定する操作が可能である。異常時画像が指定された場合、異常時画像を含む前後数秒〜数十秒の記録画像が指定されたものとして扱う。なお、監視員Uが携帯端末30を用いて過去画像の一覧表示から表示した画像を選択できる構成が採用されてもよい。
<Display of past images>
FIG. 6 is a sequence chart showing a process related to the display of the past image executed by the monitoring system 1.
In the mobile terminal 30, the control unit 31 requests the server device 10 to transmit the past image by using the communication unit 35 in response to the operation of the past image acquisition request by the observer U (step S11). At the time of this request, the control unit 31 transmits the position information generated by the positioning unit 36 and the information for identifying the past image. The information for identifying the past image includes, for example, information for specifying which camera device 20 the past image is to be displayed, and information for specifying when to display the captured image. In particular, since the image that the observer U wants to check is an abnormal image that is an image captured when an abnormality occurs, it is possible to specify an abnormal image, while displaying images other than the abnormal image. It is possible to specify the start date and time of imaging and the period. When an abnormal image is specified, it is treated as if a recorded image of several seconds to several tens of seconds before and after including the abnormal image is specified. A configuration may be adopted in which the observer U can select the displayed image from the list display of the past images using the mobile terminal 30.

サーバ装置10において第1位置特定部115は、携帯端末30からの要求の後、監視員Uの位置を特定する(ステップS12)。第1位置特定部115は、携帯端末30から取得した位置情報に基づいて、過去画像上の監視員Uの位置を特定する。次に、第1生成部116は、記憶部14に記憶された過去画像のうち、送信が要求された過去画像を読み出す。そして、第1生成部116は、読み出した過去画像上に監視員Uの位置を明示した出力用の画像を生成する(ステップS13)。 In the server device 10, the first position specifying unit 115 specifies the position of the observer U after the request from the mobile terminal 30 (step S12). The first position specifying unit 115 identifies the position of the observer U on the past image based on the position information acquired from the mobile terminal 30. Next, the first generation unit 116 reads out the past images stored in the storage unit 14 for which transmission is requested. Then, the first generation unit 116 generates an output image in which the position of the observer U is clearly indicated on the read past image (step S13).

図7は、ステップS13の処理の一例を示す図である。図7の左側の図は、過去画像IM1を示す。過去画像IM1には、不審物Wが表示されている。しかし、過去画像IM1を見ても、カメラ装置の撮像範囲における現在の監視員Uの位置や向きが不明である。よって、監視員Uは、自身と不審物Wとの位置関係が把握しづらい。そこで、第1生成部116は、図7の右側の図に示すように、出力用の画像として加工画像IM2を生成する。加工画像IM2は、過去画像IM1上に監視員Uの位置を明示した画像である。ここでは、過去画像IM1上の監視員Uの現在位置に対応する位置に、目印画像MIが重畳させられている。目印画像MIは、ここでは人を模した画像であるが、監視員Uの位置や向きが認識できるのであれば丸印や矢印等の他の画像が用いられてもよい。 FIG. 7 is a diagram showing an example of the process of step S13. The figure on the left side of FIG. 7 shows the past image IM1. A suspicious object W is displayed on the past image IM1. However, even when looking at the past image IM1, the position and orientation of the current observer U in the imaging range of the camera device are unknown. Therefore, it is difficult for the observer U to grasp the positional relationship between himself and the suspicious object W. Therefore, the first generation unit 116 generates the processed image IM2 as an image for output, as shown in the figure on the right side of FIG. 7. The processed image IM2 is an image in which the position of the observer U is clearly shown on the past image IM1. Here, the mark image MI is superimposed on the position corresponding to the current position of the observer U on the past image IM1. The marker image MI is an image imitating a person here, but other images such as circles and arrows may be used as long as the position and orientation of the observer U can be recognized.

第1出力部117は、出力用の画像を、第1通信部12を用いて携帯端末30へ送信する(ステップS14)。携帯端末30において制御部31は、通信部35を用いてこの画像を取得すると、加工画像を表示部32に表示させる(ステップS15)。表示部32には、図7で説明した加工画像IM2が表示される。
よって、監視システム1によれば、異常に対処する監視員が監視エリアTをカメラ装置20で撮像した画像の過去画像を閲覧する際、表示させた過去画像上における自分の位置、及び異常の発生位置と自分の位置との関係を、容易に把握することができる。
The first output unit 117 transmits an image for output to the mobile terminal 30 using the first communication unit 12 (step S14). When the control unit 31 acquires this image using the communication unit 35 in the mobile terminal 30, the control unit 31 displays the processed image on the display unit 32 (step S15). The processed image IM2 described with reference to FIG. 7 is displayed on the display unit 32.
Therefore, according to the monitoring system 1, when the observer dealing with the abnormality browses the past image of the image captured by the camera device 20 in the monitoring area T, his / her position on the displayed past image and the occurrence of the abnormality occur. You can easily grasp the relationship between your position and your position.

<現画像の表示>
図8は、監視システム1で実行される現画像の表示に係る処理を示すシーケンスチャートである。
携帯端末30において制御部31は、監視員Uによる現画像の取得要求の操作に応じて、通信部35を用いて、現画像の送信をサーバ装置10に要求する(ステップS21)。この要求の際、制御部31は、カメラIDを送信する。
<Display of current image>
FIG. 8 is a sequence chart showing processing related to display of the current image executed by the monitoring system 1.
In the mobile terminal 30, the control unit 31 requests the server device 10 to transmit the current image by using the communication unit 35 in response to the operation of the current image acquisition request by the observer U (step S21). At the time of this request, the control unit 31 transmits the camera ID.

サーバ装置10において第2位置特定部118は、携帯端末30からの要求の後、異常の発生位置を特定する(ステップS22)。第2位置特定部118は、異常検知部113により記憶された異常の発生位置を示す位置情報に基づいて、画像上の異常の発生位置を特定する。次に、第2生成部119は、取得部111により取得された現画像上に異常の発生位置を明示した出力用の画像を生成する(ステップS23)。第2生成部119は、携帯端末30からのカメラIDに基づいて、どのカメラ装置20からの現画像を用いるかを決定する。 In the server device 10, the second position specifying unit 118 identifies the position where the abnormality occurs after the request from the mobile terminal 30 (step S22). The second position specifying unit 118 identifies the abnormal occurrence position on the image based on the position information indicating the abnormality occurrence position stored by the abnormality detection unit 113. Next, the second generation unit 119 generates an output image in which the abnormal occurrence position is clearly shown on the current image acquired by the acquisition unit 111 (step S23). The second generation unit 119 determines which camera device 20 to use the current image based on the camera ID from the mobile terminal 30.

図9は、ステップS23の処理の一例を示す図である。図9の左側の図は、現画像IM3を示す。この例では、過去に不審物の存在が異常として検出された後、その不審物の行方が不明になった場合が示されている。現画像IM3には、監視エリアT内に存在する監視員Uが表示されている。しかし、不審物が表示されていないので、現画像IM3を見ても、監視員Uは自身と不審物があった位置との位置関係が把握しづらい。よって、監視員Uは、不審物が移動させられたのか、又は自身が間違った場所に来たのかが分からない。 FIG. 9 is a diagram showing an example of the process of step S23. The figure on the left side of FIG. 9 shows the current image IM3. This example shows the case where the suspicious object's whereabouts became unknown after the existence of the suspicious object was detected as abnormal in the past. In the current image IM3, the observer U existing in the monitoring area T is displayed. However, since the suspicious object is not displayed, it is difficult for the observer U to grasp the positional relationship between himself and the position where the suspicious object was located even when looking at the current image IM3. Therefore, the observer U does not know whether the suspicious object has been moved or whether he / she has come to the wrong place.

そこで、第2生成部119は、図9の右側の図に示すように、出力用の画像として加工画像IM4を生成する。加工画像IM4は、現画像IM3上に不審物の位置を明示した画像である。ここでは、現画像IM3上の異常発生位置に対応する位置に、目印画像WIが重畳させられている。目印画像WIは、不審物の位置を分かりやすくするために不審物を模した画像を示す。ただし、不審物の位置を認識できるのであれば、丸印や矢印等の他の画像が用いられてもよい。なお、現在もなお不審物が存在している、つまり異常の発生が継続している場合は、当該異常の発生位置を明示する表示が行われてもよいし、行われなくてもよい。 Therefore, the second generation unit 119 generates the processed image IM4 as an image for output as shown in the figure on the right side of FIG. The processed image IM4 is an image in which the position of a suspicious object is clearly shown on the current image IM3. Here, the mark image WI is superimposed on the position corresponding to the abnormality occurrence position on the current image IM3. The landmark image WI shows an image imitating a suspicious object in order to make it easy to understand the position of the suspicious object. However, other images such as circles and arrows may be used as long as the position of the suspicious object can be recognized. If a suspicious object still exists, that is, if an abnormality continues to occur, a display indicating the position where the abnormality has occurred may or may not be displayed.

第2出力部120は、出力用の画像を、第1通信部12を用いて携帯端末30へ送信する(ステップS24)。携帯端末30において制御部31は、通信部35を用いてこの画像を取得すると、加工画像を、表示部32に表示させる(ステップS25)。表示部32には、図9で説明した加工画像IM4が表示される。
よって、監視システム1によれば、異常に対処する監視員が監視エリアTをカメラ装置20で撮像した現在の画像を閲覧する際、現画像上における自分の位置、異常の発生位置と自分の位置との関係を、容易に把握することができる。
The second output unit 120 transmits an image for output to the mobile terminal 30 using the first communication unit 12 (step S24). When the control unit 31 acquires this image using the communication unit 35 in the mobile terminal 30, the processed image is displayed on the display unit 32 (step S25). The processed image IM4 described with reference to FIG. 9 is displayed on the display unit 32.
Therefore, according to the monitoring system 1, when the observer dealing with the abnormality browses the current image of the monitoring area T captured by the camera device 20, his / her position on the current image, the position where the abnormality occurs, and his / her position The relationship with can be easily grasped.

[変形例]
本発明は、上述した実施形態と異なる形態で実施してもよい。また、以下に示す変形例は、各々を組み合わせてもよい。
カメラ装置20の周辺の混雑度合いが高いほど、その監視エリアTの状況が分かりづらい。そこで、第1生成部116は、現在のカメラ装置20の撮像範囲における混雑度合いが所定の条件を満たす場合に、過去画像上に監視員Uの位置を明示し、満たさない場合には、過去画像上に監視員Uの位置を明示しないようにしてもよい。混雑度合いを監視エリアTに存在する人の数とした場合、所定の条件は当該人の数が閾値以上であることを示す。混雑度合いは、サーバ装置10においてカメラ装置20の現画像が解析されることで特定されてもよいし、オペレータにより指定されてもよく、混雑度合いの特定方法は特に問わない。また、第2生成部119は、現在のカメラ装置20の撮像範囲における混雑度合いが所定の条件を満たす場合に、現画像上に異常の発生位置を明示し、満たさない場合には、現画像上に異常の発生位置を明示しないようにしてもよい。
このようにすれば、混雑度合いが高い場合には、異常の発生位置と監視員の位置との関係を分かりやすくして表示することができる。更に、混雑度合いが低い場合には、サーバ装置10の処理負荷や通信回線NW2の通信負荷の軽減を図ることができる。
[Modification example]
The present invention may be implemented in a form different from the above-described embodiment. Moreover, each of the modification shown below may be combined.
The higher the degree of congestion around the camera device 20, the more difficult it is to understand the status of the monitoring area T. Therefore, the first generation unit 116 clearly indicates the position of the observer U on the past image when the degree of congestion in the imaging range of the current camera device 20 satisfies a predetermined condition, and when it does not satisfy the past image. The position of the observer U may not be specified above. When the degree of congestion is the number of people present in the monitoring area T, the predetermined condition indicates that the number of the people is equal to or greater than the threshold value. The degree of congestion may be specified by analyzing the current image of the camera device 20 in the server device 10, or may be specified by the operator, and the method of specifying the degree of congestion is not particularly limited. Further, the second generation unit 119 clearly indicates the position where the abnormality occurs on the current image when the degree of congestion in the imaging range of the current camera device 20 satisfies a predetermined condition, and when it does not satisfy the condition, the second generation unit 119 clearly indicates the position where the abnormality occurs on the current image. It is also possible not to specify the position where the abnormality occurs.
In this way, when the degree of congestion is high, the relationship between the position where the abnormality occurs and the position of the observer can be displayed in an easy-to-understand manner. Further, when the degree of congestion is low, the processing load of the server device 10 and the communication load of the communication line NW2 can be reduced.

上述した実施形態の監視システム1では、監視員Uの位置を測定するために、GPSが用いられた。測位の方法はこれに限られない。監視システム1では、例えば、カメラ装置20の現画像を用いて画像認識を行うことにより現画像に写っている監視員Uを識別し、その監視員Uの画像上の位置を特定してもよい。この場合、服装や顔等の所定の特徴に基づいて画像認識が行われればよい。また、タグ測位等の更に別の方法が用いられてもよい。 In the monitoring system 1 of the above-described embodiment, GPS was used to measure the position of the observer U. The positioning method is not limited to this. In the monitoring system 1, for example, the observer U shown in the current image may be identified by performing image recognition using the current image of the camera device 20, and the position of the observer U on the image may be specified. .. In this case, image recognition may be performed based on predetermined features such as clothes and face. Further, another method such as tag positioning may be used.

上述した実施形態の監視システム1では、出力用の画像が携帯端末30に出力されていたが、他の装置に出力されてもよい。例えば、監視センタの人員が、過去画像又は現画像を見ることができるように、オペレーション端末40に出力されてもよい。また、携帯端末30にて過去画像及び現画像を同時に表示可能としてもよい。 In the monitoring system 1 of the above-described embodiment, the image for output is output to the mobile terminal 30, but it may be output to another device. For example, it may be output to the operation terminal 40 so that the personnel of the monitoring center can see the past image or the current image. Further, the mobile terminal 30 may be able to display the past image and the current image at the same time.

上述した実施形態で説明したハードウェア回路、機能又は動作の一部が省略されてもよい。例えば、本発明は、現画像に異常の発生位置を明示する処理を行わなくてもよい。 Some of the hardware circuits, functions or operations described in the embodiments described above may be omitted. For example, the present invention does not have to perform a process of clearly indicating the position where an abnormality occurs in the current image.

上述した実施形態のサーバ装置10が有していた機能の一部を、カメラ装置20、携帯端末30、又はオペレーション端末40が有してもよい。上述した実施形態で説明したハードウェア回路、機能又は動作の一部が省略されてもよい。例えば、本発明の監視システムは、過去画像の表示と、現画像の表示との一方のみを行うシステムであってもよい。また、異常の検知だけでなく、監視員の選定がオペレータの判定により行われてもよい。また、オペレータの行う行為がオペレータの行う行為は人工知能の技術を用いて自動化されてもよい。また、本発明の監視システムは、イベントの開催場所の監視に限られず、公共の場所等の任意の場所の監視に適用し得る。 The camera device 20, the mobile terminal 30, or the operation terminal 40 may have some of the functions of the server device 10 of the above-described embodiment. Some of the hardware circuits, functions or operations described in the embodiments described above may be omitted. For example, the monitoring system of the present invention may be a system that displays only one of the past image and the current image. Further, not only the abnormality detection but also the selection of the observer may be performed by the operator's judgment. Further, the action performed by the operator may be automated by using the technique of artificial intelligence. Further, the monitoring system of the present invention is not limited to monitoring the venue of the event, and can be applied to monitoring any place such as a public place.

上述した実施形態の監視システムが実現する各機能は、1又は複数のハードウェア回路により実現されてもよいし、1又は複数のプログラムを実行することにより実現されてもよいし、これらの組み合わせにより実現されてもよい。監視システムの機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、監視方法として把握することも可能である。 Each function realized by the monitoring system of the above-described embodiment may be realized by one or more hardware circuits, may be realized by executing one or more programs, or may be realized by a combination thereof. It may be realized. When the function of the monitoring system is realized by using a program, this program is used for magnetic recording media (magnetic tape, magnetic disk (HDD (Hard Disk Drive), FD (Flexible Disk), etc.)), optical recording medium (optical disk, etc.). ), It may be provided in a state of being stored in a computer-readable recording medium such as an optical magnetic recording medium or a semiconductor memory, or may be distributed via a network. The present invention can also be grasped as a monitoring method.

本願の発明は、上述した実施形態に限定されることなく、請求の範囲に記載した発明の範囲内で種々の変形が可能であり、それらも本発明の範囲内に含まれることはいうまでもない。 It goes without saying that the invention of the present application is not limited to the above-described embodiment, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Absent.

1…監視システム、10…サーバ装置、11,21,31…制御部、12…第1通信部、13…第2通信部、14,23,34…記憶部、111…取得部、112…記録部、113…異常検知部、114…選定部、115…第1位置特定部、116…第1生成部、117…第1出力部、118…第2位置特定部、119…第2生成部、120…第2出力部、20…カメラ装置、22…撮像部、24,35…通信部、30…携帯端末、36…測位部、40…オペレーション端末。 1 ... Monitoring system, 10 ... Server device, 11,21,31 ... Control unit, 12 ... First communication unit, 13 ... Second communication unit, 14, 23, 34 ... Storage unit, 111 ... Acquisition unit, 112 ... Recording Unit, 113 ... Abnormality detection unit, 114 ... Selection unit, 115 ... First position identification unit, 116 ... First generation unit, 117 ... First output unit, 118 ... Second position identification unit, 119 ... Second generation unit, 120 ... 2nd output unit, 20 ... camera device, 22 ... imaging unit, 24, 35 ... communication unit, 30 ... mobile terminal, 36 ... positioning unit, 40 ... operation terminal.

Claims (7)

監視エリアに設置されたカメラ装置により撮像された画像を取得する取得部と、
前記カメラ装置により過去に撮像された画像である過去画像を記憶する記憶部と、
前記監視エリアで発生した異常に対処する人員の現在位置を特定する第1位置特定部と、
前記特定した現在位置に基づいて、前記記憶された過去画像上に前記人員の現在位置を明示した第1画像を生成する第1生成部と、
前記第1画像を出力する第1出力部と
を備える監視システム。
An acquisition unit that acquires images captured by a camera device installed in the monitoring area,
A storage unit that stores past images, which are images captured in the past by the camera device,
The first position identification unit that specifies the current position of the personnel who deal with the abnormality that occurred in the monitoring area,
A first generation unit that generates a first image in which the current position of the personnel is clearly shown on the stored past image based on the specified current position.
A monitoring system including a first output unit that outputs the first image.
前記第1生成部は、少なくとも前記異常の発生時に撮像された異常時画像を含む前記過去画像上に、前記人員の現在位置を明示した前記第1画像を生成する
請求項1に記載の監視システム。
The monitoring system according to claim 1, wherein the first generation unit generates the first image in which the current position of the personnel is clearly indicated on the past image including at least the image at the time of abnormality captured when the abnormality occurs. ..
前記第1位置特定部は、前記対処する人員が所持する携帯端末の位置情報を取得し、当該位置情報に基づき前記画像上における人員の現在位置を特定する
ことを特徴とする請求項1又は2に記載の監視システム。
Claim 1 or 2 is characterized in that the first position specifying unit acquires the position information of the mobile terminal possessed by the person to be dealt with and identifies the current position of the person on the image based on the position information. The monitoring system described in.
前記第1位置特定部は、前記取得された画像に対する画像解析に基づき前記対処する人員を識別し、当該人員の前記画像上の現在位置を特定する
ことを特徴とする請求項1又は2に記載の監視システム。
The first position specifying unit according to claim 1 or 2, wherein the first position specifying unit identifies the person to be dealt with based on image analysis of the acquired image, and specifies the current position of the person on the image. Monitoring system.
前記監視エリア内の前記異常が発生した位置である異常位置を特定する第2位置特定部と、
前記特定した異常位置に基づいて、前記取得された現在の監視エリアが撮像された現画像上に前記異常位置を明示した第2画像を生成する第2生成部と、
前記第2画像を出力する第2出力部と
を備えることを特徴とする請求項1から4のいずれか1項に記載の監視システム。
A second position specifying unit that identifies the abnormal position in the monitoring area, which is the position where the abnormality has occurred,
Based on the identified abnormal position, a second generation unit that generates a second image in which the abnormal position is clearly shown on the current image in which the acquired current monitoring area is captured, and
The monitoring system according to any one of claims 1 to 4, further comprising a second output unit that outputs the second image.
前記第1生成部は、前記カメラ装置の撮像範囲における現在の混雑度合いが所定の条件を満たす場合に前記第1画像を生成する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の監視システム。
Any one of claims 1 to 5, wherein the first generation unit generates the first image when the current degree of congestion in the imaging range of the camera device satisfies a predetermined condition. The monitoring system described in.
監視エリアに設置されたカメラ装置により撮像された画像を取得するステップと、
前記カメラ装置により過去に撮像された画像である過去画像を記憶するステップと、
前記監視エリアで発生した異常に対処する人員の現在位置を特定するステップと、
前記特定した現在位置に基づいて、前記記憶された過去画像上に前記人員の現在位置を明示した第1画像を生成するステップと、
前記第1画像を出力するステップと
を備える監視方法。
Steps to acquire images captured by camera devices installed in the surveillance area,
A step of storing a past image, which is an image captured in the past by the camera device,
Steps to identify the current location of personnel to deal with anomalies that occur in the monitoring area,
A step of generating a first image in which the current position of the person is clearly shown on the stored past image based on the specified current position, and
A monitoring method including a step of outputting the first image.
JP2017032499A 2017-02-23 2017-02-23 Monitoring system and monitoring method Active JP6807247B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032499A JP6807247B2 (en) 2017-02-23 2017-02-23 Monitoring system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032499A JP6807247B2 (en) 2017-02-23 2017-02-23 Monitoring system and monitoring method

Publications (2)

Publication Number Publication Date
JP2018136872A JP2018136872A (en) 2018-08-30
JP6807247B2 true JP6807247B2 (en) 2021-01-06

Family

ID=63365596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032499A Active JP6807247B2 (en) 2017-02-23 2017-02-23 Monitoring system and monitoring method

Country Status (1)

Country Link
JP (1) JP6807247B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144738A (en) * 2019-03-08 2020-09-10 三菱電機株式会社 Security device and security method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1351174A4 (en) * 2001-01-12 2008-10-29 Secom Co Ltd Search supporting apparatus, search supporting system, operation instructing terminal, search supporting method, and operation instructing system
JP3898212B2 (en) * 2005-05-30 2007-03-28 財団法人砂防フロンティア整備推進機構 Position providing photo providing system and program thereof
JP2007243342A (en) * 2006-03-06 2007-09-20 Yokogawa Electric Corp Image-monitoring apparatus and image-monitoring system
JP2015228615A (en) * 2014-06-02 2015-12-17 パナソニックIpマネジメント株式会社 Object tracking method and object tracking system
CN105933656B (en) * 2016-05-16 2017-11-24 国网山东省电力公司菏泽供电公司 A kind of intelligent locating method on logistics personnel

Also Published As

Publication number Publication date
JP2018136872A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
CN108476304B (en) Discarded object monitoring device, discarded object monitoring system provided with same, and discarded object monitoring method
JP5150067B2 (en) Monitoring system, monitoring apparatus and monitoring method
JP2016100696A (en) Image processing device, image processing method, and image processing system
JP2018160219A (en) Moving route prediction device and method for predicting moving route
JP2020194493A (en) Monitoring system for nursing-care apparatus or hospital and monitoring method
JP4958600B2 (en) Watch system and masking method
CN111228706A (en) GIS-based building interior fire fighting equipment control method and device
JP6807247B2 (en) Monitoring system and monitoring method
WO2016194275A1 (en) Flow line analysis system, camera device, and flow line analysis method
WO2019176222A1 (en) Anomaly sensing system, anomaly sensing method, and anomaly sensing program
JP2015233204A (en) Image recording device and image recording method
JP6720010B2 (en) Information processing apparatus, information processing method, and program
JP6941458B2 (en) Monitoring system
JP6979643B2 (en) Surveillance video display system, surveillance video display device, surveillance information management server, and surveillance video display method
JP2020166590A (en) Monitoring system, monitoring device, monitoring method, and monitoring program
JP5824332B2 (en) Monitoring device
WO2020241034A1 (en) Monitoring system and monitoring method
JP2012208850A (en) Abnormality detection apparatus
JP6877176B2 (en) Monitoring system
JP5909709B1 (en) Flow line analysis system, camera device, and flow line analysis method
JP5909712B1 (en) Flow line analysis system, camera device, and flow line analysis method
JP2020074506A (en) Person behavior monitoring apparatus and person behavior monitoring system
JP6921550B2 (en) Monitoring system and monitoring method
JP6854150B2 (en) Monitoring system and monitoring method
JP6903451B2 (en) Monitoring system and monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200221

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250